1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193
|
; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
; RUN: sed 's/iXLen/i32/g' %s | llc -mtriple=riscv32 -mattr=+xtheadvdot \
; RUN: -verify-machineinstrs | FileCheck %s
; RUN: sed 's/iXLen/i64/g' %s | llc -mtriple=riscv64 -mattr=+xtheadvdot \
; RUN: -verify-machineinstrs | FileCheck %s
declare <vscale x 1 x i32> @llvm.riscv.th.vmaqaus.nxv1i32.i8(
<vscale x 1 x i32>,
i8,
<vscale x 4 x i8>,
iXLen,
iXLen);
define <vscale x 1 x i32> @intrinsic_th_vmaqaus_vx_nxv1i32_i8_nxv4i8(<vscale x 1 x i32> %0, i8 %1, <vscale x 4 x i8> %2, iXLen %3) nounwind {
; CHECK-LABEL: intrinsic_th_vmaqaus_vx_nxv1i32_i8_nxv4i8:
; CHECK: # %bb.0: # %entry
; CHECK-NEXT: vsetvli zero, a1, e32, mf2, tu, ma
; CHECK-NEXT: th.vmaqaus.vx v8, a0, v9
; CHECK-NEXT: ret
entry:
%a = call <vscale x 1 x i32> @llvm.riscv.th.vmaqaus.nxv1i32.i8(
<vscale x 1 x i32> %0,
i8 %1,
<vscale x 4 x i8> %2,
iXLen %3, iXLen 0)
ret <vscale x 1 x i32> %a
}
declare <vscale x 1 x i32> @llvm.riscv.th.vmaqaus.mask.nxv1i32.i8(
<vscale x 1 x i32>,
i8,
<vscale x 4 x i8>,
<vscale x 4 x i1>,
iXLen, iXLen);
define <vscale x 1 x i32> @intrinsic_th_vmaqaus_mask_vx_nxv1i32_i8_nxv4i8(<vscale x 1 x i32> %0, i8 %1, <vscale x 4 x i8> %2, <vscale x 4 x i1> %3, iXLen %4) nounwind {
; CHECK-LABEL: intrinsic_th_vmaqaus_mask_vx_nxv1i32_i8_nxv4i8:
; CHECK: # %bb.0: # %entry
; CHECK-NEXT: vsetvli zero, a1, e32, mf2, tu, mu
; CHECK-NEXT: th.vmaqaus.vx v8, a0, v9, v0.t
; CHECK-NEXT: ret
entry:
%a = call <vscale x 1 x i32> @llvm.riscv.th.vmaqaus.mask.nxv1i32.i8(
<vscale x 1 x i32> %0,
i8 %1,
<vscale x 4 x i8> %2,
<vscale x 4 x i1> %3,
iXLen %4, iXLen 0)
ret <vscale x 1 x i32> %a
}
declare <vscale x 2 x i32> @llvm.riscv.th.vmaqaus.nxv2i32.i8(
<vscale x 2 x i32>,
i8,
<vscale x 8 x i8>,
iXLen,
iXLen);
define <vscale x 2 x i32> @intrinsic_th_vmaqaus_vx_nxv2i32_i8_nxv8i8(<vscale x 2 x i32> %0, i8 %1, <vscale x 8 x i8> %2, iXLen %3) nounwind {
; CHECK-LABEL: intrinsic_th_vmaqaus_vx_nxv2i32_i8_nxv8i8:
; CHECK: # %bb.0: # %entry
; CHECK-NEXT: vsetvli zero, a1, e32, m1, tu, ma
; CHECK-NEXT: th.vmaqaus.vx v8, a0, v9
; CHECK-NEXT: ret
entry:
%a = call <vscale x 2 x i32> @llvm.riscv.th.vmaqaus.nxv2i32.i8(
<vscale x 2 x i32> %0,
i8 %1,
<vscale x 8 x i8> %2,
iXLen %3, iXLen 0)
ret <vscale x 2 x i32> %a
}
declare <vscale x 2 x i32> @llvm.riscv.th.vmaqaus.mask.nxv2i32.i8(
<vscale x 2 x i32>,
i8,
<vscale x 8 x i8>,
<vscale x 8 x i1>,
iXLen, iXLen);
define <vscale x 2 x i32> @intrinsic_th_vmaqaus_mask_vx_nxv2i32_i8_nxv8i8(<vscale x 2 x i32> %0, i8 %1, <vscale x 8 x i8> %2, <vscale x 8 x i1> %3, iXLen %4) nounwind {
; CHECK-LABEL: intrinsic_th_vmaqaus_mask_vx_nxv2i32_i8_nxv8i8:
; CHECK: # %bb.0: # %entry
; CHECK-NEXT: vsetvli zero, a1, e32, m1, tu, mu
; CHECK-NEXT: th.vmaqaus.vx v8, a0, v9, v0.t
; CHECK-NEXT: ret
entry:
%a = call <vscale x 2 x i32> @llvm.riscv.th.vmaqaus.mask.nxv2i32.i8(
<vscale x 2 x i32> %0,
i8 %1,
<vscale x 8 x i8> %2,
<vscale x 8 x i1> %3,
iXLen %4, iXLen 0)
ret <vscale x 2 x i32> %a
}
declare <vscale x 4 x i32> @llvm.riscv.th.vmaqaus.nxv4i32.i8(
<vscale x 4 x i32>,
i8,
<vscale x 16 x i8>,
iXLen,
iXLen);
define <vscale x 4 x i32> @intrinsic_th_vmaqaus_vx_nxv4i32_i8_nxv16i8(<vscale x 4 x i32> %0, i8 %1, <vscale x 16 x i8> %2, iXLen %3) nounwind {
; CHECK-LABEL: intrinsic_th_vmaqaus_vx_nxv4i32_i8_nxv16i8:
; CHECK: # %bb.0: # %entry
; CHECK-NEXT: vsetvli zero, a1, e32, m2, tu, ma
; CHECK-NEXT: th.vmaqaus.vx v8, a0, v10
; CHECK-NEXT: ret
entry:
%a = call <vscale x 4 x i32> @llvm.riscv.th.vmaqaus.nxv4i32.i8(
<vscale x 4 x i32> %0,
i8 %1,
<vscale x 16 x i8> %2,
iXLen %3, iXLen 0)
ret <vscale x 4 x i32> %a
}
declare <vscale x 4 x i32> @llvm.riscv.th.vmaqaus.mask.nxv4i32.i8(
<vscale x 4 x i32>,
i8,
<vscale x 16 x i8>,
<vscale x 16 x i1>,
iXLen, iXLen);
define <vscale x 4 x i32> @intrinsic_th_vmaqaus_mask_vx_nxv4i32_i8_nxv16i8(<vscale x 4 x i32> %0, i8 %1, <vscale x 16 x i8> %2, <vscale x 16 x i1> %3, iXLen %4) nounwind {
; CHECK-LABEL: intrinsic_th_vmaqaus_mask_vx_nxv4i32_i8_nxv16i8:
; CHECK: # %bb.0: # %entry
; CHECK-NEXT: vsetvli zero, a1, e32, m2, tu, mu
; CHECK-NEXT: th.vmaqaus.vx v8, a0, v10, v0.t
; CHECK-NEXT: ret
entry:
%a = call <vscale x 4 x i32> @llvm.riscv.th.vmaqaus.mask.nxv4i32.i8(
<vscale x 4 x i32> %0,
i8 %1,
<vscale x 16 x i8> %2,
<vscale x 16 x i1> %3,
iXLen %4, iXLen 0)
ret <vscale x 4 x i32> %a
}
declare <vscale x 8 x i32> @llvm.riscv.th.vmaqaus.nxv8i32.i8(
<vscale x 8 x i32>,
i8,
<vscale x 32 x i8>,
iXLen,
iXLen);
define <vscale x 8 x i32> @intrinsic_th_vmaqaus_vx_nxv8i32_i8_nxv32i8(<vscale x 8 x i32> %0, i8 %1, <vscale x 32 x i8> %2, iXLen %3) nounwind {
; CHECK-LABEL: intrinsic_th_vmaqaus_vx_nxv8i32_i8_nxv32i8:
; CHECK: # %bb.0: # %entry
; CHECK-NEXT: vsetvli zero, a1, e32, m4, tu, ma
; CHECK-NEXT: th.vmaqaus.vx v8, a0, v12
; CHECK-NEXT: ret
entry:
%a = call <vscale x 8 x i32> @llvm.riscv.th.vmaqaus.nxv8i32.i8(
<vscale x 8 x i32> %0,
i8 %1,
<vscale x 32 x i8> %2,
iXLen %3, iXLen 0)
ret <vscale x 8 x i32> %a
}
declare <vscale x 8 x i32> @llvm.riscv.th.vmaqaus.mask.nxv8i32.i8(
<vscale x 8 x i32>,
i8,
<vscale x 32 x i8>,
<vscale x 32 x i1>,
iXLen, iXLen);
define <vscale x 8 x i32> @intrinsic_th_vmaqaus_mask_vx_nxv8i32_i8_nxv32i8(<vscale x 8 x i32> %0, i8 %1, <vscale x 32 x i8> %2, <vscale x 32 x i1> %3, iXLen %4) nounwind {
; CHECK-LABEL: intrinsic_th_vmaqaus_mask_vx_nxv8i32_i8_nxv32i8:
; CHECK: # %bb.0: # %entry
; CHECK-NEXT: vsetvli zero, a1, e32, m4, tu, mu
; CHECK-NEXT: th.vmaqaus.vx v8, a0, v12, v0.t
; CHECK-NEXT: ret
entry:
%a = call <vscale x 8 x i32> @llvm.riscv.th.vmaqaus.mask.nxv8i32.i8(
<vscale x 8 x i32> %0,
i8 %1,
<vscale x 32 x i8> %2,
<vscale x 32 x i1> %3,
iXLen %4, iXLen 0)
ret <vscale x 8 x i32> %a
}
|