Lines Matching refs:rdx

938 		     %ymm15, %rdx, (key_table)(CTX));
970 %ymm15, %rdx, (key_table)(CTX, %r8, 8));
1002 %ymm15, %rdx, (key_table)(CTX, %r8, 8));
1005 cmpq %rsi, %rdx;
1025 vinserti128 $1, (%rdx), %ymm7, %ymm7;
1028 vpxor (0 * 32 + 16)(%rdx), %ymm6, %ymm6;
1029 vpxor (1 * 32 + 16)(%rdx), %ymm5, %ymm5;
1030 vpxor (2 * 32 + 16)(%rdx), %ymm4, %ymm4;
1031 vpxor (3 * 32 + 16)(%rdx), %ymm3, %ymm3;
1032 vpxor (4 * 32 + 16)(%rdx), %ymm2, %ymm2;
1033 vpxor (5 * 32 + 16)(%rdx), %ymm1, %ymm1;
1034 vpxor (6 * 32 + 16)(%rdx), %ymm0, %ymm0;
1035 vpxor (7 * 32 + 16)(%rdx), %ymm15, %ymm15;
1036 vpxor (8 * 32 + 16)(%rdx), %ymm14, %ymm14;
1037 vpxor (9 * 32 + 16)(%rdx), %ymm13, %ymm13;
1038 vpxor (10 * 32 + 16)(%rdx), %ymm12, %ymm12;
1039 vpxor (11 * 32 + 16)(%rdx), %ymm11, %ymm11;
1040 vpxor (12 * 32 + 16)(%rdx), %ymm10, %ymm10;
1041 vpxor (13 * 32 + 16)(%rdx), %ymm9, %ymm9;
1042 vpxor (14 * 32 + 16)(%rdx), %ymm8, %ymm8;
1077 cmpq %rsi, %rdx;
1165 vpxor 0 * 32(%rdx), %ymm7, %ymm7;
1166 vpxor 1 * 32(%rdx), %ymm6, %ymm6;
1167 vpxor 2 * 32(%rdx), %ymm5, %ymm5;
1168 vpxor 3 * 32(%rdx), %ymm4, %ymm4;
1169 vpxor 4 * 32(%rdx), %ymm3, %ymm3;
1170 vpxor 5 * 32(%rdx), %ymm2, %ymm2;
1171 vpxor 6 * 32(%rdx), %ymm1, %ymm1;
1172 vpxor 7 * 32(%rdx), %ymm0, %ymm0;
1173 vpxor 8 * 32(%rdx), %ymm15, %ymm15;
1174 vpxor 9 * 32(%rdx), %ymm14, %ymm14;
1175 vpxor 10 * 32(%rdx), %ymm13, %ymm13;
1176 vpxor 11 * 32(%rdx), %ymm12, %ymm12;
1177 vpxor 12 * 32(%rdx), %ymm11, %ymm11;
1178 vpxor 13 * 32(%rdx), %ymm10, %ymm10;
1179 vpxor 14 * 32(%rdx), %ymm9, %ymm9;
1180 vpxor 15 * 32(%rdx), %ymm8, %ymm8;
1233 vpxor 0 * 32(%rdx), %ymm0, %ymm15;
1239 vpxor 1 * 32(%rdx), %ymm0, %ymm15;
1244 vpxor 2 * 32(%rdx), %ymm0, %ymm15;
1249 vpxor 3 * 32(%rdx), %ymm0, %ymm15;
1254 vpxor 4 * 32(%rdx), %ymm0, %ymm11;
1258 vpxor 5 * 32(%rdx), %ymm0, %ymm10;
1262 vpxor 6 * 32(%rdx), %ymm0, %ymm9;
1266 vpxor 7 * 32(%rdx), %ymm0, %ymm8;
1270 vpxor 8 * 32(%rdx), %ymm0, %ymm7;
1274 vpxor 9 * 32(%rdx), %ymm0, %ymm6;
1278 vpxor 10 * 32(%rdx), %ymm0, %ymm5;
1282 vpxor 11 * 32(%rdx), %ymm0, %ymm4;
1286 vpxor 12 * 32(%rdx), %ymm0, %ymm3;
1290 vpxor 13 * 32(%rdx), %ymm0, %ymm2;
1294 vpxor 14 * 32(%rdx), %ymm0, %ymm1;
1298 vpxor 15 * 32(%rdx), %ymm0, %ymm15;