Lines Matching refs:esi

54 	pushl_cfi_reg esi
58 movl 12(%esp),%esi # Function arg: unsigned char *buff
59 testl $3, %esi # Check alignment.
61 testl $1, %esi # Check alignment.
67 movzbl (%esi), %ebx
70 inc %esi
71 testl $2, %esi
78 1: movw (%esi), %bx
79 addl $2, %esi
86 testl %esi, %esi
87 1: movl (%esi), %ebx
89 movl 4(%esi), %ebx
91 movl 8(%esi), %ebx
93 movl 12(%esi), %ebx
95 movl 16(%esi), %ebx
97 movl 20(%esi), %ebx
99 movl 24(%esi), %ebx
101 movl 28(%esi), %ebx
103 lea 32(%esi), %esi
111 3: adcl (%esi), %eax
112 lea 4(%esi), %esi
120 movw (%esi),%cx
121 leal 2(%esi),%esi
124 5: movb (%esi),%cl
133 popl_cfi_reg esi
144 pushl_cfi_reg esi
148 movl 12(%esp),%esi # Function arg: const unsigned char *buf
150 testl $3, %esi
157 addl %ebx,%esi
161 testl %esi, %esi
165 20: addw (%esi), %ax
166 lea 2(%esi), %esi
170 testl $1, %esi
175 movzbl (%esi), %ebx
179 inc %esi
180 testl $2, %esi
188 movzbl (%esi),%ebx # csumming 1 byte, 2-aligned
193 addw (%esi), %ax # csumming 2 bytes, 2-aligned
198 addl -128(%esi), %eax
199 adcl -124(%esi), %eax
200 adcl -120(%esi), %eax
201 adcl -116(%esi), %eax
202 adcl -112(%esi), %eax
203 adcl -108(%esi), %eax
204 adcl -104(%esi), %eax
205 adcl -100(%esi), %eax
206 adcl -96(%esi), %eax
207 adcl -92(%esi), %eax
208 adcl -88(%esi), %eax
209 adcl -84(%esi), %eax
210 adcl -80(%esi), %eax
211 adcl -76(%esi), %eax
212 adcl -72(%esi), %eax
213 adcl -68(%esi), %eax
214 adcl -64(%esi), %eax
215 adcl -60(%esi), %eax
216 adcl -56(%esi), %eax
217 adcl -52(%esi), %eax
218 adcl -48(%esi), %eax
219 adcl -44(%esi), %eax
220 adcl -40(%esi), %eax
221 adcl -36(%esi), %eax
222 adcl -32(%esi), %eax
223 adcl -28(%esi), %eax
224 adcl -24(%esi), %eax
225 adcl -20(%esi), %eax
226 adcl -16(%esi), %eax
227 adcl -12(%esi), %eax
228 adcl -8(%esi), %eax
229 adcl -4(%esi), %eax
231 lea 128(%esi), %esi
244 andl -128(%esi),%ebx # esi is 4-aligned so should be ok
253 popl_cfi_reg esi
294 pushl_cfi_reg esi
298 movl ARGBASE+4(%esp),%esi # src
307 SRC(1: movw (%esi), %bx )
308 addl $2, %esi
317 testl %esi, %esi
318 SRC(1: movl (%esi), %ebx )
319 SRC( movl 4(%esi), %edx )
325 SRC( movl 8(%esi), %ebx )
326 SRC( movl 12(%esi), %edx )
332 SRC( movl 16(%esi), %ebx )
333 SRC( movl 20(%esi), %edx )
339 SRC( movl 24(%esi), %ebx )
340 SRC( movl 28(%esi), %edx )
346 lea 32(%esi), %esi
356 SRC(3: movl (%esi), %ebx )
359 lea 4(%esi), %esi
368 SRC( movw (%esi), %cx )
369 leal 2(%esi), %esi
374 SRC(5: movb (%esi), %cl )
405 popl_cfi_reg esi
417 SRC(movl x(%esi), %ebx ) ; \
422 SRC(movl x(%esi), %ebx ) ; \
432 pushl_cfi_reg esi
433 movl ARGBASE+4(%esp),%esi #src
439 movl %esi, %edx
443 subl %ebx, %esi
445 lea -1(%esi),%edx
448 testl %esi, %esi
450 1: addl $64,%esi
466 SRC( movw (%esi), %dx )
467 leal 2(%esi), %esi
473 SRC( movb (%esi), %dl )
492 popl_cfi_reg esi