cleanup of dgemv_n_bulldozer.S and optimization of inner loop

This commit is contained in:
wernsaar 2013-06-16 12:50:45 +02:00
parent f67fa62851
commit 7c8227101b
1 changed files with 168 additions and 248 deletions

View File

@ -40,6 +40,8 @@
#include "common.h" #include "common.h"
#include "l2param.h" #include "l2param.h"
#undef ALIGNED_ACCESS
#define A_PRE 256 #define A_PRE 256
#define VMOVUPS_A1(OFF, ADDR, REGS) vmovups OFF(ADDR), REGS #define VMOVUPS_A1(OFF, ADDR, REGS) vmovups OFF(ADDR), REGS
@ -304,11 +306,6 @@
sarq $3, I sarq $3, I
jle .L15 jle .L15
VMOVUPS_A1(-16 * SIZE, A1, %xmm4)
VMOVUPS_A1(-14 * SIZE, A1, %xmm5)
VMOVUPS_A1(-12 * SIZE, A1, %xmm6)
VMOVUPS_A1(-10 * SIZE, A1, %xmm7)
VMOVUPS_YL1(-16 * SIZE, Y1, %xmm0) VMOVUPS_YL1(-16 * SIZE, Y1, %xmm0)
VMOVUPS_YL1(-14 * SIZE, Y1, %xmm1) VMOVUPS_YL1(-14 * SIZE, Y1, %xmm1)
VMOVUPS_YL1(-12 * SIZE, Y1, %xmm2) VMOVUPS_YL1(-12 * SIZE, Y1, %xmm2)
@ -316,105 +313,60 @@
decq I decq I
jle .L14 jle .L14
ALIGN_3 .align 32
.L13: .L13:
vfmaddpd %xmm0 , %xmm8 , %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm8 , %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm8 , %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm8 , %xmm7 , %xmm3
VMOVUPS_A2(-16 * SIZE, A1, LDA, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A1, LDA, 1, %xmm5)
prefetchnta A_PRE(A1,LDA,1)
VMOVUPS_A2(-12 * SIZE, A1, LDA, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A1, LDA, 1, %xmm7)
vfmaddpd %xmm0 , %xmm9 , %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm9 , %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm9 , %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm9 , %xmm7 , %xmm3
VMOVUPS_A2(-16 * SIZE, A1, LDA, 2, %xmm4)
VMOVUPS_A2(-14 * SIZE, A1, LDA, 2, %xmm5)
prefetchnta A_PRE(A1,LDA,2)
VMOVUPS_A2(-12 * SIZE, A1, LDA, 2, %xmm6)
VMOVUPS_A2(-10 * SIZE, A1, LDA, 2, %xmm7)
vfmaddpd %xmm0 , %xmm10, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm10, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm10, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm10, %xmm7 , %xmm3
VMOVUPS_A2(-16 * SIZE, A1, LDA3, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A1, LDA3, 1, %xmm5)
prefetchnta A_PRE(A1,LDA3,1)
VMOVUPS_A2(-12 * SIZE, A1, LDA3, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A1, LDA3, 1, %xmm7)
vfmaddpd %xmm0 , %xmm11, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm11, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm11, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm11, %xmm7 , %xmm3
VMOVUPS_A1(-16 * SIZE, A2, %xmm4)
VMOVUPS_A1(-14 * SIZE, A2, %xmm5)
prefetchnta A_PRE(A2)
VMOVUPS_A1(-12 * SIZE, A2, %xmm6)
VMOVUPS_A1(-10 * SIZE, A2, %xmm7)
vfmaddpd %xmm0 , %xmm12, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm12, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm12, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm12, %xmm7 , %xmm3
VMOVUPS_A2(-16 * SIZE, A2, LDA, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA, 1, %xmm5)
prefetchnta A_PRE(A2,LDA,1)
VMOVUPS_A2(-12 * SIZE, A2, LDA, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA, 1, %xmm7)
vfmaddpd %xmm0 , %xmm13, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm13, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm13, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm13, %xmm7 , %xmm3
VMOVUPS_A2(-16 * SIZE, A2, LDA, 2, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA, 2, %xmm5)
prefetchnta A_PRE(A2,LDA,2)
VMOVUPS_A2(-12 * SIZE, A2, LDA, 2, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA, 2, %xmm7)
vfmaddpd %xmm0 , %xmm14, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm14, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm14, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm14, %xmm7 , %xmm3
VMOVUPS_A2(-16 * SIZE, A2, LDA3, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA3, 1, %xmm5)
prefetchnta A_PRE(A2,LDA3,1)
VMOVUPS_A2(-12 * SIZE, A2, LDA3, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA3, 1, %xmm7)
vfmaddpd %xmm0 , %xmm15, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm15, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm15, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm15, %xmm7 , %xmm3
VMOVUPS_A1( -8 * SIZE, A1, %xmm4)
VMOVUPS_A1( -6 * SIZE, A1, %xmm5)
prefetchnta A_PRE(A1) prefetchnta A_PRE(A1)
VMOVUPS_A1( -4 * SIZE, A1, %xmm6) vfmaddpd %xmm0 , -16 * SIZE(A1) , %xmm8, %xmm0
VMOVUPS_A1( -2 * SIZE, A1, %xmm7) vfmaddpd %xmm1 , -14 * SIZE(A1) , %xmm8, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1) , %xmm8, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1) , %xmm8, %xmm3
nop
prefetchnta A_PRE(A1,LDA,1)
vfmaddpd %xmm0 , -16 * SIZE(A1, LDA, 1) , %xmm9 , %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A1, LDA, 1) , %xmm9 , %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1, LDA, 1) , %xmm9 , %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1, LDA, 1) , %xmm9 , %xmm3
prefetchnta A_PRE(A1,LDA,2)
vfmaddpd %xmm0 , -16 * SIZE(A1, LDA, 2) , %xmm10, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A1, LDA, 2) , %xmm10, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1, LDA, 2) , %xmm10, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1, LDA, 2) , %xmm10, %xmm3
prefetchnta A_PRE(A1,LDA3,1)
vfmaddpd %xmm0 , -16 * SIZE(A1, LDA3, 1) , %xmm11, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A1, LDA3, 1) , %xmm11, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1, LDA3, 1) , %xmm11, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1, LDA3, 1) , %xmm11, %xmm3
prefetchnta A_PRE(A2)
vfmaddpd %xmm0 , -16 * SIZE(A2) , %xmm12, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2) , %xmm12, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2) , %xmm12, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2) , %xmm12, %xmm3
nop
prefetchnta A_PRE(A2,LDA,1)
vfmaddpd %xmm0 , -16 * SIZE(A2, LDA, 1) , %xmm13, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2, LDA, 1) , %xmm13, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2, LDA, 1) , %xmm13, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2, LDA, 1) , %xmm13, %xmm3
prefetchnta A_PRE(A2,LDA,2)
vfmaddpd %xmm0 , -16 * SIZE(A2, LDA, 2) , %xmm14, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2, LDA, 2) , %xmm14, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2, LDA, 2) , %xmm14, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2, LDA, 2) , %xmm14, %xmm3
prefetchnta A_PRE(A2,LDA3,1)
vfmaddpd %xmm0 , -16 * SIZE(A2, LDA3, 1) , %xmm15, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2, LDA3, 1) , %xmm15, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2, LDA3, 1) , %xmm15, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2, LDA3, 1) , %xmm15, %xmm3
VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0) VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
@ -439,80 +391,48 @@
ALIGN_3 ALIGN_3
.L14: .L14:
vfmaddpd %xmm0 , %xmm8 , %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm8 , %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm8 , %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm8 , %xmm7 , %xmm3
VMOVUPS_A2(-16 * SIZE, A1, LDA, 1, %xmm4) vfmaddpd %xmm0 , -16 * SIZE(A1) , %xmm8, %xmm0
VMOVUPS_A2(-14 * SIZE, A1, LDA, 1, %xmm5) vfmaddpd %xmm1 , -14 * SIZE(A1) , %xmm8, %xmm1
VMOVUPS_A2(-12 * SIZE, A1, LDA, 1, %xmm6) vfmaddpd %xmm2 , -12 * SIZE(A1) , %xmm8, %xmm2
VMOVUPS_A2(-10 * SIZE, A1, LDA, 1, %xmm7) vfmaddpd %xmm3 , -10 * SIZE(A1) , %xmm8, %xmm3
vfmaddpd %xmm0 , %xmm9 , %xmm4 , %xmm0 vfmaddpd %xmm0 , -16 * SIZE(A1, LDA, 1) , %xmm9 , %xmm0
vfmaddpd %xmm1 , %xmm9 , %xmm5 , %xmm1 vfmaddpd %xmm1 , -14 * SIZE(A1, LDA, 1) , %xmm9 , %xmm1
vfmaddpd %xmm2 , %xmm9 , %xmm6 , %xmm2 vfmaddpd %xmm2 , -12 * SIZE(A1, LDA, 1) , %xmm9 , %xmm2
vfmaddpd %xmm3 , %xmm9 , %xmm7 , %xmm3 vfmaddpd %xmm3 , -10 * SIZE(A1, LDA, 1) , %xmm9 , %xmm3
VMOVUPS_A2(-16 * SIZE, A1, LDA, 2, %xmm4) vfmaddpd %xmm0 , -16 * SIZE(A1, LDA, 2) , %xmm10, %xmm0
VMOVUPS_A2(-14 * SIZE, A1, LDA, 2, %xmm5) vfmaddpd %xmm1 , -14 * SIZE(A1, LDA, 2) , %xmm10, %xmm1
VMOVUPS_A2(-12 * SIZE, A1, LDA, 2, %xmm6) vfmaddpd %xmm2 , -12 * SIZE(A1, LDA, 2) , %xmm10, %xmm2
VMOVUPS_A2(-10 * SIZE, A1, LDA, 2, %xmm7) vfmaddpd %xmm3 , -10 * SIZE(A1, LDA, 2) , %xmm10, %xmm3
vfmaddpd %xmm0 , %xmm10, %xmm4 , %xmm0 vfmaddpd %xmm0 , -16 * SIZE(A1, LDA3, 1) , %xmm11, %xmm0
vfmaddpd %xmm1 , %xmm10, %xmm5 , %xmm1 vfmaddpd %xmm1 , -14 * SIZE(A1, LDA3, 1) , %xmm11, %xmm1
vfmaddpd %xmm2 , %xmm10, %xmm6 , %xmm2 vfmaddpd %xmm2 , -12 * SIZE(A1, LDA3, 1) , %xmm11, %xmm2
vfmaddpd %xmm3 , %xmm10, %xmm7 , %xmm3 vfmaddpd %xmm3 , -10 * SIZE(A1, LDA3, 1) , %xmm11, %xmm3
VMOVUPS_A2(-16 * SIZE, A1, LDA3, 1, %xmm4) vfmaddpd %xmm0 , -16 * SIZE(A2) , %xmm12, %xmm0
VMOVUPS_A2(-14 * SIZE, A1, LDA3, 1, %xmm5) vfmaddpd %xmm1 , -14 * SIZE(A2) , %xmm12, %xmm1
VMOVUPS_A2(-12 * SIZE, A1, LDA3, 1, %xmm6) vfmaddpd %xmm2 , -12 * SIZE(A2) , %xmm12, %xmm2
VMOVUPS_A2(-10 * SIZE, A1, LDA3, 1, %xmm7) vfmaddpd %xmm3 , -10 * SIZE(A2) , %xmm12, %xmm3
vfmaddpd %xmm0 , %xmm11, %xmm4 , %xmm0 vfmaddpd %xmm0 , -16 * SIZE(A2, LDA, 1) , %xmm13, %xmm0
vfmaddpd %xmm1 , %xmm11, %xmm5 , %xmm1 vfmaddpd %xmm1 , -14 * SIZE(A2, LDA, 1) , %xmm13, %xmm1
vfmaddpd %xmm2 , %xmm11, %xmm6 , %xmm2 vfmaddpd %xmm2 , -12 * SIZE(A2, LDA, 1) , %xmm13, %xmm2
vfmaddpd %xmm3 , %xmm11, %xmm7 , %xmm3 vfmaddpd %xmm3 , -10 * SIZE(A2, LDA, 1) , %xmm13, %xmm3
VMOVUPS_A1(-16 * SIZE, A2, %xmm4) vfmaddpd %xmm0 , -16 * SIZE(A2, LDA, 2) , %xmm14, %xmm0
VMOVUPS_A1(-14 * SIZE, A2, %xmm5) vfmaddpd %xmm1 , -14 * SIZE(A2, LDA, 2) , %xmm14, %xmm1
VMOVUPS_A1(-12 * SIZE, A2, %xmm6) vfmaddpd %xmm2 , -12 * SIZE(A2, LDA, 2) , %xmm14, %xmm2
VMOVUPS_A1(-10 * SIZE, A2, %xmm7) vfmaddpd %xmm3 , -10 * SIZE(A2, LDA, 2) , %xmm14, %xmm3
vfmaddpd %xmm0 , %xmm12, %xmm4 , %xmm0 vfmaddpd %xmm0 , -16 * SIZE(A2, LDA3, 1) , %xmm15, %xmm0
vfmaddpd %xmm1 , %xmm12, %xmm5 , %xmm1 vfmaddpd %xmm1 , -14 * SIZE(A2, LDA3, 1) , %xmm15, %xmm1
vfmaddpd %xmm2 , %xmm12, %xmm6 , %xmm2 vfmaddpd %xmm2 , -12 * SIZE(A2, LDA3, 1) , %xmm15, %xmm2
vfmaddpd %xmm3 , %xmm12, %xmm7 , %xmm3 vfmaddpd %xmm3 , -10 * SIZE(A2, LDA3, 1) , %xmm15, %xmm3
VMOVUPS_A2(-16 * SIZE, A2, LDA, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA, 1, %xmm5)
VMOVUPS_A2(-12 * SIZE, A2, LDA, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA, 1, %xmm7)
vfmaddpd %xmm0 , %xmm13, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm13, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm13, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm13, %xmm7 , %xmm3
VMOVUPS_A2(-16 * SIZE, A2, LDA, 2, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA, 2, %xmm5)
VMOVUPS_A2(-12 * SIZE, A2, LDA, 2, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA, 2, %xmm7)
vfmaddpd %xmm0 , %xmm14, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm14, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm14, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm14, %xmm7 , %xmm3
VMOVUPS_A2(-16 * SIZE, A2, LDA3, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA3, 1, %xmm5)
VMOVUPS_A2(-12 * SIZE, A2, LDA3, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA3, 1, %xmm7)
vfmaddpd %xmm0 , %xmm15, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm15, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm15, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm15, %xmm7 , %xmm3
VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0) VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
VMOVUPS_YS1(-14 * SIZE, Y1, %xmm1) VMOVUPS_YS1(-14 * SIZE, Y1, %xmm1)
@ -1364,8 +1284,8 @@
ALIGN_3 ALIGN_3
.L5X: .L5X:
movhpd -16 * SIZE(A1, LDA), %xmm8 vmovhpd -16 * SIZE(A1, LDA), %xmm8, %xmm8
movhpd -16 * SIZE(A2, LDA), %xmm9 vmovhpd -16 * SIZE(A2, LDA), %xmm9, %xmm9
movq MM, I movq MM, I
sarq $3, I sarq $3, I
@ -1400,18 +1320,18 @@
VMOVUPS_A2(-11 * SIZE, A1, LDA, 1, %xmm6) VMOVUPS_A2(-11 * SIZE, A1, LDA, 1, %xmm6)
shufpd $1, %xmm4, %xmm8 vshufpd $0x01, %xmm4, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0 vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
VMOVUPS_A2( -9 * SIZE, A1, LDA, 1, %xmm8) VMOVUPS_A2( -9 * SIZE, A1, LDA, 1, %xmm8)
shufpd $1, %xmm5, %xmm4 vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1 vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1
VMOVUPS_A1(-16 * SIZE, A2, %xmm4) VMOVUPS_A1(-16 * SIZE, A2, %xmm4)
prefetchnta A_PRE(A2) prefetchnta A_PRE(A2)
shufpd $1, %xmm6, %xmm5 vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2 vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2
VMOVUPS_A1(-14 * SIZE, A2, %xmm5) VMOVUPS_A1(-14 * SIZE, A2, %xmm5)
shufpd $1, %xmm8, %xmm6 vshufpd $0x01, %xmm8, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3 vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3
VMOVUPS_A1(-12 * SIZE, A2, %xmm6) VMOVUPS_A1(-12 * SIZE, A2, %xmm6)
@ -1428,18 +1348,18 @@
VMOVUPS_A2(-11 * SIZE, A2, LDA, 1, %xmm6) VMOVUPS_A2(-11 * SIZE, A2, LDA, 1, %xmm6)
shufpd $1, %xmm4, %xmm9 vshufpd $0x01, %xmm4, %xmm9, %xmm9
vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0 vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0
VMOVUPS_A2( -9 * SIZE, A2, LDA, 1, %xmm9) VMOVUPS_A2( -9 * SIZE, A2, LDA, 1, %xmm9)
shufpd $1, %xmm5, %xmm4 vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm15 , %xmm4 , %xmm1 vfmaddpd %xmm1 , %xmm15 , %xmm4 , %xmm1
VMOVUPS_A1( -8 * SIZE, A1, %xmm4) VMOVUPS_A1( -8 * SIZE, A1, %xmm4)
prefetchnta A_PRE(A1) prefetchnta A_PRE(A1)
shufpd $1, %xmm6, %xmm5 vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm15 , %xmm5 , %xmm2 vfmaddpd %xmm2 , %xmm15 , %xmm5 , %xmm2
VMOVUPS_A1( -6 * SIZE, A1, %xmm5) VMOVUPS_A1( -6 * SIZE, A1, %xmm5)
shufpd $1, %xmm9, %xmm6 vshufpd $0x01, %xmm9, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm15 , %xmm6 , %xmm3 vfmaddpd %xmm3 , %xmm15 , %xmm6 , %xmm3
VMOVUPS_A1( -4 * SIZE, A1, %xmm6) VMOVUPS_A1( -4 * SIZE, A1, %xmm6)
@ -1477,17 +1397,17 @@
vfmaddpd %xmm3 , %xmm12 , %xmm7 , %xmm3 vfmaddpd %xmm3 , %xmm12 , %xmm7 , %xmm3
VMOVUPS_A2(-11 * SIZE, A1, LDA, 1, %xmm6) VMOVUPS_A2(-11 * SIZE, A1, LDA, 1, %xmm6)
shufpd $1, %xmm4, %xmm8 vshufpd $0x01, %xmm4, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0 vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
VMOVUPS_A2( -9 * SIZE, A1, LDA, 1, %xmm8) VMOVUPS_A2( -9 * SIZE, A1, LDA, 1, %xmm8)
shufpd $1, %xmm5, %xmm4 vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1 vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1
VMOVUPS_A1(-16 * SIZE, A2, %xmm4) VMOVUPS_A1(-16 * SIZE, A2, %xmm4)
shufpd $1, %xmm6, %xmm5 vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2 vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2
VMOVUPS_A1(-14 * SIZE, A2, %xmm5) VMOVUPS_A1(-14 * SIZE, A2, %xmm5)
shufpd $1, %xmm8, %xmm6 vshufpd $0x01, %xmm8, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3 vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3
VMOVUPS_A1(-12 * SIZE, A2, %xmm6) VMOVUPS_A1(-12 * SIZE, A2, %xmm6)
@ -1501,15 +1421,15 @@
vfmaddpd %xmm3 , %xmm14 , %xmm7 , %xmm3 vfmaddpd %xmm3 , %xmm14 , %xmm7 , %xmm3
VMOVUPS_A2(-11 * SIZE, A2, LDA, 1, %xmm6) VMOVUPS_A2(-11 * SIZE, A2, LDA, 1, %xmm6)
shufpd $1, %xmm4, %xmm9 vshufpd $0x01, %xmm4, %xmm9, %xmm9
vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0 vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0
VMOVUPS_A2( -9 * SIZE, A2, LDA, 1, %xmm9) VMOVUPS_A2( -9 * SIZE, A2, LDA, 1, %xmm9)
shufpd $1, %xmm5, %xmm4 vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm15 , %xmm4 , %xmm1 vfmaddpd %xmm1 , %xmm15 , %xmm4 , %xmm1
shufpd $1, %xmm6, %xmm5 vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm15 , %xmm5 , %xmm2 vfmaddpd %xmm2 , %xmm15 , %xmm5 , %xmm2
shufpd $1, %xmm9, %xmm6 vshufpd $0x01, %xmm9, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm15 , %xmm6 , %xmm3 vfmaddpd %xmm3 , %xmm15 , %xmm6 , %xmm3
VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0) VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
@ -1538,10 +1458,10 @@
VMOVUPS_A2(-15 * SIZE, A1, LDA, 1, %xmm6) VMOVUPS_A2(-15 * SIZE, A1, LDA, 1, %xmm6)
VMOVUPS_A2(-13 * SIZE, A1, LDA, 1, %xmm7) VMOVUPS_A2(-13 * SIZE, A1, LDA, 1, %xmm7)
shufpd $1, %xmm6, %xmm8 vshufpd $0x01, %xmm6, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0 vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
movaps %xmm7, %xmm8 movaps %xmm7, %xmm8
shufpd $1, %xmm7, %xmm6 vshufpd $0x01, %xmm7, %xmm6, %xmm6
vfmaddpd %xmm1 , %xmm13 , %xmm6 , %xmm1 vfmaddpd %xmm1 , %xmm13 , %xmm6 , %xmm1
VMOVUPS_A1(-16 * SIZE, A2, %xmm4) VMOVUPS_A1(-16 * SIZE, A2, %xmm4)
@ -1553,10 +1473,10 @@
VMOVUPS_A2(-15 * SIZE, A2, LDA, 1, %xmm6) VMOVUPS_A2(-15 * SIZE, A2, LDA, 1, %xmm6)
VMOVUPS_A2(-13 * SIZE, A2, LDA, 1, %xmm7) VMOVUPS_A2(-13 * SIZE, A2, LDA, 1, %xmm7)
shufpd $1, %xmm6, %xmm9 vshufpd $0x01, %xmm6, %xmm9, %xmm9
vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0 vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0
movaps %xmm7, %xmm9 movaps %xmm7, %xmm9
shufpd $1, %xmm7, %xmm6 vshufpd $0x01, %xmm7, %xmm6, %xmm6
vfmaddpd %xmm1 , %xmm15 , %xmm6 , %xmm1 vfmaddpd %xmm1 , %xmm15 , %xmm6 , %xmm1
VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0) VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
@ -1579,11 +1499,11 @@
VMOVUPS_YL1(-16 * SIZE, Y1, %xmm0) VMOVUPS_YL1(-16 * SIZE, Y1, %xmm0)
vfmaddpd %xmm0 , %xmm12 , %xmm4 , %xmm0 vfmaddpd %xmm0 , %xmm12 , %xmm4 , %xmm0
shufpd $1, %xmm5, %xmm8 vshufpd $0x01, %xmm5, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0 vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
movaps %xmm5, %xmm8 movaps %xmm5, %xmm8
vfmaddpd %xmm0 , %xmm14 , %xmm6 , %xmm0 vfmaddpd %xmm0 , %xmm14 , %xmm6 , %xmm0
shufpd $1, %xmm7, %xmm9 vshufpd $0x01, %xmm7, %xmm9, %xmm9
vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0 vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0
movaps %xmm7, %xmm9 movaps %xmm7, %xmm9
@ -1601,9 +1521,9 @@
vmovsd -16 * SIZE(Y1), %xmm0 vmovsd -16 * SIZE(Y1), %xmm0
vmovsd -16 * SIZE(A1), %xmm4 vmovsd -16 * SIZE(A1), %xmm4
shufpd $1, %xmm8, %xmm8 vshufpd $0x01, %xmm8, %xmm8, %xmm8
vmovsd -16 * SIZE(A2), %xmm6 vmovsd -16 * SIZE(A2), %xmm6
shufpd $1, %xmm9, %xmm9 vshufpd $0x01, %xmm9, %xmm9, %xmm9
vfmaddsd %xmm0 , %xmm12 , %xmm4 , %xmm0 vfmaddsd %xmm0 , %xmm12 , %xmm4 , %xmm0
vfmaddsd %xmm0 , %xmm13 , %xmm8 , %xmm0 vfmaddsd %xmm0 , %xmm13 , %xmm8 , %xmm0
@ -1668,7 +1588,7 @@
ALIGN_3 ALIGN_3
.L6X: .L6X:
movhpd -16 * SIZE(A2), %xmm8 vmovhpd -16 * SIZE(A2), %xmm8, %xmm8
movq MM, I movq MM, I
sarq $3, I sarq $3, I
@ -1701,18 +1621,18 @@
VMOVUPS_A1(-11 * SIZE, A2, %xmm6) VMOVUPS_A1(-11 * SIZE, A2, %xmm6)
shufpd $1, %xmm4, %xmm8 vshufpd $0x01, %xmm4, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0 vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
VMOVUPS_A1( -9 * SIZE, A2, %xmm8) VMOVUPS_A1( -9 * SIZE, A2, %xmm8)
shufpd $1, %xmm5, %xmm4 vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1 vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1
VMOVUPS_A1( -8 * SIZE, A1, %xmm4) VMOVUPS_A1( -8 * SIZE, A1, %xmm4)
prefetchnta A_PRE(A1) prefetchnta A_PRE(A1)
shufpd $1, %xmm6, %xmm5 vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2 vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2
VMOVUPS_A1( -6 * SIZE, A1, %xmm5) VMOVUPS_A1( -6 * SIZE, A1, %xmm5)
shufpd $1, %xmm8, %xmm6 vshufpd $0x01, %xmm8, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3 vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3
VMOVUPS_A1( -4 * SIZE, A1, %xmm6) VMOVUPS_A1( -4 * SIZE, A1, %xmm6)
@ -1749,15 +1669,15 @@
vfmaddpd %xmm3 , %xmm12 , %xmm7 , %xmm3 vfmaddpd %xmm3 , %xmm12 , %xmm7 , %xmm3
VMOVUPS_A1(-11 * SIZE, A2, %xmm6) VMOVUPS_A1(-11 * SIZE, A2, %xmm6)
shufpd $0x01, %xmm4, %xmm8 vshufpd $0x01, %xmm4, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0 vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
VMOVUPS_A1( -9 * SIZE, A2, %xmm8) VMOVUPS_A1( -9 * SIZE, A2, %xmm8)
shufpd $0x01, %xmm5, %xmm4 vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1 vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1
shufpd $0x01, %xmm6, %xmm5 vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2 vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2
shufpd $0x01, %xmm8, %xmm6 vshufpd $0x01, %xmm8, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3 vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3
VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0) VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
@ -1787,10 +1707,10 @@
VMOVUPS_A1(-15 * SIZE, A2, %xmm6) VMOVUPS_A1(-15 * SIZE, A2, %xmm6)
VMOVUPS_A1(-13 * SIZE, A2, %xmm7) VMOVUPS_A1(-13 * SIZE, A2, %xmm7)
shufpd $0x01, %xmm6, %xmm8 vshufpd $0x01, %xmm6, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0 vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
movaps %xmm7, %xmm8 movaps %xmm7, %xmm8
shufpd $0x01, %xmm7, %xmm6 vshufpd $0x01, %xmm7, %xmm6, %xmm6
vfmaddpd %xmm1 , %xmm13 , %xmm6 , %xmm1 vfmaddpd %xmm1 , %xmm13 , %xmm6 , %xmm1
VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0) VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
@ -1811,7 +1731,7 @@
VMOVUPS_YL1(-16 * SIZE, Y1, %xmm0) VMOVUPS_YL1(-16 * SIZE, Y1, %xmm0)
vfmaddpd %xmm0 , %xmm12 , %xmm4 , %xmm0 vfmaddpd %xmm0 , %xmm12 , %xmm4 , %xmm0
shufpd $0x01, %xmm5, %xmm8 vshufpd $0x01, %xmm5, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0 vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
movaps %xmm5, %xmm8 movaps %xmm5, %xmm8
@ -2009,7 +1929,7 @@
je .L910 je .L910
vmovsd (Y), %xmm0 vmovsd (Y), %xmm0
addsd (BUFFER), %xmm0 vaddsd (BUFFER), %xmm0, %xmm0
vmovsd %xmm0, (Y) vmovsd %xmm0, (Y)
addq $SIZE, Y addq $SIZE, Y
@ -2041,10 +1961,10 @@
vmovups 6 * SIZE(BUFFER), %xmm7 vmovups 6 * SIZE(BUFFER), %xmm7
addpd %xmm4, %xmm0 vaddpd %xmm4, %xmm0, %xmm0
addpd %xmm5, %xmm1 vaddpd %xmm5, %xmm1, %xmm1
addpd %xmm6, %xmm2 vaddpd %xmm6, %xmm2, %xmm2
addpd %xmm7, %xmm3 vaddpd %xmm7, %xmm3, %xmm3
vmovups %xmm0, 0 * SIZE(Y) vmovups %xmm0, 0 * SIZE(Y)
vmovups %xmm1, 2 * SIZE(Y) vmovups %xmm1, 2 * SIZE(Y)
@ -2071,8 +1991,8 @@
vmovups 0 * SIZE(BUFFER), %xmm4 vmovups 0 * SIZE(BUFFER), %xmm4
vmovups 2 * SIZE(BUFFER), %xmm5 vmovups 2 * SIZE(BUFFER), %xmm5
addpd %xmm4, %xmm0 vaddpd %xmm4, %xmm0, %xmm0
addpd %xmm5, %xmm1 vaddpd %xmm5, %xmm1, %xmm1
vmovups %xmm0, 0 * SIZE(Y) vmovups %xmm0, 0 * SIZE(Y)
vmovups %xmm1, 2 * SIZE(Y) vmovups %xmm1, 2 * SIZE(Y)
@ -2089,7 +2009,7 @@
vmovups (BUFFER), %xmm4 vmovups (BUFFER), %xmm4
addpd %xmm4, %xmm0 vaddpd %xmm4, %xmm0, %xmm0
vmovups %xmm0, (Y) vmovups %xmm0, (Y)
@ -2105,7 +2025,7 @@
vmovsd 0 * SIZE(BUFFER), %xmm4 vmovsd 0 * SIZE(BUFFER), %xmm4
addsd %xmm4, %xmm0 vaddsd %xmm4, %xmm0, %xmm0
vmovsd %xmm0, (Y) vmovsd %xmm0, (Y)
ALIGN_3 ALIGN_3
@ -2133,16 +2053,16 @@
vmovups 5 * SIZE(BUFFER), %xmm7 vmovups 5 * SIZE(BUFFER), %xmm7
vmovups 7 * SIZE(BUFFER), %xmm8 vmovups 7 * SIZE(BUFFER), %xmm8
shufpd $0x01, %xmm5, %xmm4 vshufpd $0x01, %xmm5, %xmm4, %xmm4
shufpd $0x01, %xmm6, %xmm5 vshufpd $0x01, %xmm6, %xmm5, %xmm5
shufpd $0x01, %xmm7, %xmm6 vshufpd $0x01, %xmm7, %xmm6, %xmm6
shufpd $0x01, %xmm8, %xmm7 vshufpd $0x01, %xmm8, %xmm7, %xmm7
addpd %xmm4, %xmm0 vaddpd %xmm4, %xmm0, %xmm0
addpd %xmm5, %xmm1 vaddpd %xmm5, %xmm1, %xmm1
addpd %xmm6, %xmm2 vaddpd %xmm6, %xmm2, %xmm2
addpd %xmm7, %xmm3 vaddpd %xmm7, %xmm3, %xmm3
vmovups %xmm0, 0 * SIZE(Y) vmovups %xmm0, 0 * SIZE(Y)
vmovups %xmm1, 2 * SIZE(Y) vmovups %xmm1, 2 * SIZE(Y)
@ -2171,11 +2091,11 @@
vmovups 1 * SIZE(BUFFER), %xmm5 vmovups 1 * SIZE(BUFFER), %xmm5
vmovups 3 * SIZE(BUFFER), %xmm6 vmovups 3 * SIZE(BUFFER), %xmm6
shufpd $0x01, %xmm5, %xmm4 vshufpd $0x01, %xmm5, %xmm4, %xmm4
shufpd $0x01, %xmm6, %xmm5 vshufpd $0x01, %xmm6, %xmm5, %xmm5
addpd %xmm4, %xmm0 vaddpd %xmm4, %xmm0, %xmm0
addpd %xmm5, %xmm1 vaddpd %xmm5, %xmm1, %xmm1
vmovups %xmm0, 0 * SIZE(Y) vmovups %xmm0, 0 * SIZE(Y)
vmovups %xmm1, 2 * SIZE(Y) vmovups %xmm1, 2 * SIZE(Y)
@ -2194,9 +2114,9 @@
vmovups 1 * SIZE(BUFFER), %xmm5 vmovups 1 * SIZE(BUFFER), %xmm5
shufpd $0x01, %xmm5, %xmm4 vshufpd $0x01, %xmm5, %xmm4, %xmm4
addpd %xmm4, %xmm0 vaddpd %xmm4, %xmm0, %xmm0
vmovups %xmm0, (Y) vmovups %xmm0, (Y)
@ -2214,7 +2134,7 @@
vshufpd $0x01, %xmm4 ,%xmm4, %xmm4 vshufpd $0x01, %xmm4 ,%xmm4, %xmm4
addsd %xmm4, %xmm0 vaddsd %xmm4, %xmm0, %xmm0
vmovsd %xmm0, (Y) vmovsd %xmm0, (Y)
ALIGN_3 ALIGN_3
@ -2227,7 +2147,7 @@
je .L960 je .L960
vmovsd (Y), %xmm0 vmovsd (Y), %xmm0
addsd (BUFFER), %xmm0 vaddsd (BUFFER), %xmm0, %xmm0
vmovsd %xmm0, (Y) vmovsd %xmm0, (Y)
addq INCY, Y addq INCY, Y
@ -2248,57 +2168,57 @@
.L962: .L962:
vmovsd (Y), %xmm0 vmovsd (Y), %xmm0
addq INCY, Y addq INCY, Y
movhpd (Y), %xmm0 vmovhpd (Y), %xmm0, %xmm0
addq INCY, Y addq INCY, Y
vmovups 0 * SIZE(BUFFER), %xmm4 vmovups 0 * SIZE(BUFFER), %xmm4
vmovsd (Y), %xmm1 vmovsd (Y), %xmm1
addq INCY, Y addq INCY, Y
movhpd (Y), %xmm1 vmovhpd (Y), %xmm1, %xmm1
addq INCY, Y addq INCY, Y
vmovups 2 * SIZE(BUFFER), %xmm5 vmovups 2 * SIZE(BUFFER), %xmm5
vmovsd (Y), %xmm2 vmovsd (Y), %xmm2
addq INCY, Y addq INCY, Y
movhpd (Y), %xmm2 vmovhpd (Y), %xmm2, %xmm2
addq INCY, Y addq INCY, Y
vmovups 4 * SIZE(BUFFER), %xmm6 vmovups 4 * SIZE(BUFFER), %xmm6
addpd %xmm4, %xmm0 vaddpd %xmm4, %xmm0, %xmm0
vmovsd (Y), %xmm3 vmovsd (Y), %xmm3
addq INCY, Y addq INCY, Y
movhpd (Y), %xmm3 vmovhpd (Y), %xmm3, %xmm3
addq INCY, Y addq INCY, Y
vmovups 6 * SIZE(BUFFER), %xmm7 vmovups 6 * SIZE(BUFFER), %xmm7
addpd %xmm5, %xmm1 vaddpd %xmm5, %xmm1, %xmm1
vmovsd %xmm0, (Y1) vmovsd %xmm0, (Y1)
addq INCY, Y1 addq INCY, Y1
movhpd %xmm0, (Y1) vmovhpd %xmm0, (Y1)
addq INCY, Y1 addq INCY, Y1
addpd %xmm6, %xmm2 vaddpd %xmm6, %xmm2, %xmm2
vmovsd %xmm1, (Y1) vmovsd %xmm1, (Y1)
addq INCY, Y1 addq INCY, Y1
movhpd %xmm1, (Y1) vmovhpd %xmm1, (Y1)
addq INCY, Y1 addq INCY, Y1
addpd %xmm7, %xmm3 vaddpd %xmm7, %xmm3, %xmm3
vmovsd %xmm2, (Y1) vmovsd %xmm2, (Y1)
addq INCY, Y1 addq INCY, Y1
movhpd %xmm2, (Y1) vmovhpd %xmm2, (Y1)
addq INCY, Y1 addq INCY, Y1
vmovsd %xmm3, (Y1) vmovsd %xmm3, (Y1)
addq INCY, Y1 addq INCY, Y1
movhpd %xmm3, (Y1) vmovhpd %xmm3, (Y1)
addq INCY, Y1 addq INCY, Y1
addq $8 * SIZE, BUFFER addq $8 * SIZE, BUFFER
@ -2315,28 +2235,28 @@
vmovsd (Y), %xmm0 vmovsd (Y), %xmm0
addq INCY, Y addq INCY, Y
movhpd (Y), %xmm0 vmovhpd (Y), %xmm0, %xmm0
addq INCY, Y addq INCY, Y
vmovups 0 * SIZE(BUFFER), %xmm4 vmovups 0 * SIZE(BUFFER), %xmm4
vmovsd (Y), %xmm1 vmovsd (Y), %xmm1
addq INCY, Y addq INCY, Y
movhpd (Y), %xmm1 vmovhpd (Y), %xmm1, %xmm1
addq INCY, Y addq INCY, Y
vmovups 2 * SIZE(BUFFER), %xmm5 vmovups 2 * SIZE(BUFFER), %xmm5
addpd %xmm4, %xmm0 vaddpd %xmm4, %xmm0, %xmm0
addpd %xmm5, %xmm1 vaddpd %xmm5, %xmm1, %xmm1
vmovsd %xmm0, (Y1) vmovsd %xmm0, (Y1)
addq INCY, Y1 addq INCY, Y1
movhpd %xmm0, (Y1) vmovhpd %xmm0, (Y1)
addq INCY, Y1 addq INCY, Y1
vmovsd %xmm1, (Y1) vmovsd %xmm1, (Y1)
addq INCY, Y1 addq INCY, Y1
movhpd %xmm1, (Y1) vmovhpd %xmm1, (Y1)
addq INCY, Y1 addq INCY, Y1
addq $4 * SIZE, BUFFER addq $4 * SIZE, BUFFER
@ -2348,16 +2268,16 @@
vmovsd (Y), %xmm0 vmovsd (Y), %xmm0
addq INCY, Y addq INCY, Y
movhpd (Y), %xmm0 vmovhpd (Y),%xmm0, %xmm0
addq INCY, Y addq INCY, Y
vmovups 0 * SIZE(BUFFER), %xmm4 vmovups 0 * SIZE(BUFFER), %xmm4
addpd %xmm4, %xmm0 vaddpd %xmm4, %xmm0, %xmm0
vmovsd %xmm0, (Y1) vmovsd %xmm0, (Y1)
addq INCY, Y1 addq INCY, Y1
movhpd %xmm0, (Y1) vmovhpd %xmm0, (Y1)
addq INCY, Y1 addq INCY, Y1
addq $2 * SIZE, BUFFER addq $2 * SIZE, BUFFER
@ -2371,7 +2291,7 @@
vmovsd 0 * SIZE(BUFFER), %xmm4 vmovsd 0 * SIZE(BUFFER), %xmm4
addsd %xmm4, %xmm0 vaddsd %xmm4, %xmm0, %xmm0
vmovsd %xmm0, (Y1) vmovsd %xmm0, (Y1)
ALIGN_3 ALIGN_3