|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
const vp3_idct_constants, align=4 |
|
.short 64277, 60547, 54491, 46341, 36410, 25080, 12785 |
|
endconst |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
.macro vp3_loop_filter |
|
vsubl.u8 q3, d18, d17 |
|
vsubl.u8 q2, d16, d19 |
|
vadd.i16 q1, q3, q3 |
|
vadd.i16 q2, q2, q3 |
|
vadd.i16 q0, q1, q2 |
|
vrshr.s16 q0, q0, #3 |
|
vmovl.u8 q9, d18 |
|
vdup.u16 q15, r2 |
|
|
|
vabs.s16 q1, q0 |
|
vshr.s16 q0, q0, #15 |
|
vqsub.u16 q2, q15, q1 |
|
vqsub.u16 q3, q2, q1 |
|
vsub.i16 q1, q2, q3 |
|
veor q1, q1, q0 |
|
vsub.i16 q0, q1, q0 |
|
|
|
vaddw.u8 q2, q0, d17 |
|
vsub.i16 q3, q9, q0 |
|
vqmovun.s16 d0, q2 |
|
vqmovun.s16 d1, q3 |
|
.endm |
|
|
|
function ff_vp3_v_loop_filter_neon, export=1 |
|
sub ip, r0, r1 |
|
sub r0, r0, r1, lsl #1 |
|
vld1.64 {d16}, [r0,:64], r1 |
|
vld1.64 {d17}, [r0,:64], r1 |
|
vld1.64 {d18}, [r0,:64], r1 |
|
vld1.64 {d19}, [r0,:64], r1 |
|
ldrb r2, [r2, #129*4] |
|
|
|
vp3_loop_filter |
|
|
|
vst1.64 {d0}, [ip,:64], r1 |
|
vst1.64 {d1}, [ip,:64], r1 |
|
bx lr |
|
endfunc |
|
|
|
function ff_vp3_h_loop_filter_neon, export=1 |
|
sub ip, r0, #1 |
|
sub r0, r0, #2 |
|
vld1.32 {d16[]}, [r0], r1 |
|
vld1.32 {d17[]}, [r0], r1 |
|
vld1.32 {d18[]}, [r0], r1 |
|
vld1.32 {d19[]}, [r0], r1 |
|
vld1.32 {d16[1]}, [r0], r1 |
|
vld1.32 {d17[1]}, [r0], r1 |
|
vld1.32 {d18[1]}, [r0], r1 |
|
vld1.32 {d19[1]}, [r0], r1 |
|
ldrb r2, [r2, #129*4] |
|
|
|
vtrn.8 d16, d17 |
|
vtrn.8 d18, d19 |
|
vtrn.16 d16, d18 |
|
vtrn.16 d17, d19 |
|
|
|
vp3_loop_filter |
|
|
|
vtrn.8 d0, d1 |
|
|
|
vst1.16 {d0[0]}, [ip], r1 |
|
vst1.16 {d1[0]}, [ip], r1 |
|
vst1.16 {d0[1]}, [ip], r1 |
|
vst1.16 {d1[1]}, [ip], r1 |
|
vst1.16 {d0[2]}, [ip], r1 |
|
vst1.16 {d1[2]}, [ip], r1 |
|
vst1.16 {d0[3]}, [ip], r1 |
|
vst1.16 {d1[3]}, [ip], r1 |
|
bx lr |
|
endfunc |
|
|
|
|
|
function vp3_idct_start_neon |
|
vpush {d8-d15} |
|
vmov.i16 q4, #0 |
|
vmov.i16 q5, #0 |
|
movrel r3, vp3_idct_constants |
|
vld1.64 {d0-d1}, [r3,:128] |
|
vld1.64 {d16-d19}, [r2,:128] |
|
vst1.64 {q4-q5}, [r2,:128]! |
|
vld1.64 {d20-d23}, [r2,:128] |
|
vst1.64 {q4-q5}, [r2,:128]! |
|
vld1.64 {d24-d27}, [r2,:128] |
|
vst1.64 {q4-q5}, [r2,:128]! |
|
vadd.s16 q1, q8, q12 |
|
vsub.s16 q8, q8, q12 |
|
vld1.64 {d28-d31}, [r2,:128] |
|
vst1.64 {q4-q5}, [r2,:128]! |
|
|
|
vp3_idct_core_neon: |
|
vmull.s16 q2, d18, xC1S7 |
|
vmull.s16 q3, d19, xC1S7 |
|
vmull.s16 q4, d2, xC4S4 |
|
vmull.s16 q5, d3, xC4S4 |
|
vmull.s16 q6, d16, xC4S4 |
|
vmull.s16 q7, d17, xC4S4 |
|
vshrn.s32 d4, q2, #16 |
|
vshrn.s32 d5, q3, #16 |
|
vshrn.s32 d6, q4, #16 |
|
vshrn.s32 d7, q5, #16 |
|
vshrn.s32 d8, q6, #16 |
|
vshrn.s32 d9, q7, #16 |
|
vadd.s16 q12, q1, q3 |
|
vadd.s16 q8, q8, q4 |
|
vadd.s16 q1, q2, q9 |
|
|
|
vmull.s16 q2, d30, xC1S7 |
|
vmull.s16 q3, d31, xC1S7 |
|
vmull.s16 q4, d30, xC7S1 |
|
vmull.s16 q5, d31, xC7S1 |
|
vmull.s16 q6, d18, xC7S1 |
|
vmull.s16 q7, d19, xC7S1 |
|
vshrn.s32 d4, q2, #16 |
|
vshrn.s32 d5, q3, #16 |
|
vshrn.s32 d6, q4, #16 |
|
vshrn.s32 d7, q5, #16 |
|
vshrn.s32 d8, q6, #16 |
|
vshrn.s32 d9, q7, #16 |
|
vadd.s16 q2, q2, q15 |
|
vadd.s16 q9, q1, q3 |
|
vsub.s16 q15, q4, q2 |
|
|
|
vmull.s16 q2, d22, xC5S3 |
|
vmull.s16 q3, d23, xC5S3 |
|
vmull.s16 q4, d22, xC3S5 |
|
vmull.s16 q5, d23, xC3S5 |
|
vmull.s16 q6, d26, xC5S3 |
|
vmull.s16 q7, d27, xC5S3 |
|
vshrn.s32 d4, q2, #16 |
|
vshrn.s32 d5, q3, #16 |
|
vshrn.s32 d6, q4, #16 |
|
vshrn.s32 d7, q5, #16 |
|
vshrn.s32 d8, q6, #16 |
|
vshrn.s32 d9, q7, #16 |
|
vadd.s16 q3, q3, q11 |
|
vadd.s16 q4, q4, q13 |
|
vadd.s16 q1, q2, q11 |
|
vadd.s16 q11, q3, q4 |
|
|
|
vmull.s16 q2, d26, xC3S5 |
|
vmull.s16 q3, d27, xC3S5 |
|
vmull.s16 q4, d20, xC2S6 |
|
vmull.s16 q5, d21, xC2S6 |
|
vmull.s16 q6, d28, xC6S2 |
|
vmull.s16 q7, d29, xC6S2 |
|
vshrn.s32 d4, q2, #16 |
|
vshrn.s32 d5, q3, #16 |
|
vshrn.s32 d6, q4, #16 |
|
vshrn.s32 d7, q5, #16 |
|
vshrn.s32 d8, q6, #16 |
|
vshrn.s32 d9, q7, #16 |
|
vadd.s16 q2, q2, q13 |
|
vadd.s16 q3, q3, q10 |
|
vsub.s16 q13, q2, q1 |
|
vsub.s16 q1, q9, q11 |
|
vadd.s16 q11, q9, q11 |
|
vsub.s16 q9, q15, q13 |
|
vadd.s16 q13, q15, q13 |
|
vadd.s16 q15, q3, q4 |
|
|
|
vmull.s16 q2, d2, xC4S4 |
|
vmull.s16 q3, d3, xC4S4 |
|
vmull.s16 q4, d28, xC2S6 |
|
vmull.s16 q5, d29, xC2S6 |
|
vmull.s16 q6, d20, xC6S2 |
|
vmull.s16 q7, d21, xC6S2 |
|
vshrn.s32 d4, q2, #16 |
|
vshrn.s32 d5, q3, #16 |
|
vshrn.s32 d6, q4, #16 |
|
vshrn.s32 d7, q5, #16 |
|
vshrn.s32 d8, q6, #16 |
|
vmull.s16 q5, d18, xC4S4 |
|
vmull.s16 q6, d19, xC4S4 |
|
vshrn.s32 d9, q7, #16 |
|
vadd.s16 q3, q3, q14 |
|
vadd.s16 q10, q1, q2 |
|
vsub.s16 q14, q4, q3 |
|
bx lr |
|
endfunc |
|
|
|
.macro VP3_IDCT_END type |
|
function vp3_idct_end_\type\()_neon |
|
.ifc \type, col |
|
vdup.16 q0, r3 |
|
vadd.s16 q12, q12, q0 |
|
vadd.s16 q8, q8, q0 |
|
.endif |
|
|
|
vshrn.s32 d2, q5, #16 |
|
vshrn.s32 d3, q6, #16 |
|
vadd.s16 q2, q12, q15 |
|
vadd.s16 q9, q1, q9 |
|
vsub.s16 q12, q12, q15 |
|
vsub.s16 q3, q8, q10 |
|
vadd.s16 q10, q8, q10 |
|
vadd.s16 q4, q9, q14 |
|
vsub.s16 q14, q9, q14 |
|
vadd.s16 q8, q2, q11 |
|
vsub.s16 q15, q2, q11 |
|
vadd.s16 q9, q10, q4 |
|
vsub.s16 q10, q10, q4 |
|
vadd.s16 q11, q12, q13 |
|
vsub.s16 q12, q12, q13 |
|
.ifc \type, row |
|
vtrn.16 q8, q9 |
|
.endif |
|
vadd.s16 q13, q3, q14 |
|
vsub.s16 q14, q3, q14 |
|
|
|
.ifc \type, row |
|
|
|
vtrn.16 q10, q11 |
|
vtrn.16 q12, q13 |
|
vtrn.16 q14, q15 |
|
vtrn.32 q8, q10 |
|
vtrn.32 q9, q11 |
|
vtrn.32 q12, q14 |
|
vtrn.32 q13, q15 |
|
vswp d17, d24 |
|
vswp d19, d26 |
|
vadd.s16 q1, q8, q12 |
|
vswp d21, d28 |
|
vsub.s16 q8, q8, q12 |
|
vswp d23, d30 |
|
.endif |
|
bx lr |
|
endfunc |
|
.endm |
|
|
|
VP3_IDCT_END row |
|
VP3_IDCT_END col |
|
|
|
function ff_vp3_idct_put_neon, export=1 |
|
mov ip, lr |
|
bl vp3_idct_start_neon |
|
bl vp3_idct_end_row_neon |
|
mov r3, #8 |
|
add r3, r3, #2048 |
|
bl vp3_idct_core_neon |
|
bl vp3_idct_end_col_neon |
|
mov lr, ip |
|
vpop {d8-d15} |
|
|
|
vqshrun.s16 d0, q8, #4 |
|
vqshrun.s16 d1, q9, #4 |
|
vqshrun.s16 d2, q10, #4 |
|
vqshrun.s16 d3, q11, #4 |
|
vst1.64 {d0}, [r0,:64], r1 |
|
vqshrun.s16 d4, q12, #4 |
|
vst1.64 {d1}, [r0,:64], r1 |
|
vqshrun.s16 d5, q13, #4 |
|
vst1.64 {d2}, [r0,:64], r1 |
|
vqshrun.s16 d6, q14, #4 |
|
vst1.64 {d3}, [r0,:64], r1 |
|
vqshrun.s16 d7, q15, #4 |
|
vst1.64 {d4}, [r0,:64], r1 |
|
vst1.64 {d5}, [r0,:64], r1 |
|
vst1.64 {d6}, [r0,:64], r1 |
|
vst1.64 {d7}, [r0,:64], r1 |
|
bx lr |
|
endfunc |
|
|
|
function ff_vp3_idct_add_neon, export=1 |
|
mov ip, lr |
|
bl vp3_idct_start_neon |
|
bl vp3_idct_end_row_neon |
|
mov r3, #8 |
|
bl vp3_idct_core_neon |
|
bl vp3_idct_end_col_neon |
|
mov lr, ip |
|
vpop {d8-d15} |
|
mov r2, r0 |
|
|
|
vld1.64 {d0}, [r0,:64], r1 |
|
vshr.s16 q8, q8, #4 |
|
vld1.64 {d1}, [r0,:64], r1 |
|
vshr.s16 q9, q9, #4 |
|
vld1.64 {d2}, [r0,:64], r1 |
|
vaddw.u8 q8, q8, d0 |
|
vld1.64 {d3}, [r0,:64], r1 |
|
vaddw.u8 q9, q9, d1 |
|
vld1.64 {d4}, [r0,:64], r1 |
|
vshr.s16 q10, q10, #4 |
|
vld1.64 {d5}, [r0,:64], r1 |
|
vshr.s16 q11, q11, #4 |
|
vld1.64 {d6}, [r0,:64], r1 |
|
vqmovun.s16 d0, q8 |
|
vld1.64 {d7}, [r0,:64], r1 |
|
vqmovun.s16 d1, q9 |
|
vaddw.u8 q10, q10, d2 |
|
vaddw.u8 q11, q11, d3 |
|
vshr.s16 q12, q12, #4 |
|
vshr.s16 q13, q13, #4 |
|
vqmovun.s16 d2, q10 |
|
vqmovun.s16 d3, q11 |
|
vaddw.u8 q12, q12, d4 |
|
vaddw.u8 q13, q13, d5 |
|
vshr.s16 q14, q14, #4 |
|
vshr.s16 q15, q15, #4 |
|
vst1.64 {d0}, [r2,:64], r1 |
|
vqmovun.s16 d4, q12 |
|
vst1.64 {d1}, [r2,:64], r1 |
|
vqmovun.s16 d5, q13 |
|
vst1.64 {d2}, [r2,:64], r1 |
|
vaddw.u8 q14, q14, d6 |
|
vst1.64 {d3}, [r2,:64], r1 |
|
vaddw.u8 q15, q15, d7 |
|
vst1.64 {d4}, [r2,:64], r1 |
|
vqmovun.s16 d6, q14 |
|
vst1.64 {d5}, [r2,:64], r1 |
|
vqmovun.s16 d7, q15 |
|
vst1.64 {d6}, [r2,:64], r1 |
|
vst1.64 {d7}, [r2,:64], r1 |
|
bx lr |
|
endfunc |
|
|
|
function ff_vp3_idct_dc_add_neon, export=1 |
|
ldrsh r12, [r2] |
|
mov r3, r0 |
|
add r12, r12, #15 |
|
vdup.16 q15, r12 |
|
mov r12, #0 |
|
strh r12, [r2] |
|
vshr.s16 q15, q15, #5 |
|
|
|
vld1.8 {d0}, [r0,:64], r1 |
|
vld1.8 {d1}, [r0,:64], r1 |
|
vld1.8 {d2}, [r0,:64], r1 |
|
vaddw.u8 q8, q15, d0 |
|
vld1.8 {d3}, [r0,:64], r1 |
|
vaddw.u8 q9, q15, d1 |
|
vld1.8 {d4}, [r0,:64], r1 |
|
vaddw.u8 q10, q15, d2 |
|
vld1.8 {d5}, [r0,:64], r1 |
|
vaddw.u8 q11, q15, d3 |
|
vld1.8 {d6}, [r0,:64], r1 |
|
vaddw.u8 q12, q15, d4 |
|
vld1.8 {d7}, [r0,:64], r1 |
|
vaddw.u8 q13, q15, d5 |
|
vqmovun.s16 d0, q8 |
|
vaddw.u8 q14, q15, d6 |
|
vqmovun.s16 d1, q9 |
|
vaddw.u8 q15, q15, d7 |
|
vqmovun.s16 d2, q10 |
|
vst1.8 {d0}, [r3,:64], r1 |
|
vqmovun.s16 d3, q11 |
|
vst1.8 {d1}, [r3,:64], r1 |
|
vqmovun.s16 d4, q12 |
|
vst1.8 {d2}, [r3,:64], r1 |
|
vqmovun.s16 d5, q13 |
|
vst1.8 {d3}, [r3,:64], r1 |
|
vqmovun.s16 d6, q14 |
|
vst1.8 {d4}, [r3,:64], r1 |
|
vqmovun.s16 d7, q15 |
|
vst1.8 {d5}, [r3,:64], r1 |
|
vst1.8 {d6}, [r3,:64], r1 |
|
vst1.8 {d7}, [r3,:64], r1 |
|
bx lr |
|
endfunc |
|
|