Merge "combine max values and compare once"
This commit is contained in:
Коммит
063be9b82a
|
@ -55,8 +55,7 @@
|
|||
vld1.s8 {d4[], d5[]}, [r12] ; thresh
|
||||
|
||||
ldr r12, _lfhuv_coeff_
|
||||
;vp8_filter_mask() function
|
||||
;vp8_hevmask() function
|
||||
; vp8_filter_mask
|
||||
vabd.u8 q11, q3, q4 ; abs(p3 - p2)
|
||||
vabd.u8 q12, q4, q5 ; abs(p2 - p1)
|
||||
vabd.u8 q13, q5, q6 ; abs(p1 - p0)
|
||||
|
@ -65,22 +64,19 @@
|
|||
vabd.u8 q4, q10, q9 ; abs(q3 - q2)
|
||||
vabd.u8 q9, q6, q7 ; abs(p0 - q0)
|
||||
|
||||
vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
|
||||
vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1
|
||||
vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1
|
||||
vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
|
||||
vmax.u8 q11, q11, q12
|
||||
vmax.u8 q12, q13, q14
|
||||
vmax.u8 q3, q3, q4
|
||||
vmax.u8 q15, q11, q12
|
||||
|
||||
; vp8_hevmask
|
||||
vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1
|
||||
vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1
|
||||
vmax.u8 q15, q15, q3
|
||||
|
||||
vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1
|
||||
vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1
|
||||
vadd.u8 q0, q0, q0 ; flimit * 2
|
||||
vadd.u8 q0, q0, q1 ; flimit * 2 + limit
|
||||
|
||||
vand q15, q15, q12
|
||||
vand q10, q10, q11
|
||||
vand q3, q3, q4
|
||||
vcge.u8 q15, q1, q15 ; (max > limit) * -1
|
||||
|
||||
vabd.u8 q2, q5, q8 ; abs(p1 - q1)
|
||||
vqadd.u8 q9, q9, q9 ; abs(p0 - q0) * 2
|
||||
|
@ -90,8 +86,6 @@
|
|||
|
||||
vld1.u8 {q0}, [r12]!
|
||||
|
||||
vand q15, q15, q10
|
||||
|
||||
;vp8_filter() function
|
||||
veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
|
||||
veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value
|
||||
|
@ -100,26 +94,20 @@
|
|||
;;;;;;;;;;;;;;
|
||||
vld1.u8 {q10}, [r12]!
|
||||
|
||||
;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
|
||||
vsubl.s8 q2, d14, d12 ; ( qs0 - ps0)
|
||||
vsubl.s8 q11, d15, d13
|
||||
|
||||
vand q3, q3, q9
|
||||
vmovl.u8 q4, d20
|
||||
|
||||
vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
|
||||
vorr q14, q13, q14 ; q14: vp8_hevmask
|
||||
|
||||
;vmul.i8 q2, q2, q10 ; 3 * ( qs0 - ps0)
|
||||
vmul.i16 q2, q2, q4 ; 3 * ( qs0 - ps0)
|
||||
vmul.i16 q11, q11, q4
|
||||
|
||||
vand q1, q1, q14 ; vp8_filter &= hev
|
||||
vand q15, q15, q3 ; q15: vp8_filter_mask
|
||||
;;
|
||||
;vld1.u8 {q4}, [r12]! ;no need 7 any more
|
||||
vand q15, q15, q9 ; vp8_filter_mask
|
||||
|
||||
;vqadd.s8 q1, q1, q2
|
||||
vaddw.s8 q2, q2, d2
|
||||
vaddw.s8 q11, q11, d3
|
||||
|
||||
|
@ -130,21 +118,6 @@
|
|||
;;
|
||||
|
||||
vand q1, q1, q15 ; vp8_filter &= mask
|
||||
;;
|
||||
;;;;;;;;;;;;
|
||||
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;Change for VP8 from VP7
|
||||
; vand q2, q1, q4 ; s = vp8_filter & 7
|
||||
; vqadd.s8 q1, q1, q9 ; vp8_filter = vp8_signed_char_clamp(vp8_filter+4)
|
||||
;;;;
|
||||
; vshr.s8 q1, q1, #3 ; vp8_filter >>= 3
|
||||
; vceq.i8 q2, q2, q9 ; s = (s==4)*-1
|
||||
;;
|
||||
; ;calculate output
|
||||
; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter)
|
||||
; vqadd.s8 q11, q2, q1 ; u = vp8_signed_char_clamp(s + vp8_filter)
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||
;; q10=3
|
||||
vqadd.s8 q2, q1, q10 ; Filter2 = vp8_signed_char_clamp(vp8_filter+3)
|
||||
vqadd.s8 q1, q1, q9 ; Filter1 = vp8_signed_char_clamp(vp8_filter+4)
|
||||
vshr.s8 q2, q2, #3 ; Filter2 >>= 3
|
||||
|
@ -168,7 +141,6 @@
|
|||
;;
|
||||
|
||||
vqadd.s8 q13, q5, q1 ; u = vp8_signed_char_clamp(ps1 + vp8_filter)
|
||||
;vqadd.s8 q11, q6, q11 ; u = vp8_signed_char_clamp(ps0 + u)
|
||||
vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter)
|
||||
;
|
||||
|
||||
|
|
|
@ -39,8 +39,7 @@
|
|||
ldr r12, _lfhy_coeff_
|
||||
vld1.u8 {q7}, [r0], r1 ; q0
|
||||
|
||||
;vp8_filter_mask() function
|
||||
;vp8_hevmask() function
|
||||
; vp8_filter_mask
|
||||
vabd.u8 q11, q3, q4 ; abs(p3 - p2)
|
||||
vld1.u8 {q8}, [r0], r1 ; q1
|
||||
vabd.u8 q12, q4, q5 ; abs(p2 - p1)
|
||||
|
@ -52,22 +51,19 @@
|
|||
vabd.u8 q4, q10, q9 ; abs(q3 - q2)
|
||||
vabd.u8 q9, q6, q7 ; abs(p0 - q0)
|
||||
|
||||
vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
|
||||
vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1
|
||||
vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1
|
||||
vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
|
||||
vmax.u8 q11, q11, q12
|
||||
vmax.u8 q12, q13, q14
|
||||
vmax.u8 q3, q3, q4
|
||||
vmax.u8 q15, q11, q12
|
||||
|
||||
; vp8_hevmask
|
||||
vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1
|
||||
vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1
|
||||
vmax.u8 q15, q15, q3
|
||||
|
||||
vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1
|
||||
vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1
|
||||
vadd.u8 q0, q0, q0 ; flimit * 2
|
||||
vadd.u8 q0, q0, q1 ; flimit * 2 + limit
|
||||
|
||||
vand q15, q15, q12
|
||||
vand q10, q10, q11
|
||||
vand q3, q3, q4
|
||||
vcge.u8 q15, q1, q15
|
||||
|
||||
vabd.u8 q2, q5, q8 ; abs(p1 - q1)
|
||||
vqadd.u8 q9, q9, q9 ; abs(p0 - q0) * 2
|
||||
|
@ -77,8 +73,6 @@
|
|||
|
||||
vld1.u8 {q0}, [r12]!
|
||||
|
||||
vand q15, q15, q10
|
||||
|
||||
;vp8_filter() function
|
||||
veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
|
||||
veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value
|
||||
|
@ -87,26 +81,20 @@
|
|||
;;;;;;;;;;;;;;
|
||||
vld1.u8 {q10}, [r12]!
|
||||
|
||||
;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
|
||||
vsubl.s8 q2, d14, d12 ; ( qs0 - ps0)
|
||||
vsubl.s8 q11, d15, d13
|
||||
|
||||
vand q3, q3, q9
|
||||
vmovl.u8 q4, d20
|
||||
|
||||
vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
|
||||
vorr q14, q13, q14 ; q14: vp8_hevmask
|
||||
|
||||
;vmul.i8 q2, q2, q10 ; 3 * ( qs0 - ps0)
|
||||
vmul.i16 q2, q2, q4 ; 3 * ( qs0 - ps0)
|
||||
vmul.i16 q11, q11, q4
|
||||
|
||||
vand q1, q1, q14 ; vp8_filter &= hev
|
||||
vand q15, q15, q3 ; q15: vp8_filter_mask
|
||||
;;
|
||||
;vld1.u8 {q4}, [r12]! ;no need 7 any more
|
||||
vand q15, q15, q9 ; vp8_filter_mask
|
||||
|
||||
;vqadd.s8 q1, q1, q2
|
||||
vaddw.s8 q2, q2, d2
|
||||
vaddw.s8 q11, q11, d3
|
||||
|
||||
|
@ -117,21 +105,6 @@
|
|||
;;
|
||||
|
||||
vand q1, q1, q15 ; vp8_filter &= mask
|
||||
;;
|
||||
;;;;;;;;;;;;
|
||||
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;Change for VP8 from VP7
|
||||
; vand q2, q1, q4 ; s = vp8_filter & 7
|
||||
; vqadd.s8 q1, q1, q9 ; vp8_filter = vp8_signed_char_clamp(vp8_filter+4)
|
||||
;;;;
|
||||
; vshr.s8 q1, q1, #3 ; vp8_filter >>= 3
|
||||
; vceq.i8 q2, q2, q9 ; s = (s==4)*-1
|
||||
;;
|
||||
; ;calculate output
|
||||
; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter)
|
||||
; vqadd.s8 q11, q2, q1 ; u = vp8_signed_char_clamp(s + vp8_filter)
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||
;; q10=3
|
||||
vqadd.s8 q2, q1, q10 ; Filter2 = vp8_signed_char_clamp(vp8_filter+3)
|
||||
vqadd.s8 q1, q1, q9 ; Filter1 = vp8_signed_char_clamp(vp8_filter+4)
|
||||
vshr.s8 q2, q2, #3 ; Filter2 >>= 3
|
||||
|
@ -153,7 +126,6 @@
|
|||
add r2, r1, r0
|
||||
|
||||
vqadd.s8 q13, q5, q1 ; u = vp8_signed_char_clamp(ps1 + vp8_filter)
|
||||
;vqadd.s8 q11, q6, q11 ; u = vp8_signed_char_clamp(ps0 + u)
|
||||
vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter)
|
||||
|
||||
add r3, r2, r1
|
||||
|
|
|
@ -71,8 +71,7 @@
|
|||
vld1.s8 {d4[], d5[]}, [r12] ; thresh
|
||||
|
||||
ldr r12, _vlfuv_coeff_
|
||||
;vp8_filter_mask() function
|
||||
;vp8_hevmask() function
|
||||
; vp8_filter_mask
|
||||
vabd.u8 q11, q3, q4 ; abs(p3 - p2)
|
||||
vabd.u8 q12, q4, q5 ; abs(p2 - p1)
|
||||
vabd.u8 q13, q5, q6 ; abs(p1 - p0)
|
||||
|
@ -81,22 +80,19 @@
|
|||
vabd.u8 q4, q10, q9 ; abs(q3 - q2)
|
||||
vabd.u8 q9, q6, q7 ; abs(p0 - q0)
|
||||
|
||||
vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
|
||||
vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1
|
||||
vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1
|
||||
vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
|
||||
vmax.u8 q11, q11, q12
|
||||
vmax.u8 q12, q13, q14
|
||||
vmax.u8 q3, q3, q4
|
||||
vmax.u8 q15, q11, q12
|
||||
|
||||
; vp8_hevmask
|
||||
vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1
|
||||
vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1
|
||||
vmax.u8 q15, q15, q3
|
||||
|
||||
vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1
|
||||
vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1
|
||||
vadd.u8 q0, q0, q0 ; flimit * 2
|
||||
vadd.u8 q0, q0, q1 ; flimit * 2 + limit
|
||||
|
||||
vand q15, q15, q12
|
||||
vand q10, q10, q11
|
||||
vand q3, q3, q4
|
||||
vcge.u8 q15, q1, q15
|
||||
|
||||
vabd.u8 q2, q5, q8 ; abs(p1 - q1)
|
||||
vqadd.u8 q9, q9, q9 ; abs(p0 - q0) * 2
|
||||
|
@ -106,9 +102,6 @@
|
|||
|
||||
vld1.u8 {q0}, [r12]!
|
||||
|
||||
vand q15, q15, q10
|
||||
|
||||
|
||||
;vp8_filter() function
|
||||
veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
|
||||
veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value
|
||||
|
@ -117,26 +110,20 @@
|
|||
;;;;;;;;;;;;;;
|
||||
vld1.u8 {q10}, [r12]!
|
||||
|
||||
;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
|
||||
vsubl.s8 q2, d14, d12 ; ( qs0 - ps0)
|
||||
vsubl.s8 q11, d15, d13
|
||||
|
||||
vand q3, q3, q9
|
||||
vmovl.u8 q4, d20
|
||||
|
||||
vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
|
||||
vorr q14, q13, q14 ; q14: vp8_hevmask
|
||||
|
||||
;vmul.i8 q2, q2, q10 ; 3 * ( qs0 - ps0)
|
||||
vmul.i16 q2, q2, q4 ; 3 * ( qs0 - ps0)
|
||||
vmul.i16 q11, q11, q4
|
||||
|
||||
vand q1, q1, q14 ; vp8_filter &= hev
|
||||
vand q15, q15, q3 ; q15: vp8_filter_mask
|
||||
;;
|
||||
;vld1.u8 {q4}, [r12]! ;no need 7 any more
|
||||
vand q15, q15, q9 ; vp8_filter_mask
|
||||
|
||||
;vqadd.s8 q1, q1, q2
|
||||
vaddw.s8 q2, q2, d2
|
||||
vaddw.s8 q11, q11, d3
|
||||
|
||||
|
@ -147,21 +134,6 @@
|
|||
;;
|
||||
|
||||
vand q1, q1, q15 ; vp8_filter &= mask
|
||||
;;
|
||||
;;;;;;;;;;;;
|
||||
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;Change for VP8 from VP7
|
||||
; vand q2, q1, q4 ; s = vp8_filter & 7
|
||||
; vqadd.s8 q1, q1, q9 ; vp8_filter = vp8_signed_char_clamp(vp8_filter+4)
|
||||
;;;;
|
||||
; vshr.s8 q1, q1, #3 ; vp8_filter >>= 3
|
||||
; vceq.i8 q2, q2, q9 ; s = (s==4)*-1
|
||||
;;
|
||||
; ;calculate output
|
||||
; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter)
|
||||
; vqadd.s8 q11, q2, q1 ; u = vp8_signed_char_clamp(s + vp8_filter)
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||
;; q10=3
|
||||
vqadd.s8 q2, q1, q10 ; Filter2 = vp8_signed_char_clamp(vp8_filter+3)
|
||||
vqadd.s8 q1, q1, q9 ; Filter1 = vp8_signed_char_clamp(vp8_filter+4)
|
||||
vshr.s8 q2, q2, #3 ; Filter2 >>= 3
|
||||
|
@ -182,7 +154,6 @@
|
|||
add r2, r2, #2
|
||||
|
||||
vqadd.s8 q13, q5, q1 ; u = vp8_signed_char_clamp(ps1 + vp8_filter)
|
||||
;vqadd.s8 q11, q6, q11 ; u = vp8_signed_char_clamp(ps0 + u)
|
||||
vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter)
|
||||
|
||||
veor q7, q10, q0 ; *oq0 = u^0x80
|
||||
|
|
|
@ -67,8 +67,7 @@
|
|||
vtrn.8 q7, q8
|
||||
vtrn.8 q9, q10
|
||||
|
||||
;vp8_filter_mask() function
|
||||
;vp8_hevmask() function
|
||||
; vp8_filter_mask
|
||||
vabd.u8 q11, q3, q4 ; abs(p3 - p2)
|
||||
vabd.u8 q12, q4, q5 ; abs(p2 - p1)
|
||||
vabd.u8 q13, q5, q6 ; abs(p1 - p0)
|
||||
|
@ -77,22 +76,19 @@
|
|||
vabd.u8 q4, q10, q9 ; abs(q3 - q2)
|
||||
vabd.u8 q9, q6, q7 ; abs(p0 - q0)
|
||||
|
||||
vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
|
||||
vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1
|
||||
vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1
|
||||
vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
|
||||
vmax.u8 q11, q11, q12
|
||||
vmax.u8 q12, q13, q14
|
||||
vmax.u8 q3, q3, q4
|
||||
vmax.u8 q15, q11, q12
|
||||
|
||||
; vp8_hevmask
|
||||
vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1
|
||||
vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1
|
||||
vmax.u8 q15, q15, q3
|
||||
|
||||
vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1
|
||||
vcge.u8 q4, q1, q4 ; (abs(q3 - q2) > limit)*-1
|
||||
vadd.u8 q0, q0, q0 ; flimit * 2
|
||||
vadd.u8 q0, q0, q1 ; flimit * 2 + limit
|
||||
|
||||
vand q15, q15, q12
|
||||
vand q10, q10, q11
|
||||
vand q3, q3, q4
|
||||
vcge.u8 q15, q1, q15
|
||||
|
||||
vabd.u8 q2, q5, q8 ; abs(p1 - q1)
|
||||
vqadd.u8 q9, q9, q9 ; abs(p0 - q0) * 2
|
||||
|
@ -102,9 +98,6 @@
|
|||
|
||||
vld1.u8 {q0}, [r12]!
|
||||
|
||||
vand q15, q15, q10
|
||||
|
||||
|
||||
;vp8_filter() function
|
||||
veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
|
||||
veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value
|
||||
|
@ -113,26 +106,20 @@
|
|||
;;;;;;;;;;;;;;
|
||||
vld1.u8 {q10}, [r12]!
|
||||
|
||||
;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
|
||||
vsubl.s8 q2, d14, d12 ; ( qs0 - ps0)
|
||||
vsubl.s8 q11, d15, d13
|
||||
|
||||
vand q3, q3, q9
|
||||
vmovl.u8 q4, d20
|
||||
|
||||
vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
|
||||
vorr q14, q13, q14 ; q14: vp8_hevmask
|
||||
|
||||
;vmul.i8 q2, q2, q10 ; 3 * ( qs0 - ps0)
|
||||
vmul.i16 q2, q2, q4 ; 3 * ( qs0 - ps0)
|
||||
vmul.i16 q11, q11, q4
|
||||
|
||||
vand q1, q1, q14 ; vp8_filter &= hev
|
||||
vand q15, q15, q3 ; q15: vp8_filter_mask
|
||||
;;
|
||||
;vld1.u8 {q4}, [r12]! ;no need 7 any more
|
||||
vand q15, q15, q9 ; vp8_filter_mask
|
||||
|
||||
;vqadd.s8 q1, q1, q2
|
||||
vaddw.s8 q2, q2, d2
|
||||
vaddw.s8 q11, q11, d3
|
||||
|
||||
|
@ -143,21 +130,6 @@
|
|||
;;
|
||||
|
||||
vand q1, q1, q15 ; vp8_filter &= mask
|
||||
;;
|
||||
;;;;;;;;;;;;
|
||||
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;Change for VP8 from VP7
|
||||
; vand q2, q1, q4 ; s = vp8_filter & 7
|
||||
; vqadd.s8 q1, q1, q9 ; vp8_filter = vp8_signed_char_clamp(vp8_filter+4)
|
||||
;;;;
|
||||
; vshr.s8 q1, q1, #3 ; vp8_filter >>= 3
|
||||
; vceq.i8 q2, q2, q9 ; s = (s==4)*-1
|
||||
;;
|
||||
; ;calculate output
|
||||
; vqsub.s8 q10, q7, q1 ; u = vp8_signed_char_clamp(qs0 - vp8_filter)
|
||||
; vqadd.s8 q11, q2, q1 ; u = vp8_signed_char_clamp(s + vp8_filter)
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||
;; q10=3
|
||||
vqadd.s8 q2, q1, q10 ; Filter2 = vp8_signed_char_clamp(vp8_filter+3)
|
||||
vqadd.s8 q1, q1, q9 ; Filter1 = vp8_signed_char_clamp(vp8_filter+4)
|
||||
vshr.s8 q2, q2, #3 ; Filter2 >>= 3
|
||||
|
@ -178,7 +150,6 @@
|
|||
;
|
||||
|
||||
vqadd.s8 q13, q5, q1 ; u = vp8_signed_char_clamp(ps1 + vp8_filter)
|
||||
;vqadd.s8 q11, q6, q11 ; u = vp8_signed_char_clamp(ps0 + u)
|
||||
vqsub.s8 q12, q8, q1 ; u = vp8_signed_char_clamp(qs1 - vp8_filter)
|
||||
|
||||
veor q7, q10, q0 ; *oq0 = u^0x80
|
||||
|
|
|
@ -52,8 +52,7 @@
|
|||
|
||||
ldr r12, _mbhlfuv_coeff_
|
||||
|
||||
;vp8_filter_mask() function
|
||||
;vp8_hevmask() function
|
||||
; vp8_filter_mask
|
||||
vabd.u8 q11, q3, q4 ; abs(p3 - p2)
|
||||
vabd.u8 q12, q4, q5 ; abs(p2 - p1)
|
||||
vabd.u8 q13, q5, q6 ; abs(p1 - p0)
|
||||
|
@ -61,29 +60,25 @@
|
|||
vabd.u8 q3, q9, q8 ; abs(q2 - q1)
|
||||
vabd.u8 q0, q10, q9 ; abs(q3 - q2)
|
||||
|
||||
vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
|
||||
vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1
|
||||
vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1
|
||||
vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
|
||||
vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1
|
||||
vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1
|
||||
|
||||
vand q15, q15, q12
|
||||
vmax.u8 q11, q11, q12
|
||||
vmax.u8 q12, q13, q14
|
||||
vmax.u8 q3, q3, q0
|
||||
vmax.u8 q15, q11, q12
|
||||
|
||||
vabd.u8 q12, q6, q7 ; abs(p0 - q0)
|
||||
|
||||
; vp8_hevmask
|
||||
vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1
|
||||
vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1
|
||||
vmax.u8 q15, q15, q3
|
||||
|
||||
vld1.s8 {d4[], d5[]}, [r2] ; flimit
|
||||
|
||||
vand q10, q10, q11
|
||||
vand q3, q3, q0
|
||||
|
||||
vld1.u8 {q0}, [r12]!
|
||||
|
||||
vadd.u8 q2, q2, q2 ; flimit * 2
|
||||
vadd.u8 q2, q2, q1 ; flimit * 2 + limit
|
||||
vcge.u8 q15, q1, q15
|
||||
|
||||
vabd.u8 q1, q5, q8 ; abs(p1 - q1)
|
||||
vqadd.u8 q12, q12, q12 ; abs(p0 - q0) * 2
|
||||
|
@ -91,8 +86,6 @@
|
|||
vqadd.u8 q12, q12, q1 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2
|
||||
vcge.u8 q12, q2, q12 ; (abs(p0 - q0)*2 + abs(p1 - q1)/2 > flimit*2 + limit)*-1
|
||||
|
||||
vand q15, q15, q10
|
||||
|
||||
;vp8_filter() function
|
||||
veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
|
||||
veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value
|
||||
|
@ -103,29 +96,23 @@
|
|||
;;;;;;;;;;;;;
|
||||
vorr q14, q13, q14 ; q14: vp8_hevmask
|
||||
|
||||
;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
|
||||
vsubl.s8 q2, d14, d12 ; ( qs0 - ps0)
|
||||
vsubl.s8 q13, d15, d13
|
||||
|
||||
vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
|
||||
|
||||
;vadd.s8 q10, q2, q2 ; 3 * ( qs0 - ps0)
|
||||
vadd.s16 q10, q2, q2 ; 3 * ( qs0 - ps0)
|
||||
vadd.s16 q11, q13, q13
|
||||
vand q15, q15, q12 ; vp8_filter_mask
|
||||
|
||||
vand q3, q3, q12
|
||||
|
||||
;vadd.s8 q2, q2, q10
|
||||
vadd.s16 q2, q2, q10
|
||||
vadd.s16 q13, q13, q11
|
||||
|
||||
vld1.u8 {q12}, [r12]! ;#3
|
||||
|
||||
;vqadd.s8 q1, q1, q2 ; vp8_filter + 3 * ( qs0 - ps0)
|
||||
vaddw.s8 q2, q2, d2 ; vp8_filter + 3 * ( qs0 - ps0)
|
||||
vaddw.s8 q13, q13, d3
|
||||
|
||||
vand q15, q15, q3 ; q15: vp8_filter_mask
|
||||
vld1.u8 {q11}, [r12]! ;#4
|
||||
|
||||
vqmovn.s16 d2, q2 ; vp8_filter = vp8_signed_char_clamp(vp8_filter + 3 * ( qs0 - ps0))
|
||||
|
@ -139,32 +126,7 @@
|
|||
vand q13, q1, q14 ; Filter2: q13; Filter2 &= hev
|
||||
|
||||
vld1.u8 {d7}, [r12]! ;#9
|
||||
;
|
||||
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;Change for VP8 from VP7
|
||||
; vand q2, q13, q12 ; s = Filter2 & 7
|
||||
|
||||
; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4)
|
||||
; vld1.u8 {d6}, [r12]! ;#18
|
||||
|
||||
; sub r0, r0, r1, lsl #3
|
||||
; sub r3, r3, r1, lsl #3
|
||||
|
||||
; vshr.s8 q13, q13, #3 ; Filter2 >>= 3
|
||||
; vceq.i8 q2, q2, q11 ; s = (s==4)*-1
|
||||
|
||||
; add r0, r0, r1
|
||||
; add r3, r3, r1
|
||||
|
||||
; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2)
|
||||
; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2)
|
||||
|
||||
; vld1.u8 {d5}, [r12]! ;#27
|
||||
; vmov q10, q15
|
||||
; vmov q12, q15
|
||||
|
||||
; vqadd.s8 q6, q6, q11 ; ps0 = vp8_signed_char_clamp(ps0 + u)
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||
vqadd.s8 q2, q13, q11 ; Filter1 = vp8_signed_char_clamp(Filter2+4)
|
||||
vqadd.s8 q13, q13, q12 ; Filter2 = vp8_signed_char_clamp(Filter2+3)
|
||||
|
||||
|
|
|
@ -36,8 +36,7 @@
|
|||
ldr r12, _mbhlfy_coeff_
|
||||
vld1.u8 {q6}, [r0], r1 ; p0
|
||||
|
||||
;vp8_filter_mask() function
|
||||
;vp8_hevmask() function
|
||||
; vp8_filter_mask
|
||||
vabd.u8 q11, q3, q4 ; abs(p3 - p2)
|
||||
vld1.u8 {q7}, [r0], r1 ; q0
|
||||
vabd.u8 q12, q4, q5 ; abs(p2 - p1)
|
||||
|
@ -49,29 +48,25 @@
|
|||
vabd.u8 q3, q9, q8 ; abs(q2 - q1)
|
||||
vabd.u8 q0, q10, q9 ; abs(q3 - q2)
|
||||
|
||||
vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
|
||||
vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1
|
||||
vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1
|
||||
vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
|
||||
vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1
|
||||
vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1
|
||||
|
||||
vand q15, q15, q12
|
||||
vmax.u8 q11, q11, q12
|
||||
vmax.u8 q12, q13, q14
|
||||
vmax.u8 q3, q3, q0
|
||||
vmax.u8 q15, q11, q12
|
||||
|
||||
vabd.u8 q12, q6, q7 ; abs(p0 - q0)
|
||||
|
||||
; vp8_hevmask
|
||||
vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1
|
||||
vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1
|
||||
vmax.u8 q15, q15, q3
|
||||
|
||||
vld1.s8 {d4[], d5[]}, [r2] ; flimit
|
||||
|
||||
vand q10, q10, q11
|
||||
vand q3, q3, q0
|
||||
|
||||
vld1.u8 {q0}, [r12]!
|
||||
|
||||
vadd.u8 q2, q2, q2 ; flimit * 2
|
||||
vadd.u8 q2, q2, q1 ; flimit * 2 + limit
|
||||
vcge.u8 q15, q1, q15
|
||||
|
||||
vabd.u8 q1, q5, q8 ; abs(p1 - q1)
|
||||
vqadd.u8 q12, q12, q12 ; abs(p0 - q0) * 2
|
||||
|
@ -79,8 +74,6 @@
|
|||
vqadd.u8 q12, q12, q1 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2
|
||||
vcge.u8 q12, q2, q12 ; (abs(p0 - q0)*2 + abs(p1 - q1)/2 > flimit*2 + limit)*-1
|
||||
|
||||
vand q15, q15, q10
|
||||
|
||||
;vp8_filter() function
|
||||
veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
|
||||
veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value
|
||||
|
@ -91,29 +84,23 @@
|
|||
;;;;;;;;;;;;;
|
||||
vorr q14, q13, q14 ; q14: vp8_hevmask
|
||||
|
||||
;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
|
||||
vsubl.s8 q2, d14, d12 ; ( qs0 - ps0)
|
||||
vsubl.s8 q13, d15, d13
|
||||
|
||||
vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
|
||||
|
||||
;vadd.s8 q10, q2, q2 ; 3 * ( qs0 - ps0)
|
||||
vadd.s16 q10, q2, q2 ; 3 * ( qs0 - ps0)
|
||||
vadd.s16 q11, q13, q13
|
||||
vand q15, q15, q12 ; vp8_filter_mask
|
||||
|
||||
vand q3, q3, q12
|
||||
|
||||
;vadd.s8 q2, q2, q10
|
||||
vadd.s16 q2, q2, q10
|
||||
vadd.s16 q13, q13, q11
|
||||
|
||||
vld1.u8 {q12}, [r12]! ;#3
|
||||
|
||||
;vqadd.s8 q1, q1, q2 ; vp8_filter + 3 * ( qs0 - ps0)
|
||||
vaddw.s8 q2, q2, d2 ; vp8_filter + 3 * ( qs0 - ps0)
|
||||
vaddw.s8 q13, q13, d3
|
||||
|
||||
vand q15, q15, q3 ; q15: vp8_filter_mask
|
||||
vld1.u8 {q11}, [r12]! ;#4
|
||||
|
||||
vqmovn.s16 d2, q2 ; vp8_filter = vp8_signed_char_clamp(vp8_filter + 3 * ( qs0 - ps0))
|
||||
|
@ -129,29 +116,6 @@
|
|||
vld1.u8 {d7}, [r12]! ;#9
|
||||
sub r0, r0, r1, lsl #3
|
||||
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;Change for VP8 from VP7
|
||||
; vand q2, q13, q12 ; s = Filter2 & 7
|
||||
|
||||
; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4)
|
||||
; vld1.u8 {d6}, [r12]! ;#18
|
||||
|
||||
; add r0, r0, r1
|
||||
; add r2, r0, r1
|
||||
|
||||
; vshr.s8 q13, q13, #3 ; Filter2 >>= 3
|
||||
; vceq.i8 q2, q2, q11 ; s = (s==4)*-1
|
||||
|
||||
; add r3, r2, r1
|
||||
|
||||
; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2)
|
||||
; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2)
|
||||
|
||||
; vld1.u8 {d5}, [r12]! ;#27
|
||||
; vmov q10, q15
|
||||
; vmov q12, q15
|
||||
|
||||
; vqadd.s8 q6, q6, q11 ; ps0 = vp8_signed_char_clamp(ps0 + u)
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||
vqadd.s8 q2, q13, q11 ; Filter1 = vp8_signed_char_clamp(Filter2+4)
|
||||
vqadd.s8 q13, q13, q12 ; Filter2 = vp8_signed_char_clamp(Filter2+3)
|
||||
|
||||
|
|
|
@ -71,8 +71,7 @@
|
|||
ldr r12, _mbvlfuv_coeff_
|
||||
vst1.u8 {q10}, [sp]!
|
||||
|
||||
;vp8_filter_mask() function
|
||||
;vp8_hevmask() function
|
||||
; vp8_filter_mask
|
||||
vabd.u8 q11, q3, q4 ; abs(p3 - p2)
|
||||
vabd.u8 q12, q4, q5 ; abs(p2 - p1)
|
||||
vabd.u8 q13, q5, q6 ; abs(p1 - p0)
|
||||
|
@ -80,29 +79,25 @@
|
|||
vabd.u8 q3, q9, q8 ; abs(q2 - q1)
|
||||
vabd.u8 q0, q10, q9 ; abs(q3 - q2)
|
||||
|
||||
vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
|
||||
vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1
|
||||
vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1
|
||||
vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
|
||||
vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1
|
||||
vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1
|
||||
|
||||
vand q15, q15, q12
|
||||
vmax.u8 q11, q11, q12
|
||||
vmax.u8 q12, q13, q14
|
||||
vmax.u8 q3, q3, q0
|
||||
vmax.u8 q15, q11, q12
|
||||
|
||||
vabd.u8 q12, q6, q7 ; abs(p0 - q0)
|
||||
|
||||
; vp8_hevmask
|
||||
vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1
|
||||
vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1
|
||||
vmax.u8 q15, q15, q3
|
||||
|
||||
vld1.s8 {d4[], d5[]}, [r2] ; flimit
|
||||
|
||||
vand q10, q10, q11
|
||||
vand q3, q3, q0
|
||||
|
||||
vld1.u8 {q0}, [r12]!
|
||||
|
||||
vadd.u8 q2, q2, q2 ; flimit * 2
|
||||
vadd.u8 q2, q2, q1 ; flimit * 2 + limit
|
||||
vcge.u8 q15, q1, q15
|
||||
|
||||
vabd.u8 q1, q5, q8 ; abs(p1 - q1)
|
||||
vqadd.u8 q12, q12, q12 ; abs(p0 - q0) * 2
|
||||
|
@ -110,8 +105,6 @@
|
|||
vqadd.u8 q12, q12, q1 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2
|
||||
vcge.u8 q12, q2, q12 ; (abs(p0 - q0)*2 + abs(p1 - q1)/2 > flimit*2 + limit)*-1
|
||||
|
||||
vand q15, q15, q10
|
||||
|
||||
;vp8_filter() function
|
||||
veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
|
||||
veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value
|
||||
|
@ -122,29 +115,23 @@
|
|||
;;;;;;;;;;;;;
|
||||
vorr q14, q13, q14 ; q14: vp8_hevmask
|
||||
|
||||
;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
|
||||
vsubl.s8 q2, d14, d12 ; ( qs0 - ps0)
|
||||
vsubl.s8 q13, d15, d13
|
||||
|
||||
vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
|
||||
|
||||
;vadd.s8 q10, q2, q2 ; 3 * ( qs0 - ps0)
|
||||
vadd.s16 q10, q2, q2 ; 3 * ( qs0 - ps0)
|
||||
vadd.s16 q11, q13, q13
|
||||
vand q15, q15, q12 ; vp8_filter_mask
|
||||
|
||||
vand q3, q3, q12
|
||||
|
||||
;vadd.s8 q2, q2, q10
|
||||
vadd.s16 q2, q2, q10
|
||||
vadd.s16 q13, q13, q11
|
||||
|
||||
vld1.u8 {q12}, [r12]! ;#3
|
||||
|
||||
;vqadd.s8 q1, q1, q2 ; vp8_filter + 3 * ( qs0 - ps0)
|
||||
vaddw.s8 q2, q2, d2 ; vp8_filter + 3 * ( qs0 - ps0)
|
||||
vaddw.s8 q13, q13, d3
|
||||
|
||||
vand q15, q15, q3 ; q15: vp8_filter_mask
|
||||
vld1.u8 {q11}, [r12]! ;#4
|
||||
|
||||
vqmovn.s16 d2, q2 ; vp8_filter = vp8_signed_char_clamp(vp8_filter + 3 * ( qs0 - ps0))
|
||||
|
@ -160,28 +147,6 @@
|
|||
vld1.u8 {d7}, [r12]! ;#9
|
||||
;
|
||||
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;Change for VP8 from VP7
|
||||
; vand q2, q13, q12 ; s = Filter2 & 7
|
||||
|
||||
; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4)
|
||||
; vld1.u8 {d6}, [r12]! ;#18
|
||||
|
||||
; sub r0, r0, r1, lsl #3
|
||||
; sub r3, r3, r1, lsl #3
|
||||
; sub sp, sp, #32
|
||||
|
||||
; vshr.s8 q13, q13, #3 ; Filter2 >>= 3
|
||||
; vceq.i8 q2, q2, q11 ; s = (s==4)*-1
|
||||
|
||||
; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2)
|
||||
; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2)
|
||||
|
||||
; vld1.u8 {d5}, [r12]! ;#27
|
||||
; vmov q10, q15
|
||||
; vmov q12, q15
|
||||
|
||||
; vqadd.s8 q6, q6, q11 ; ps0 = vp8_signed_char_clamp(ps0 + u)
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||
vqadd.s8 q2, q13, q11 ; Filter1 = vp8_signed_char_clamp(Filter2+4)
|
||||
vqadd.s8 q13, q13, q12 ; Filter2 = vp8_signed_char_clamp(Filter2+3)
|
||||
|
||||
|
|
|
@ -69,8 +69,7 @@
|
|||
ldr r12, _mbvlfy_coeff_
|
||||
vst1.u8 {q10}, [sp]!
|
||||
|
||||
;vp8_filter_mask() function
|
||||
;vp8_hevmask() function
|
||||
; vp8_filter_mask
|
||||
vabd.u8 q11, q3, q4 ; abs(p3 - p2)
|
||||
vabd.u8 q12, q4, q5 ; abs(p2 - p1)
|
||||
vabd.u8 q13, q5, q6 ; abs(p1 - p0)
|
||||
|
@ -78,29 +77,25 @@
|
|||
vabd.u8 q3, q9, q8 ; abs(q2 - q1)
|
||||
vabd.u8 q0, q10, q9 ; abs(q3 - q2)
|
||||
|
||||
vcge.u8 q15, q1, q11 ; (abs(p3 - p2) > limit)*-1
|
||||
vcge.u8 q12, q1, q12 ; (abs(p2 - p1) > limit)*-1
|
||||
vcge.u8 q10, q1, q13 ; (abs(p1 - p0) > limit)*-1
|
||||
vcge.u8 q11, q1, q14 ; (abs(q1 - q0) > limit)*-1
|
||||
vcge.u8 q3, q1, q3 ; (abs(q2 - q1) > limit)*-1
|
||||
vcge.u8 q0, q1, q0 ; (abs(q3 - q2) > limit)*-1
|
||||
|
||||
vand q15, q15, q12
|
||||
vmax.u8 q11, q11, q12
|
||||
vmax.u8 q12, q13, q14
|
||||
vmax.u8 q3, q3, q0
|
||||
vmax.u8 q15, q11, q12
|
||||
|
||||
vabd.u8 q12, q6, q7 ; abs(p0 - q0)
|
||||
|
||||
; vp8_hevmask
|
||||
vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh)*-1
|
||||
vcgt.u8 q14, q14, q2 ; (abs(q1 - q0) > thresh)*-1
|
||||
vmax.u8 q15, q15, q3
|
||||
|
||||
vld1.s8 {d4[], d5[]}, [r2] ; flimit
|
||||
|
||||
vand q10, q10, q11
|
||||
vand q3, q3, q0
|
||||
|
||||
vld1.u8 {q0}, [r12]!
|
||||
|
||||
vadd.u8 q2, q2, q2 ; flimit * 2
|
||||
vadd.u8 q2, q2, q1 ; flimit * 2 + limit
|
||||
vcge.u8 q15, q1, q15
|
||||
|
||||
vabd.u8 q1, q5, q8 ; abs(p1 - q1)
|
||||
vqadd.u8 q12, q12, q12 ; abs(p0 - q0) * 2
|
||||
|
@ -108,8 +103,6 @@
|
|||
vqadd.u8 q12, q12, q1 ; abs(p0 - q0) * 2 + abs(p1 - q1) / 2
|
||||
vcge.u8 q12, q2, q12 ; (abs(p0 - q0)*2 + abs(p1 - q1)/2 > flimit*2 + limit)*-1
|
||||
|
||||
vand q15, q15, q10
|
||||
|
||||
;vp8_filter() function
|
||||
veor q7, q7, q0 ; qs0: q0 offset to convert to a signed value
|
||||
veor q6, q6, q0 ; ps0: p0 offset to convert to a signed value
|
||||
|
@ -120,29 +113,23 @@
|
|||
;;;;;;;;;;;;;
|
||||
vorr q14, q13, q14 ; q14: vp8_hevmask
|
||||
|
||||
;vqsub.s8 q2, q7, q6 ; ( qs0 - ps0)
|
||||
vsubl.s8 q2, d14, d12 ; ( qs0 - ps0)
|
||||
vsubl.s8 q13, d15, d13
|
||||
|
||||
vqsub.s8 q1, q5, q8 ; vp8_filter = vp8_signed_char_clamp(ps1-qs1)
|
||||
|
||||
;vadd.s8 q10, q2, q2 ; 3 * ( qs0 - ps0)
|
||||
vadd.s16 q10, q2, q2 ; 3 * ( qs0 - ps0)
|
||||
vadd.s16 q11, q13, q13
|
||||
vand q15, q15, q12 ; vp8_filter_mask
|
||||
|
||||
vand q3, q3, q12
|
||||
|
||||
;vadd.s8 q2, q2, q10
|
||||
vadd.s16 q2, q2, q10
|
||||
vadd.s16 q13, q13, q11
|
||||
|
||||
vld1.u8 {q12}, [r12]! ;#3
|
||||
|
||||
;vqadd.s8 q1, q1, q2 ; vp8_filter + 3 * ( qs0 - ps0)
|
||||
vaddw.s8 q2, q2, d2 ; vp8_filter + 3 * ( qs0 - ps0)
|
||||
vaddw.s8 q13, q13, d3
|
||||
|
||||
vand q15, q15, q3 ; q15: vp8_filter_mask
|
||||
vld1.u8 {q11}, [r12]! ;#4
|
||||
|
||||
vqmovn.s16 d2, q2 ; vp8_filter = vp8_signed_char_clamp(vp8_filter + 3 * ( qs0 - ps0))
|
||||
|
@ -158,30 +145,6 @@
|
|||
vld1.u8 {d7}, [r12]! ;#9
|
||||
;
|
||||
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;Change for VP8 from VP7
|
||||
; vand q2, q13, q12 ; s = Filter2 & 7
|
||||
|
||||
; vqadd.s8 q13, q13, q11 ; Filter2 = vp8_signed_char_clamp(Filter2+4)
|
||||
; vld1.u8 {d6}, [r12]! ;#18
|
||||
|
||||
; sub r0, r0, r1, lsl #4
|
||||
; sub sp, sp, #32
|
||||
; add r2, r0, r1
|
||||
|
||||
; vshr.s8 q13, q13, #3 ; Filter2 >>= 3
|
||||
; vceq.i8 q2, q2, q11 ; s = (s==4)*-1
|
||||
|
||||
; add r3, r2, r1
|
||||
|
||||
; vqsub.s8 q7, q7, q13 ; qs0 = vp8_signed_char_clamp(qs0 - Filter2)
|
||||
; vqadd.s8 q11, q2, q13 ; u = vp8_signed_char_clamp(s + Filter2)
|
||||
|
||||
; vld1.u8 {d5}, [r12]! ;#27
|
||||
; vmov q10, q15
|
||||
; vmov q12, q15
|
||||
|
||||
; vqadd.s8 q6, q6, q11 ; ps0 = vp8_signed_char_clamp(ps0 + u)
|
||||
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
|
||||
vqadd.s8 q2, q13, q11 ; Filter1 = vp8_signed_char_clamp(Filter2+4)
|
||||
vqadd.s8 q13, q13, q12 ; Filter2 = vp8_signed_char_clamp(Filter2+3)
|
||||
|
||||
|
|
Загрузка…
Ссылка в новой задаче