mirror of
https://chromium.googlesource.com/libyuv/libyuv
synced 2025-12-06 16:56:55 +08:00
BUG=none TEST=none Review URL: https://webrtc-codereview.appspot.com/875004 git-svn-id: http://libyuv.googlecode.com/svn/trunk@415 16f28f9a-4ce2-e073-06de-1de4eb20be90
942 lines
38 KiB
C++
942 lines
38 KiB
C++
/*
|
|
* Copyright 2011 The LibYuv Project Authors. All rights reserved.
|
|
*
|
|
* Use of this source code is governed by a BSD-style license
|
|
* that can be found in the LICENSE file in the root of the source
|
|
* tree. An additional intellectual property rights grant can be found
|
|
* in the file PATENTS. All contributing project authors may
|
|
* be found in the AUTHORS file in the root of the source tree.
|
|
*/
|
|
|
|
#include "libyuv/row.h"
|
|
|
|
#ifdef __cplusplus
|
|
namespace libyuv {
|
|
extern "C" {
|
|
#endif
|
|
|
|
// This module is for GCC Neon
|
|
#if !defined(YUV_DISABLE_ASM) && defined(__ARM_NEON__)
|
|
|
|
// Read 8 Y, 4 U and 4 V from 422
|
|
#define READYUV422 \
|
|
"vld1.u8 {d0}, [%0]! \n" \
|
|
"vld1.u32 {d2[0]}, [%1]! \n" \
|
|
"vld1.u32 {d2[1]}, [%2]! \n"
|
|
|
|
// Read 8 Y and 4 UV from NV12
|
|
#define READNV12 \
|
|
"vld1.u8 {d0}, [%0]! \n" \
|
|
"vld1.u8 {d2}, [%1]! \n" \
|
|
"vmov.u8 d3, d2 \n"/* split odd/even uv apart */\
|
|
"vuzp.u8 d2, d3 \n" \
|
|
"vtrn.u32 d2, d3 \n" \
|
|
|
|
// Read 8 Y and 4 VU from NV21
|
|
#define READNV21 \
|
|
"vld1.u8 {d0}, [%0]! \n" \
|
|
"vld1.u8 {d2}, [%1]! \n" \
|
|
"vmov.u8 d3, d2 \n"/* split odd/even uv apart */\
|
|
"vuzp.u8 d3, d2 \n" \
|
|
"vtrn.u32 d2, d3 \n" \
|
|
|
|
#define YUV422TORGB \
|
|
"veor.u8 d2, d26 \n"/*subtract 128 from u and v*/\
|
|
"vmull.s8 q8, d2, d24 \n"/* u/v B/R component */\
|
|
"vmull.s8 q9, d2, d25 \n"/* u/v G component */\
|
|
"vmov.u8 d1, #0 \n"/* split odd/even y apart */\
|
|
"vtrn.u8 d0, d1 \n" \
|
|
"vsub.s16 q0, q0, q15 \n"/* offset y */\
|
|
"vmul.s16 q0, q0, q14 \n" \
|
|
"vadd.s16 d18, d19 \n" \
|
|
"vqadd.s16 d20, d0, d16 \n" /* B */ \
|
|
"vqadd.s16 d21, d1, d16 \n" \
|
|
"vqadd.s16 d22, d0, d17 \n" /* R */ \
|
|
"vqadd.s16 d23, d1, d17 \n" \
|
|
"vqadd.s16 d16, d0, d18 \n" /* G */ \
|
|
"vqadd.s16 d17, d1, d18 \n" \
|
|
"vqrshrun.s16 d0, q10, #6 \n" /* B */ \
|
|
"vqrshrun.s16 d1, q11, #6 \n" /* G */ \
|
|
"vqrshrun.s16 d2, q8, #6 \n" /* R */ \
|
|
"vmovl.u8 q10, d0 \n"/* set up for reinterleave*/\
|
|
"vmovl.u8 q11, d1 \n" \
|
|
"vmovl.u8 q8, d2 \n" \
|
|
"vtrn.u8 d20, d21 \n" \
|
|
"vtrn.u8 d22, d23 \n" \
|
|
"vtrn.u8 d16, d17 \n" \
|
|
"vmov.u8 d21, d16 \n"
|
|
|
|
#if defined(HAS_I422TOARGBROW_NEON) || defined(HAS_I422TOBGRAROW_NEON) || \
|
|
defined(HAS_I422TOABGRROW_NEON) || defined(HAS_I422TORGBAROW_NEON)
|
|
static const vec8 kUVToRB = { 127, 127, 127, 127, 102, 102, 102, 102,
|
|
0, 0, 0, 0, 0, 0, 0, 0 };
|
|
static const vec8 kUVToG = { -25, -25, -25, -25, -52, -52, -52, -52,
|
|
0, 0, 0, 0, 0, 0, 0, 0 };
|
|
#endif
|
|
|
|
#ifdef HAS_I422TOARGBROW_NEON
|
|
void I422ToARGBRow_NEON(const uint8* src_y,
|
|
const uint8* src_u,
|
|
const uint8* src_v,
|
|
uint8* dst_argb,
|
|
int width) {
|
|
asm volatile (
|
|
"vld1.u8 {d24}, [%5] \n"
|
|
"vld1.u8 {d25}, [%6] \n"
|
|
"vmov.u8 d26, #128 \n"
|
|
"vmov.u16 q14, #74 \n"
|
|
"vmov.u16 q15, #16 \n"
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
READYUV422
|
|
YUV422TORGB
|
|
"subs %4, %4, #8 \n"
|
|
"vmov.u8 d23, #255 \n"
|
|
"vst4.8 {d20, d21, d22, d23}, [%3]! \n"
|
|
"bgt 1b \n"
|
|
: "+r"(src_y), // %0
|
|
"+r"(src_u), // %1
|
|
"+r"(src_v), // %2
|
|
"+r"(dst_argb), // %3
|
|
"+r"(width) // %4
|
|
: "r"(&kUVToRB), // %5
|
|
"r"(&kUVToG) // %6
|
|
: "cc", "memory", "q0", "q1", "q2", "q3",
|
|
"q8", "q9", "q10", "q11", "q12", "q13", "q14", "q15"
|
|
);
|
|
}
|
|
#endif // HAS_I422TOARGBROW_NEON
|
|
|
|
#ifdef HAS_I422TOBGRAROW_NEON
|
|
void I422ToBGRARow_NEON(const uint8* src_y,
|
|
const uint8* src_u,
|
|
const uint8* src_v,
|
|
uint8* dst_bgra,
|
|
int width) {
|
|
asm volatile (
|
|
"vld1.u8 {d24}, [%5] \n"
|
|
"vld1.u8 {d25}, [%6] \n"
|
|
"vmov.u8 d26, #128 \n"
|
|
"vmov.u16 q14, #74 \n"
|
|
"vmov.u16 q15, #16 \n"
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
READYUV422
|
|
YUV422TORGB
|
|
"subs %4, %4, #8 \n"
|
|
"vswp.u8 d20, d22 \n"
|
|
"vmov.u8 d19, #255 \n"
|
|
"vst4.8 {d19, d20, d21, d22}, [%3]! \n"
|
|
"bgt 1b \n"
|
|
: "+r"(src_y), // %0
|
|
"+r"(src_u), // %1
|
|
"+r"(src_v), // %2
|
|
"+r"(dst_bgra), // %3
|
|
"+r"(width) // %4
|
|
: "r"(&kUVToRB), // %5
|
|
"r"(&kUVToG) // %6
|
|
: "cc", "memory", "q0", "q1", "q2", "q3",
|
|
"q8", "q9", "q10", "q11", "q12", "q13", "q14", "q15"
|
|
);
|
|
}
|
|
#endif // HAS_I422TOBGRAROW_NEON
|
|
|
|
#ifdef HAS_I422TOABGRROW_NEON
|
|
void I422ToABGRRow_NEON(const uint8* src_y,
|
|
const uint8* src_u,
|
|
const uint8* src_v,
|
|
uint8* dst_abgr,
|
|
int width) {
|
|
asm volatile (
|
|
"vld1.u8 {d24}, [%5] \n"
|
|
"vld1.u8 {d25}, [%6] \n"
|
|
"vmov.u8 d26, #128 \n"
|
|
"vmov.u16 q14, #74 \n"
|
|
"vmov.u16 q15, #16 \n"
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
READYUV422
|
|
YUV422TORGB
|
|
"subs %4, %4, #8 \n"
|
|
"vswp.u8 d20, d22 \n"
|
|
"vmov.u8 d23, #255 \n"
|
|
"vst4.8 {d20, d21, d22, d23}, [%3]! \n"
|
|
"bgt 1b \n"
|
|
: "+r"(src_y), // %0
|
|
"+r"(src_u), // %1
|
|
"+r"(src_v), // %2
|
|
"+r"(dst_abgr), // %3
|
|
"+r"(width) // %4
|
|
: "r"(&kUVToRB), // %5
|
|
"r"(&kUVToG) // %6
|
|
: "cc", "memory", "q0", "q1", "q2", "q3",
|
|
"q8", "q9", "q10", "q11", "q12", "q13", "q14", "q15"
|
|
);
|
|
}
|
|
#endif // HAS_I422TOABGRROW_NEON
|
|
|
|
#ifdef HAS_I422TORGBAROW_NEON
|
|
void I422ToRGBARow_NEON(const uint8* src_y,
|
|
const uint8* src_u,
|
|
const uint8* src_v,
|
|
uint8* dst_rgba,
|
|
int width) {
|
|
asm volatile (
|
|
"vld1.u8 {d24}, [%5] \n"
|
|
"vld1.u8 {d25}, [%6] \n"
|
|
"vmov.u8 d26, #128 \n"
|
|
"vmov.u16 q14, #74 \n"
|
|
"vmov.u16 q15, #16 \n"
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
READYUV422
|
|
YUV422TORGB
|
|
"subs %4, %4, #8 \n"
|
|
"vmov.u8 d19, #255 \n"
|
|
"vst4.8 {d19, d20, d21, d22}, [%3]! \n"
|
|
"bgt 1b \n"
|
|
: "+r"(src_y), // %0
|
|
"+r"(src_u), // %1
|
|
"+r"(src_v), // %2
|
|
"+r"(dst_rgba), // %3
|
|
"+r"(width) // %4
|
|
: "r"(&kUVToRB), // %5
|
|
"r"(&kUVToG) // %6
|
|
: "cc", "memory", "q0", "q1", "q2", "q3",
|
|
"q8", "q9", "q10", "q11", "q12", "q13", "q14", "q15"
|
|
);
|
|
}
|
|
#endif // HAS_I422TORGBAROW_NEON
|
|
|
|
#ifdef HAS_I422TORGB24ROW_NEON
|
|
void I422ToRGB24Row_NEON(const uint8* src_y,
|
|
const uint8* src_u,
|
|
const uint8* src_v,
|
|
uint8* dst_rgb24,
|
|
int width) {
|
|
asm volatile (
|
|
"vld1.u8 {d24}, [%5] \n"
|
|
"vld1.u8 {d25}, [%6] \n"
|
|
"vmov.u8 d26, #128 \n"
|
|
"vmov.u16 q14, #74 \n"
|
|
"vmov.u16 q15, #16 \n"
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
READYUV422
|
|
YUV422TORGB
|
|
"subs %4, %4, #8 \n"
|
|
"vst3.8 {d20, d21, d22}, [%3]! \n"
|
|
"bgt 1b \n"
|
|
: "+r"(src_y), // %0
|
|
"+r"(src_u), // %1
|
|
"+r"(src_v), // %2
|
|
"+r"(dst_rgb24), // %3
|
|
"+r"(width) // %4
|
|
: "r"(&kUVToRB), // %5
|
|
"r"(&kUVToG) // %6
|
|
: "cc", "memory", "q0", "q1", "q2", "q3",
|
|
"q8", "q9", "q10", "q11", "q12", "q13", "q14", "q15"
|
|
);
|
|
}
|
|
#endif // HAS_I422TORGB24ROW_NEON
|
|
|
|
#ifdef HAS_I422TORAWROW_NEON
|
|
void I422ToRAWRow_NEON(const uint8* src_y,
|
|
const uint8* src_u,
|
|
const uint8* src_v,
|
|
uint8* dst_raw,
|
|
int width) {
|
|
asm volatile (
|
|
"vld1.u8 {d24}, [%5] \n"
|
|
"vld1.u8 {d25}, [%6] \n"
|
|
"vmov.u8 d26, #128 \n"
|
|
"vmov.u16 q14, #74 \n"
|
|
"vmov.u16 q15, #16 \n"
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
READYUV422
|
|
YUV422TORGB
|
|
"subs %4, %4, #8 \n"
|
|
"vswp.u8 d20, d22 \n"
|
|
"vst3.8 {d20, d21, d22}, [%3]! \n"
|
|
"bgt 1b \n"
|
|
: "+r"(src_y), // %0
|
|
"+r"(src_u), // %1
|
|
"+r"(src_v), // %2
|
|
"+r"(dst_raw), // %3
|
|
"+r"(width) // %4
|
|
: "r"(&kUVToRB), // %5
|
|
"r"(&kUVToG) // %6
|
|
: "cc", "memory", "q0", "q1", "q2", "q3",
|
|
"q8", "q9", "q10", "q11", "q12", "q13", "q14", "q15"
|
|
);
|
|
}
|
|
#endif // HAS_I422TORAWROW_NEON
|
|
|
|
#ifdef HAS_NV12TOARGBROW_NEON
|
|
void NV12ToARGBRow_NEON(const uint8* src_y,
|
|
const uint8* src_uv,
|
|
uint8* dst_argb,
|
|
int width) {
|
|
asm volatile (
|
|
"vld1.u8 {d24}, [%4] \n"
|
|
"vld1.u8 {d25}, [%5] \n"
|
|
"vmov.u8 d26, #128 \n"
|
|
"vmov.u16 q14, #74 \n"
|
|
"vmov.u16 q15, #16 \n"
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
READNV12
|
|
YUV422TORGB
|
|
"subs %3, %3, #8 \n"
|
|
"vmov.u8 d23, #255 \n"
|
|
"vst4.8 {d20, d21, d22, d23}, [%2]! \n"
|
|
"bgt 1b \n"
|
|
: "+r"(src_y), // %0
|
|
"+r"(src_uv), // %1
|
|
"+r"(dst_argb), // %2
|
|
"+r"(width) // %3
|
|
: "r"(&kUVToRB), // %4
|
|
"r"(&kUVToG) // %5
|
|
: "cc", "memory", "q0", "q1", "q2", "q3",
|
|
"q8", "q9", "q10", "q11", "q12", "q13", "q14", "q15"
|
|
);
|
|
}
|
|
#endif // HAS_NV12TOARGBROW_NEON
|
|
|
|
#ifdef HAS_NV21TOARGBROW_NEON
|
|
void NV21ToARGBRow_NEON(const uint8* src_y,
|
|
const uint8* src_uv,
|
|
uint8* dst_argb,
|
|
int width) {
|
|
asm volatile (
|
|
"vld1.u8 {d24}, [%4] \n"
|
|
"vld1.u8 {d25}, [%5] \n"
|
|
"vmov.u8 d26, #128 \n"
|
|
"vmov.u16 q14, #74 \n"
|
|
"vmov.u16 q15, #16 \n"
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
READNV21
|
|
YUV422TORGB
|
|
"subs %3, %3, #8 \n"
|
|
"vmov.u8 d23, #255 \n"
|
|
"vst4.8 {d20, d21, d22, d23}, [%2]! \n"
|
|
"bgt 1b \n"
|
|
: "+r"(src_y), // %0
|
|
"+r"(src_uv), // %1
|
|
"+r"(dst_argb), // %2
|
|
"+r"(width) // %3
|
|
: "r"(&kUVToRB), // %4
|
|
"r"(&kUVToG) // %5
|
|
: "cc", "memory", "q0", "q1", "q2", "q3",
|
|
"q8", "q9", "q10", "q11", "q12", "q13", "q14", "q15"
|
|
);
|
|
}
|
|
#endif // HAS_NV21TOARGBROW_NEON
|
|
|
|
#ifdef HAS_SPLITUV_NEON
|
|
// Reads 16 pairs of UV and write even values to dst_u and odd to dst_v
|
|
// Alignment requirement: 16 bytes for pointers, and multiple of 16 pixels.
|
|
void SplitUV_NEON(const uint8* src_uv, uint8* dst_u, uint8* dst_v, int width) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld2.u8 {q0, q1}, [%0]! \n" // load 16 pairs of UV
|
|
"subs %3, %3, #16 \n" // 16 processed per loop
|
|
"vst1.u8 {q0}, [%1]! \n" // store U
|
|
"vst1.u8 {q1}, [%2]! \n" // Store V
|
|
"bgt 1b \n"
|
|
: "+r"(src_uv), // %0
|
|
"+r"(dst_u), // %1
|
|
"+r"(dst_v), // %2
|
|
"+r"(width) // %3 // Output registers
|
|
: // Input registers
|
|
: "memory", "cc", "q0", "q1" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_SPLITUV_NEON
|
|
|
|
#ifdef HAS_COPYROW_NEON
|
|
// Copy multiple of 64
|
|
void CopyRow_NEON(const uint8* src, uint8* dst, int count) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vldm %0!, {q0, q1, q2, q3} \n" // load 64
|
|
"subs %2, %2, #64 \n" // 64 processed per loop
|
|
"vstm %1!, {q0, q1, q2, q3} \n" // store 64
|
|
"bgt 1b \n"
|
|
: "+r"(src), // %0
|
|
"+r"(dst), // %1
|
|
"+r"(count) // %2 // Output registers
|
|
: // Input registers
|
|
: "memory", "cc", "q0", "q1", "q2", "q3" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_COPYROW_NEON
|
|
|
|
#ifdef HAS_SETROW_NEON
|
|
// SetRow8 writes 'count' bytes using a 32 bit value repeated.
|
|
void SetRow8_NEON(uint8* dst, uint32 v32, int count) {
|
|
asm volatile ( // NOLINT
|
|
"vdup.u32 q0, %2 \n" // duplicate 4 ints
|
|
"1: \n"
|
|
"subs %1, %1, #16 \n" // 16 bytes per loop
|
|
"vst1.u32 {q0}, [%0]! \n" // store
|
|
"bgt 1b \n"
|
|
: "+r"(dst), // %0
|
|
"+r"(count) // %1
|
|
: "r"(v32) // %2
|
|
: "q0", "memory", "cc");
|
|
}
|
|
|
|
// TODO(fbarchard): Make fully assembler
|
|
// SetRow32 writes 'count' words using a 32 bit value repeated.
|
|
void SetRows32_NEON(uint8* dst, uint32 v32, int width,
|
|
int dst_stride, int height) {
|
|
for (int y = 0; y < height; ++y) {
|
|
SetRow8_NEON(dst, v32, width << 2);
|
|
dst += dst_stride;
|
|
}
|
|
}
|
|
#endif // HAS_SETROW_NEON
|
|
|
|
#ifdef HAS_MIRRORROW_NEON
|
|
void MirrorRow_NEON(const uint8* src, uint8* dst, int width) {
|
|
asm volatile (
|
|
// compute where to start writing destination
|
|
"add %1, %2 \n"
|
|
// work on segments that are multiples of 16
|
|
"lsrs r3, %2, #4 \n"
|
|
// the output is written in two block. 8 bytes followed
|
|
// by another 8. reading is done sequentially, from left to
|
|
// right. writing is done from right to left in block sizes
|
|
// %1, the destination pointer is incremented after writing
|
|
// the first of the two blocks. need to subtract that 8 off
|
|
// along with 16 to get the next location.
|
|
"mov r3, #-24 \n"
|
|
"beq 2f \n"
|
|
|
|
// back of destination by the size of the register that is
|
|
// going to be mirrored
|
|
"sub %1, #16 \n"
|
|
// the loop needs to run on blocks of 16. what will be left
|
|
// over is either a negative number, the residuals that need
|
|
// to be done, or 0. If this isn't subtracted off here the
|
|
// loop will run one extra time.
|
|
"sub %2, #16 \n"
|
|
|
|
// mirror the bytes in the 64 bit segments. unable to mirror
|
|
// the bytes in the entire 128 bits in one go.
|
|
// because of the inability to mirror the entire 128 bits
|
|
// mirror the writing out of the two 64 bit segments.
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld1.8 {q0}, [%0]! \n" // src += 16
|
|
"subs %2, #16 \n"
|
|
"vrev64.8 q0, q0 \n"
|
|
"vst1.8 {d1}, [%1]! \n"
|
|
"vst1.8 {d0}, [%1], r3 \n" // dst -= 16
|
|
"bge 1b \n"
|
|
|
|
// add 16 back to the counter. if the result is 0 there is no
|
|
// residuals so jump past
|
|
"adds %2, #16 \n"
|
|
"beq 5f \n"
|
|
"add %1, #16 \n"
|
|
"2: \n"
|
|
"mov r3, #-3 \n"
|
|
"sub %1, #2 \n"
|
|
"subs %2, #2 \n"
|
|
// check for 16*n+1 scenarios where segments_of_2 should not
|
|
// be run, but there is something left over.
|
|
"blt 4f \n"
|
|
|
|
// do this in neon registers as per
|
|
// http://blogs.arm.com/software-enablement/196-coding-for-neon-part-2-dealing-with-leftovers/
|
|
"3: \n"
|
|
"vld2.8 {d0[0], d1[0]}, [%0]! \n" // src += 2
|
|
"subs %2, #2 \n"
|
|
"vst1.8 {d1[0]}, [%1]! \n"
|
|
"vst1.8 {d0[0]}, [%1], r3 \n" // dst -= 2
|
|
"bge 3b \n"
|
|
|
|
"adds %2, #2 \n"
|
|
"beq 5f \n"
|
|
"4: \n"
|
|
"add %1, #1 \n"
|
|
"vld1.8 {d0[0]}, [%0] \n"
|
|
"vst1.8 {d0[0]}, [%1] \n"
|
|
"5: \n"
|
|
: "+r"(src), // %0
|
|
"+r"(dst), // %1
|
|
"+r"(width) // %2
|
|
:
|
|
: "memory", "cc", "r3", "q0"
|
|
);
|
|
}
|
|
#endif // HAS_MIRRORROW_NEON
|
|
|
|
#ifdef HAS_MIRRORROWUV_NEON
|
|
void MirrorRowUV_NEON(const uint8* src, uint8* dst_a, uint8* dst_b, int width) {
|
|
asm volatile (
|
|
// compute where to start writing destination
|
|
"add %1, %3 \n" // dst_a + width
|
|
"add %2, %3 \n" // dst_b + width
|
|
// work on input segments that are multiples of 16, but
|
|
// width that has been passed is output segments, half
|
|
// the size of input.
|
|
"lsrs r12, %3, #3 \n"
|
|
"beq 2f \n"
|
|
// the output is written in to two blocks.
|
|
"mov r12, #-8 \n"
|
|
// back of destination by the size of the register that is
|
|
// going to be mirrord
|
|
"sub %1, #8 \n"
|
|
"sub %2, #8 \n"
|
|
// the loop needs to run on blocks of 8. what will be left
|
|
// over is either a negative number, the residuals that need
|
|
// to be done, or 0. if this isn't subtracted off here the
|
|
// loop will run one extra time.
|
|
"sub %3, #8 \n"
|
|
|
|
// mirror the bytes in the 64 bit segments
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld2.8 {d0, d1}, [%0]! \n" // src += 16
|
|
"subs %3, #8 \n"
|
|
"vrev64.8 q0, q0 \n"
|
|
"vst1.8 {d0}, [%1], r12 \n" // dst_a -= 8
|
|
"vst1.8 {d1}, [%2], r12 \n" // dst_b -= 8
|
|
"bge 1b \n"
|
|
|
|
// add 8 back to the counter. if the result is 0 there is no
|
|
// residuals so return
|
|
"adds %3, #8 \n"
|
|
"beq 4f \n"
|
|
"add %1, #8 \n"
|
|
"add %2, #8 \n"
|
|
"2: \n"
|
|
"mov r12, #-1 \n"
|
|
"sub %1, #1 \n"
|
|
"sub %2, #1 \n"
|
|
"3: \n"
|
|
"vld2.8 {d0[0], d1[0]}, [%0]! \n" // src += 2
|
|
"subs %3, %3, #1 \n"
|
|
"vst1.8 {d0[0]}, [%1], r12 \n" // dst_a -= 1
|
|
"vst1.8 {d1[0]}, [%2], r12 \n" // dst_b -= 1
|
|
"bgt 3b \n"
|
|
"4: \n"
|
|
: "+r"(src), // %0
|
|
"+r"(dst_a), // %1
|
|
"+r"(dst_b), // %2
|
|
"+r"(width) // %3
|
|
:
|
|
: "memory", "cc", "r12", "q0"
|
|
);
|
|
}
|
|
#endif // HAS_MIRRORROWUV_NEON
|
|
|
|
#ifdef HAS_BGRATOARGBROW_NEON
|
|
void BGRAToARGBRow_NEON(const uint8* src_bgra, uint8* dst_argb, int pix) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld4.8 {d0, d1, d2, d3}, [%0]! \n" // load 8 pixels of BGRA.
|
|
"subs %2, %2, #8 \n" // 8 processed per loop.
|
|
"vswp.u8 d1, d2 \n" // swap G, R
|
|
"vswp.u8 d0, d3 \n" // swap B, A
|
|
"vst4.8 {d0, d1, d2, d3}, [%1]! \n" // store 8 pixels of ARGB.
|
|
"bgt 1b \n"
|
|
: "+r"(src_bgra), // %0
|
|
"+r"(dst_argb), // %1
|
|
"+r"(pix) // %2
|
|
:
|
|
: "memory", "cc", "d0", "d1", "d2", "d3" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_BGRATOARGBROW_NEON
|
|
|
|
#ifdef HAS_ABGRTOARGBROW_NEON
|
|
void ABGRToARGBRow_NEON(const uint8* src_abgr, uint8* dst_argb, int pix) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld4.8 {d0, d1, d2, d3}, [%0]! \n" // load 8 pixels of ABGR.
|
|
"subs %2, %2, #8 \n" // 8 processed per loop.
|
|
"vswp.u8 d0, d2 \n" // swap R, B
|
|
"vst4.8 {d0, d1, d2, d3}, [%1]! \n" // store 8 pixels of ARGB.
|
|
"bgt 1b \n"
|
|
: "+r"(src_abgr), // %0
|
|
"+r"(dst_argb), // %1
|
|
"+r"(pix) // %2
|
|
:
|
|
: "memory", "cc", "d0", "d1", "d2", "d3" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_ABGRTOARGBROW_NEON
|
|
|
|
#ifdef HAS_RGBATOARGBROW_NEON
|
|
void RGBAToARGBRow_NEON(const uint8* src_rgba, uint8* dst_argb, int pix) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld4.8 {d0, d1, d2, d3}, [%0]! \n" // load 8 pixels of RGBA.
|
|
"subs %2, %2, #8 \n" // 8 processed per loop.
|
|
"vmov.u8 d4, d0 \n" // move A after RGB
|
|
"vst4.8 {d1, d2, d3, d4}, [%1]! \n" // store 8 pixels of ARGB.
|
|
"bgt 1b \n"
|
|
: "+r"(src_rgba), // %0
|
|
"+r"(dst_argb), // %1
|
|
"+r"(pix) // %2
|
|
:
|
|
: "memory", "cc", "d0", "d1", "d2", "d3", "d4" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_RGBATOARGBROW_NEON
|
|
|
|
#ifdef HAS_RGB24TOARGBROW_NEON
|
|
void RGB24ToARGBRow_NEON(const uint8* src_rgb24, uint8* dst_argb, int pix) {
|
|
asm volatile (
|
|
"vmov.u8 d4, #255 \n" // Alpha
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld3.8 {d1, d2, d3}, [%0]! \n" // load 8 pixels of RGB24.
|
|
"subs %2, %2, #8 \n" // 8 processed per loop.
|
|
"vst4.8 {d1, d2, d3, d4}, [%1]! \n" // store 8 pixels of ARGB.
|
|
"bgt 1b \n"
|
|
: "+r"(src_rgb24), // %0
|
|
"+r"(dst_argb), // %1
|
|
"+r"(pix) // %2
|
|
:
|
|
: "memory", "cc", "d1", "d2", "d3", "d4" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_RGB24TOARGBROW_NEON
|
|
|
|
#ifdef HAS_RAWTOARGBROW_NEON
|
|
void RAWToARGBRow_NEON(const uint8* src_raw, uint8* dst_argb, int pix) {
|
|
asm volatile (
|
|
"vmov.u8 d4, #255 \n" // Alpha
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld3.8 {d1, d2, d3}, [%0]! \n" // load 8 pixels of RAW.
|
|
"subs %2, %2, #8 \n" // 8 processed per loop.
|
|
"vswp.u8 d1, d3 \n" // swap R, B
|
|
"vst4.8 {d1, d2, d3, d4}, [%1]! \n" // store 8 pixels of ARGB.
|
|
"bgt 1b \n"
|
|
: "+r"(src_raw), // %0
|
|
"+r"(dst_argb), // %1
|
|
"+r"(pix) // %2
|
|
:
|
|
: "memory", "cc", "d1", "d2", "d3", "d4" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_RAWTOARGBROW_NEON
|
|
|
|
#ifdef HAS_ARGBTORGBAROW_NEON
|
|
void ARGBToRGBARow_NEON(const uint8* src_argb, uint8* dst_rgba, int pix) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld4.8 {d1, d2, d3, d4}, [%0]! \n" // load 8 pixels of ARGB.
|
|
"subs %2, %2, #8 \n" // 8 processed per loop.
|
|
"vmov.u8 d0, d4 \n" // move A before RGB.
|
|
"vst4.8 {d0, d1, d2, d3}, [%1]! \n" // store 8 pixels of RGBA.
|
|
"bgt 1b \n"
|
|
: "+r"(src_argb), // %0
|
|
"+r"(dst_rgba), // %1
|
|
"+r"(pix) // %2
|
|
:
|
|
: "memory", "cc", "d0", "d1", "d2", "d3", "d4" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_ARGBTORGBAROW_NEON
|
|
|
|
#ifdef HAS_ARGBTORGB24ROW_NEON
|
|
void ARGBToRGB24Row_NEON(const uint8* src_argb, uint8* dst_rgb24, int pix) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld4.8 {d1, d2, d3, d4}, [%0]! \n" // load 8 pixels of ARGB.
|
|
"subs %2, %2, #8 \n" // 8 processed per loop.
|
|
"vst3.8 {d1, d2, d3}, [%1]! \n" // store 8 pixels of RGB24.
|
|
"bgt 1b \n"
|
|
: "+r"(src_argb), // %0
|
|
"+r"(dst_rgb24), // %1
|
|
"+r"(pix) // %2
|
|
:
|
|
: "memory", "cc", "d1", "d2", "d3", "d4" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_ARGBTORGB24ROW_NEON
|
|
|
|
#ifdef HAS_ARGBTORAWROW_NEON
|
|
void ARGBToRAWRow_NEON(const uint8* src_argb, uint8* dst_raw, int pix) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld4.8 {d1, d2, d3, d4}, [%0]! \n" // load 8 pixels of ARGB.
|
|
"subs %2, %2, #8 \n" // 8 processed per loop.
|
|
"vswp.u8 d1, d3 \n" // swap R, B
|
|
"vst3.8 {d1, d2, d3}, [%1]! \n" // store 8 pixels of RAW.
|
|
"bgt 1b \n"
|
|
: "+r"(src_argb), // %0
|
|
"+r"(dst_raw), // %1
|
|
"+r"(pix) // %2
|
|
:
|
|
: "memory", "cc", "d1", "d2", "d3", "d4" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_ARGBTORAWROW_NEON
|
|
|
|
#ifdef HAS_YUY2TOYROW_NEON
|
|
void YUY2ToYRow_NEON(const uint8* src_yuy2, uint8* dst_y, int pix) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld2.u8 {q0, q1}, [%0]! \n" // load 16 pixels of YUY2.
|
|
"subs %2, %2, #16 \n" // 16 processed per loop.
|
|
"vst1.u8 {q0}, [%1]! \n" // store 16 pixels of Y.
|
|
"bgt 1b \n"
|
|
: "+r"(src_yuy2), // %0
|
|
"+r"(dst_y), // %1
|
|
"+r"(pix) // %2
|
|
:
|
|
: "memory", "cc", "q0", "q1" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_YUY2TOYROW_NEON
|
|
|
|
#ifdef HAS_UYVYTOYROW_NEON
|
|
void UYVYToYRow_NEON(const uint8* src_uyvy, uint8* dst_y, int pix) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld2.u8 {q0, q1}, [%0]! \n" // load 16 pixels of UYVY.
|
|
"subs %2, %2, #16 \n" // 16 processed per loop.
|
|
"vst1.u8 {q1}, [%1]! \n" // store 16 pixels of Y.
|
|
"bgt 1b \n"
|
|
: "+r"(src_uyvy), // %0
|
|
"+r"(dst_y), // %1
|
|
"+r"(pix) // %2
|
|
:
|
|
: "memory", "cc", "q0", "q1" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_UYVYTOYROW_NEON
|
|
|
|
#ifdef HAS_YUY2TOYROW_NEON
|
|
void YUY2ToUV422Row_NEON(const uint8* src_yuy2, uint8* dst_u, uint8* dst_v,
|
|
int pix) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld4.8 {d0, d1, d2, d3}, [%0]! \n" // load 16 pixels of YUY2.
|
|
"subs %3, %3, #16 \n" // 16 pixels = 8 UVs.
|
|
"vst1.u8 {d1}, [%1]! \n" // store 8 U.
|
|
"vst1.u8 {d3}, [%2]! \n" // store 8 V.
|
|
"bgt 1b \n"
|
|
: "+r"(src_yuy2), // %0
|
|
"+r"(dst_u), // %1
|
|
"+r"(dst_v), // %2
|
|
"+r"(pix) // %3
|
|
:
|
|
: "memory", "cc", "d0", "d1", "d2", "d3" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_YUY2TOYROW_NEON
|
|
|
|
#ifdef HAS_UYVYTOYROW_NEON
|
|
void UYVYToUV422Row_NEON(const uint8* src_uyvy, uint8* dst_u, uint8* dst_v,
|
|
int pix) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld4.8 {d0, d1, d2, d3}, [%0]! \n" // load 16 pixels of UYVY.
|
|
"subs %3, %3, #16 \n" // 16 pixels = 8 UVs.
|
|
"vst1.u8 {d0}, [%1]! \n" // store 8 U.
|
|
"vst1.u8 {d2}, [%2]! \n" // store 8 V.
|
|
"bgt 1b \n"
|
|
: "+r"(src_uyvy), // %0
|
|
"+r"(dst_u), // %1
|
|
"+r"(dst_v), // %2
|
|
"+r"(pix) // %3
|
|
:
|
|
: "memory", "cc", "d0", "d1", "d2", "d3" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_UYVYTOYROW_NEON
|
|
|
|
#ifdef HAS_YUY2TOYROW_NEON
|
|
void YUY2ToUVRow_NEON(const uint8* src_yuy2, int stride_yuy2,
|
|
uint8* dst_u, uint8* dst_v, int pix) {
|
|
asm volatile (
|
|
"adds %1, %0, %1 \n" // stride + src_yuy2
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld4.8 {d0, d1, d2, d3}, [%0]! \n" // load 16 pixels of YUY2.
|
|
"subs %4, %4, #16 \n" // 16 pixels = 8 UVs.
|
|
"vld4.8 {d4, d5, d6, d7}, [%1]! \n" // load next row YUY2.
|
|
"vrhadd.u8 d1, d1, d5 \n" // average rows of U
|
|
"vrhadd.u8 d3, d3, d7 \n" // average rows of V
|
|
"vst1.u8 {d1}, [%2]! \n" // store 8 U.
|
|
"vst1.u8 {d3}, [%3]! \n" // store 8 V.
|
|
"bgt 1b \n"
|
|
: "+r"(src_yuy2), // %0
|
|
"+r"(stride_yuy2), // %1
|
|
"+r"(dst_u), // %2
|
|
"+r"(dst_v), // %3
|
|
"+r"(pix) // %4
|
|
:
|
|
: "memory", "cc", "d0", "d1", "d2", "d3", "d4", "d5", "d6", "d7" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_YUY2TOYROW_NEON
|
|
|
|
#ifdef HAS_UYVYTOYROW_NEON
|
|
void UYVYToUVRow_NEON(const uint8* src_uyvy, int stride_uyvy,
|
|
uint8* dst_u, uint8* dst_v, int pix) {
|
|
asm volatile (
|
|
"adds %1, %0, %1 \n" // stride + src_uyvy
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld4.8 {d0, d1, d2, d3}, [%0]! \n" // load 16 pixels of UYVY.
|
|
"subs %4, %4, #16 \n" // 16 pixels = 8 UVs.
|
|
"vld4.8 {d4, d5, d6, d7}, [%1]! \n" // load next row UYVY.
|
|
"vrhadd.u8 d0, d0, d4 \n" // average rows of U
|
|
"vrhadd.u8 d2, d2, d6 \n" // average rows of V
|
|
"vst1.u8 {d0}, [%2]! \n" // store 8 U.
|
|
"vst1.u8 {d2}, [%3]! \n" // store 8 V.
|
|
"bgt 1b \n"
|
|
: "+r"(src_uyvy), // %0
|
|
"+r"(stride_uyvy), // %1
|
|
"+r"(dst_u), // %2
|
|
"+r"(dst_v), // %3
|
|
"+r"(pix) // %4
|
|
:
|
|
: "memory", "cc", "d0", "d1", "d2", "d3", "d4", "d5", "d6", "d7" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_UYVYTOYROW_NEON
|
|
|
|
void HalfRow_NEON(const uint8* src_uv, int src_uv_stride,
|
|
uint8* dst_uv, int pix) {
|
|
asm volatile (
|
|
// change the stride to row 2 pointer
|
|
"add %1, %0 \n"
|
|
"1: \n"
|
|
"vld1.u8 {q0}, [%0]! \n" // load row 1 16 pixels.
|
|
"subs %3, %3, #16 \n" // 16 processed per loop
|
|
"vld1.u8 {q1}, [%1]! \n" // load row 2 16 pixels.
|
|
"vrhadd.u8 q0, q1 \n" // average row 1 and 2
|
|
"vst1.u8 {q0}, [%2]! \n"
|
|
"bgt 1b \n"
|
|
: "+r"(src_uv), // %0
|
|
"+r"(src_uv_stride), // %1
|
|
"+r"(dst_uv), // %2
|
|
"+r"(pix) // %3
|
|
:
|
|
: "memory", "cc", "q0", "q1" // Clobber List
|
|
);
|
|
}
|
|
|
|
// Select 2 channels from ARGB on alternating pixels. e.g. BGBGBGBG
|
|
void ARGBToBayerRow_NEON(const uint8* src_argb,
|
|
uint8* dst_bayer, uint32 selector, int pix) {
|
|
asm volatile (
|
|
"vmov.u32 d2[0], %2 \n" // selector
|
|
"1: \n"
|
|
"vld1.u8 {q0}, [%0]! \n" // load row 4 pixels.
|
|
"subs %3, %3, #4 \n" // 4 processed per loop
|
|
"vtbl.8 d3, {d0, d1}, d2 \n" // look up 4 pixels
|
|
"vst1.u32 {d3[0]}, [%1]! \n" // store 4.
|
|
"bgt 1b \n"
|
|
: "+r"(src_argb), // %0
|
|
"+r"(dst_bayer), // %1
|
|
"+r"(selector), // %2
|
|
"+r"(pix) // %3
|
|
:
|
|
: "memory", "cc", "q0", "q1" // Clobber List
|
|
);
|
|
}
|
|
|
|
void I422ToYUY2Row_NEON(const uint8* src_y,
|
|
const uint8* src_u,
|
|
const uint8* src_v,
|
|
uint8* dst_yuy2, int width) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld2.8 {d0, d2}, [%0]! \n" // load 16 Ys
|
|
"vld1.8 {d1}, [%1]! \n" // load 8 Us
|
|
"vld1.8 {d3}, [%2]! \n" // load 8 Vs
|
|
"subs %4, %4, #16 \n" // 16 pixels
|
|
"vst4.u8 {d0, d1, d2, d3}, [%3]! \n" // Store 8 YUY2/16 pixels.
|
|
"bgt 1b \n"
|
|
: "+r"(src_y), // %0
|
|
"+r"(src_u), // %1
|
|
"+r"(src_v), // %2
|
|
"+r"(dst_yuy2), // %3
|
|
"+r"(width) // %4
|
|
:
|
|
: "cc", "memory", "d0", "d1", "d2", "d3"
|
|
);
|
|
}
|
|
|
|
void I422ToUYVYRow_NEON(const uint8* src_y,
|
|
const uint8* src_u,
|
|
const uint8* src_v,
|
|
uint8* dst_uyvy, int width) {
|
|
asm volatile (
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld2.8 {d1, d3}, [%0]! \n" // load 16 Ys
|
|
"vld1.8 {d0}, [%1]! \n" // load 8 Us
|
|
"vld1.8 {d2}, [%2]! \n" // load 8 Vs
|
|
"subs %4, %4, #16 \n" // 16 pixels
|
|
"vst4.u8 {d0, d1, d2, d3}, [%3]! \n" // Store 8 UYVY/16 pixels.
|
|
"bgt 1b \n"
|
|
: "+r"(src_y), // %0
|
|
"+r"(src_u), // %1
|
|
"+r"(src_v), // %2
|
|
"+r"(dst_uyvy), // %3
|
|
"+r"(width) // %4
|
|
:
|
|
: "cc", "memory", "d0", "d1", "d2", "d3"
|
|
);
|
|
}
|
|
|
|
#ifdef HAS_ARGBTOARGB4444ROW_NEON
|
|
void ARGBToARGB4444Row_NEON(const uint8* src_argb, uint8* dst_argb4444, int pix) {
|
|
asm volatile (
|
|
"vmov.u8 d4, #0x0f \n" // bits to clear with vbic.
|
|
".p2align 2 \n"
|
|
"1: \n"
|
|
"vld4.8 {d0, d1, d2, d3}, [%0]! \n" // load 8 pixels of ARGB.
|
|
"subs %2, %2, #8 \n" // 8 processed per loop.
|
|
"vshr.u8 d0, d0, #4 \n" // B
|
|
"vbic.32 d1, d1, d4 \n" // G
|
|
"vshr.u8 d2, d2, #4 \n" // R
|
|
"vbic.32 d3, d3, d4 \n" // A
|
|
"vorr d0, d0, d1 \n" // BG
|
|
"vorr d1, d2, d3 \n" // RA
|
|
"vzip.u8 d0, d1 \n" // BGRA weaved together.
|
|
"vst1.8 {q0}, [%1]! \n" // store 8 pixels ARGB4444.
|
|
"bgt 1b \n"
|
|
: "+r"(src_argb), // %0
|
|
"+r"(dst_argb4444), // %1
|
|
"+r"(pix) // %2
|
|
:
|
|
: "memory", "cc", "d0", "d1", "d2", "d3", "d4" // Clobber List
|
|
);
|
|
}
|
|
#endif // HAS_ARGBTOARGB4444ROW_NEON
|
|
#endif // __ARM_NEON__
|
|
|
|
#ifdef __cplusplus
|
|
} // extern "C"
|
|
} // namespace libyuv
|
|
#endif
|