网站首页 > 技术教程 正文
上一篇文章我们对FFmpeg进行交叉编译,得到了编译产物:libffmpeg.so,然后创建了一个Android项目,对libffmpeg.so库实现了集成,还没阅读上一篇文章建议先阅读:Android FFmpeg开发(一),FFmpeg编译与集成
本文将利用FFmpeg对本地MP4视频文件进行视频流解码,然后使用FFmpeg中的libswscale模块将原始视频YUV帧转成RGB帧,最后将RGB帧数据刷到SurfaceView的surface中实现视频画面的渲染。
接下来,介绍下利用FFmpeg完成视频解码、渲染的流程。
一、FFmpeg解码视频流
利用FFmpeg API对视频进行解码,然后将解码数据转换成RGBA格式数据,最后将画面数据刷到surface上,涉及到FFmpeg核心API调用流程如下:
解码流程代码如下:
// 1. 创建封装格式上下文
mAVFormatContext = avformat_alloc_context();
// 2. 打开文件
if (avformat_open_input(&mAVFormatContext, mUrl, NULL, NULL) != 0) {
LOGD("BaseDecoder::initFFDecoder, avformat_open_input fail\n");
break;
}
// 3. 获取音视频信息流信息
if (avformat_find_stream_info(mAVFormatContext, NULL) < 0) {
LOGD("BaseDecoder::initFFDecoder, avformat_find_stream_info fail\n");
break;
}
// 4. 获取音视频流的索引
for (int i = 0; i < mAVFormatContext->nb_streams; i++) {
if (mAVFormatContext->streams[i]->codecpar->codec_type == mMediaType) {
mStreamIndex = i;
break;
}
}
if (mStreamIndex == -1) {
LOGD("BaseDecoder::initFFDecoder, failed to find stream index\n");
break;
}
// 5. 获取解码器参数
AVCodecParameters *codecParameters = mAVFormatContext->streams[mStreamIndex]->codecpar;
// 6. 获取解码器
mAVCodec = avcodec_find_decoder(codecParameters->codec_id);
if (mAVCodec == nullptr) {
LOGD("BaseDecoder::initFFDecoder, avcodec_find_decoder fail\n");
break;
}
// 7. 创建解码器上下文
mAVCodecContext = avcodec_alloc_context3(mAVCodec);
if (avcodec_parameters_to_context(mAVCodecContext, codecParameters) != 0) {
LOGD("BaseDecoder::initFFDecoder, avcodec_parameters_to_context fail\n");
break;
}
// 8. open 解码器
AVDictionary *pAVDictionary = nullptr;
av_dict_set(&pAVDictionary, "buffer_size", "1024000", 0);
av_dict_set(&pAVDictionary, "stimeout", "20000000", 0);
av_dict_set(&pAVDictionary, "max_delay", "30000000", 0);
av_dict_set(&pAVDictionary, "rtsp_transport", "tcp", 0);
res = avcodec_open2(mAVCodecContext, mAVCodec, &pAVDictionary);
if (res < 0) {
LOGD("BaseDecoder::initFFDecoder, avcodec_open2 fail, result=%d\n", res);
break;
}
// 9. 循环解码
for (;;) {
if (解码结束) {
break;
}
av_read_frame(mAVFormatContext, mAVPacket);
avcodec_send_packet(mAVCodecContext, mAVPacket);
while (avcodec_receive_frame(mAVCodecContext, mFrame) == 0) {
// 渲染...
}
}
相关学习资料推荐,点击下方链接免费报名,先码住不迷路~】
音视频免费学习地址:FFmpeg/WebRTC/RTMP/NDK/Android音视频流媒体高级开发
【免费分享】音视频学习资料包、大厂面试题、技术视频和学习路线图,资料包括(C/C++,Linux,FFmpeg webRTC rtmp hls rtsp ffplay srs 等等)有需要的可以点击788280672加群免费领取~
二、ANativeWindow帧渲染
通过上一节,我们完成了视频流解码,拿到了每帧的原始数据(YUV帧),现在我们需要将每帧数据刷到Surface所对应的FrameBuffer中,实现帧渲染。思考下,我们需要解决哪些问题
1.解码帧(AVFrame)的尺寸不一,我们需要按照SurfaceView的尺寸对解码帧进行scale
2.解码帧(AVFrame)的数据格式是YUV格式,但是SurfaceView所对应的本地窗口ANativeWindow只接受RGBA数据,所以需要格式转换
3.播放同步控制,子线程解码渲染帧的速度要和视频每帧的实际播放的时间要同步对应上。正常情况下,视频的帧率FPS为25左右,但子线程实际解码渲染帧的速度会远远大于25。
对于问题1和2,通过FFmpeg的libswscale模块可以解决。看下关键代码:
// 根据java层的surface获取ANativeWindow
mNativeWindow = ANativeWindow_fromSurface(env, surface);
// 获取window的宽高
int windowWidth = ANativeWindow_getWidth(mNativeWindow);
int windowHeight = ANativeWindow_getHeight(mNativeWindow);
// 获取视频的宽高
int videoWidth = mAVCodecContext->width;
int videoHeight = mAVCodecContext->height;
// 根据视频宽高比,调整window的宽高,最终宽高输出为mDstWidth和mDstHeight
if (windowWidth < windowHeight * videoWidth / videoHeight) {
mDstWidth = windowWidth;
mDstHeight = windowWidth * videoHeight / videoWidth;
} else {
mDstHeight = windowHeight;
mDstWidth = windowHeight * videoWidth / videoHeight;
}
// 调整window buffer的尺寸
ANativeWindow_setBuffersGeometry(mNativeWindow, mDstWidth, mDstHeight, WINDOW_FORMAT_RGBA_8888);
// 分配一个AVFrame,后面scale之后的视频帧会存储到mRGBAFrame中
mRGBAFrame = av_frame_alloc();
// 根据尺寸和图像格式,获取buffer大小
int bufferSize = av_image_get_buffer_size(AV_PIX_FMT_RGBA, mDstWidth, mDstHeight, 1);
// 根据不福尔size分配一块FrameBuffer内存
mFrameBuffer = (uint8_t *) av_malloc(bufferSize * sizeof(uint8_t));
// 利用mFrameBuffer的size和图像格式AV_PIX_FMT_RGBA,填充mRGBAFrame
av_image_fill_arrays(mRGBAFrame->data, mRGBAFrame->linesize,
mFrameBuffer, AV_PIX_FMT_RGBA,
mDstWidth, mDstHeight, 1);
// 根据目标尺寸和图片格式初始化SwsContext
mSwsContext = sws_getContext(videoWidth, videoHeight, getCodecContext()->pix_fmt,
mDstWidth, mDstHeight, AV_PIX_FMT_RGBA,
SWS_FAST_BILINEAR, NULL, NULL, NULL);
/**
* 收到一个解码帧
*/
void VideoDecoder::onFrameAvailable(AVFrame *frame) {
if (mVideoRender != nullptr && frame != nullptr) {
// 自定义结构体,用于存储最终转换后的帧数据
NativeImage image;
if (mVideoRender->getRenderType() == VIDEO_RENDER_ANWINDOW) {
// 帧缩放+格式转换(YUV to RGB)
sws_scale(mSwsContext, frame->data, frame->linesize, 0, mVideoHeight,
mRGBAFrame->data, mRGBAFrame->linesize);
// 构造NativeImage
image.format = IMAGE_FORMAT_RGBA;
image.width = mRenderWidth;
image.height = mRenderHeight;
image.ppPlane[0] = mRGBAFrame->data[0];
image.pLineSize[0] = image.width * 4;
}
mVideoRender->renderVideoFrame(&image);
}
}
/**
* 最终渲染
*/
void NativeRender::renderVideoFrame(NativeImage *pImage) {
if (mNativeWindow == nullptr || pImage == nullptr) {
return;
}
// 获取window对应的buffer
ANativeWindow_lock(mNativeWindow, &mNativeWindowBuffer, nullptr);
uint8_t *dstBuffer = static_cast<uint8_t *>(mNativeWindowBuffer.bits);
int srcLineSize = pImage->width * 4;
int dstLineSize = mNativeWindowBuffer.stride * 4;
for (int i = 0; i < mDstHeight; ++i) {
// 将RGB数据拷贝到window的buffer中
memcpy(dstBuffer + i * dstLineSize, pImage->ppPlane[0] + i * srcLineSize, srcLineSize);
}
// 提交
ANativeWindow_unlockAndPost(mNativeWindow);
}
接下来,看下同步功能的实现。这里我们向系统时间同步,整体实现方式:
1.记录下开始解码第一帧的时间,为起播时间:mStartTimeStamp = getSysCurrentTime();
2.每次新解码一帧时,记录当前流逝时间:long elapsedTime = curSysTime - mStartTimeStamp;
3.从当前帧AVFrame中获取本帧的播放时间:mCurrentTime = mFrame->pkt_dts;
4.如果当前解码帧的播放时间比已经流逝时间大,就sleep线程进行等待。
其实同步功能整体就是一个"你追我等"的过程。核心代码如下:
// 在第一次解码时设置mStartTimeStamp,定为开始播放的时间
if (mStartTimeStamp == -1) {
// 设置起播时间
mStartTimeStamp = getSysCurrentTime();
}
/**
* 获取当前解码帧的播放时间
*/
if (mFrame->pkt_dts != AV_NOPTS_VALUE) {
mCurTimeStamp = mFrame->pkt_dts;
} else if (mFrame->pts != AV_NOPTS_VALUE) {
mCurTimeStamp = mFrame->pts;
} else {
mCurTimeStamp = 0;
}
// 距离起播时间的流逝时间
long curSysTime = getSysCurrentTime();
long elapsedTime = curSysTime - mStartTimeStamp;
// 解码速度快于系统时间
if (mCurTimeStamp > elapsedTime) {
auto sleepTime = static_cast<unsigned int >(mCurTimeStamp - elapsedTime);
// 限制休眠时间
sleepTime = sleepTime > DELAY_THRESHOLD ? DELAY_THRESHOLD : sleepTime;
// 解码速度太快,等待...
av_usleep(sleepTime * 1000);
}
三、总结
本文利用FFmpeg+ANativeWindow完成了视频的解码和渲染,并对解码速度向系统时钟实现了同步,下一篇文章我们将实现对音频流的解码和播放。
源码链接
git clone git@github.com:lorienzhang/HelloFFmpeg.git
# 检出 v2 tag 进行查看
git checkout v2
原文链接:Android FFmpeg开发(二),实现视频解码和渲染
猜你喜欢
- 2024-11-06 Qt音视频开发9-ffmpeg录像存储(nba比赛录像回放)
- 2024-11-06 音视频开源基础 - ffmpeg命令(ffmpeg音频处理)
- 2024-11-06 ffmpeg常用命令行集锦(ffmpeg 命令大全)
- 2024-11-06 音视频开发7. ffmpeg 几个重要结构体
- 2024-11-06 超详细的手把手下载安装FFmpeg整个过程,你学会了吗?
- 2024-11-06 FFmpeg硬解码(ffmpeg硬解码和直接使用cuda的区别)
- 2024-11-06 mPEG-Lys(MAL)-DBCO,甲氧基PEG赖氨酸马来酰亚胺二苯并环辛炔
- 2024-11-06 音视频流媒体高级开发(FFmpeg6.0/WebRTC/RTMP/RTSP/编码解码)
- 2024-11-06 FFmpeg在windows的安装、合并、切片、.m4s、.m3u8处理
- 2024-11-06 完美解决Linux环境编译ffmpeg库(linux编译环境配置)
你 发表评论:
欢迎- 最近发表
-
- Win11学院:如何在Windows 11上使用WSL安装Ubuntu
- linux移植(Linux移植freemodbus)
- 独家解读:Win10预览版9879为何无法识别硬盘
- 基于Linux系统的本地Yum源搭建与配置(ISO方式、RPM方式)
- Docker镜像瘦身(docker 减小镜像大小)
- 在linux上安装ollama(linux安装locale)
- 渗透测试系统Kali推出Docker镜像(kali linux渗透测试技术详解pdf)
- Linux环境中部署Harbor私有镜像仓库
- linux之间传文件命令之Rsync傻瓜式教程
- 解决ollama在linux中安装或升级时,通过国内镜像缩短安装时长
- 标签列表
-
- 下划线是什么 (87)
- 精美网站 (58)
- qq登录界面 (90)
- nginx 命令 (82)
- nginx .http (73)
- nginx lua (70)
- nginx 重定向 (68)
- Nginx超时 (65)
- nginx 监控 (57)
- odbc (59)
- rar密码破解工具 (62)
- annotation (71)
- 红黑树 (57)
- 智力题 (62)
- php空间申请 (61)
- 按键精灵 注册码 (69)
- 软件测试报告 (59)
- ntcreatefile (64)
- 闪动文字 (56)
- guid (66)
- abap (63)
- mpeg 2 (65)
- column (63)
- dreamweaver教程 (57)
- excel行列转换 (56)
本文暂时没有评论,来添加一个吧(●'◡'●)