本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《 阿里云开发者社区用户服务协议 》和 《 阿里云开发者社区知识产权保护指引 》。如果您发现本社区中有涉嫌抄袭的内容,填写 侵权投诉表单 进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

介绍了如何提取整个音视频码流的媒体信息,包括:封装格式、编码格式、视频的分辨率、帧率、码率、音频的采样率、位宽、通道数等等,而本文则关注得更细一点,看看如何利用 ffmpeg 读取码流中每一帧的信息。

1.  码流中每一帧的哪些信息值得关注 ?

[ ]  音频帧还是视频帧

[ ]  关键帧还是非关键帧

[ ]  帧的数据和大小

[ ]  时间戳信息

2.  为什么要关注这些信息 ?

[ ]  音频帧还是视频帧 -> 分别送入音频/视频解码器

[ ]  关键帧还是非关键帧 -> 追帧优化

[ ]  帧的数据和大小 -> 取出帧的内容

[ ]  时间戳信息 -> 音视频同步

3. 如何从 ffmpeg 取出这些信息 ?

ffmpeg 提供了一个函数 av_read_frame 来完成解封装的过程,它会从码流里面提取每一个音频、视频帧,它使用了结构体 AVPacket 来记录每一帧的信息。

读取一帧数据的代码示例如下(ic 即为 AVFormatContext 对象,码流的上下文句柄):

3.4 如何获取帧的时间戳信息

每一个帧都可能携带有 2 个时间戳信息,一个是解码时间戳 dts,一个是显示时间戳 pts,解码时间戳告诉我们什么时候需要解码,显示时间戳告诉我们什么时候需要显示,只有在码流中存在 B 帧的情况下,这两个时间戳才会不一致。

这些时间戳信息不一定存在于码流中(取决于生产端),如果不存在,则其值为:AV_NOPTS_VALUE

一定要选择正确地方式打印时间戳,时间戳是使用 long long 来表示的,即 int64_t,因此打印的时候,需要使用 “%lld” 来打印,例如: