介绍了如何提取整个音视频码流的媒体信息,包括:封装格式、编码格式、视频的分辨率、帧率、码率、音频的采样率、位宽、通道数等等,而本文则关注得更细一点,看看如何利用 ffmpeg 读取码流中每一帧的信息。
1. 码流中每一帧的哪些信息值得关注 ?
[ ] 音频帧还是视频帧
[ ] 关键帧还是非关键帧
[ ] 帧的数据和大小
[ ] 时间戳信息
2. 为什么要关注这些信息 ?
[ ] 音频帧还是视频帧 -> 分别送入音频/视频解码器
[ ] 关键帧还是非关键帧 -> 追帧优化
[ ] 帧的数据和大小 -> 取出帧的内容
[ ] 时间戳信息 -> 音视频同步
3. 如何从 ffmpeg 取出这些信息 ?
ffmpeg 提供了一个函数 av_read_frame 来完成解封装的过程,它会从码流里面提取每一个音频、视频帧,它使用了结构体 AVPacket 来记录每一帧的信息。
读取一帧数据的代码示例如下(ic 即为 AVFormatContext 对象,码流的上下文句柄):
3.4 如何获取帧的时间戳信息
每一个帧都可能携带有 2 个时间戳信息,一个是解码时间戳 dts,一个是显示时间戳 pts,解码时间戳告诉我们什么时候需要解码,显示时间戳告诉我们什么时候需要显示,只有在码流中存在 B 帧的情况下,这两个时间戳才会不一致。
这些时间戳信息不一定存在于码流中(取决于生产端),如果不存在,则其值为:AV_NOPTS_VALUE
一定要选择正确地方式打印时间戳,时间戳是使用 long long 来表示的,即 int64_t,因此打印的时候,需要使用 “%lld” 来打印,例如: