视频和视频帧:ffmpeg的RTMP推流

视频和视频帧:ffmpeg的RTMP推流

写在前面

本文将介绍以下内容:

  • 什么是推流?将介绍推流常见的协议 RTMP HLS 等。
  • 怎么用ffmpeg做推流,包括 cmd code 两种方式。
  • 笔者在开发推流时遇到的一些坑点。


I. 推流简介

笔者最初听到“推流”时,内心想:“这是什么高端玩意儿?”,迫于项目压力,不得不顶着压力调研和开发。经过一段时间的学习、开发和总结,笔者终于明白了 推流,到底是个什么高端玩意儿?

什么是推流?

科普 | 直播中常说的推流拉流究竟是什么东东? 中说:

推流,指的是把采集阶段封包好的内容传输到服务器的过程。其实就是将现场的视频信号传到网络的过程。

用大白话讲, 推流就是把本地音视频数据通过网络上传到云端/后台服务器 ,所谓 “采集阶段封包好” ,笔者认为是未解码的H264的NALU。

推流的整个阶段如下图,本图同样摘自 科普 | 直播中常说的推流拉流究竟是什么东东? (读者请先忽略 “拉流” 这个名词,姑且替换为客户端用户在视频门户网站,如腾讯视频、B站等看网络在线的视频,自然也包括看直播。):

上图从“推流端”到“源站”(同上文所说到的“服务器”),再到CDN分发节点,最后到“播放端”,整个过程的视音频数据,都是压缩的数据流。也就是说,对视频数据来说,就是H264码流。 解码工作是在播放端进行的。

推流的工作可想而知,最多的应用就是直播;而在大多数视频门户网站,笔者目前也很疑惑,是否存在步骤1,从效率上来说,视频数据直接存放在“源站”,通过CDN根据客户端请求下发,应该就可以了。至于具体做法,有待考证,笔者在这里姑且记一笔吧。

了解了什么是推流之后,下一个问题自然就出来了: 应该怎么推流呢? 这其实是一个复杂的过程,而且还需要了解”源站“,也就是推流服务器。本文仅涉及本地音视频数据通过网络上传到云端/后台服务器的 本地音视频上传 阶段,所以,先来了解 本地的数据是怎么上传的 ,第一步就是了解推流的协议!

笔者了解到的几个目前常用的推流协议有:RTMP,HLS,webRTC,HTTP-FLV。本文仅介绍RTMP,原因是:笔者目前只接触了RTMP协议的推流工作。

RTMP

RTMP是Real Time Messaging Protocol(实时消息传输协议)的首字母缩写。是Adobe公司开发的一个基于TCP的应用层协议,也就是说,RTMP是和HTTP/HTTPS一样,是应用层的一个协议族。 RTMP在TCP通道上一般传输的是flv 格式流 。请注意, RTMP是网络传输协议,而flv则是视频的封装格式。 flv封装格式设计出来的目的是为了用于网络传输使用的,因此RTMP+FLV可以说是”黄金搭档“。

RTMP协议包括:基本协议及RTMPT/RTMPS/RTMPE等多种变种。从 视频协议学习:推流拉流都擅长的 RTMP 了解到,RTMP协议家族有以下几个点挺有趣,读者们不妨看看:

  1. RTMP工作在TCP之上,默认使用端口1935,这个是基本形态;
  2. RTMPE在RTMP的基础上增加了加密功能;
  3. RTMPT封装在HTTP请求之上,可穿透防火墙;
  4. RTMPS类似RTMPT,增加了TLS/SSL的安全功能;
  5. RTMFP使用UDP进行传输的RTMP;

RTMP就是专门针对多媒体数据流的实时通信设计出来的一种网络数据传输协议,主要用来在Flash/AIR平台和支持RTMP协议的流媒体/交互服务器之间进行音视频和数据通信。现在Adobe公司已经不支持了,不过目前,该协议还在广泛使用。

RTMP具体如何进行握手连接、传输数据,以及其封装的数据包格式,读者都可以通过各种资料了解到,本文不再赘述。(主要原因是:笔者还没有深入了解这块知识。捂脸)


II. ffmpeg的rtmp推流

下面将介绍2种ffmpeg推流的方式:命令行(cmd)和代码(code)。

命令行(CMD)推流

ffmpeg cmd的参数实在太多,因此这里只介绍基础的、以及笔者了解的跟读者们做一个分享。

首先,来看一个将本地视频文件推流到服务器的最基础的命令:

ffmpeg -i ${input_video} -f flv rtmp://${server}/live/${streamName}
  • -i :表示输入视频文件,后跟视频文件路径/URL。
  • -f :强制ffmpeg采用某种格式,后跟对应的格式。

上文有提到,RTMP一般用flv流数据,因此多设置 -f flv

接着,另一个基本需求,就是在推流的时候希望不要加上音频,这个也好实现:

ffmpeg -i ${input_video} -vcodec copy -an -f flv rtmp://${server}/live/${streamName}
  • -vcodec :指定视频解码器, v 是视频 video codec 就是解码器,后跟解码器名称, copy 表示不作解码;
  • -acodec :指定音频解码器,同理, a audio ,后跟解码器名称。 an 代表 acodec none 就是去掉音频的意思。

关于 a/v 的写法很多,除了上面介绍的,还有 -c:v copy -c:a copy 等。

再有其他的需求,读者可自行Google。

代码(code)推流

ffmpeg的c++代码推流,网上也是一搜一大堆。笔者推荐雷神的 最简单的基于FFmpeg的推流器(以推送RTMP为例) ,能够满足基础的推流需求。但是笔者在实际应用场景时遇到过几个case,最后总结得到一份相对鲁棒可用的code segment:

AVFormatContext *mp_ifmt_ctx = nullptr;
AVFormatContext *mp_ofmt_ctx = nullptr;
uint64_t start_timestamp; // 获取得到第一帧的时间
// ...
int pushStreaming(AVPacket *pkt, int frm_cnt) {
    // 做筛选:因为实际源视频文件可能包括多个音视频码流,这里只选取一路视频流m_vs_index和一路音频流m_as_index。
    if (pkt->stream_index == m_vs_index || pkt->stream_index == m_as_index) {
        // 没有pts的视频数据,如未解码的H.264裸流,需要重新计算其pts。
        if (pkt->pts == AV_NOPTS_VALUE) {
            AVRational time_base = mp_ifmt_ctx->streams[m_vs_index]->time_base;
            // Duration between 2 frames (us)
            int64_t calc_duration = (double)AV_TIME_BASE / 
                    av_q2d(mp_ifmt_ctx->streams[m_vs_index]->r_frame_rate);
            // Reset Parameters
            pkt->pts = (double)(frm_cnt * calc_duration) / 
                    (double)(av_q2d(time_base) * AV_TIME_BASE);
            pkt->dts = pkt->pts;
            pkt->duration = (double)calc_duration /
                            (double)(av_q2d(time_base) * AV_TIME_BASE);
        // 笔者在这里省去了delay操作,读者可根据需求增加。该操作通过控制推流的速率来减轻推流服务器的压力。
        // if (pkt->stream_index == m_vs_index) {
        //     AVRational time_base = mp_ifmt_ctx->streams[m_vs_index]->time_base; 
        //     AVRational time_base_q = {1, AV_TIME_BASE}; 
        //     int64_t pts_time =  av_rescale_q(pkt->dts, time_base, time_base_q); 
        //     int64_t now_time = av_gettime() - start_timestamp;
        //     if (pts_time > now_time) {
        //         av_usleep((unsigned int)(pts_time - now_time));
        //     }
        //计算延时后,重新指定时间戳
        AVRational istream_base = mp_ifmt_ctx->streams[pkt->stream_index]->time_base;
        AVRational ostream_base = mp_ofmt_ctx->streams[pkt->stream_index]->time_base;
        pkt->pts = av_rescale_q_rnd(pkt->pts, istream_base, ostream_base,
                (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
        pkt->dts = av_rescale_q_rnd(pkt->dts, istream_base, ostream_base,
                (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
        pkt->pts = pkt->pts < 0 ? 0 : pkt->pts;
        pkt->dts = pkt->dts < 0 ? 0 : pkt->dts;
        pkt->duration = (int)av_rescale_q(pkt->duration, istream_base, ostream_base);
        pkt->pos = -1;
        if (pkt->pts < pkt->dts) {
            return 1;
        // 向推流服务器推送流数据
        int ret = av_interleaved_write_frame(mp_ofmt_ctx, pkt);
        if (ret < 0) {