ffmpeg打包TS
(2017-11-04 11:21:38)
FFmpeg代码里面有ts打包和解包的代码,这里简单介绍下怎么使用吧。
先来看下FFmpeg目录结构:
libavformat:用于各种音视频封装格式的生成和解析,包括获取解码所需信息以生成解码上下文结构
和读取音视频帧等功能;
libavcodec:用于各种类型声音/图像编解码;
libavutil:包含一些公共的工具函数;
libswscale:用于视频场景比例缩放、色彩映射转换;
libpostproc:用于后期效果处理;
ffmpeg:该项目提供的一个工具,可用于格式转换、解码或电视卡即时编码等;
ffsever:一个
HTTP 多媒体即时广播串流服务器;
ffplay:是一个简单的播放器,使用ffmpeg
库解析和解码,通过SDL显示;
libavformat目录下 mpegtsenc.c,mpegts.c 分别是ts打包和解包的代码:
下面介绍下mpegtsenc.c一些重要函数(原理请看 iso 13818-1):
1)mpegts_write_pat(AVFormatContext *s);
mpegts_write_pmt(AVFormatContext *s,
MpegTSService *service)
mpegts_write_sdt(AVFormatContext
*s)//节目描述表
pat,pmt这两个表是ts打包最重要的表,这两个表说白了就是多路复用的一个索引,解码器需要更具PAT知道有哪些节目(可以理解为电视节目),根据PMT知道每个节目里面有哪些es流(每个电视节目都有音频和视频),这两个函数一般是不需要改动的;
pat,pmt的信息并不是只是开始打包的时候出现,看mpegts_write_pes代码会发现着两个表是根据retransmit_si_info计算出来的。
看下mpegts_write_pmt部分代码:
-
//nb_streams 对应es流,如果一路音频一路视频,nb_streams=2
-
for(i = 0; i <
s->nb_streams; i++) {
-
AVStream *st
= s->streams[i];
-
MpegTSWriteStream
*ts_st = st->priv_data;
-
switch(st->codec->codec_id)
{
-
case
CODEC_ID_MPEG1VIDEO:
-
case
CODEC_ID_MPEG2VIDEO:
-
stream_type
= STREAM_TYPE_VIDEO_MPEG2;
-
break;
-
case
CODEC_ID_MPEG4:
-
stream_type
= STREAM_TYPE_VIDEO_MPEG4;
-
break;
-
case
CODEC_ID_H264:
-
stream_type
= STREAM_TYPE_VIDEO_H264;
-
break;
-
case
CODEC_ID_MP2:
-
case
CODEC_ID_MP3:
-
stream_type
= STREAM_TYPE_AUDIO_MPEG1;
-
break;
-
case
CODEC_ID_AAC:
-
stream_type
= STREAM_TYPE_AUDIO_AAC;
-
break;
-
case
CODEC_ID_AC3:
-
stream_type
= STREAM_TYPE_AUDIO_AC3;
-
break;
-
default:
-
stream_type
= STREAM_TYPE_PRIVATE_DATA;
-
break;
-
}
-
*q++ =
stream_type;
-
put16(&q,
0xe000 | ts_st->pid);
复制代码
从上面看出ts打包支持MPEG1,MPEG2,MPEG4,h264视频以及PCM,mp2,mp3,AAC,AC3音频,音频方面标准不支持G711等G开头的音频,当然如果自己开发客户端的话是可以自定义的。
2)mpegts_write_header(AVFormatContext *s)
初始化AVFormatContext参数,在正式封装开始加入PAT,PMT,SDT一些信息。代码中有基本的注释;
3)mpegts_write_pes(AVFormatContext *s, AVStream *st,
const uint8_t
*payload, int payload_size,
int64_t pts,
int64_t dts)
这个函数就是TS打包的主函数了,这个函数主要功能就是把一帧数据拆分成188字节(感觉效率低了点),并加入PTS,DTS同步信息,这个函数封装的对象是一帧视频或者音频数据,payload,payload_size分别是数据和大小。
上面提到的PAT,PMT表在每个188字节都会检查一次,
-
//一帧数据拆成188字节
-
while (payload_size > 0)
{
-
-
retransmit_si_info(s);
复制代码
retransmit_si_info
函数如下,可以看出条件(++ts->pat_packet_count
== ts->pat_packet_freq)成立,就会加入PAT,PMT信息,而ts->pat_packet_freq这个值是根据码流大小计算出来。
-
MpegTSWrite *ts =
s->priv_data;
-
int i;
-
//printf("sdt f:%d pat:%d
nb:%d\n",ts->sdt_packet_freq,ts->pat_packet_freq,ts->nb_services);
-
if (++ts->sdt_packet_count
== ts->sdt_packet_freq) {
-
ts->sdt_packet_count
= 0;
-
mpegts_write_sdt(s);
-
}
-
if (++ts->pat_packet_count
== ts->pat_packet_freq) {
-
ts->pat_packet_count
= 0;
-
mpegts_write_pat(s);
-
for(i = 0; i
< ts->nb_services; i++) {
-
mpegts_write_pmt(s,
ts->services[i]);
-
}
-
}
复制代码
PTS,DTS就是音视频同步时间戳,时间戳其实就是一次采样的颗粒(简单理解就是数据),以视频来举例,视频同步时钟90K
hz(27M/300),如果帧率是25fps的话,一帧数据采样时间40ms,那么时间戳就是90K x 40ms =
3600(估算值)。
4)mpegts_write_packet(AVFormatContext
*s, AVPacket
*pkt)
这个函数功能比较简单,就是把一帧数据拆分成几个块来封装成pes,因为pes头信息的长度只有两个字节长度(当时可能面向标清),高清的I帧数据肯定一次包不完的。
喜欢
0
赠金笔
加载中,请稍候......