新时代音视频传输技术的继承与发展
来源:用户上传
作者:
【摘要】在信息时代的今天,互联网早已成为了人们工作生活的一部分。随着计算机技术和通讯技术的发展使音视频传输技术不断完善,已广泛应用到国民经济的各个领域。
【关键词】音频 视频 传输
一、音视频数据传输的大体分类
(一)有线传输。有线传输技术最主要的特点就是需要借助于电缆或者光缆等传输介质完成信息传输。通常情况下,有线传输技术主要被分为信息终端、信号处理、信道终端和有限信道这四个部分,并且有线传输技术在不同的传输介质中发挥的效果存在很大差异。
(二)无线传输。长期以来音视频传输主要依靠有线传输方式。但是随着社会发展,传统的有线方式已经不能满足需求。为了具有更大的自由度,无线方式开始运用。具体来说,无线传输就是利用电磁波在空间的传播来传递信息,将某个地方的语言或者图象或者电码传递到另一个地方去。如果我们设法用电极或者信号控制这载波电流,则电磁能中就含有所要发送的信息,这就是无线电信号的发送过程。在接收端,首先由接收天线将收到的电磁波还原为与发送端相似的高频电流。然后经过检波,取出原来的信号电流。这就完成了无线传输。
二、音视频传输系统的基本技术原理
(一)基本元素。1、常用视频格式,可以分为适合本地播放的本地影像视频和适合在网络中播放的网络流媒体影像视频两大类,包括MPEG、AVI、MOV、ASF、3GP、MKV、RMVB等。2、常用音频格式,指要在计算机内播放或是处理音频文件,包括CD格式、WAVE(*.WAV)、AIFF、AU、MP3、MIDI、WMA、RealAudio、VQF、OggVorbis、AAC、APE等。3、编码,指的是对一个信号或者一个数据流进行变换。这里指的变换既包括将信号或者数据流进行编码(通常是为了传输、存储或者加密)或者提取得到一个编码流的操作,也包括为了观察或者处理从这个编码流中恢复适合观察或操作的形式的操作。4、解码,分为软解和硬解。所谓“软解”就是通过软件让CPU进行视频解码处理。而“硬解”是指不依赖于CPU,通过专用的设备(子卡)单独完成视频解码,比如曾经的VCD/DVD解压卡、视频压缩卡都被冠以“硬解”的称号。“硬解”基本不需要CPU参与运算,从而为系统节约了很多资源开销。通过降低CPU占用率,可以给用户带来很多实惠。
(二)基本流程。一个完整的实时视频网络传输系统是一个复杂庞大的综合体,包含很多环节和部分,必须有视频的采集、视频的编码/解码以及视频传输控制和协议处理等内容,其功能是需要随机延时特性和丢包特性。视频流处理传输的流程:先要对视频进行采样,再进行视频编码或者直接输人数字视频进行编码,等生成适应网络传输的视频码流在进行视频传输,最后对视频流进行解码、重构视频信号完成传输过程。
三、基于以太网的几种音视频传输技术
这是行业的一个技术焦点,以其不依赖于控制系统而独立存在的特性,广泛的应用到很多项目中。不仅解诀了多线路问题,还解诀了远距离传输、数据备份、自动冗余等一系列在模拟传输时代无法面对的问题。目前比较成熟的以太网音频传输技术主要有CobraNet(它是美国PeakAudio公司开发的一种在以太网上传输专业非压缩音频信号的技术,工作在数据链路层的低层传输协议,但无法穿过路由器,只能在局域网中传递,音频流不能大于8个数据包Bundle。)和EtherSound(它是由法国Digigram公司开发的一种基于以太网传输音频信号的技术,工作在数据链路层的低层传输协议,只能在局域网中传递。)。但这两种技术都各有千秋,在它们此基础上,Audinate于2003年推出了Dante这种融合了很多新技术的数字音频传输技术,基于3层的IP网络技术,采用Zeroconf协议,简化了网络的运行模式,可以在以太网(100M或者1000M)上传送高精度时钟信号以及专业音频信号并可以进行复杂的路由。至于下一代网络音视频实时传输技术,新IEEE标准——音视频桥,简称AVB,以即插即用和自主开发的姿态面世。
四、音视频数据传输协议
新媒体应用要求互联网提供有服务质量(QoS)保证的传输,在现有网络状况下,能为人们带来更高级的视听享受。互联网是一个基于包交换的通信网,初期的设计目标是要解决网络的连通性和高可靠性,并沒有对实时性进行较多的考虑。为了在包交换网络上提供有服务质量保证的传输,必须解决预留资源、分类信息、时间同步等问题。基于IP的实时协议就是针对不同的侧重点,对原有的协议族进行改造,来满足实时通信的要求。这些协议主要分布在两层:网络层和传输层。如何在TCP/IP网络上公平地提供流媒体服务与传统数据业务,是网络传输控制协议需要考虑的核心问题。另外,TCP/IP网络传输中的延迟、抖动、网络拥塞等,使得流媒体发送端的发送速度与接收端的接收速度不匹配等,对实时传输的媒体服务质量产生重要的影响,致使接收端的媒体演播中存在媒体内抖动(不连续性)和媒体间非良好匹配。研究多媒体实时传输和同步是保证多媒体服务质量的重要的步骤,是多媒体研究的关键技术之一。解决音视频同步问题一般有两种方法:一是对相关媒体进行同质处理,二是对各相关媒体分开进行处理。总体上说,多媒体同步方案的设计应满足多种通信模式,应选择灵活的同步方法,同时其算法应简单,额外开销小。因此,需要找到一种方法,能直接体现音频和视频之间的同步关系,而且当两者的播放速度不一致时,可以迅速找到新的同步播放点文中提出了一种基于实时传送协议的音视频同步的编码方法。音视频QoS保障机制,QoS指标由QoS机制来完成,主要包括流量控制、纠错控制、QoS缩放等目。流量控制分为开环和闭环两种类型。开环控制是指信源严格按规定的速率向网络发送数据。而在闭环控制中,流量控制是由发送端根据接收端或网络反馈回来的信息动态调整来实现的。文中所讨论的音视频传输系统采用的是闭环控制。纠错控制有两种方法:一种为重发,一种为前向纠错(FEC)。重发必须容忍信息重发延迟,因而不适合实时音视频传输。使用前向纠错(FEC),冗余信息与主数据信息一起传输,虽然增加了传输信息量,但它提供了更高水平的通道纠错能力与包丢失控制,在传输过程中丢失的数据包不用等待额外重发,可以从冗余信息中恢复,适合实时应用。
参考文献:
[1]董博南.移动终瑞视频实时传输的关键技术[D].北京:北京化大学,2015.
[2]张晓煜,张钢,李捷.基于分层Adhoc网络的实时视频传输系统研究[D].西北大学学报(自然科学版),2010(05).
[3]单喆、魏明亮、陈道蓄等.组播技术在实时视频传输系统中的应用及其实现[J].计算机科学,2013(11).
转载注明来源:https://www.xzbu.com/2/view-14969154.htm