马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有帐号?快速注册
x
基于IP架构的移动外场音频系统设计与应用
* X3 f# a t0 i. e( N* p4 o
; {8 Y9 g& ?% R; \+ W5 p9 w! B) |8 h9 O$ J. X
随着对外场大型活动赛事的转播制作规模不断扩大,演播室前延化制作等需求日益增多。以往传统基带音频系统面临着严峻挑战,密集的长距离过境线缆铺设使系统扩展、维护和管理都非常不便。随着技术的快速更替,网络IT技术对于音频行业也有越来越深远的影响。越来越多的网络化产品和智能化技术在行业内推广应用。本文针对近期中央电视台建设完成的两套基于 IP 架构的移动外场音频系统进行阐述,介绍其系统设计思路和新技术应用实施。# i9 x8 Z- N% `! k N9 L( j
6 g& J X C1 y7 e2 s! B一、传统移动外场音频系统
' ?+ _6 N+ ]: n9 K$ o0 B _+ V0 C, g
央视移动外场音频系统始建于2008年北京奥运会,十年来承担了包括2009年济南全运会、2012年伦敦奥运会、2014仁川亚运会、2016年里约奥运会等各项重大外场节目转播制作任务。整体系统采用传统基带架构,具备5.1环绕声制作能力,主备系统通过前端无源音分接取重要输入信号。3 i i. \% R9 b3 w5 G
, k r3 V1 {& O* j( w+ L. W
整套系统配置相对固定,备份系统受音分数量约束,只能备份若干重要信号,无法支持节目全流程制作;系统采用模拟、AES3和AES10(MADI)等基带音频格式进行接驳,导致线缆铺设密集。位于前方IBC的工作区域,需根据节目的报道规模和技术需求进行划分,演播室、音控室、导播间和立柜机房经常由于位置、过墙洞受限等造成走线距离过长,有大量过境综合线缆需要部署,系统扩展性不佳,同时受物理电缆和信号格式所限,长距离传输也很难避免信号衰减和噪声串扰的情况发生。以2016年里约奥运会IBC为例,前方IBC制作区音控室位置相对理想,但总体铺设线缆数量依旧繁多:模拟线697m、话筒线811m、数字线829m,铺设总线量为2.3km,整体系统在前方搭建时,投入了大量的时间和精力至线缆铺设和线签核对检查上,前端信号需要通过多个链路节点才能接入系统,对于安全直播而言,一旦信号链路出现故障中断,很难迅速判断故障节点。* `3 U) u4 |7 \+ [+ D
9 k/ j. {3 v; L) N) J0 b/ D
为了解决上述问题,同时适配2018年韩国平昌冬奥会、2020年日本东京奥运会和2022年中国北京冬奥会的4K转播任务,我们需要一套全新架构的移动外场音频系统:能够满足大型体育赛事、综艺晚会、重大新闻报道等节目制作需求;支持三维声制作,具备前场三维声监听环境;系统安全有效、运行稳定,且能够快速搭建。4 F+ \3 P$ \. B Q: e! O2 v
) F1 G3 `6 g- \0 o& _' W$ l
二、AoIP音频技术发展概况' P6 \+ p4 W% Y" I6 U3 R" O2 b
$ ^+ B# _6 ? y2 e. U5 b `- t% @; O
1. 传统稳定的TDM时代
! g3 @, \$ k9 i* l5 c" U& m! O: ?" u7 N! @/ O* K
项目建设之初,最开始思索的就是系统核心传输制式的发展方向。从1985年制定的行业标准AES/EBU(AES3)开始,定义使用单根绞合铜线对来单向传输双通道数字音频数据的串行位,传输距离约为100米,数据传输速率为3Mbit;1991年AES10面世,即通常所称的MADI多通道音频接口格式,在使用了多路时分复用技术后,通过一根光纤或同轴铜线进行多达64路信号的传输,最大数据传输速率为125Mbit。以上基带信号传输方式有一些共同的特点:首先都是为广播电视音、视频传输专门设计的,需要专门的接口板卡来互相接驳;其次只能单向点对点传输,点对多时需要使用矩阵设备进行复用分发;一旦需要大量信号同时传输时,受限于单根线缆的传输速率,只能通过综合多芯缆等方式解决。
* ~" A3 z9 `! q
. E3 [9 q) N3 N, ^ s# [' a) i: D9 @8 m随着网络化逐渐走进人们生活,发送电子邮件、云端文件的上传下载。基于VoIP的网络语音电话等技术被越来越多人使用。基于以太网传输的高品质音频流技术逐渐出现在人们面前。
; X8 u+ s, y# J, X2 Q- Q4 Q/ d
2 h3 r- S7 o; o6 B& Q. ~% _0 A2. 百家争鸣的AoIP时代0 o) X/ p, K# T* P% O- [
8 Z* H3 P" s+ H/ I7 Y v
我们对音频信号网络传输技术很早就开始关注,无论是Roland M48个人舞台监听系统,还是Waves Mulitrack效果器均能够看到自有音频网络传输技术的影子。在音频技术向网络化发展的进程中,EtherSound和CobraNet是先行者,随后出现的AVB以太网音视频桥协议、Dante协议和Ravenna协议均纳入了本次系统设计之初的视线范围。AoIP技术的主流目标是能够通过一根网线传输音频、控制以及同步信号,能够双向传输多通道音频,其传输带宽只受限于交换机;通过使用交换机来进行数据分发复制处理,从而点对多的传输变得简单、高效。/ Z: r( L& A4 I
/ ^, q( U1 e6 j: }+ x" A
通过对比上述主流AoIP技术架构(图1),能够看到虽然都是通过网线进行传输,都采用了类似的核心协议架构,但各家技术路线和细节差异较大,彼此间也相互独立,只能单独构建系统。Ethersound和Cobranet基于数据链路层无法使用路由器,只能在局域网中传递。Ethersound采用广播方式单向传输,构建网络架构不便,自身同步也不精确;Cobranet采用MAC寻址方式最大延迟量5.33ms,其所采用独有的 Bundle封装方式,导致其只能建立专用网络,不能与其他AoIP系统互联互通,兼容性差。AVB以太网音视频桥虽然算是涉及到Layer3网络层,但其需要使用AVB专用交换机进行构建系统,设备选型升级太过局限。Dante基于Layer3网络层进行开发,能够提供低延迟高精度的低成本解决方案,且有链路主备冗余倒换设计,但其是一个不开放的企业内部标准。和Dante相反,Ravenna几乎是一个全面开放的AoIP协议,支持标准的交换机和路由器,同步方面使用IEEE1588-2002协议,通过RTP/UDP协议进行传输。8 E1 m9 G" k. R! {: X
. G0 E; t- @# O+ l
" P& S6 O, g& T a
, u. |+ P( [( E1 S3 z# R) p% E( T" @1 i
3. 标准统一的AES67时代
9 R( e! z$ ^$ R0 U! Y: S0 i: L& {" l9 z V/ B, b
AES(音频工程协会)代号为SC-02-12-H的标准化工作组,在2010年12月启动了一个叫X192的项目,希望在现有技术的基础上定义一个可互通的方案,以实现不同厂商AoIP设备之间的互操作,该标准《AES standard for audio applications of networks -High-performance streamingaudio-over-IP interoperability》于2013年9月正式颁布,2015年修订(以下简称AES67)。AES67从同步、媒体时钟、传输、编码与成流、会话描述、发现服务、连接管理等方面阐明并规范了AoIP的机制和具体细则(图2),特别是对基于IEEE1588-2002的同步机制和 RTP流的单组播传输方案作了明确的定义,这使得不同厂商的AoIP设备与系统间的时钟对接以及音频数据流对接成为可能。
) ~3 q7 f' Y3 Q; H" d' ^
- a; E9 u" x8 _3 o2 Q; I) h% }7 k) F
3 t) r9 [& }7 G$ S4 y) J; E! Q4 S
通过对AoIP音频技术架构的调研,最终本次移动外场音频系统的架构选择以Ravenna协议和Dante协议共同存在的方式进行构建,两种协议通过AES67互联互通。核心交换机负责所有音频流的收发路由,支持AES67协议的信源设备直接与交换机交互,基带信号通过基带转网设备进行前级转换,如图3所示。
8 n6 @; i; e5 w3 X+ A5 Z: y i9 S# B0 N r6 T, ?- A
$ ?$ }3 m/ G Q" y6 h, Q: v$ ]
R0 I) \/ e* n& {2 Y# W: e0 ^' }
三、基于IP架构的移动外场音频系统设计+ H3 Y7 v! ^' A9 A- f& q
2 `; p7 x L5 e, m0 Y; c4 h1. 网络核心架构设计; K8 G4 Q0 m$ U$ p( W+ K
/ @- A/ [ r0 K" J( ~ S/ o
基于IP架构的移动外场音频系统,核心网络架构的设计是重中之重。选择2台具备三层路由功能的Cisco 3850千兆交换机作为整套系统核心交换机,4台Cisco 2960二层千兆交换机为汇聚交换机,与核心交换机一起构成叶脊拓扑网络结构,为整个音频系统提供主备链路互为冗余的网络路由架构(图4),保证所有AoIP接口设备信号互通顺畅安全。- d) n- W5 x& X. }) G" Q
+ }5 N7 z3 D- r) n- u8 Q' \
2. 音频系统设计
8 Y( q3 M: l! a% R9 z! [0 o
* o( ^9 f. g: L7 u本系统主要由时钟同步系统、主备调音台系统、监控软件系统、监听音箱系统、多轨还音系统、效果器等其他周边设备等组成,系统内所有AoIP设备全面支持AES67协议。* A7 G& a# v# [( L, y+ ~
, y2 g6 p. c" K1 _( h: a( F(1)时钟同步系统& l0 P7 m9 i+ Y
' u: a) c7 b- E
和传统基带音频系统不同,由于AoIP技术需基于OSI模型的Layer3网络层进行传输,除了BB同步信号和WC同步信号以外,还需要以IEEE1588-2002标准中规定的PTP(Precision Time Protocol)协议进行网络时钟同步。6 H1 p/ X" |2 |8 M
5 M6 ^3 _/ W% ~其工作原理是PTP通过主、从设备间消息传递,计算时间偏差来达到主从同步。PTP系统属于自组织式的管理方式,最佳主时钟算法BMC根据各个PTP端口提供的质量信息,确定每个域内的主时钟。BMC算法利用状态决定算法,确定每个端口的主从状态,称为建议状态。主时钟周期性地组播包含时间戳的消息,需要同步的从时钟向主时钟发送消息,从时钟根据收到的时间信息和自身发送消息的时间,计算出与主时钟的偏差和线路延迟。4 t+ m* X N, v
; ?) B/ h* @' w5 w9 D本系统配置1台SyncroGenius HD PRO作为基带时钟同步分配器,配置1台Sonifex AVN作为网络音频主时钟。将视频系统提供的BB信号先接入基带时钟同步分配器,分配器输出WC字时钟信号给AVN网络主时钟和A-MADI4作为基带同步参考。保证所有数字设备均同步在视频BB信号时钟下。在网络中,将AVN作为主时钟Master,同步优先级设置为最高,A-MADI4优先级次之。当AVN出现故障时,A-MADI4能够自动被推选为新的Master主时钟,保证系统中主时钟始终能够保持与基带同步信号一致(图5)。
6 I/ O2 c: W0 ^" W; ^* a
6 i! o4 e4 K7 o% U$ a* w7 z( x H; R/ R/ Y9 l
8 M' X8 P- T6 h/ B( h需要特别说明的是,当多个IP系统相互组接级联时,如果跨越多个交换机节点,主从设备间距离较长时,很容易受到网络波动影响,消息传输延迟相差可能会增大,也就是引入非对称性误差,这将严重影响同步的精度。此时需要引入边界时钟概念,相对于普通时钟只有一个PTP端口,边界时钟有两个以上的PTP端口,每个端口可以处于不同的状态。在主从时钟之间布置若干个边界时钟,逐级同步,边界时钟既是上级时钟的从时钟,也是下级时钟的主时钟,由不同的端口来实现主从功能。
; [9 h& W `; |1 G; X6 v7 z* r8 o( R) i% R7 h
(2)主、备调音台系统
, @% b# T Q/ o6 g0 i$ g6 S$ P) a8 T
本系统配置LAWO MC 2 56数字调音台和Nova73核心矩阵为主调音台系统,备调音台系统为MC 2 36数字调音台;2台DALLIS、3台A-Digi8 和1台A-MADI4作为数字共享接口箱;7台A-MIC8做为模拟共享接口箱。主、备调音台系统采用Ravenna协议进行音频流交互,每个网口支持128CH In/Out双向传输(图6)。
; c; X* x- n; O t n8 \
# A: N& G. r* s* t( w
3 r# I2 T' U1 b7 s(3)监控软件系统6 ^; |0 q2 n1 Y5 T+ m, q( B
0 [" O5 q' { g, W8 U7 O3 n" R
传统的音频监控系统,整合度不够,基本上都是单点采样监测。不仅要占据大量的音频输出端口,线路架设复杂繁琐,而且采样设备功能单一,所有的监控设备之间相互独立,一旦信号链路出现故障,很难迅速判断故障节点。随着音频链路节点和监测环节数量的增加,监控系统将越来越庞大,故障判断将越来越难。6 e$ _) S; \6 t* s" g
4 b1 W" D/ C7 C( t# o3 `在AoIP时代,所有信号均以组播流形式存在于交换机网络中,我们之前习以为常的基带电缆信号已然不复存在。要解决信号接入交换机就变为黑箱情况,就需要依托完善的监控管理系统,每个设备的每个接口实时发出的信号信息我们都需要清楚监控。从基带系统的重资产到 IP系统的重管理,监控软件是必不可少的一环。
/ Q8 Z3 s2 A0 J: ]& k e0 ^4 u! R; V4 s: Q3 m$ O3 K: |- m/ F0 L
由于所有设备均通过交换机交互信号,其中所包括的2台DALLIS接口箱、Nova73主系统核心机箱、MC 2 36调音台、11台A-LINE接口箱、2 台Dante监听单元及5只AoIP监听音箱均被统一的第三方监控软件进行管理。整个AoIP除了传输处理音频数据流之外,每台设备的状态信息同样能够被监控软件获取。 本系统采用定制化软件进行全系统监管控制,通过MySQL数据库进行底层收集数据处理,采用网页化操作界面。针对所有在线设备进行监看,管理,控制等业务层面处理。而且能够通过事后数据统计整理,为日后系统优化调整提供数据参考支持。
C. C7 ?( I) z- A9 m
6 X- E9 @" H: ]% F1 F(4)监听音箱系统5 T$ W6 ]- P9 ]1 M% J N8 w6 n, a
% A" x1 v* @* N- o' w6 |, n外场监听音箱系统由音控室三维声监听音箱和导播间环绕声监听音箱组成。音控室监听采用5.1.4模式,主监听音箱采用Genelec 8341、超低音箱为Genelec7360、顶部环绕音箱为Genelec8330。所有监听音箱均支持AutoCal自动校准功能,可根据声场特性校准监听音箱,仅需几步操作即可快捷完成整个系统的校准优化,获得平直的频率响应以及精准的声音重放。系统中每一只音箱的电平、延时、频率响应补偿,以及低音音箱的分频点和相位匹配,都可以根据实际房间环境,进行全自动的测量、校准、优化,也可以进行灵活的手动调整,适配有特殊要求的房间曲线。特别是在外场转播制作中需要临时搭建监听环境时,校准软件能够自动对房间声学带来的负面影响进行补偿,将监听系统高效地调整到最佳状态,节省临时声学改造的时间和成本。
. P6 c, A* N9 T6 V: z
7 M! ^: X2 X6 u3 \; p' J5 U(5)多轨还音系统5 B4 I" {0 c2 J( V6 m: `1 r
2 R3 }9 N5 T8 E
多轨还音方面采用了Tascam HS-8为主还音设备、CD播放机为辅的设计方案,所有素材使用统一格式CF卡进行交互读取。
% P5 Q8 n6 y- q0 \+ i8 I# b
# n$ i& r4 H b6 v3 C还音工作流程分为三步,第一步,先将音乐编辑提供的音乐效果等素材通过U盘/CD等多种方式导入笔记本多轨工作站中进行统一命名编辑处理;第二步,将素材从工作站中导出至CF卡;第三步,然后将CF卡插入多轨放音机和CD机中进行播放。
R6 `" ]0 ? C. p1 B
3 s7 F6 o! c R ]7 b首先,由于采用了CF卡为传输介质,整个过程不需要像以往一样进行1:1音频数据实时导入,极大减少了导入音乐的时间;其次,统一的播放介质也让主备还音系统素材备份处理更加方便,将多轨放音机的CF卡素材整理完毕后,直接复制拷贝一份至CD机即可。
' p/ K5 x `0 i
r0 L. n" z/ ]7 _" F: \( d; Q9 ^1 z同时该系统还配置了1台装有AoIP虚拟声卡的笔记本进行多轨收录工作,通过笔记本网卡与交换机相连,工作站能够收取前端共享接口箱发送的组播流信号,直接收录至多轨工作站中。同时,装有虚拟网络声卡的工作站也可以便捷地提供播放素材功能,当遇到超过8轨的素材需要播放时,可以采用多轨工作站进行还音制作。
* p& a! y. h7 z; L7 ]5 k7 F" @
! s5 f& ?* \% ]! Z" c% j四、结束语& O# H5 `+ p! d& B
/ w' D& g2 W; [; {4 M从基于基带传输的音频系统搭建场景转换到基于IP传输的音频系统搭建,需要转变的是搭建思路,线缆不再需要一一对应接口,信号没有绝对的来去路由概念,每个设备网口均可以抓取交换机资源池里的信号流,网络发流、收流的设置变得非常重要,可能之前是搭建3天调试 1天,到了IP系统后,就变成了搭建布线1天,但需要更长的时间来调试。
6 F3 ^/ R% [: {( ^* R+ Z
$ Y) _. S7 c2 T: \/ q通过网络的灵活便携性,系统分布式部署不是难题,但是如何能够将整个系统集中化管理监控是我们面临的新挑战,快捷方便的监控软件是我们重要的系统管理工具,如何能够快速查看在网的设备,快速进行故障判断都是亟需解决的问题。虽然目前真正全IP音频系统还很稀少,但这并不意味着我们不能从中受益,恰恰相反,通过这套全IP化架构的移动外场音频系统的上线使用,我们能够看到显著提高的效率和几乎无限扩展的灵活性,这些优点也会在将来的节目制作中不断显现。3 A2 P7 D# ~/ j/ q
: g: h1 V c1 U* D6 b音频系统IP化的趋势不可阻挡,但任重而道远,它需要我们不断完善自身知识体系,为迎接日后的新技术新标准做好充分的准备。
1 s {( E/ u" y9 | |
|
|
|
|