分享

!!!!! 高清晰度数字电视节目录制规范

 看见就非常 2013-01-26

2011年02月23日 21:12

高清电视节目声音制作 

 

 

 

荆甫礼 

 

 

相对于标清电视节目来说,高清电视节目的图像质量有了大幅度提高,对声音制作也提出了更高的要求。这种高要求是体现在两方面的,一是客观技术规格方面,二是主观制作精细程度方面。 

 

在客观方面,画面的高清体现在了分辨率的大幅提高上,而高清节目的声音信号分辨率(采样频率、量化精度)并没有发生变化,真正的变化更多是由于高清电视节目在信号传播方式上的变革引起的。高清电视节目的播出方式,从标清时代的模拟广播与数字广播共存,过渡到了完全的数字广播。这就意味着在声音方面,数字声音将会全面取代模拟声音。(虽然标清数字电视信号也可以传送数字声音,但我国的多数标清节目都沿袭了模拟电视的单声道传统。) 

说到数字声音,尤其是电视广播领域的数字声音,其音质绝对会优于模拟电视声音,就像CD光盘和FM调频广播的音质区别一样。模拟声音经过长距离传输后会损失一定的动态范围和频响,而数字声音可以无损传输。同时,高清电视会采用某种类似于杜比数字(AC3)的声音压缩编码技术,由此获得了传输2声道立体声直至6声道环绕声信号的能力。因此,高清电视播出传输方式的改变将彻底提升终端用户的声音重放效果,“CD音质5.1声道环绕声电视节目终于随着数字高清机顶盒走进了寻常百姓家,越来越多的观众家中拥有了环绕声(5.1声道)重放设备。 

 

至此,传输手段和终端硬件设备的变革已经对高清电视节目声音制作提出了更高的要求——大动态、宽频响、低噪音是对音质的基本要求;只有丰满、逼真、感染力强的音乐音响效果才能与高清晰度的画面相匹配;立体声和环绕声成为了高清电视节目区别于标清电视节目的新亮点。因此,伴音这个词已经不再适用于高清电视节目的声音了,对于现场实况类节目,优秀的环绕声声音制作完全可以使观众犹如置身于重大赛事活动的现场;对于电视剧或电影,观众在家中就可以体验到能与电影院媲美的环绕声效果。 

 

所以在制作领域,主观方面的高要求和更加精细的声音制作成为了对高清时代声音制作的新要求,高标准的立体声和环绕立体声声音制作也就成为了高清时代必须实现的新目标。音频系统中的各种设备,以及我们在前期、后期制作中所采取的各种技术手段,都是为了实现这些要求和目标而服务的。

 

第一节     音频系统组成及功能

 

无论是高清还是标清,音频系统无外乎是由声电转换→模数转换→混音处理→记录→回放组成,所以几乎所有标清时代的音频设备都可以沿用到高清制作中。但由于目前的标清节目大多为单声道制作,所以高清制作对音频系统设备提出了新要求,下面我们将主要来谈一谈为了满足高标准的立体声和环绕声声音制作需求所用的音频设备。

 

1. 拾音设备

 

拾音设备经过了一百多年的演变,从最初的碳粒话筒,发展到电动式和电容式话筒,目前音频制作广泛使用的是动圈话筒、电容话筒和驻极体话筒。无论高清还是标清,无论单声道、立体声或环绕声,我们使用的拾音设备一定离不开这三类话筒。每一支话筒都有自己的特性,频率响应、指向性、灵敏度、可承受的最大声压级等技术参数决定了话筒的拾音质量和适用范围。在过去的标清节目制作中,我们已经积累了相当丰富的单声道和立体声拾音经验——使用高质量的话筒、选用成熟的立体声拾音制式和恰当的话筒摆位布局就可以高标准的完成拾音。但在高清节目制作中面临的新问题就是如何进行环绕声同期拾音。首先,我们完全可以根据节目需要和录音环境来制定自己的拾音方案,也就是用现有的单声道和立体声话筒,通过合理的搭配和摆位来进行环绕声拾取。另外,我们也可以选用某些厂家生产的环绕声话筒支架套件配合现有话筒进行拾音,或直接选择成套的环绕声话筒。

例如:

DPA S5 Surround Mount环绕声话筒安装套件,可自由组合,搭建出多种经典的环绕声话筒布局。




   

DPA 5100便携式环绕声话筒,便于携带,甚至可以安装在摄像机上,内部采用全方向压强式话筒与干涉管相结合,从而产生指向性;前置话筒共点,避免了相位差,后置话筒分离放置,通过时间差带来了空间感。但我们认为它更适合在相对比较小的空间内拾音,因为几乎共点的话筒配置降低了空间感。 

 


    

Schoeps cmit-double-msa-dms-lu,两种由三支话筒组成的双MS矩阵,具有很好的单声道和立体声兼容性,但同时完全丧失了时间差带来的空间感。虽然后期解码会稍显繁琐,但却能给录音师充分的时间去推敲各声道之间的关系。 

                          

 

 


    

SoundField 四个宽心型电容话筒头组成的话筒矩阵,使用专用的解码器得到B-Format信号,也就是X(前后)\Y(左右)\Z(高低)\W(位置参考)四路输出信号。可等效为38字指向性话筒和1支全方向话筒的组合。借助硬件或软件解码器,我们可以由B-Format信号中得到从单声道格式直至任意一种多声道环绕声格式的信号,并且可以自由调整各声道之间的关系。此话筒同样为共点设计,不会有相位差。话筒体积小巧,4声道输出方便视频设备记录,便于外出使用。 

 


       

 


    

holophone-H2-PRO 仿真头式环绕声话筒,8支全方向话筒被分开安放在了头型外壳内,因此具有7.1声道(左、右、中、低、左后、右后、顶声道、中后)环绕声录音的能力。 

 

 

 

 

 

 

2. 传输 

 

随着计算机编辑和管理平台的使用越来越普及,文件化制作已经纳入了各个电视台的标准制作流程之中,音频的传输已经出现了分化——即实时音频信号的传输和音频文件的传输。 

 

2.1实时音频信号的传输 

 

实时音频信号的传输实际上是一个系统问题,涉及到了很多内容,包括信号的种类,信号的传输电平,数字信号有无编码、是否包含控制数据,数字音频信号的同步,音视频信号之间的同步,以及信号传输的介质等等。对于这些问题,我们将只做一些简要的陈述,因为这些内容并不是高清节目制作所独有的。在标清时代,遵循着各种标准,我们的系统已经安全准确的传输了各种形式的模拟和数字音频信号;在高清时代,运用我们目前的音频系统和现有的信号传输知识就可以解决绝大多数问题,因为模拟信号和无压缩的数字音频信号本身并没有改变,只不过数字信号被越来越广泛的应用在了音频工程的各个领域。 

 

2.1.1信号的种类、传输电平和传输介质  

 

1)         模拟音频信号 

 

模拟音频信号是相对于离散的数字音频信号而言的连续信号。电学上的模拟信号主要是指幅度、频率和相位都连续的电信号,模拟音频信号可以被模拟电路进行各种运算,如放大、混合、均衡、压缩等。模拟信号易受到周围环境中电磁波的干扰,而产生噪声。 

 

模拟音频信号的传输电压直接决定了音频信号的电平。根据用途不同,模拟音频信号有多种传输电平。在电视制作系统中,我们经常会遇到的有话筒电平()和线路电平(+4dBu)。在进行信号连接时,必须注意电平匹配,如果将线路电平信号送进话筒放大器,就算将话筒放大器的增益减到最小,信号依然会产生失真;如果将话筒电平信号输入到后级设备的线路电平入口,那么信号则得不到足够的放大,且信噪比会大幅度降低。话筒的输出电平比较低,更易受到外界干扰,所以我们应尽可能的将长距离传输的任务交给线路电平信号来完成。 

 

专业音频系统中,我们多使用带屏蔽层的双绞线来传输平衡的模拟音频信号,并使用XLR(卡农)插接件。由于模拟音频信号的频率较低(20Hz~20KHz),所以线缆的特性阻抗几乎不会影响到信号质量。 

 

2)         数字音频信号 

 

数字音频信号是通过A/DAnalog/Digital)转换器的采样和量化之后生成的一连串离散的脉冲信号。数字信号可以被数字信号处理电路进行各种处理。数字信号具有较强的抗干扰性,更适合远距离传输和多次复制,数字音频信号的质量主要取决于A/DD/A设备的转换品质。数字音频信号的种类较多,在电视制作领域常用的通用、开放的数字音频接口格式有可传输双声道的AES3AES3-id、可传输64个音频通道的AES10MADI)等,有时也会用到S/PDIFADAT等。 

 

数字信号与模拟信号的电平计量方法不同,数字音频信号的信号电平并不能通过在导线中传输的电压来确定,它有自己独有的计量单位——dBFS(满刻度电平)。数字传输和记录设备可承载的最大电平为0dBFS,达到0dBFS即会产生失真。为了和模拟计量单位对应起来,各个国家和设备厂商制订了不同的标准,基本上可归结为两种:-20dBFS=0VU=+4dBu,或-18dBFS=0VU=+4dBu。我们国家使用-20dBFS标准。 

 

数字音频信号的传输介质根据其接口格式不同而各不相同,由于其传输频率很高,所以我们还必需考虑到传输线缆的特性阻抗匹配问题。如AES10MADI)使用75欧姆同轴电缆、BNC插接件,或光纤传输,信号电平在0.3V0.6V之间,最远可传输2000米(光纤传输时);S/PDIF接口可以传输立体声PCM数字音频或AC3\DTS码流,使用75欧姆同轴电缆、BNCRCA插接件,或光纤传输,信号电平在0.2V0.6V之间,传输距离10米左右;ADAT接口可以传输8通道数字音频,使用光纤连接;最常用的AES3AES3-id在下文有详细讨论。 

 

2.1.2数字音频信号的同步 

 

所有的数字音频设备都是参照着某一个基准时钟运行的,每个设备都有自己的本机内部时钟,但就像世界上没有两个完全相同的鸡蛋一样,每个设备的内部时钟都会有细微的差别。如果要在两个数字设备之间传输数字音频信号,就必须让两个设备运行在相同的基准时钟上。 

 

目前的数字音频设备都可以选用多种基准时钟——本机内部时钟、外部数字音频信号中包含的时钟、外部字时钟(Word Clock)、外部视频参考时钟(Video Reference)等。 

 

时钟信号的连接有串联和并联两种方式,如下图式: 


     

 


   

时钟串联方式使用起来比较方便,省去了时钟分配器,但当需要同步的数字音频设备比较多时,时钟信号在多个设备间传输的累积延时会影响同步的效果,所以比较适合在数字音频设备较少且相互距离较近时使用;时钟分配并联方式不存在延时问题,可以同步很多的音频设备,只需注意各设备的同步信号线长度不要差距过大即可。 

 

由于有些数字音频设备无法使用视频参考时钟信号,所以当需要与视频设备进行同步时,建议将视频参考时钟信号作为系统的主时钟源,将其转换为字时钟或AES音频时钟后再进行分配连接。 

 

2.1.3数字音频信号的压缩编码 

 

实际上,任何一种数字音频信号都可以看作是模拟信号经过编码的结果(如PCMADPCMDSD等);而MP3WMA等常用的压缩编码格式是对于PCM数字音频文件实施的非实时压缩编码;而我们说的数字音频信号的压缩编码主要是指在高清电视节目制作中会用到的,对AES数字音频信号实施的实时的压缩编码格式,如DolbyEDTSMPEG等,它们都可以将多声道(一般为8个声道)数字音频信号压缩为2声道的数据流,具有损失小、与视频帧同步、可承载元数据等优点。 

 

2.1.4在高清制作时代可能会遇到的实时传输问题 

 

正像前面提到的,在高清时代,运用我们在标清时代积累的音频系统知识和信号传输知识就可以解决绝大多数问题,下面我们来讨论几个可能会在高清制作中遇到的新问题。 

 

1) 压缩编码后的数字音频码流必须透明传输 

 

为了在声道数量有限的节目记录介质上记录多声道环绕声节目,我们只好采用一些数字音频压缩编码设备(如DolbyE)将多声道的节目声音进行有损(几乎不可听辨)编码。为了更好的兼容现有设备、简化制作流程、降低成本,各厂商开发的编解码器设备生成的码流都兼容AES3数字音频格式,并且与视频信号做到帧同步。理论上,压缩后的码流可以记录在任何AES3音频记录设备上。但由于码流信号不能经过任何处理,也就是不能调整增益、均衡,不能进行降噪、重采样、预加重、抖晃等处理,所以在使用时必须保证码流通路的绝对透明,保证码流格式与记录介质格式在采样频率、比特数、时钟等方面的绝对统一。 

 

我们认为数字音频压缩编码只是一个过渡时期的折中方案,但目前我们也只能无奈且小心翼翼的使用它。 

 

2 AES3AES3-id的阻抗转换和电平匹配 

 

一直以来,专业音频领域使用最多的数字音频接口格式就是AES3数字音频接口,它由AES(音频工程师协会)和EBU(欧洲广播联盟)于1985年共同制订,也被叫做AES/EBU接口。它采用110欧姆的屏蔽双绞线和XLR(卡农)插接件传输平衡的数字信号。使用XLR连接方式的设计初衷是为了更好的兼容当时已经广泛使用的模拟线材,但这恰恰限制了它的传输距离。一般来讲,AES3信号的传输距离在100米以内,使用典型的模拟话筒线来长距离传输经常会使接收端无法识别信号。 

 

为了解决传输距离短的问题,AES1995年制订了AES3格式的升级标准,一种可以使用非平衡75欧姆电缆和BNC插接件的接口形式,叫做AES3-id,最远可以传输1公里。目前它越来越广泛的替代AES/EBU平衡接口应用在了很多高清设备上,如SONYDolby 

 

这时问题就出现了,我们的数字音频系统中出现了AES3AES3-id两种音频接口,转换在所难免,但AES3的工作电平为峰峰值2V-7VAES3-id的工作电平仅为峰峰值1VAES3-id信号经阻抗变换后的AES3信号幅度依然很小,长距离传输后几乎无法被AES3设备识别。所以在进行系统设计时,应把长距离传输的任务交给AES3-id信号,阻抗变换应在AES3设备端完成,否则就要考虑对AES3信号进行放大整形了。 

 

3)三电平同步 

 

在标清制作时,我们的视频设备统统使用双电平同步(同步脉冲的’‘两种电平),但在高清制作系统中,出现了一种新的同步信号——三电平同步信号,某些高清视频设备只能使用三电平同步信号作为时钟源。但为了兼容使用传统同步信号的视频设备,高清视频系统基本上都可以提供传统双电平视频参考时钟信号。所以当搭建高清音频制作系统时,我们还是可以向视频技术人员索要双电平视频参考时钟来作为音频系统的同步源。 

 

4)高清演播室或EFP系统的延时补偿 

 

目前的高清视频制作越来越复杂,运用了很多实时特技,如虚拟演播室、在线包装等,但这些处理都会给视频信号带来或多或少的延时。为了使最终的节目信号声画同步,我们必须对音频信号加入适当的延时补偿。视频处理方式的不同,带来的延时量也不同。在搭建演播室或EFP音频系统时,我们可以向视频技术人员索要视频系统全路由延时量,之后对音频系统做出调整。 

 

2.2音频文件的传输 

 

音频文件的传输已经脱离了传统音频的范畴,基本上变成了计算机网络的问题。由于我们并不是计算机网络专业人士,所以我们抛开基础网络架构,转而讨论各种音频文件格式和工程文件格式(各品牌工作站软件自有格式),以及不同格式之间的转换问题。 

 

由于目前音频文件格式种类众多,每种格式还有很多参数可以调整,从而得到优劣不同的音质、占用大小不同的存储空间,我们这里只谈一些能够符合专业电视音频制作要求的音频文件格式。在这里我们也要对那些经常从互联网上随意下载低质量音频文件,并随意使用在电视节目中的编导和音乐编辑们说:你们的轻率正在使电视节目的声音质量大幅降低,就像YouTubeYouku的网络视频质量无法满足播出要求一样,互联网上下载的低质量MP3WMA音乐和伴奏带均不能达到播出标准,更不要说与高清画面进行适配了。长此以往,当电视节目的质量只能与开心网的转帖相提并论时,收视率的流失恐怕就不可避免了!

 

2.2.1 音频文件格式及转换 

 

随着IT业迅速的发展,各种音频文件格式越来越多,有很多也是我们并不熟悉的,这里只讨论几种在广播电视制作中经常会用到的、质量可靠的文件格式。 

 

1) 无压缩类型:  

n     WAVWAV为微软公司开发的一种声音文件格式,他可以使用ADPCM等压缩编码方式,但我们一般使用的都是与CD音质相同的PCM(脉冲编码调制)无损编码方式,但采样频率(Sample Frequence)应为48000Hz,量化比特数应为16bit20bit24bit,单个文件可以内嵌1个(mono单声道)、2个(stereo立体声)或多个声道,但多声道WAV文件可能需要专用的音频软件才能播放和编辑。所以为了文件交换的兼容性,我们应尽量选择单声道或立体声WAV文件 

n     AIFFAIFF是苹果电脑上面的标准音频格式,属于QuickTime技术的一部分。与WAV一样,我们也只使用它众多编码方式中的PCM无损编码方式,采样频率(Sample Frequence)也是48000Hz,量化比特数应为16bit20bit24bit,单个文件也可以内嵌1个(mono单声道)、2个(stereo立体声)或多个声道。但由于苹果电脑的使用范围比较窄,某些Windows平台的播放软件可能会无法播放,兼容性略差。WAVAIFF文件可以被看作是同质格式,几乎所有专业音视频编辑软件都可以打开、播放、编辑并生成这两种文件。使用时需注意编码方式、采样频率、量化比特数和声道数。 

n     BWFBWFBroadcast Wave Format广播波形格式)文件是EBU(欧洲广播联盟)在1995年制订的对WAV文件的扩展格式,它可以在声音内容之外包含元数据(元数据可解释为描述数据的数据,例如波形信息、时间码信息、数据压缩信息等)。在进行DolbyE文件化编码时会用到BWF文件格式。 

  

2) 有损压缩类型:  

n     MP3MP3文件是一种有损压缩编码文件,使用MPEG I3层编码算法。由于它已经广泛的存在于当前社会的每一个角落,所以在我们的电视节目制作中恐怕也不可避免的要使用到它。但是在使用之前,我们一定要对其参数进行详细的了解和设置,才能符合电视播出的要求。使用MP3文件时,与WAVAIFF文件一样,也要注意编码方式、采样频率、量化比特数和声道数,但其音质同时还由其压缩码率决定,码率越高质量越好,在电视节目制作中,我们要求MP3文件的压缩码率不应低于256kbps 

n     WMAWMA是微软公司开发的有损压缩编码文件,同等压缩码率下,音质略高于MP3文件,且拥有较好的版权保护能力。同样,我们要求的WMA文件的压缩码率也不应低于256kbps 

  

3) 音频文件格式之间的转换 

 

任何两种不同格式的音频文件进行互转,声音质量都会降低到其中低质量格式的水平,所以要始终使用高质量的音频文件格式。 

 

2.2.2工程文件格式及文件交换与转换 

 

工程文件就像视频非线性工作站的故事版一样,记录的并不是音视频素材本身,而是工作站将如何处理和使用这些素材的文件,各品牌工作站的工程文件并不通用,也就是说某一种软件的工程文件只能被该软件打开,而不能被其他品牌工作站打开。说到工程文件,就必须谈到音频工作站软件,关于各种软件的特性,我们将留到记录设备里面去讨论,这里只介绍几种常见工作站的工程文件格式及几种通用的、开放的、可在不同工作站之间进行工程交换的文件格式,以及刚刚出现不久的工程文件转换软件。 

 

1)         各品牌工作站自有格式工程文件(文件夹):

 

目前,几乎所有的音频工作站都采用了类似的文件管理方式,即为每一个工程都在用户指定的位置创建一个工作文件夹工作文件夹下包含几个子文件夹,它们分别存储音频素材文件素材波形非实时处理结果混音后的结果参考视频文件等不同类型的文件群;我们一般习惯将工程文件直接保存在工程文件夹下。同时工程文件夹下还会包含工程文件自动备份文件以及软件自动生成的一些临时文件。这样管理的优势是文件分类清晰、管理方便,但需要注意的是,使用者必须建立良好的使用习惯,不同的工程文件夹要在同级目录建立,不要互相嵌套,对于工程文件和最终成果音频文件,也要养成良好的存储习惯,不要随意放在不确定的位置。这样才能在迁移、复制和删除工程时不影响其他工程。

 

2) 开放的可交换文件格式:  

n     OMFOMFOpen Media Framework开放媒体框架)是一种为了在不同软件之间交换数字媒体文件的跨平台的文件格式,由AVID公司开发。OMF文件可以将一个音频工程中的多轨音频文件、音频文件参考位置、声轨音量、区块音量(OMF2.0)、区块淡入淡出(OMF2.0)、声像等信息存储在一个.OMF文件中,但插件信息、声轨分配信息等各软件间无法通用的信息则无法保存。OMF文件已被多种非线性视频和音频编辑软件广泛采用,我们认为是目前跨平台工程交换的首选格式。

n     AAFAAFAdvanced Authoring Format高级制作格式)与OMF几乎相同,可存储和交换的信息量超过了OMF,但由于出现的时间不长,并没有实质性的进展,我们可将其看作是OMF的同质格式。

n     AES31:由AES制订的文本格式的简单工程交换格式,不包含视频信息,不包含音量及声像自动化信息。但适用于简单的素材级文件交换,例如不包含任何编辑信息的简单收录工程文件的交换。

n     XMLXMLExtensible Markup Language)是一种可扩展标记语言,被设计用来传输和存储数据,由于其文本化的文件格式和极强的用户可扩展性,被各个厂商广泛使用,但却各有各的用途。如APPLE FCP就可以通过它自己的XML文件很方便的与LOGIC PRO进行工程文件交换,SteinbergNuendoCubase也有自己的XML交换格式。

n     OpenTLOpenTLOpen Track List 的缩写,TASCAM公司的MMMX系列多轨硬盘录音机都使用这种EDLEdit Decision List)类型的文件格式,可以记录在HFS\HFS+FAT32分区格式上,方便与多种工作站软件进行工程交换。

 

2.2.3工程文件转换软件:

 

SSLSolid State Logic)公司生产的Pro convert工程文件转换软件可以对多种常用软件的工程文件进行互转。但其转换功能同样是不完全的,只能将工程文件中的部分参数进行转换。

 

 

 

 

 

3. 混音及效果处理设备 

 

在谈到混音及效果处理设备时,我们必须将前期制作和后期制作分开来说。因为对于前期ENGEFP、演播室等制作环境来说,混音和效果处理设备并没有因为高清制作而出现本质的变化,只不过应该具备更强的处理能力、更多的内部通道、更多的物理接口和环绕声处理功能;而对于后期制作来说,虽然高清并不是发生变革的原因,但近年来音频工作站已经几乎全面接管了记录、混音和效果处理工作,设备配置与前期制作有较大区别。 

 

3.1前期制作 

 

在前期制作中,传统调音台(相对于后期制作中的控制台)和效果处理硬件(相对于后期制作中的效果处理软件)依然是不可替代的。在调音台方面,从ENG常用的4路便携模拟调音台到演播室播出和扩声使用的48路以上的大型数字调音台,规格和品牌众多,但只要配置和使用得当,都可以满足高清电视制作的需要。在硬件效果器方面,为了满足环绕声制作需求,应配置可进行多声道效果处理的环绕声效果器。 

 

3.1.1数字调音台 

 

数字调音台以其体积小、功能强大、配置灵活等优势越来越多的占据了声音制作的市场,在高清电视节目制作的各个环节得到了广泛的应用。 

 

1) 前期ENG采录 

 

一直以来,前期ENG采录都是模拟便携调音台的天下,在高清时代,它依然可以完成几乎所有的ENG工作。但随着对于环绕声前期采录的要求越来越多,很多厂家都推出了集调音台和硬盘(或存储卡)录音机于一体的便携设备。这些便携录音机多带有48通道话筒放大器、多通道模拟或数字输入输出,在进行多轨音频文件记录的同时还可以完成混音工作。其中的一些还带有字时钟和时间码同步接口,可以与摄像机或视频系统同步工作,保证长时间记录的速度同步并且方便后期编辑。 

 

2 EFP和演播室直播

 

高清电视节目的EFP或演播室制作对于音频系统提出了更高更多的要求,其中最典型的就是环绕声、立体声、单声道多格式同时播出。这就需要调音台具备环绕声制作能力、成倍增加的处理通道和母线、更多的物理输入输出口。所以,处理能力强、配置灵活、冗余备份充足的大型数字播出调音台成为了必然的选择。

 

3.1.2模拟调音台

 

在数字调音台大行其道的今天,模拟调音台以其优秀的稳定性、易用性和易维护性依然占据着一定的市场。尤其是某些对播出安全性要求非常高,但制作难度相对较低的音频系统,模拟调音台仍然是很好的选择。对于高清电视节目制作,尤其是前期ENG采访、小型EFP或扩声应用,选择适当规格的模拟调音台就完全可以满足制作要求。但对于某些大型节目,模拟调音台受到其端口数量、路由能力、环绕声制作能力、甚至是设备体积的限制,很难达到数字调音台的水平,难以满足节目制作要求。

 

3.1.3效果处理设备

 

虽然我们在标清时代使用的所有混响、延时、均衡、压缩、失真和谐波类效果器都可以沿用到高清时代,但为了满足环绕声制作需求,仅靠传统双声道效果器就很难方便快捷的完成效果处理任务了,应配置可进行多声道效果处理的环绕声效果器。目前,T.C. System 6000Lexicon 960可能是我们仅有的两个选择。它们依靠各种不同的算法,可以实时生成环绕声混响和延时,并对多声道信号进行整体压缩和均衡等处理,但在采购时还应注意效果器算法授权的选购,因为很多优秀的处理算法并没有包括在硬件标配里面。

 

另外,正如我们在上文传输部分提到的,高清EFP和高清演播室音频系统经常需要进行适当的延时补偿,以适应视频系统的特技延时和下变换延时。所以,一台或多台系统延时器恐怕也是必须的。

 

3.2后期音频制作

 

与前期制作一样,后期音频制作并没有因为高清而出现本质的变化。只是由于后期音频制作越来越多的使用了非线性的音频工作站,所以混音和效果处理工作也主要在工作站内部完成了。真正因高清而变的,则是各种工作站软件对于高清视频文件的支持能力,以及工作站主机的内部传输和处理能力是否可以满足实时播放高清视频文件的需要。因此,传统的数字或模拟调音台已经逐渐被音频工作站的控制台所取代;传统的外置硬件效果器逐渐被软件效果插件所取代。

 

3.2.1控制台

 

控制台大多通过以太网或USB接口与工作站连接,依靠各种通用或专用的控制协议来控制工作站软件的内部调音台,从而实现混音。控制台的种类和品牌很多,有的集成了话筒放大器、AD/DA转换器和监听对讲控制模块(Digidesign C24);


                                  
   

 

 

 

 有的是在模拟或数字调音台的基础上添加了控制功能(SSL Matrix);

 


                               

 

 

 

有的则只是单纯的控制器(Behringer B-CONTROL Fader BCF2000);

 

 


 


   

有些工作站品牌会生产配套的专用控制台产品,这些同一品牌的控制台可以很好的与其工作站软件相匹配,控制软件中的几乎所有功能,摆脱键盘鼠标,提高工作效率(FairLight ConstellationDigidesign D-Control); 

 


            

 


   

有些控制台则使用了通用的控制协议,可以兼容很多的工作站软件,但可控制的功能会略少于专用控制台,且需要用户有较强的自定义能力和学习能力(Mackie MCU Pro); 

 

 

 

 

 

有的可以强大到拥有上百个物理推子,同时控制多种多个工作站,适合多人同时工作(Euphonix System5MC); 


  


有的简单到只有一个推子,但也可以满足个人工作室的需要(Prosonus FaderPort)。 



 

 

3.2.2效果处理插件 

 

在传统的后期制作中,我们会用到大量的外部硬件效果器,声音信号经记录设备或调音台输出,经效果器处理后再返回到调音台。所以,如果需要处理的效果种类和个数比较多,我们就需要购买多台效果器;而且,因为每次工作需要处理的效果不同,硬件效果器的设置和音频连线就不同,所以一旦改变了这些设置,当节目需要修改时,就很难将效果器设置和音频连接方式恢复到原来的状态。 

 

而当前普遍使用的效果处理插件却很好的解决了上面这些问题,同一个效果插件可以同时多次使用,效果器配置随宿主(工作站软件)的工程文件一同保存,调用工程就意味着同时调用了该工程使用的所有效果器及其配置。而且,目前有很多效果插件是通过对经典硬件效果器物理建模得来的,也就是说,软件效果器可以几乎完全模拟硬件效果器的处理效果。 

 

但同时,硬件效果器无延时、操作直观也是软插件不可替代的优势。由于效果插件的运算都需要由工作站主机的CPU或是专用的效果处理DSP卡完成,所以处理延时(CPU处理)不可避免、同时使用的插件数量(DSP处理)受到了DSP能力的限制。但我们认为,对于并不太复杂的电视制作来说(相对于电影和音乐),软件效果器在功能上的优势更应使其成为主流。 

 

目前的效果处理插件种类非常繁多,功能极其全面,从单声道到环绕声、从效果器到合成器采样器、从传统功能到新奇特,可以说是无奇不有。但如果按照使用平台和运算处理方式来看,主要有以下几种格式: 

 


 

4. 记录设备 

 

高清制作并没有使音频记录设备发生变化,由于环绕声制作的要求,我们只是需要更多的记录通道而已。所以,在前期ENG,我们可能会用到便携式多轨硬盘(存储卡)录音机;在EFP、演播室,我们会用到48轨以上的硬盘录音机或工作站;在后期,我们只需要适当的升级工作站的处理能力和运算速度。 

 

所以,多轨记录设备的音频接口格式和文件记录方式也就成为了提高工作效率的关键。在前期ENG,记录48KHzWAV格式音频文件可以保证在后期制作时的文件兼容性。在EFP、演播室,选择MADI等高效传输接口的多轨记录设备可以简化我们的系统连接;使用与后期制作同品牌的工作站可以使文件交换相当高效;建立强大的网络集中存储系统,在线制作,可以避免存储资源浪费、省略文件迁移时间。 

 

同时,高清制作使得视频记录设备的音频部分也出现了一些小小的变化,例如声道数量、量化比特数、音频接口格式等。我们只需要在搭建系统时充分考虑到这些因素就可以了。 

 

5. 回放 

 

5.1 播放音源设备 

 

与记录设备相同,播放音源设备遇到了同样的问题——回放声道数的增加,但这个问题主要体现在了EFP和演播室音频系统中。 

 

如果我们需要在演播室或室外现场演出中回放多声道环绕声声音素材,我们大多会在录音棚中将环绕声素材缩混好,然后在演播室或节目现场使用8轨硬盘录音机回放。这样的确已经可以满足高清电视环绕声播出的需求了,但却很难满足现场环绕声扩声的要求。因为演播室或外景节目现场的场地、布景以及观众坐席都是不确定的因素,很可能与录音棚的监听环境大相径庭,所以我们很难在录音棚中制作出能让现场观众满意的环绕声效果。 

 

这时,我们就对EFP和演播室音频系统中的音频回放设备提出了新的要求: 

u  多声道素材播放 

u  自定义播放列表 

u  多素材混合输出,并可以调整各素材之间、素材各声道之间的音量比例 

u  各素材单独设置循环点、淡入淡出 

u  多个自定义的播放快捷键 

u  在调整其它素材播放参数时,不能影响当前素材的播放 

u  根据自定义的多通道音箱位置,自动调整声像移动效果 

u  完善的冗余备份配置 

u  丰富的模拟和数字输出接口 

u  应该是一套完整的软硬件系统 

u  简单易用的用户界面 

 

可惜的是,目前很难找到这样完善的产品,据我们所知,只有MeyerSoundLCS-Matrix3可以达到其中的绝大部分要求,但其造价高昂、使用相对复杂。 

 

另外,有一些纯软件产品也可以基本上达到我们的要求,但由于其无法提供整套的软硬件及冗余备份系统方案,我们也不敢将其使用在对于直播安全性要求极高的EFP和演播室系统中。 

 

所以,目前经济、安全的可行方案仍然是使用多轨硬盘录音机或工作站进行回放,通过扩声系统做适当的调整,以适应现场扩声环境。 

 

5.2 监听设备 

 

实际上,监听设备也没有因为高清而出现什么改变。只是为了制作环绕声节目,我们必须使用一套环绕声监听系统。之所以称之为系统,是因为它已经不只是6支音箱的问题了,5.1声道环绕声监听系统多由5支全频带音箱、1支低音音箱和1台低音管理器组成,也有些低音音箱集成了低音管理器。低音管理器的主要功能就是低音重定向”——5个全频声道中的低频部分分离出来,交给低音音箱去发声。 

 

另外,越来越多的监听音箱可以接收数字信号了,并且使用了数字化控制,内置了数字房间均衡器,这可以方便使用者对多个音箱同时控制、对监听环境快速校准。 

 

5.3 扩声、返送设备 

 

扩声和返送音箱、无线耳机返送等设备的发展依然与高清无关。数字化和网络化的传输和控制越来越多的应用在了扩声和返送设备中。 

  

6. 辅助设备及附件 

 

时钟发生器及时钟分配设备、时间码同步器、数字音频信号测试仪、声场测试仪等辅助设备和附件都是我们在日常工作中要用到的,但大多与高清没有多大关系。唯一需要注意的就是音频工作站的视频卡需要支持高清采集和播放。 

 

第二节  音频系统主要技术指标 

 

由于高清节目记录和播出设备的音频部分的技术指标并没有发生变化,所以视频系统的高清化并没有影响音频系统的各项技术指标。 

 

1.模拟域技术指标 

 

参照国家广播电影电视总局2000年发布的《电视中心制作系统运行维护规程》中对于模拟音频设备的甲类技术指标要求,我们给出如下技术指标的最低要求: 

 

1.1音频分配放大器技术指标 

  信噪比 80dB

  频率范围 2020000 Hz

  幅频特性 ±0.5 dB

  总谐波失真 0.3%

 

1.2音频制作切换器技术指标  

  信噪比 74 dB

  频率范围 2020000 Hz

  幅频特性 ±0.5 dB

  总谐波失真 0.25%

  讯道间隔离度 -65 dB

 

1.3音频矩阵开关技术指标  

  信噪比 75 dB

  频率范围 2020000Hz

  幅频特性 ±0.25 dB

  总谐波失真 0.1%

  讯道间隔离度 -80 dB

 

1.4音频功率放大器技术指标  

  信噪比 110 dB

  频率范围 2020000 Hz

  幅频特性 ±0.1 dB

  总谐波失真 0.05%

  

2.数字域技术指标 

 

由于数字领域目前没有相关的行业标准,所以我们只能在一些国际标准的基础上,对于电视系统中常用的AES3AES3-id设备的接口指标给出一些仅供参考的技术指标范围: 

 

  采样频率不低于48KHz

  量化精度不低于24bit 

 

AES3平衡接口电气特性指标: 

  输出: 

u  输出阻抗:110 Ω ± 20%

u  平衡度: <-30 dB (to 6 MHz)

u  信号载波幅度: 2 - 7 Vp-p across 110Ω load

u  上升和下降时间:5 to 30 ns

u  抖动:<20 ns p-p

  输入: 

u  输入阻抗:110 Ω ±20%

u  最大可接受载波幅度:7V p-p

u  最大电缆长度:100 to 200 m maximum

 

AES3-id非平衡接口电气特性指标: 

  输出: 

u  输出阻抗:75 Ω nominal

u  反射损失:>25 dB (0.1 to 6 MHz)

u  信号载波幅度:1 Vp-p across 75 Ω load

u  直流偏移量:0.0 V ±10%

u  上升和下降时间:30 to 44 ns

u  抖动:<20 ns p-p

  输入: 

u  输入阻抗:75 Ω nominal

u  反射损失:>25 dB (0.1 to 6 MHz)

u  最小可接受载波幅度:100 mV

 

 

第三节  前期的声音采集 

 

1. 制作中的主观因素 

 

我们在本章开头就提到了——主观上的高要求和更加精细的声音制作成为了对高清时代声音制作的新要求,高标准的立体声和环绕声声音制作成为了高清时代必须实现的新目标。 

 

通过前面对音频设备的讨论,我们也可以看出——“高清并没有给音频系统设备带来太多本质的变化,只要满足环绕声制作的基本要求,我们几乎完全可以用现有的音频系统完成高清电视的声音制作。 

 

因此,我们认为最重要的是主观上的高要求,无论是环绕声还是立体声,无论是高清还是标清,只有严谨、高标的艺术要求,认真、细致的工作态度才是让电视声音质量走向高清的关键。 

 

区别于单声道制作,立体声和环绕声的制作的确有一些不同的地方。在单声道制作中,我们的节目声音可以给观众带来等不同的心理感受;在立体声制作中,我们将声场宽度的感受通过两个有细微区别的声道带给了观众;在环绕声制作中,我们又为观众提供了两个感受,而且声场宽度被扩展到了观众的背后。因此,我们认为立体声和环绕声制作区别于单声道制作最突出的不同就在于——最终成果的声道数量越多,听众对于声场的感觉就会越清晰、对于声场变化的感觉就会更敏感,因此为了使声场宽度保持准确和相对稳定,我们就需要在前期使用更多的话筒、采录更多的声场环境信息。 

 

1.1 ENG同期录音 

 

ENG,直译为电子新闻采集。但在我们的工作中,ENG已经不光局限于对于新闻事件的采集了,多指以单机采访和空镜拍摄为主的采录任务,在单声道时代,我们对ENG同期录音的要求多会相对简单——只要把被拍摄主体的声音记录的清晰、干净就可以了,要尽可能减少环境噪音对主体声源的干扰。但在高清节目制作中,ENG同期录音的成果会被进而制作成高质量的立体声、甚至是环绕声节目。所以对于ENG同期录音的要求有可能会增加一条——在适当的条件下,将主体声源以外的环境声以立体声或环绕声的格式清晰的记录下来。

 

1.2 EFP、演播室现场制作

 

在以往的EFP和演播室现场制作中,我们把绝大部分精力都放在了对于主体声源的拾取和调整上,并且已经积累了很丰富的经验,可以直接沿用到立体声和环绕声制作中。但我们一般并不太重视环境声源,例如一个固定安装的演播室,舞台上可能会同时出现十几或几十支话筒,但观众效果话筒却永远只有24支,而录音师和编导都已经习惯了用一张精心制作的循环掌声CD来随时弥补现场气氛的不足。这种方式在单声道时代是完全可行的,但在立体声和环绕声制作中,观众会更容易察觉到声场的不自然变化,从而发现做假的痕迹。所以,在EFP和演播室现场制作中,我们不得不更加重视环境声源,一般来讲就是对于观众效果和扩声环境的拾取。我们心中的环境声场制作目标是:内容饱满、音色统一、相关却不相同。

 

2. 录制规范

 

依照中央电视台新近颁布的《高清晰度数字电视节目录制规范》,我们制作的高清节目声音应具有如下特征:

 

a)音频系统应采用48KHz采样频率,20比特以上的量化精度 

 

b)校准信号与标清制作相比出现了较大变化:

  

  立体声:

 

u  CH1CH2声道频率为1KHzCH3CH4声道频率为800Hz,校准电平-20dBFS,对应模拟信号电平为+4dBu

u  四个声道相位相同,CH2CH4声道声音连续,CH1CH3声道采用每间隔3秒间断0.4秒(10帧)作为识别立体声左右声道的标志。

 

 

 

 

  5.1声道环绕声:

 

u  1)以12秒为一个周期进行循环。

u  2)低音声道持续80Hz正弦波。

u  3)其它5各声道为持续3秒的1KHz正弦波,紧接6秒的声道识别信号,再紧接持续3秒的1KHz正弦波。

u  4)在12秒的声道识别信号中,0-2秒为前左声道识别信号,其中0-1秒为前左声道的语音播报识别信号,1-2秒为前左声道1KHz的正弦波;2-4秒为中央声道识别信号,其中,2-3秒为中央声道的语音播报识别信号,3-4秒为中央声道1KHz的正弦波;以此类推,4-6秒为前右声道识别信号;6-8秒为右环绕声道识别信号;8-10秒为左环绕声道识别信号。10-12秒只有低音声道存在80Hz正弦波,其他声道无声。

u  51KHz80Hz正弦波的校准电平数字输出为-20dBFS,对应的模拟信号电平为+4dBu

 

 

 

c)节目电平最大值应不超过-6dBFS

 

d)声道分配

  立体声声音通道分配表

 

 

 

  环绕声声音通道分配

 

u  14路记录方式

 

 

u  28路记录方式

 

 

 

 

e)音频信号应与视频同步 

                          

 

3.音频响度质量控制 

 

在当今的数字化制作环境中,动态范围远远高于以往,数字电视音频响度不统一,导致电视观众仍然要不断拿起遥控器,调整音量。因此在电视节目制作及播出中,必须采用可靠的标准化节目响度评估方法,对其各个环节进行响度监测和控制,以防止不同节目类型存在显著音量差异的情形。新型的音频响度监测表和响度质量控制器,在整个节目制作的最初环节即可使音频问题得到全面掌控。在节目录制或质量控制过程中,提供响度测量功能,并可支持手动或自动更正节目响度以与目标值匹配,输出的音频与元数据可完全满足台内或外部提供的传输规范。总之,在节目制播链的每个环节对响度进行管理,可以产生更好的响度和声场控制效果。 

 

第四节  后期制作的声音合成 

 

1. 制作中的主观因素 

 

相对于前期制作来说,后期制作有更充裕的时间来对节目进行仔细推敲和设计,所以主观上的认真细致的工作态度更是制作高质量节目的前提。在客观条件上,后期制作拥有更加丰富的处理手段和处理设备,像降噪这样需要长时间非实时运算的处理工作、像复杂的环绕声声像移动这样需要反复推敲的工作,也只有在后期制作时才有可能使用,所以客观上充裕的时间和充足的技术手段也给后期制作提供了更大的创作空间。 

 

1.1 音乐效果编辑 

 

音乐的编辑本身并没有发生变化,只是要注意对于立体声和环绕声音乐素材,不同出处的音乐很可能会有不同的声场空间感。正如我们在前期制作中谈到的,保持声场宽度的相对稳定是很重要的。所以在选曲和剪接时要更加严谨和细致。 

 

效果编辑的原则没有改变,仍然是远、中、近三个层次的效果声。但对于高清节目的效果编辑,尤其是环绕声节目的效果编辑要比标清节目复杂很多——如果使用立体声效果素材,那么一个简单的环境声就有可能会用到23条立体声音效素材、一个爆炸效果也会用到数条爆炸和碰撞的立体声音效素材,并合理分配到不同的声道中去。只有这样才能满足环绕声效果声声内容饱满、音色统一、相关却不相同的要求。因为我们需要营造的空间被放大了,所以要充分考虑到高清电视的清晰度和大屏幕播放需求,充分体现立体声和环绕声的优势,尽力营造空间声场、同时努力追求细节的真实。 

 

1.2 配合高清画面进行混音 

 

在进行立体声和环绕声混音时,我们可以充分发挥想象力,利用手中充足的声音素材、效果处理设备和混音设备把画面外的环境和事件通过声音表现出来。例如国庆60周年庆典直播是采用标清单声道、高清立体声的格式播出的,而且由于一些特殊情况,在礼炮直达声的拾取环节上出现了严重的失真,导致直播中的礼炮效果大打折扣。但在后期制作中,我们可以对前期排练中的素材进行充分的修整和加工,并结合现场拾取的环境声素材,加上延时器、混响器的处理,为观众营造出震撼的环绕声效果。 

 

但是,电视节目的声音制作一定是要服从画面的。前面谈及许多将声音做复杂的情况,但在环绕声制作中,我们经常会遇到为了环绕而环绕的情况。现在我们要提出的是:声音不能跳出节目之外,千万不要让你的观众在看电视的过程中突然回头去寻找某个声音。 

 

2. 录制规范 

 

后期制作与前期制作一样,要遵循前面提到的《高清晰度数字电视节目录制规范》。 

 

3. 其它应注意的问题 

 

后期制作区别于前期制作的另一明显特征体现在工作流程上。前期的ENGEFP或演播室制作多为音视频同时工作,拍摄和录音的对象是同一个主体。而后期制作多为先完成视频编辑,最后才进入声音制作。而且后期制作经常会遇到反复的审查和修改过程,所以制作流程中的文件交换、素材共享,阶段成果保留就成为了提高工作效率和节目质量的关键因素。 

 

3.1 文件化制作 

 

3.1.1  OMFAAF素材共享

 

在进行视频后期剪辑时,编导们通常会将没用的画面连同其声音一起剪掉,但这些同期声很有可能是后期声音制作时需要用到的,而重新查找原素材又是件非常繁琐的事。所以我们建议使用OMFAAF文件格式完成视频后期到音频后期的文件素材迁移。

 

3.1.2  保存混音自动化数据

 

面对反复的修改,最好的办法就是从第一次混音开始就使用自动化。在之后的修改中,将音频素材与自动化数据一同编辑,可以大大减少画面修改后的音频修改工作量。

 

3.2 磁带制作 

 

3.2.1  规范制作环节声道使用

 

受到磁带声道数量的限制,只能从视频后期机房得到4路音频,那么我们建议进行如下的声道分配:

 

 

 

                 

 



3.2.2  正确使用阶段成果

 

每一次混音的成果都应回采到视频非线工作站中,在下一次修改时与画面一同被编辑,修改后输出给音频编辑时,在没有修改的部分应直接输出上一次的成果,在有过修改的部分则按照上面提到的声道分配方式输出素材声音。这样可以大大减少重复劳动,提高工作效率。

 

综上所述,高清电视节目声音制作带给音频制作的变化并不是在设备的更新换代上,而是在音频制作的工艺和流程上。标清时代虽然音频制作可达立体声标准,但受单声道播出限制,故一直沿用单声道音频制作。制约了声音质量的提高,削弱了声音在电视节目中的表现力。在技术进步、时代需求推动下,电视节目的声音制作和播出翻开了崭新的一页:由模拟走向了数字,由单声道走向了立体声和环绕声。严谨、高标的艺术要求,认真、细致的扎实作风,积极探索、追踪前沿的开放精神在今天是尤为需要的。具体体现在对于音频工作者的工作态度和质量精度的高要求上。立体声和环绕声声音制作是高清时代新标准和必须实现的新目标,因此我们强烈建议:尽力尽快、全面推行立体声电视节目声音制作,倡导、推广环绕声电视节目声音制作。唯有此,才能让高清时代的电视声音真正走向高质量和高品质,与整个电视行业的发展同步,进而拓展声音艺术的发展空间,满足人们艺术享受的更高要求。对于高清时代的电视音频工作者,只有付出更多的智慧和辛劳,方能更加专业、更加职业的完成高清时代的电视节目声音制作。

  

参考文献:

 

《高清晰度数字电视节目录制规范》 中央电视台

 

《电视中心制作系统运行维护规程》 国家广播电影电视总局

 

Microphone System used for Surround Sound PickupBill Whiston

 

The AES/EBU Digital Audio Signal Distribution StandardMichael Robin

1/1

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多