After Effects CS5完全自学一本通
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

1.1.2 彩色电视基础

如果要讲电视原理的话用一本书恐怕也讲不完,在这一节里我们来了解一下与后期制作密切相关的一些电视理论的基础知识。

1.行扫描与帧扫描

在电视系统中,将光图像转换成顺序传送的电信号的过程(或逆过程)称为扫描。扫描是用空间和时间坐标表示的光信息与只随时间变化的电信息之间互相转换的一种手段。在摄像管或显像管中,电子束的扫描运动是依靠偏转线圈中流过锯齿波电流产生磁场来完成的。电子束自左至右水平方向的扫描称为行扫描,自上而下垂直方向的扫描叫做帧扫描。实际上电子束在水平方向和垂直方向上做复合运动。从左至右的运动叫做行扫描正程,从上到下的运动叫做帧扫描正程。与行扫描正程和帧扫描正程相反的电子束运动叫做行扫描逆程和帧扫描逆程(一些书中将帧扫描称为场扫描)。

2.逐行扫描与隔行扫描

逐行扫描是电子束在屏幕上一行接一行的扫描方式,为了实现准确的逐行扫描,要求每场的扫描行为整数行。隔行扫描是一幅(帧)画面分成两场进行,一场扫描奇数行,另一场扫描偶数行。为了实现准确隔行,要求每场扫描的行应为整数加半行。一幅完整的画面是由奇数场和偶数场迭加后形成的,组成一帧的两场的行扫描线是镶嵌的。图1-6所示是两场重现一幅图像的示意图。

图1-6 两场重现一幅图像示意图

事实上电子束并不是平行于水平线的,而是左高右低,上面的图只是一个简单的示意图。

3.彩色电视信号

各国的电视广播的发展都是先黑白后彩色,在黑白电视的年代里几乎谈不上电视的后期包装,所以我们在此简单地介绍一下彩色电视的基本知识。

既要使彩色电视机呈现彩色图像,又要使黑白电视机彩色电视信号接收而呈现黑白图像,这种彩色和黑白电视相互兼容的要求,使彩色电视的传送方式严格受到黑白电视的约束。只传送一个反映景物亮度的信号是黑白电视,即图像信号,只重现景物的亮度信息。除了重现景物的亮度信息外,彩色电视还要同时重现景物的彩色(色调和饱和度)信息。这样,彩色电视信号要在黑白电视信号的基础上增加传送彩色信息的信号,从而形成两个独立的部分,即亮度信号和色度信号。

PAL制是在正交平衡调幅制的基础上加一个逐行倒相措施,所以又叫做逐行倒相正交平衡调幅制。逐行倒相就是将色度信号中的一个分量,即第二分量Ev逐行倒相。具体些说,就是第一、二场的奇数行和第三、四场的偶数行取正值,这些行称为NTSC行。第一、二场的偶数行和第三、四场的奇数行取负值,称为PAL行。为了使接收机能按色度信号的本来相位正确重现原有的色调,在接收端必须采取相应的措施,把预先反相的色度信号(PAL行的色度信号)再倒过来,重新恢复为正常相位。负责完成这一工作的电路是环形调制器,被称为PAL开关。以上所讲,按照PAL彩色电视的标准规定,彩色电视信号由一亮度信号和一对色差信号混合而成。

4.视频制式

为实现彩色图像传送而采用的信号加工、处理和传输方式,称为彩色电视制式。在彩色电视的发展过程中,世界各国对制式进行了大量的实验和研究,多种制式也应运而生。但通过实践和比较,目前实际用于彩色电视广播的只有NTSC制、PAL制和SECAM制。

兼容制彩色电视采用的合适信号是一个宽带的亮度信号和两个窄带的色差信号。为了实现亮、色信号共用一个频带传输,可用色差信号对彩色副载波进行调制,以便将色差信号的频谱搬移到视频段的高端以构成色度信号。三种制式的各自特点主要体现在构成色度信号的调制方式上。

5.后期制作中的场

后期制作的过程是在电脑上进行,而结果是在电视或专业的监视器上播放,电脑的显示器是逐行扫描的,而电视和监视器是隔行扫描的。在后期制作过程当中如果将隔行扫描的视频当成逐行扫描的视频来处理的话,每一帧都会丢失一半的图像信息,从而造成画面的质量下降。

所有的PAL、NTSC和SECAM制式的视频信号都是以场为基础的,而不是以帧为基础,这意味着每一帧都是由两个交错的场组成的。一场含有奇数行扫描线,另一场含有偶数行扫描线。一秒内捕获25奇数场和25偶数场(PAL和SECAM)或30奇数场和30偶数场(NTSC),电视交互地显示这些场。含有第一行扫描线的场叫上场,组成一帧的另一场称为下场。在回放或输出的时候一定要正确地设置场,如果场设置得不正确,将导致画面中运动元素的边缘出现锯齿并闪动。

6.后期制作中的像素比

先提出一个很简单的问题,像素比(Pixel Aspect Ratio)和分辨率(Resolution)的区别是什么?试试你能回答正确吗?

我们先来解析下面这几个名词。

● 像素(Pixel)是显示电视上“图像成像”的最小单位。实际上像素也是由一些更小的点(dots)组成的,不过我们在进行图像处理的时候,把像素作为最小单位。

● 像素比是指一个像素的长、宽比例,也就是组成像素的点在纵横方向上的个数比。

● 图像分辨率是指图像中包含像素的数量,也叫做图像清晰度或图像分解力。常常把分辨率用每平方英寸中图像所含像素的数量来表示,简称dpi(pixels/inch)。

● 画面宽高比(Frame Aspect Ratio)是组成画面的像素在纵横方向上的个数比。

这些概念很容易被忽略,也很容易被混淆。我国采用的电视制式是PAL D1格式,画面宽720个像素,高576个像素,画面的宽高比是4∶3,像素比是1.07。

总结一下,凡是要在After Effect中处理并输出到监视器上的素材都应当正确地设置素材的Pixel Aspect Ratio,才能保证在电视上看到的画面是你本身想要的画面。那么,何为正确的设置呢?一句话,保持统一就行了,即生成的时候像素比是多少,在After Effect里就设置为多少。

7.后期制作的信号标准

后期制作最终是要在电视上播出,如果忽略了电视播出这个环节,那么播出的效果可能会与电脑上看到的效果大相径庭。在后期制作时要保证的基本条件就是上屏,即将后期合成的图像在标准监视器上预监。如果条件允许的话,应当将后期合成的信号同时连接到示波器上。理想的制作设备应当包括∶带有非线卡的图形工作站、标准监视器、波形示波器、矢量示波器、与播出设备相同的存储设备(录机)等。理想制作设备的连接如图1-7所示。

图1-7中视频卡输出至视频分配器分成三路相同的信号,一路进入录机,用于成品的存储;一路进入波形示波器,用于观测输出信号的亮度电平;一路输入矢量示波器,用于检测输出信号的色度是否超标。标准监视器的信号输入是录机的输出,这样做可以确保最终播出时不会出现反场现象,因为最终的播出设备与图中的存储设备类型相同,而同一类型的放录设备的场优先相同。在后期制作的每一个操作的结果都可以在示波器和监视器上实时监看,如果出现不符合标准或反场现象可以及时纠正。

图1-7

信号超标带来的后果主要有四个方面:

● 当输出信号存储到磁带上时,磁带无法正确还原,造成原信号与磁带记录的信号有出入,多次复制后损失严重(对模拟信号而言),数字信号则在量化的时候出现失真。

● 超标的信号在播出的时候会造成设备超载,如果没有限幅设备,发送的信号在图像出现白色或红色时会出现大量的雪花(对模拟信号而言),数字信号则可能不能播出。

● 亮度信号超标会使画面发白,色度信号超标会使颜色过饱和。

● 超标的信号在多次传输后和接受后失真严重。

看了信号超标带来的后果后,你是否意识到了标准的重要性?这么说吧,一个在制作时不符合标准的片子经过5~6个环节到观众收看时的效果和你的设计初衷会差得很远。

认识到信号超标带来的后果后,我们再来学习信号要遵守什么样的标准。简单来说,播出的信号要保证亮度和色度不能超标,亮度是否超标可以用波形示波器来检测,色度是否超标可以用矢量示波器来检测。

8.后期制作中的安全框设置

安全框是非常重要的概念,如果没有按照安全框的限制来进行后期制作,最终的结果可能是“丢失”了一些重要的信息。电视接收机接收电视信号后将图像放大并且可以将外围的一些图像切掉,这种现象称为过扫描(overscan)。各种电视接收机的过扫描的量不尽相同,所以在后期制作时一定要将图像中重要的元素如演员、字幕等限制在安全框内。

在After Effects的Comp窗口中可以打开安全框,如图1-8所示。

图1-8

图1-8中的A为过扫描区域,这部分图像在接收端一般是不可见的。B是Action Safe框线,所有需要让观众看到的图像元素都必须在这个范围之内。C是Title Safe框线,标题和字幕都必须包含在这Title Safe之内。超出Action Safe框线的图像和超出Title Safe的字幕都有可能在观众的接收端看不到。After Effects安全框的范围可以在基本参数设置中改动,选择菜单中的“Edit→Preferences→Grids & Guides”命令,弹出的对话框如图1-9所示。

图1-9

9.压缩编码

数字化后的模拟视频信号数据量非常大,庞大的数据量使得数据传输、存储和处理都非常困难,因此,必须采用压缩编码技术。

现在常用的压缩编码技术有以下几种:

1)JPEG(Joint Photographic Experts Group)

JPEG格式是静态图像压缩的标准,对于连续色调、多级灰度、彩色/单色静态图像的压缩率比较高(一张1000KB的BMP格式的文件,压缩成JPEG格式后可能只有20~30KB),而且JPEG格式在压缩过程中的失真程度很小。目前在Internet网页中使用范围最广泛。

2)M-JPEG(Motion-JPEG)

它是利用JPEG算法把一系列图像存于硬盘,已被广泛用于非线性编辑。它的优点是压缩和解压是对称的,可以用相同的硬件和软件实现。它可以实现广播级指标所要求的无损压缩,但是它的数据量仍然是非常巨大的。

3)MPEG(Motion Picture Experts Goup)

MPEG压缩在计算机和电视视频制作领域获得了广泛应用。它依赖于两个技术,即基于16×16块的运动补偿和帧内图像的JPEG压缩。MPEG-1能将视频信号压缩到0.5b/pixel~1b/piexl,压缩数据率为1.2M/s,重建图像的质量与VHS相当,VCD就是用它压缩的。由于它是不对称算法,所以要使用硬件压缩,而解压时则软、硬件均可。

① MPEG-1

MPEG-1用于传输1.5Mbps数据传输率的数字存储媒体运动图像及其伴音的编码,经过MPEG-1标准压缩后,视频数据压缩率为1/100~1/200,音频压缩率为1/6.5。MPEG-1提供每秒30帧352×240分辨率的图像,当使用合适的压缩技术时,具有接近家用视频制式(VHS)录像带的质量。MPEG-1允许超过70分钟的高质量的视频和音频存储在一张CD-ROM盘上。VCD采用的就是MPEG-1的标准,该标准是一个面向家庭电视质量级的视频、音频压缩标准。

由MPEG-1开发出来的视频压缩技术的应用范围很广,包括从CD-ROM上的交互系统,到电信网络上的视频传送,MPEG-1视频编码标准被认为是一个通用标准。为了支持多种应用,可由用户来规定多种多样的输入参数,包括灵活的图像尺寸和帧频。MPEG推荐了一组系统规定的参数:每一个MPEG-1兼容解码器至少必须能够支持视频源参数,最佳可达电视标准,包括每行最小应有720个像素,每个图像起码应有576行,每秒最少不低于30帧,以及最低比特率为1.86Mb/s,标准视频输入应包括非隔行扫描视频图像格式。但并不是说,MPEG-1的应用就限制于这一系统规定的参数组。根据JPEG和H.261活动,已开发出MPEG-1视频算法。当时的想法是:尽量保持与CCITTH.261标准的共同性,这样,支持两个标准的做法就似乎可能。MPEG-1提供的重要特性包括:基于帧的视频随机存取、通过压缩比特流的快进/快退搜索、视频的反向重放及压缩比特流的编辑能力。

② MPEG-2

MPEG-2主要针对高清晰度电视(HDTV)的需要,传输速率为10Mbps,与MPEG-1兼容,适用于1.5~60Mbps甚至更高的编码范围。MPEG-2有每秒30帧704×480的分辨率,是MPEG-1播放速度的四倍。它适用于高要求的广播和娱乐应用程序,如DSS卫星广播和DVD,MPEG-2是家用视频制式(VHS)录像带分辨率的两倍。

MPEG-2是目前数字视频技术的工业上、事实上的标准。MPEG-2追求的是CCIR601建议的图像质量。“CCIR601建议书”选用分量编码作为演播室节目制作的标准,按照通常习惯,以三个分量取样频率之比4∶2∶2命名,这三个分量是亮度信号Y、蓝色色差信号U和红色色差信号V。“建议书”规定,亮度信号的取样频率为13.5MHz,两个色差信号的取样频率都为6.75 MHz,三个分量都采用8bit量化,总数码率为(13.5+6.75+6.75)×8=216 Mbit/s。MPEG-2对YUV信号进行压缩编码,以形成3~10MHz的运动图像及其伴音的编码。

③ MPEG-4

MPEG-4标准是超低码率运动图像和语言的压缩标准,用于传输速率低于64Mbps的实时图像传输,它不仅可覆盖低频带,也向高频带发展。较之前两个标准而言,MPEG-4为多媒体数据压缩提供了一个更为广阔的平台。它更多定义的是一种格式、一种架构,而不是具体的算法。它可以将各种各样的多媒体技术充分包容进来,包括压缩本身的一些工具、算法,也包括图像合成、语音合成等技术。