一、视频
① 视频是什么?
大家一开口就是视频制作如何如何。究竟什么是视频?音频比较好理解,就是声音,你录声音、做声音就是音频制作。那视频呢?你拍DV叫视频,你做的电脑动画叫视频吗?电脑里的图片叫视频吗?电影院里放的胶片叫视频吗?关于视频,教科书给的定义会涉及很多技术术语。而我给的定义很简单:“视频就是电视机”。
怎么样,很简单吧。电视机谁都见过,可视频为什么就是电视机呢?不着急,听我慢慢跟你解释。
解释电视机之前,我们先了解一下光的基本原理。我们都知道,白光的光谱中包含着红橙黄绿青蓝紫等七多种光,这是牛顿老师发现的。后来,科学家又发现这七种光实际就是三段光谱,分别是红光,蓝光,绿光。这三种光进行混合就能混出白光中的所有色光。这就是所谓的“色光相加原理”。而红光,蓝光,绿光就是所谓的“三原色光”。看右图,红绿蓝之间进行混合,就能混合出黄品青,而黄品青也是所谓的“三原色”,但不是光的三原色,而是色彩的三原色。好象有点绕哦。简单的说,光的“色”就是用光源打出来的色,色彩的“色”就是用颜料涂出来的色。以前小学美术课上,大家学三原色是红黄蓝,用这三种颜色可以调出其他颜色,其实这是错误的讲法,颜料的三原色不是红黄蓝,应该品黄青。我们不用去管颜料的事,我们只管光的三原色“红绿蓝”。
我们之所以要了解光的原理,是因为我们看的影像其实看到的都是光,电影画面是光,电视画面是光,液晶显示器是光,投影仪也是光。一开始就费这么多口水讲光的原理,就是要强调,光是所有影像制作最根本的基础。
我们已经知道光的三原色是红绿蓝了,那就可以讲电视了。
我们看到的影像最早不是电视,而是电视他爸-电影。下图是一截在电影院里放电影用的胶片,我们能直接看见上面的影像。电影放映机就是一个很亮的灯,把胶片上的画面投影到银幕上。电影的影像就是胶片上的影像,如果没有电影胶片,我们看到的银幕就是一片白色。
电影要到电影院才能看,而发明电视的初衷就是要让人们在家里足不出户也能看到电影的画面,但你总不能挨家挨户地给人发电影胶片吧,于是无线电广播技术就被应用到电视中。
电视首先要实现“画面生成”,于是显像管就诞生了,所谓显像管就是把无线电信号“投影”到电视屏幕上的设备。但这个投影跟电影投影胶片不一样,它没有现成的画面可以投,而是把信号转化成小小的光点,一个接一个光点地投射到屏幕上,然后这些小光点就组成了一个完整的画面。就是说,电视画面是“拼凑”出来的。
我们来看看显像管的原理。看下图,这就是一个显像管,它后面是一个叫电子枪的东西,电子枪投射光点到前面的屏幕上;数量众多的光点就组成了一个完整的电视画面。这就是电视显像的原理。电子枪投射光点的这个过程,叫做扫描;电子枪投射完一副画面的光点,就完成了一次扫描。呵,还挺复杂。那它为什么要用扫描这样方式显示画面?不能打幻灯那样“啪”一下就把画面显示出来?是啊,能“啪”一下显示出来当然好了,只是现在还没有技术可以做到这样。目前所有的电视显示方式都是扫描的,无论电视机、显示器、传统电视、平板电视、投影机,都是扫描显示。那如果它们扫描得不够快的话,我们看到的不就是“未完成”的画面?的确是这样,所以电视机必须扫得要快,否则就没法看了,这个我们后面会细讲。
下面我来看看屏幕是如何显示画面的。下图是三种屏幕被放大的细节(CRT就是显像管的意思),注意到没有,它们都是由红绿蓝三种颜色合在一起的小块组成的,只是这些小块的形状有所不同,有的是方形,有的是条形,有的是圆形。
不信你可以拿个放大镜去看你家的电视机或者电脑屏幕。一个屏幕就是由数量庞大的这些小块排列构成,这些小块就是我们一天到晚说的“像素”。
我们前面说过了三原色原理,红绿蓝可以混合出所有的颜色。可是,这些像素里红绿蓝是并列在一起的,它们并没有混合,怎么就能弄出其他颜色呢?其实,它们之间的确没有混合,只是我们跟屏幕相隔一段距离进行观看,这些排列的色彩就在我们的眼睛里产生了“混合效应”。看右图,这是电视机的一个画面,我们能看到白色、红色和蓝色。如果把画面放大来开,在白色部分的像素中,红绿蓝三种颜色亮度相同,隔开一定距离,你看到的就是一片白色;而红色部分的像素,红色比较亮,蓝绿比较暗,隔远了看就变成了一片红色;蓝色部分则是蓝色比较亮,红绿较暗,隔远了看就变成了一片蓝色。这就是细微的色彩排列在远距离观看下发生的“色彩叠加效应”。
我们前面看到的显像管的图中,电子枪投射的红绿蓝三束光点,就分别代表着一个像素中红绿蓝光的亮度分配,三束光亮度均等就是白色,亮度不等就是其他色,都不亮就是黑色啰,这个好理解吧。电子枪通过扫描,把不同的红绿蓝亮度比例分配给屏幕上的每个像素,这样,扫一轮下来,一副完整的电视画面就形成了。然后再接着扫下一个画面,如此反复,电视屏幕的动态影像就形成了,这就是电视显示影像的方法。哇,这样搞法,那电子枪这样不停地扫,岂不是忙?(这种问题都有)是啊,忙得够呛,所以它寿命短嘛,如果电视机一天到晚都开着,三五年它就该收工了。
喔,原来这样,那黑白电视又是怎么回事?黑白电视,就是没有彩色的电视啰(听起来很象废话耶)。黑白电视的显像原理和彩色电视也是一回事,只是它的电子枪不是发三束光,而只是发一束光,屏幕上的像素也没有色彩;电子枪分配给每个像素的光,只是这个像素的亮度,不同亮度的光点就组成了一个没有颜色的画面,这个比彩色电视更好理解吧。因为它的亮点是白色,画面也就只有黑和白,就叫黑白电视了。还记得黑客帝国里面的电脑屏幕吗,都是绿色画面,嘿嘿,那些就是黑绿电视啦。
知道了电视的显示原理,就等于拿到了进入视频世界的钥匙。拜托,不要那么哈利波特好不好。我们要做的影像,都是要在电子显示设备上播放的,而所有显示设备都是红绿蓝的显像原理,电视机、显示器、监视器、投影仪、手机屏幕、LCD、等离子、TFT、DLP,你能想到的任何机器都是。既便你拍胶片,后期不也要转磁,导进电脑里剪辑吗。所以,我们做所谓视频制作,都是在一个完全相同的显示原理基础上进行的,这个基础就是电视机显像原理。现在,我们可以理直气壮地说:“视频就是电视机!”
慢着,这个红绿蓝的显像方式将来会有变化吗?比如,变成四个颜色,或者五个?不用担心这个问题,至少现在还没有新的色彩理论,而理论应用到实践需要很多的时间,这个口号再喊十来年不会有什么问题。
② 视频如何被显示出来?
好了,有了钥匙,我们就可以进入视频领域看个究竟了。怎么样,这个门没那么难进吧。
我们做视频制作的最终目的是把我们的作品播放出来,而且我们已经知道了,要播放的设备都是和电视机一样的。那电视机是如何把我们的影像播放出来的呢?前面不是说了吗,电子枪发射光点打到屏幕上,砰砰砰砰打上一轮就出一副图了。呵呵,的确是这样,这就是所谓的扫描。扫描是电视显示的基础,也是了解视频的基础。单说扫描你可能没有什么感觉,如果我说,扫描有两种,隔行扫描和逐行扫描,你有什么感觉?哦,敢情满街飞的隔行逐行讲的是这个东西啊。
看图,这就是一个电视屏幕。由很多个像素整齐地排列而成,我们把一排像素叫做一“行”。电子枪扫描的时候,就是以“行”为单位进行扫描。图上画的从左到右的那些扫描线就是扫描的方向。那为什么扫描不以列为单位,从上往下一列一列地扫呢?这是当初电视发明时作为标准确定下来的,为的是技术上的统一,就象汽车靠左开还是靠右开一样,定下来了,后续技术就以这个为基础来发展。假如以后这种扫描方式不好用了,被其他更先进的方法取代也是有可能的,但现在还是这样。
表述屏幕像素的方法是“宽X高”,就是宽有多少像素,高有多少像素,如720X576、1024X768、1920X1080等等,这些叫法大家都十分熟悉了。
屏幕另一个很重要的指标是“宽高比”,就是宽度和高度的比例,如4 : 3、16 : 9,这也很好理解。但不知道大家注意过没有,你去商场里选购彩电的时候,比如42寸平板电视,都号称是16:9,可有的像素是1366x768,有的却是1024x768。算一下你会发现,1366 : 768=16 : 9,而1024 : 768<16 : 9,这是怎么回事?其实很简单,因为不是所有屏幕的像素都是正方形的,那些不是正方像素的屏幕,像素比例和屏幕比例就不一样了。那么像素比例不同的电视机,显示画面会不一样吗?这倒不会,屏幕比例才是决定画面的关键,只有都是16 : 9,出来的画面都是一样的。
屏幕我们了解了,现在来看一下满街飞的逐行和隔行。所谓逐行隔行,是指扫描的方式。我们知道一排像素就是一“行”,逐行扫描就是一行接着一行地往下扫,直到扫完一副完整的画面。看图,这就是逐行。很简单哈。
再来看隔行。隔行相对来说有点复杂,隔行扫描不是一行接一行地往下扫,而是一行隔着一行地往下。第1行扫完不扫第2行,而去扫第3行,第3行扫完去扫第5行,直到扫到底,有一半的行就被扫到了,对吧。然后它再跳回到没有扫过的第2行,再隔着往下扫,一直扫到底。看图就比较清楚了,红色是第一轮扫的,蓝色是第二轮扫的。两轮扫下来,才把一个完整的画面扫完。哇塞,闲的,这不没事找事吗,一轮扫完不得了,整那麻烦。先别急,我们过会再解释为什么这样整。
我们把扫描从屏幕上方扫到下方(扫一轮)所获得的画面叫一个“场”,比如逐行扫一轮下来,得到的“场”就是完整的画面;而隔行扫扫一轮下来,得到的“场”只有一半的画面,再扫一次又得另外一半的画面,用术语来讲,第一次扫的叫“奇数场”,第二次扫的叫“偶数场”。看下面这个图,奇数场和偶数场相加才得到一个完成的画面,我们把这完成的画面称作一“帧”画面。相应的,在逐行扫描里,一个场扫下来,就得到一帧画面了,容易理解吧。
我国的电视播放制式是隔行扫描,每秒扫50场, 1秒钟就有25帧画面,对吧。那如果用逐行扫描也扫50个场,那岂不是就变成1秒50帧啦?对啊,逐行扫50场,就是50帧。
在写法上,隔行用i表示,逐行用p表示,然后在前面加上每秒的场数,如隔行的50i、60i,逐行的50p、60p和。i就是interlace的头字母,p是progressive的头字母。如果你觉得不好记,教你个绝招:p就是“批”,一批过,不分场,就是逐行;i有上下两截,分两场,就是隔行,怎么样,绝招吧。
这个倒是好理解,可是这隔行好象很麻烦啊,一副画面非要拆成两个,这样对电视画面会不会有影响呢?两个场合成一个完成画面的时间是50分之2秒,也就是0.04秒,这个时间是相当短的,而且人类的眼睛有“视觉暂留效应”,是分辨不出如此快的画面变化的。就是说,无论用50i隔行扫描还是50p逐行扫描,如果播放相同内容的节目,只用眼睛去看,是分辨不出哪个是什么扫描方式的。如果谁说他能用眼睛分辨出隔行和逐行,那他就不是人,而是超人。 ^_^
至于为什么会有隔行这种复杂的扫描方式,是由技术原因造成的。电视机作为一种接受无线电信号的设备,其画面内容是从电视台传来的。电视台发送画面到各家各户的电视机上要通过无线电波或者电缆进行传输;这样,传输通道的容量(或者说带宽)就决定了电视信号的尺寸大小。而无论是无线还是有线,传输通道的带宽是非常有限的;因此,选择一种尺寸比较小,同时又能良好播放的电视信号就成为降低电视传输成本的关键。而隔行扫描方式占用的带宽是逐行扫描的约1/2,能有效地解决传输带宽的问题。因此,从最早的无线电视网到现在的高清电视网,都一直以传输隔行电视信号为主。当然,现在部分国家的高清网是传输逐行信号,这取决于电视台在成本和收益方面的权衡。但在家里观看影碟就不存在电视传输的带宽问题,所以,今后的家庭影院必然是向全逐行的方向发展。
现在,结合我们上面讲的像素和扫描,来看看不同的画面格式。画面格式的表示方法是:纵坐标像素 + 扫描场数 + 扫描方式。比如,PAL制的标清电视是720X576,扫描场50,隔行扫描,写出来就是:576/50i。这里不写横坐标像素,是因为横坐标像素与纵坐标是一一对应的,写一个就可以了。下表是常见几种常见的电视画面:
我国标清电视网的传输格式是576/50i,高清的传输格式是1080/50i。在国际上,大部分的国家都是使用1080/50i或1080/60i作为高清传输标准,也有部分使用720/50p或720/60p。
下图是各种电视画面尺寸的对比。我们可以看到,1080i的尺寸是720p的尺寸非常接近;而在清晰度(分辨率)上,这两种格式也相差无几(这个我们后面会讲到),因此,对于使用720p的电视网,从观看效果上讲,和1080i是看不出什么差别的。
至于50i还是60i,只是每个国家电视扫描频率不同而已,在本质上并没有很大的差别。
那为什么电视网不使用25p,这样不是更能节约带宽吗?而且电影都是每秒24帧画面,看起来也很爽啊。的确,电影拍摄是24帧/秒,但电影放映不是。在电影院里,每幅电影画面被投影2次,这样做是为了有效降低画面闪烁,观看起来才能更流畅,因此,电影放映是48帧/秒,相当于48p。如果让你看24p的电影,顶不了十分钟你就该审美疲劳了,同样的,如果电视是25p,电视台就该关门了。所以,以后跟人侃山的时候,谁要是说电影以每秒24帧放映,你就指着他鼻子说:“你错了!”,那样显得你多专业啊。
转载于邓东著的《理解视频格式》