一、視訊
① 視訊是什麼?
大家一開口就是視訊制作如何如何。究竟什麼是視訊?音頻比較好了解,就是聲音,你錄聲音、做聲音就是音頻制作。那視訊呢?你拍DV叫視訊,你做的電腦動畫叫視訊嗎?電腦裡的圖檔叫視訊嗎?電影院裡放的膠片叫視訊嗎?關于視訊,教科書給的定義會涉及很多技術術語。而我給的定義很簡單:“視訊就是電視機”。
怎麼樣,很簡單吧。電視機誰都見過,可視訊為什麼就是電視機呢?不着急,聽我慢慢跟你解釋。
解釋電視機之前,我們先了解一下光的基本原理。我們都知道,白光的光譜中包含着紅橙黃綠青藍紫等七多種光,這是牛頓老師發現的。後來,科學家又發現這七種光實際就是三段光譜,分别是紅光,藍光,綠光。這三種光進行混合就能混出白光中的所有色光。這就是所謂的“色光相加原理”。而紅光,藍光,綠光就是所謂的“三原色光”。看右圖,紅綠藍之間進行混合,就能混合出黃品青,而黃品青也是所謂的“三原色”,但不是光的三原色,而是色彩的三原色。好象有點繞哦。簡單的說,光的“色”就是用光源打出來的色,色彩的“色”就是用顔料塗出來的色。以前國小美術課上,大家學三原色是紅黃藍,用這三種顔色可以調出其他顔色,其實這是錯誤的講法,顔料的三原色不是紅黃藍,應該品黃青。我們不用去管顔料的事,我們隻管光的三原色“紅綠藍”。
我們之是以要了解光的原理,是因為我們看的影像其實看到的都是光,電影畫面是光,電視畫面是光,液晶顯示器是光,投影儀也是光。一開始就費這麼多口水講光的原理,就是要強調,光是所有影像制作最根本的基礎。
我們已經知道光的三原色是紅綠藍了,那就可以講電視了。
我們看到的影像最早不是電視,而是電視他爸-電影。下圖是一截在電影院裡放電影用的膠片,我們能直接看見上面的影像。電影放映機就是一個很亮的燈,把膠片上的畫面投影到銀幕上。電影的影像就是膠片上的影像,如果沒有電影膠片,我們看到的銀幕就是一片白色。
電影要到電影院才能看,而發明電視的初衷就是要讓人們在家裡足不出戶也能看到電影的畫面,但你總不能挨家挨戶地給人發電影膠片吧,于是無線電廣播技術就被應用到電視中。
電視首先要實作“畫面生成”,于是顯像管就誕生了,所謂顯像管就是把無線電信号“投影”到電視螢幕上的裝置。但這個投影跟電影投影膠片不一樣,它沒有現成的畫面可以投,而是把信号轉化成小小的光點,一個接一個光點地投射到螢幕上,然後這些小光點就組成了一個完整的畫面。就是說,電視畫面是“拼湊”出來的。
我們來看看顯像管的原理。看下圖,這就是一個顯像管,它後面是一個叫電子槍的東西,電子槍投射光點到前面的螢幕上;數量衆多的光點就組成了一個完整的電視畫面。這就是電視顯像的原理。電子槍投射光點的這個過程,叫做掃描;電子槍投射完一副畫面的光點,就完成了一次掃描。呵,還挺複雜。那它為什麼要用掃描這樣方式顯示畫面?不能打幻燈那樣“啪”一下就把畫面顯示出來?是啊,能“啪”一下顯示出來當然好了,隻是現在還沒有技術可以做到這樣。目前所有的電視顯示方式都是掃描的,無論電視機、顯示器、傳統電視、平闆電視、投影機,都是掃描顯示。那如果它們掃描得不夠快的話,我們看到的不就是“未完成”的畫面?的确是這樣,是以電視機必須掃得要快,否則就沒法看了,這個我們後面會細講。
下面我來看看螢幕是如何顯示畫面的。下圖是三種螢幕被放大的細節(CRT就是顯像管的意思),注意到沒有,它們都是由紅綠藍三種顔色合在一起的小塊組成的,隻是這些小塊的形狀有所不同,有的是方形,有的是條形,有的是圓形。
不信你可以拿個放大鏡去看你家的電視機或者電腦螢幕。一個螢幕就是由數量龐大的這些小塊排列構成,這些小塊就是我們一天到晚說的“像素”。
我們前面說過了三原色原理,紅綠藍可以混合出所有的顔色。可是,這些像素裡紅綠藍是并列在一起的,它們并沒有混合,怎麼就能弄出其他顔色呢?其實,它們之間的确沒有混合,隻是我們跟螢幕相隔一段距離進行觀看,這些排列的色彩就在我們的眼睛裡産生了“混合效應”。看右圖,這是電視機的一個畫面,我們能看到白色、紅色和藍色。如果把畫面放大來開,在白色部分的像素中,紅綠藍三種顔色亮度相同,隔開一定距離,你看到的就是一片白色;而紅色部分的像素,紅色比較亮,藍綠比較暗,隔遠了看就變成了一片紅色;藍色部分則是藍色比較亮,紅綠較暗,隔遠了看就變成了一片藍色。這就是細微的色彩排列在遠距離觀看下發生的“色彩疊加效應”。
我們前面看到的顯像管的圖中,電子槍投射的紅綠藍三束光點,就分别代表着一個像素中紅綠藍光的亮度配置設定,三束光亮度均等就是白色,亮度不等就是其他色,都不亮就是黑色啰,這個好了解吧。電子槍通過掃描,把不同的紅綠藍亮度比例配置設定給螢幕上的每個像素,這樣,掃一輪下來,一副完整的電視畫面就形成了。然後再接着掃下一個畫面,如此反複,電視螢幕的動态影像就形成了,這就是電視顯示影像的方法。哇,這樣搞法,那電子槍這樣不停地掃,豈不是忙?(這種問題都有)是啊,忙得夠嗆,是以它壽命短嘛,如果電視機一天到晚都開着,三五年它就該收工了。
喔,原來這樣,那黑白電視又是怎麼回事?黑白電視,就是沒有彩色的電視啰(聽起來很象廢話耶)。黑白電視的顯像原理和彩色電視也是一回事,隻是它的電子槍不是發三束光,而隻是發一束光,螢幕上的像素也沒有色彩;電子槍配置設定給每個像素的光,隻是這個像素的亮度,不同亮度的光點就組成了一個沒有顔色的畫面,這個比彩色電視更好了解吧。因為它的亮點是白色,畫面也就隻有黑和白,就叫黑白電視了。還記得黑客帝國裡面的電腦螢幕嗎,都是綠色畫面,嘿嘿,那些就是黑綠電視啦。
知道了電視的顯示原理,就等于拿到了進入視訊世界的鑰匙。拜托,不要那麼哈利波特好不好。我們要做的影像,都是要在電子顯示裝置上播放的,而所有顯示裝置都是紅綠藍的顯像原理,電視機、顯示器、螢幕、投影儀、手機螢幕、LCD、等離子、TFT、DLP,你能想到的任何機器都是。既便你拍膠片,後期不也要轉磁,導進電腦裡剪輯嗎。是以,我們做所謂視訊制作,都是在一個完全相同的顯示原理基礎上進行的,這個基礎就是電視機顯像原理。現在,我們可以理直氣壯地說:“視訊就是電視機!”
慢着,這個紅綠藍的顯像方式将來會有變化嗎?比如,變成四個顔色,或者五個?不用擔心這個問題,至少現在還沒有新的色彩理論,而理論應用到實踐需要很多的時間,這個口号再喊十來年不會有什麼問題。
② 視訊如何被顯示出來?
好了,有了鑰匙,我們就可以進入視訊領域看個究竟了。怎麼樣,這個門沒那麼難進吧。
我們做視訊制作的最終目的是把我們的作品播放出來,而且我們已經知道了,要播放的裝置都是和電視機一樣的。那電視機是如何把我們的影像播放出來的呢?前面不是說了嗎,電子槍發射光點打到螢幕上,砰砰砰砰打上一輪就出一副圖了。呵呵,的确是這樣,這就是所謂的掃描。掃描是電視顯示的基礎,也是了解視訊的基礎。單說掃描你可能沒有什麼感覺,如果我說,掃描有兩種,隔行掃描和逐行掃描,你有什麼感覺?哦,敢情滿街飛的隔行逐行講的是這個東西啊。
看圖,這就是一個電視螢幕。由很多個像素整齊地排列而成,我們把一排像素叫做一“行”。電子槍掃描的時候,就是以“行”為機關進行掃描。圖上畫的從左到右的那些掃描線就是掃描的方向。那為什麼掃描不以列為機關,從上往下一列一列地掃呢?這是當初電視發明時作為标準确定下來的,為的是技術上的統一,就象汽車靠左開還是靠右開一樣,定下來了,後續技術就以這個為基礎來發展。假如以後這種掃描方式不好用了,被其他更先進的方法取代也是有可能的,但現在還是這樣。
表述螢幕像素的方法是“寬X高”,就是寬有多少像素,高有多少像素,如720X576、1024X768、1920X1080等等,這些叫法大家都十分熟悉了。
螢幕另一個很重要的名額是“寬高比”,就是寬度和高度的比例,如4 : 3、16 : 9,這也很好了解。但不知道大家注意過沒有,你去商場裡選購彩電的時候,比如42寸平闆電視,都号稱是16:9,可有的像素是1366x768,有的卻是1024x768。算一下你會發現,1366 : 768=16 : 9,而1024 : 768<16 : 9,這是怎麼回事?其實很簡單,因為不是所有螢幕的像素都是正方形的,那些不是正方像素的螢幕,像素比例和螢幕比例就不一樣了。那麼像素比例不同的電視機,顯示畫面會不一樣嗎?這倒不會,螢幕比例才是決定畫面的關鍵,隻有都是16 : 9,出來的畫面都是一樣的。
螢幕我們了解了,現在來看一下滿街飛的逐行和隔行。所謂逐行隔行,是指掃描的方式。我們知道一排像素就是一“行”,逐行掃描就是一行接着一行地往下掃,直到掃完一副完整的畫面。看圖,這就是逐行。很簡單哈。
再來看隔行。隔行相對來說有點複雜,隔行掃描不是一行接一行地往下掃,而是一行隔着一行地往下。第1行掃完不掃第2行,而去掃第3行,第3行掃完去掃第5行,直到掃到底,有一半的行就被掃到了,對吧。然後它再跳回到沒有掃過的第2行,再隔着往下掃,一直掃到底。看圖就比較清楚了,紅色是第一輪掃的,藍色是第二輪掃的。兩輪掃下來,才把一個完整的畫面掃完。哇塞,閑的,這不沒事找事嗎,一輪掃完不得了,整那麻煩。先别急,我們過會再解釋為什麼這樣整。
我們把掃描從螢幕上方掃到下方(掃一輪)所獲得的畫面叫一個“場”,比如逐行掃一輪下來,得到的“場”就是完整的畫面;而隔行掃掃一輪下來,得到的“場”隻有一半的畫面,再掃一次又得另外一半的畫面,用術語來講,第一次掃的叫“奇數場”,第二次掃的叫“偶數場”。看下面這個圖,奇數場和偶數場相加才得到一個完成的畫面,我們把這完成的畫面稱作一“幀”畫面。相應的,在逐行掃描裡,一個場掃下來,就得到一幀畫面了,容易了解吧。
我國的電視播放制式是隔行掃描,每秒掃50場, 1秒鐘就有25幀畫面,對吧。那如果用逐行掃描也掃50個場,那豈不是就變成1秒50幀啦?對啊,逐行掃50場,就是50幀。
在寫法上,隔行用i表示,逐行用p表示,然後在前面加上每秒的場數,如隔行的50i、60i,逐行的50p、60p和。i就是interlace的頭字母,p是progressive的頭字母。如果你覺得不好記,教你個絕招:p就是“批”,一批過,不分場,就是逐行;i有上下兩截,分兩場,就是隔行,怎麼樣,絕招吧。
這個倒是好了解,可是這隔行好象很麻煩啊,一副畫面非要拆成兩個,這樣對電視畫面會不會有影響呢?兩個場合成一個完成畫面的時間是50分之2秒,也就是0.04秒,這個時間是相當短的,而且人類的眼睛有“視覺暫留效應”,是分辨不出如此快的畫面變化的。就是說,無論用50i隔行掃描還是50p逐行掃描,如果播放相同内容的節目,隻用眼睛去看,是分辨不出哪個是什麼掃描方式的。如果誰說他能用眼睛分辨出隔行和逐行,那他就不是人,而是超人。 ^_^
至于為什麼會有隔行這種複雜的掃描方式,是由技術原因造成的。電視機作為一種接受無線電信号的裝置,其畫面内容是從電視台傳來的。電視台發送畫面到各家各戶的電視機上要通過無線電波或者電纜進行傳輸;這樣,傳輸通道的容量(或者說帶寬)就決定了電視信号的尺寸大小。而無論是無線還是有線,傳輸通道的帶寬是非常有限的;是以,選擇一種尺寸比較小,同時又能良好播放的電視信号就成為降低電視傳輸成本的關鍵。而隔行掃描方式占用的帶寬是逐行掃描的約1/2,能有效地解決傳輸帶寬的問題。是以,從最早的無線電視網到現在的高清電視網,都一直以傳輸隔行電視信号為主。當然,現在部分國家的高清網是傳輸逐行信号,這取決于電視台在成本和收益方面的權衡。但在家裡觀看影碟就不存在電視傳輸的帶寬問題,是以,今後的家庭影院必然是向全逐行的方向發展。
現在,結合我們上面講的像素和掃描,來看看不同的畫面格式。畫面格式的表示方法是:縱坐标像素 + 掃描場數 + 掃描方式。比如,PAL制的标清電視是720X576,掃描場50,隔行掃描,寫出來就是:576/50i。這裡不寫橫坐标像素,是因為橫坐标像素與縱坐标是一一對應的,寫一個就可以了。下表是常見幾種常見的電視畫面:
我國标清電視網的傳輸格式是576/50i,高清的傳輸格式是1080/50i。在國際上,大部分的國家都是使用1080/50i或1080/60i作為高清傳輸标準,也有部分使用720/50p或720/60p。
下圖是各種電視畫面尺寸的對比。我們可以看到,1080i的尺寸是720p的尺寸非常接近;而在清晰度(分辨率)上,這兩種格式也相差無幾(這個我們後面會講到),是以,對于使用720p的電視網,從觀看效果上講,和1080i是看不出什麼差别的。
至于50i還是60i,隻是每個國家電視掃描頻率不同而已,在本質上并沒有很大的差别。
那為什麼電視網不使用25p,這樣不是更能節約帶寬嗎?而且電影都是每秒24幀畫面,看起來也很爽啊。的确,電影拍攝是24幀/秒,但電影放映不是。在電影院裡,每幅電影畫面被投影2次,這樣做是為了有效降低畫面閃爍,觀看起來才能更流暢,是以,電影放映是48幀/秒,相當于48p。如果讓你看24p的電影,頂不了十分鐘你就該審美疲勞了,同樣的,如果電視是25p,電視台就該關門了。是以,以後跟人侃山的時候,誰要是說電影以每秒24幀放映,你就指着他鼻子說:“你錯了!”,那樣顯得你多專業啊。
轉載于鄧東著的《了解視訊格式》