视频中常出现的参数解释

帧 Frame

由胶片概念的产生而出现,把静态的连续画面进行播放以达到动态影像需要每秒出现8格,要出现较为流畅的画面则需每秒12格,即帧速率达到12帧/秒。而能让人感受到画面在动的原因在于视觉暂留现象。

视觉暂留现象: 光脉冲刺激人眼时,视神经对视觉需要一定的时间来建立和消失,这就是惰性。人眼神经的建立大约需要3个阶段:建立视觉,持平,后缓慢消失,消失过程需要0.1~0.4秒。45.8Hz是临界闪烁频率(即每秒切换45.8次图像才会让人眼觉得不闪),而目前的24帧每秒也并不是真正的每秒24个画面,而是通过遮光器(double blade-shutter,也翻译为叶片快门)来达到切换帧的效果。在叶片快门(double blade-shutter)的作用下,每一画片放两次。后面也发展出了triple-balde shutter,即每画面3次,为适应早期默片16格每秒的帧速率。

而24格确立的需要追溯到有声电影时期。当时为了提高视觉效果而大家逐渐追求更高的帧率,差不多在无声电影的末期,技术大概发展到了22~26fps,于是折中定了24fps。此外,24也照顾到了音频的采样,24格是35mm胶片保证音频不失真的最短必要长度。

高帧是指高帧率,60fps或120fps这样的。但是高帧不代表流畅,因为画面可能很多是重复的!可以去试图理解下“原画与中割”的区别。

目前主要有以下三种:

  • NTSC 源自美国/N制(美日)

  • PAL 源自西德/帕制(中国等亚洲国家):Phase Alternating Line,逐行倒相,解决了N制的相位失真等问题

  • SECAM 源自法国/赛康制(不主流)

因为美国的交流电频率是60Hz,而提出P制的德国(西欧)是50Hz,而我国民用电压是220V/50Hz。

电视指示 电视线 场数 场序 帧速率 分辨率
N制 525 60 先偶后奇 29.97 720*480
P制 625 50 先奇后偶 25 720*576

电视线的确立涉及到视敏角和数学计算:在电视上看见的图像都是电子束一行一行扫出来的,由于场消隐的缘故,P制回扫线占了50行,(回扫不占用画面,因而需要用场消隐消除,其时间约占总时间的8%),故其625*(1-0.08)=575,最后一行不用回扫,因而分辨率为720*576

而N制扫面前用20行保留了控制信息,后由505再除去回扫线?原理不明!

扫描方式有逐行扫描和隔行扫描两种:

  • 720p中p是progressive,逐行扫描,是目前大多数的显示方式;而有时候出现的1080i则是interlaced,隔行扫描,即隔一行扫描一次。
  • 隔行扫描可以在有限的带宽条件下提高图像的刷新率(将一个静止的画面分为两场进行扫描,这样一帧被分为了两个一半的画面,也就是一帧扫描两次)
  • P制交流电压为50Hz/s,即50场/s,场频即为50i,这样50除以2,得到25帧/s
  • N制为了保证色彩而降频,降低了0.001而变为了59.94场/s,但由于一幅画面扫描两次,这样就出现了29.97fps这样的数字

分成的两场分别为:奇数场(odd filed,上场,顶场)和偶数场(even field,下场,底场)

  • 因为相邻的场在前期拍摄时就是交错的,因而在用逐行扫描的显示器播放隔行扫描的视频时,会无法完美的结合在一起,出现拉丝现象(interlacing artifacts),就是有重影的感觉;解决办法是去交错(deinterlacing),现在的显示器基本都带有这样的功能!
  • 以上的内容都是模拟电视世代的产物,现在基本已经是数字电视了,也已经有了新的标准(DBV/ATSC/ISDB)。两者区别可以理解为模拟电视就是传输波形(模拟信号),而数字电视就是传输数字数据(数字信号);
  • 新标准制定后,就又会出现电影在电视行业不相匹配的现象。P制希望电影行业把24帧改为25帧与其匹配,但是电影也由于成本问题并不希望重新改换标准,后来的想法是P制通过改变播放速度而调整帧速率的匹配……但是,N制对此很不爽,因为25帧只用拖1帧,而N制需要拖6帧,于是找到解决方法为:
3:2 pull down(下位变换)
  • 即将4帧里的奇偶拆成了1奇1偶、2奇2偶、2奇3偶、3奇4偶、4奇4偶,但这样也会出现问题,比如切换画面时的交错鬼影(interlacing artifacts)但是也确实解决了N制的兼容问题问题,以前46=24的片子现在可以变成56=30的效果了!但是从帧速率上来分析,4/5=x/29.97,x=23.976,又有奇怪的数字出现了!
  • N制的像素比为720:480=3:2不等于4:3,像素的形状原本的确是正方形,但是后来由于钱的问题,硬件厂家将之改变了,拉长了像素,出现了1:1.067(P制)和0.889:1(N制)的长方形像素。现在的很多视频的像素宽高比的确发生了很大的改变,有些视频还利用长方形像素来压缩原始文件,只不过在播放过程中又将其拉伸了!

码率

又称比特率(Bit rate/data rate),其单位是mbps/MBs,音频是kbps,8bites=1byte,1Mbps=0.125MB/s。它的的含义为一秒内包含多少信息就是码率所表现的,理论上,码率越大,图像质量越高,文件越大。比如4k和1080p的视频在相同的码率下,可能4k还不如1080p表现的好,因为其码率没有随着分辨率的提高而相应的匹配。

  • 码率有两种形式,CBR和VBR两种,即固定码率和动态码率

  • 后黑:视频后面加一段黑屏来降低码率从而保证画质

  • 码率可以用来估算文件的大小,大小约等于码率*时长/8

深度

是指色彩的记录容量,1bit是指2的1次方,即只有两个颜色(黑白)可以用,而2的8次方等于256种color,比如RGB就是0-255,10bit有1024种颜色,32bit被称为真彩色,据说是人肉眼可以分辨的极限了!其实24bit就已经真彩了,只不过32bit中有8bit被交给了alpha通道

图片要保留透明通道用得最多的是png格式,视频一般用mov

png格式主要有两种,png-8和png-24,就是指的位深,不同在于,png-8的透明通道只有0和255两个数值,即完全透明或完全不透明;而png-24则有中间值,可以有一些过渡效果!

可以理解为单独通道的深度(而色深是整体通道的深度),即刚刚提到的8bit/16bit/24bit/32bit都是以8bit为一个通道的取值,因为8bit被称之为位深。位深除8bit外还有10bit,是从8bit衍生出来的。

10bit相较于8bit有着更好的过度效果(无色带),在处理暗场时也更有优势(防止色块的出现),可以用于细节的保留(保留噪点),压缩比更高。缺点是编码复杂,耗时更长,解码方案并不普及,在网络上传可能出现绿色的朦胧感

Hi10p:是指High 10 Profile,是10bit基于H.264 High Profile 编码

有根据色彩发光定是RGB和根据色彩反光定的CMYK(主要用于印刷),而现在的YUV主要是用于P制和赛康制的视频上,N制用的YIQ。

Y是亮度信号,即灰阶值,以前的黑白电视就是只有Y信号;(YUV可以与RGB相互转换,因而常用来兼容早期的黑白电视);后面两个U&V是用来表示色差的两个分量,用来表示色度(emmm,理解为亮度意外的其他信息吧)

YUV的好处是可以节省带宽,其经过缩放和偏移可以变为YCbCr(数字/逐行扫描输出)或YPbPr(模拟/隔行扫描输出)

U=B-Y’=blue-chroma(亮度),V=R-Y’=red-chroma,其原值都是经过了伽马校正,没有Cg,毕竟红蓝就可以还原所有的颜色

采样格式有YUV444/YUV422/YUV411/YUV420四种,YUV444是指同一频率完全采样,但由于人眼对色度的敏感度比亮度低,所以没有必要;YUV422是亮度和色度分开采样,亮度依旧全分辨率采样,而色度在水平方向就采集一半,节省1/3左右带宽