Master Member
|
取樣頻率跟可以聽到的頻率其實有關係
以頻率來說代表著這訊號有波峰波谷,要正確紀錄下這個訊號最起碼要紀錄到波峰波谷
也就是必須紀錄下一個半波,一個半波至少需要兩個點(剛剛好一個在波谷一個在波峰)
這也就是為什麼採樣頻率44.1KHz,能紀錄下的頻率最多就44.1KHz的一半 22.05KHz
一般來說聲音的採樣頻率對應到畫面上的元素 應該是resolution,而不是bit
bit 數跟採樣率是完全不同的概念,他代表是準確性 簡單的說就是矩波的階數
矩波可用的階數越高越能紀錄正確的波形,採樣頻率剛剛好採樣到波峰波谷的機率很低
在採樣點必須存在其他數值讓它能紀錄較為正確的值
只有一階就0、1兩種 聽起來就像是電子雜音
兩階就多出0、0.25、0.5、0.75、1 ...等依此類推
越多階越準 但準到一個程度就聽不出來差異,這在聲音上是16bit 在視覺上則是8bit
回到H.264的10bit話題上
我個人在猜8bit 設計的出發點 是用較低bit的顏色(將類似的顏色弄成一個色帶可以增加壓縮率)
參雜雜點進行dither(這部份降低壓縮率)
這樣可以在人體的視覺暫留特性上表現出接近10bit的顏色
但實際上出現10bit的encoder之後 漸層降低bit、dither等功能捏造的假10bit 都不需要了
當然這也只是我個人的猜想,實際上要研究code的人來判斷
|