嗯...所以decode沒有時間序的關係,
它要如何在即時的條件
下去查檢每bit(資料)的編碼在每一個clock(時間)之下解出的東西都一樣
是否有什麼特別的設計呢
以影像解碼來說, 連續拉動seekerbar就會造成一些編碼上的錯誤和爆音
這代表音訊解碼的技術比較高囉
不知道有沒有程式可以連續串接100個encode和decode再放聲音出來,
這樣應該就能證明 decode (real-time) 到 音效輸出的過程完全沒有jitter
...不管怎麼樣, 這都是我聽不出來的
對了我的例子來說 就程式來看sample n 應該都是001001001
只不過它去對真實時間流來看,
可能第7和第8個bit之間decode完畢存在著0.0000000000001秒
可能另一個例子的第7個和第8個bit之間在decode處理花了0.0000000000002秒
(數字我打個比方)
我的想法是在CPU去decode這串資料時,
不能確保每一個bit之間的時間間距是否完全一致
而之後的stream到DAC再到揚聲器的過程可能都沒辦法進行時基的檢查...
這也只是我假設的猜想
當然如果decode是以sample為單位的話,
就可能是第n個和第n+1個sample之間的處理的時間差的問題, 同上