瀏覽單個文章
野口隆史
Elite Member
 
野口隆史的大頭照
 

加入日期: Mar 2001
您的住址: Rivia
文章: 7,047
引用:
作者skap0091
然,這篇新聞清楚的解說我開篇的內容

其中有趣的地方在於,我都忘了還有Tensor Core
這玩意跟NPU應該原理類似,至於是不是一樣就不清楚
因為這類AI專用的也區分很多種,畢竟AI本身也很多種算法
而這篇老黃說Tensor Core性能比NPU更強又很節能
雖說有老黃賣瓜自賣自誇的嫌疑,但如果沒有點東西
也不至於明目張膽說謊,很容易就會被拆穿
搭配CUDA泛用性,可以勝任不少AI用途,而且裝機量極大...

Tensor Core 就是 NV 基於 Transformer 架構提出的實現
就是 NV 自己的 NPU
NV BLOG 上寫了一大堆文章提到 Tensor Core 跟 Transformer 沒有萬次也有千次
你一定沒在看 NV BLOG

NV 現在怕的是其他家 AI PC 崛起
因為到那個時候大家就當你的 AI PC 記憶體是 16GB 起跳的時候
AI 應用就會逐漸往這個方向發展
有一天你就會發現低於 16GB 的顯卡跑不了 AI
就沒人會花大錢換顯卡了

十幾年前推 CUDA 至少還有個環境缺乏合適的函式庫當理由
現在不論開源或非開源函式庫都很多,也不差
你看那個底層用 Pytroch 的 ChatRTX 都可以做到 RTX ONLY
就知道這是甚麼步數了
因為在這個世代, NV 還真有可能會輸消費級 AI PC
__________________
Folding@home with GPGPU集中討論串

Unix Review: ArchLinuxSabayonOpenSolaris 2008.5Ubuntu 8.10
AVs Review: GDTCAntiVir SSESSKIS 09NIS 09Norton 360 V3

I Always Get What I Want.
舊 2024-06-12, 10:43 AM #86
回應時引用此文章
野口隆史離線中