![]() |
||
|
Master Member
![]() ![]() ![]() ![]() 加入日期: May 2021
文章: 2,016
|
引用:
1.中國內需極大,高階晶片仰賴進口,因此自製主要是為了填補內需而非外銷 2.中國內部使用的話,能耗問題要看電價,電價要看發電量,而中國發電量極大 3.算力問題跟下面一起回覆 引用:
Google Gemini 3之所以後來居上,追越OpenAI 靠的就是"不用CUDA",CUDA雖泛用但能耗輸給ASIC Google算過如果每人每天都問AI一些問題,其算力+能源消耗會龐大到負擔不起 因此自研ASIC去負責其中一塊,比如訓練完後僅需推理的部分,就改用ASIC 這需要Google有強大的垂直整合能力,自研算法、自研晶片、自研AI服務器 透過這種方式,達成超強算力+超強能耗比,OpenAI砸錢買NV晶片只能死路一條 因為OpenAI砸錢越多、買越多NV晶片,能耗就越追不上Google NV老黃就是看到CUDA模式優點被打破,因此砸大錢買ASIC公司要整合進來 中國由於有不同的能源體系,因此能耗部分跟外國尤其最大競爭者美國不同算法 只要也能學Google自研算法、自研晶片、自研AI服務器 是有機會透過ASIC彌補缺乏先進製程的短版,當然訓練階段還是需要CUDA晶片 簡單說,中國如果電價更便宜、加上用ASIC彌補7nm以上的能耗短版 走Google模式去打破老黃CUDA壟斷並非不可能,所以老黃很急著現在賣給中國 老黃真的是實誠,他說每天兢兢業業深怕公司倒閉 因為AI領域日新月異,隨時都可能被替代、被超越 Google用ASIC取得領先,老黃就趕快買ASIC設計公司 中國買不到晶片就會走上自研,老黃就拼命遊說老美現在不賣以後就損失更多 |
|||||||||
|
|
|
Golden Member
![]() ![]() ![]() ![]() 加入日期: Apr 2017 您的住址: 陣亡者的靈堂
文章: 3,206
|
引用:
我的比喻是不對 修正一下 我的意思是說API工具不管是CUDA 還是通用的 非大陸跟美國的其他國家公司要想開發AI 都是在美國大廠的API上開發 不會自己從硬件底層開發一套API出來 其他國家大多沒有自己重複造輪子 (API)的需求 引用:
Google有自己的TPU 但能自己開發硬體、軟體的科技公司 在大陸跟美國之外 有嗎? 我是想不出來 Google有自己的路線 但我想以後在Google跟NV之外的通用平台 才是大多數人的選擇 跟IBM個人電腦不想自己被綁在intel CPU上 要求intel要開放x86授權給其他公司一樣 我猜各家科技大廠不會想要自己被綁在NV GPU上 所以我才認為一個能用各家硬體的通用開發平台 才會是最後的主流
__________________
此文章於 2026-01-16 07:37 PM 被 healthfirst. 編輯. |
||||
|
|