引用:
|
作者野口隆史
GPU 的 AI 算力看看就好
真的要跑大規模應用的人
都是買 MAC 在跑
顯卡記憶體頂多就 24G x2
而且非 NPU 特化架構
高耗電高延遲
3060 12GB x2 總算力遠低於 4090
但實際上跑出來的卻沒慢多少
記憶體容量現階段遠比 AI 算力重要多了
MAC 記憶體加滿,能跑的應用
多的是 4090 不能跑的
記憶體差距就在那
|
老黃明顯是用鎖記憶體的方式賺大錢
競爭廠商一定會針對這點攻擊
而利用Mac架構玩AI的人主要偏向個人吧
畢竟算力還是差太多了,老黃的東西算力強大但是故意鎖記憶體讓使用者只能乖乖被宰
雖然GPU效率一定不如專用的NPU
但CUDA培養的大批的使用者
我會這樣形容,CUDA就像是x86,效率不比NPU,但是使用者太多你沒辦法
當然以個人使用者來說想玩大模型只能靠Mac了
雖然個人使用者用NV顯卡比Mac快太多太多,但是被記憶體鎖在那就只能玩玩小東西
爆幹快但是完全不能跑跟慢但是可以跑
零跟一的差別,是很巨大的
128GB的Mac十萬初就有
128GB的NV...一棟房子吧