PCDVD數位科技討論區

PCDVD數位科技討論區 (https://www.pcdvd.com.tw/index.php)
-   系統組件 (https://www.pcdvd.com.tw/forumdisplay.php?f=19)
-   -   美國海軍使用 290,304 個 AMD EPYC 處理器核心打造超級電腦 (https://www.pcdvd.com.tw/showthread.php?t=1172125)

tbsky 2020-03-10 08:03 AM

引用:
作者jenzh
我認為這個2 exaflops太過於吹牛,不過也試目以待,看看會不會出現在TOP500上。


它還有兩個弟弟,一個 1.5 exaflops, 一個 1 exaflops, 都是 X86_64 的,明年就會登場了。感覺只要有錢,廠商就會想辦法生給你啊..

jenzh 2020-03-10 08:17 AM

引用:
作者tbsky
它還有兩個弟弟,一個 1.5 exaflops, 一個 1 exaflops, 都是 X86_64 的,明年就會登場了。感覺只要有錢,廠商就會想辦法生給你啊..

重點是要看它會不會出現在TOP500,甚至於TOP3,有的話才能證明它的效能強勁。

引用:
作者tbsky
重點是你說雜種效能不好啊,但結果是能抓老鼠的才是好貓,接下來陸續登場的幾台超算王者都是 x86_64 的。讓人想到 windows NT 出場時也是誇耀 micro kernel 有多麼好,linux kernel 架構多麼爛,二十年過去後號稱架構優秀的,效能還是贏不了。

我不是拿全部10名次和之後來比較,而是我是把範圍縮小到前3名,因前3名一定是超算領域之中的精銳,來看看這3個精銳用的是什麼頂級架構CPU,如果你再仔細觀察,第5名之後的超級電腦的不管是核心數跟效能與前3名差距都很大。

我認為要比較kernel應該是要把多於的東西剔除再測試才會比較接近準確,我認為現在不管是Windows和Linux發行版都綁太多東西才會造成效能低落。

我曾經把Linux重構,也就是把原始碼加編譯器重建一次,再加上編譯時的最佳化參數,建構出來的系統速度飛快,比發行版的還快。

tbsky 2020-03-10 08:28 AM

引用:
作者jenzh
我不是拿全部10名次和之後來比較,而是我是把範圍縮小到前3名,因前3名一定是超算領域之中的精銳,來看看這3個精銳用的是什麼頂級架構CPU,如果你再仔細觀察,第5名之後的超級電腦的不管是核心數跟前3名差距都很大。


目前看來範圍縮小到前三名的話就會是 El Captan,Frontier,Aurora。雖然都還沒正式上場,但目前好像也沒看到其他建造計畫可以贏過這 x86 三兄弟的?其實除了 cpu 之外, gpu 也影響很大的算力,不過感覺還是就像登陸月球一樣,很多事不去做是因為錢不夠。

jenzh 2020-03-10 08:58 AM

引用:
作者tbsky
目前看來範圍縮小到前三名的話就會是 El Captan,Frontier,Aurora。雖然都還沒正式上場,但目前好像也沒看到其他建造計畫可以贏過這 x86 三兄弟的?其實除了 cpu 之外, gpu 也影響很大的算力,不過感覺還是就像登陸月球一樣,很多事不去做是因為錢不夠。

El Captan,Frontier,Aurora如果說能踏上TOP3,那我也很期待,以目前那些吹牛吹很大的新聞來說。

gpu它的強項主要是平行運算,主要是針對小數點的平行運算,這個在3D繪圖的運算都是用小數點。而RISC架構CPU在小數點的平行運算是強項,你看超算TOP效能比較都是小數點運算,而CISC則相反,它的架構不利於平行運算,只能用SIMD來補強。

tbsky 2020-03-10 09:02 AM

引用:
作者jenzh
我認為要比較kernel應該是要把多於的東西剔除再測試才會比較接近準確,我認為現在不管是Windows和Linux發行版都綁太多東西才會造成效能低落。

我曾經把Linux重構,也就是把原始碼加編譯器重建一次,再加上編譯時的最佳化參數,建構出來的系統速度飛快,比發行版的還快。


通常這些多餘的東西,正是真實世界的需求啊,不然放上去幹麻呢。雖然用 intel 的 cpu 加上 intel 的 compiler 可以得到最好的效能,但真實世界還是得用 gcc 配上五花八門的 cpu。

credopcdd 2020-03-10 04:49 PM

引用:
作者jenzh
我說x86_64雜種是因為它的骨子明明就是RISC,卻用各種旁門左道弄成CISC,並不是說它不好。


DEC Alpha有個問題就是它的架構老化,因為自從被HP收購後,發展到2004年就被扔到倉庫,不像POWER架構發展到2017。而且許多新的OS都不太支援了,連Debain也只支援到5.0,之後的版本就不太搭理它了。當然新版的Linux Kernel、GCC、Glibc的原始碼樹還是有支援,這意味者要在DEC Alpha用新版的Linux,也只能重新編譯系統。

對岸拿DEC Alpha來做超算只有一個理由就是它的版權已經過期了,而且美國各大超算領域都不使用了,所以把它據為己有也合理吧!

不過我看TOP500前三名有個地方很詭異就是對岸的神威機的總核心數約有一千萬個,而美國Sierra機只有約一百五十萬個而效能卻是一樣。

由此可見對岸的神威機效能並不強,在同樣的核心數下效能只有Sierra的十分之一,我猜它只是仿制DEC Alpha處理器來堆效能而已...


買下dec alpha的可是hp
是因為dec alpha真的發展不下去
只好放棄
很多我們當初以為很好的東西像是sparc,mips
也都凋零

而ibm Power , Z活的很好
Power要出10
Z-14可替前五百大銀行每一筆交易
作即時加密,
也要出z-15

至於你說的Cisc risc 其實不用想什麼
在效率的要求下兩個越來越像

至於dec alpha
專利過期了就是公共財
誰也不能霸占
大陸就是用一張計算板260顆 alpha的方式
堆核
但是就如你所觀查他不合理
不曉得是定址的方式太老舊
他的cpu異常的多
Ram普普
所以這台曾當第一名的超算
會卡在記億體不足
反正這台對中共來說是面子工程
鋒值效率跑到了
升官的升官
發財的發財

然後指著alpha跟人民說
這是中共自主智財權的偉大發明

那台跟其他超算一樣
自己有專屬的linux

為什麼要作這台?
除了秀肌肉
那時美國好像有限制intel 售中xeon等

jenzh 2020-03-10 06:04 PM

CISC跟RISC的差別主要是在浮點運算跟平行運算,當然在整數運算上CISC可能會略勝一籌。不過現在RISC的優勢也式微了,主要是有GPU這個東西出現。

GPU它是一個專門作浮點運算跟平行運算的處理器,現在的電腦3D繪圖運算都轉移給GPU處理,這就變成RISC的優勢不再。

現在的繪圖工作站它對繪圖硬體的選擇所反而是在意GPU強不強,而CPU不要太差就好,像是SGI新型的機種CPU都用x86_64,另外像是PlayStation 4、Xbox One、任天堂Switch這類的家用遊戲機也都是如此。

雖然如此,CISC在浮點運算跟平行運算的劣勢還是存在的,只是被GPU遮掩掉。在TOP上那些用x86_64的電腦浮點運算如此之強大主要也是GPU的作用。

對岸拿DEC Alpha「據為己有」這個我用詞不當,應當是形容對岸拿它來發展另一個分支才對。

還有最後你說的中共那個例子,我是覺得只要對岸在這領域上有心要與美國一較高下的話,那他的腳步是不會停歇的,這不僅僅只有面子工程跟升官發財的問題。

中美的計算機超算領域的競爭本來就是在秀肌肉且象徵大於實質,因為它代表的就是國家強大的一個產物與象徵,這跟古代強大帝國建古希臘神廟、萬里長城、羅馬競技場…道理是一樣的,中美兩國的行為其實不用去作評論。

路過 2020-03-11 01:10 AM

~
 
引用:
作者jenzh
CISC跟RISC的差別主要是在浮點運算跟平行運算,當然在整數運算上CISC可能會略勝一籌。不過現在RISC的優勢也式微了,主要是有GPU這個東西出現。

GPU它是一個專門作浮點運算跟平行運算的處理器,現在的電腦3D繪圖運算都轉移給GPU處理,這就變成RISC的優勢不再。

現在的繪圖工作站它對繪圖硬體的選擇所反而是在意GPU強不強,而CPU不要太差就好,像是SGI新型的機種CPU都用x86_64,另外像是PlayStation 4、Xbox One、任天堂Switch這類的家用遊戲機也都是如此。

雖然如此,CISC在浮點運算跟平行運算的劣勢還是存在的,只是被GPU遮掩掉。在TOP上那些用x86_64的電腦浮點運算如此之強大主要也是GPU的作用。

哪泥!?
CISC跟RISC主要的差別是在浮點跟平行計算??

這種說法我還是頭一次聽到 :flash: :flash: :flash:


而且為啥CISC在浮點運算跟平行運算的方面會有劣勢?
詳細希望



就個人淺見

現代主要兩大陣營(x86 CISC vs ARM RISC)的最先進處理器
兩者之間最主要的差異

頂多就是x86的Decoder多了一項功能
把x86指令(尤其是那些直接對記憶體操作的指令)拆成一堆micro-op

或是直接生一個macro-op
然後餵給ALU, FPU, MMU ,Register blablabla...這樣

然後ARM的Decoder因為指令長度固定
所以Decoder的功能就不必像x86家的這麼強大

加上ARM是Load store設計
ADD指令不會有直接撈記憶體的問題
都在Register處理

但ARM CPU真正執行的指令也還是那堆Micro-op

就醬


而且就算是一堆人覺得老扣扣的x86處理器
decoder增加的功能對CPU整體負擔的額外開銷(Overhead)
基本上只有1~2%,遇到非常不良的操作,也最多3%

但因為有macro-op
所以遇到某些指令的頻繁操作
反而能Cover掉這些overhead

像比較近期的Zen~Zen2的效能大爆射
除了分支預測以外
在decoder的部份也是下了很大的苦功

至於扯浮點運算劣勢啥的
我覺得真的就扯太遠了....

jenzh 2020-03-11 05:18 AM

我會在意於浮點運算的優劣,主要是這串文的主題是在談超級電腦,對於其效能評比就是以浮點運算為標準。RISC設計的根本原則針對管線的處理器最佳化,這也是超級電腦TOP3為何都是用RISC。

你所說的ARM的指令長度固定這個正是RISC的優點。它不必像x86暫存器運算一樣,還分8、16、32、64位元,反正都是統一長度。

x86骨子是RISC,但是它為了「相容性」,也就是用微碼的方式模擬x86一些不常用的指令,這會造成一些「侷限」,如果是RISC的話,這個問題直接丟給編譯器就行了。

現在的x86陣營有研發很多法寶,不過以串文的主題「超級電腦」來說,看看以後TOP3會不會是x86陣營天下…

另外題外話,昨天我查閱TOP3的規格,前兩名美方的超級電腦都是除了CPU本身的運算外,另外還有GPU的加持,難怪浮點效能會很好,對岸的神威機的浮點效能完完全全是用CPU堆出來的,我很佩服這個很「牛」,因為它是一台效能強大的吃電怪物。

erdatsai 2020-03-11 10:19 AM

引用:
作者路過
哪泥!?
CISC跟RISC主要的差別是在浮點跟平行計算??

這種說法我還是頭一次聽到 :flash: :flash: :flash:


而且為啥CISC在浮點運算跟平行運算的方面會有劣勢?
詳細希望



就個人淺見

現代主要兩大陣營(x86 CISC vs ARM RISC)的最先進處理器
兩者之間最主要的差異

頂多就是x86的Decoder多了一項功能
把x86指令(尤其是那些直接對記憶體操作的指令)拆成一堆micro-op

或是直接生一個macro-op
然後餵給ALU, FPU, MMU ,Register blablabla...這樣

然後ARM的Decoder因為指令長度固定
所以Decoder的功能就不必像x86家的這麼強大

加上ARM是Load store設計
ADD指令不會有直接撈記憶體的問題
都在Register處理

但ARM CPU真正執行的指令也還是那堆Micro-op

就醬


而且就算是一堆人覺得老扣扣的x86處理器
decoder增加的功能對CPU整體負擔的額外開銷(Overhead)
基本...



我也覺得他扯太遠了,不管是跟從學校學的理論或是和現在CPU的發展都搭不起來

現在扯CISC、RISC誰好誰壞,真的很沒有意義
內部常用的指令集還不都是解碼成Micro-op在跑,
不夠的部分還不都是新增指令集來解決?
只是看效能、能效,哪一個比較看重而已

最近CPU IPC的提升,記憶體快取也是個重點,像是Zen、Apple A系列等,
很大部分得益於更先進的快取設計(快取容量也都比別人大就是了)


所有的時間均為GMT +8。 現在的時間是12:43 PM.

vBulletin Version 3.0.1
powered_by_vbulletin 2025。