瀏覽單個文章
skap0091
Master Member
 

加入日期: May 2021
文章: 1,936
引用:
作者anderson1127
沒錯!! 目前就我觀察到的AI 功能,都還必需有所本,才能夠執行AI所能產生的文章或圖片!!
也就是說, 你必須先提供一個基本資訊給AI程式,才有下一步可走!!

凡事本來就要有所本,這有什麼問題嗎?
科學難道可以無所本?但你過度著眼於生成式AI

以cuLitho為例
https://blogs.nvidia.com.tw/2023/03...-manufacturing/

cuLitho 不僅有助於打通這些關卡,還能協助開發出新的解決方案和創新技術,如曲線光罩、高數值孔徑極紫外光微影技術及新技術節點所需的次原子光阻建模。

https://www.techbang.com/posts/104849-nvidia-gtc-2023

cuLitho可以消除這些瓶頸,並提升光學接鄰修正(Optical Proximity Correction,OPC)的修訂速度,甚至能促成曲線光罩(Curvilinear Mask)、高數值孔徑極紫外光微影(High NA EUV Lithography)、次原子光阻劑建模(Sub-Atomic Photoresist Modeling)等新技術之發展。

---

白話點說,就像丟圍棋規則或棋譜給AI學習訓練
讓AI自己快速迭代演化出獲勝的方式
這種深度學習or對抗式AI,可以超出傳統人類思考方式
對於複雜問題求解是很有用的,所以上面的cuLitho能做到:

在晶片設計時,需要考慮實際上最終在晶圓上形成的圖案與光罩上的圖案並不相同,因此運算式微影技術採用「逆向工程」的概念,以預測什麼樣的光罩圖案會在晶圓上形成最終需要的圖案。

TSMC執行長魏哲家也表示,cuLitho在加速運算式微影方面取得了令人欽佩的進展,並將高成本的運算負載轉移至GPU,為TSMC開創了反向微影(Inverse Lithography)等新技術的可能性,以及在晶片製造中更廣泛導入深度學習,為半導體微縮做出重要貢獻。

---

目前的文生圖是:
文生圖模型通常結合了一個語言模型,負責將輸入的文本轉化為機器描述,
而圖像生成模型則負責生成圖像。

文本到圖像生成模型
https://zh.wikipedia.org/zh-tw/%E6%...%A8%A1%E5%9E%8B

其中一種Stable Diffusion潛在擴散模型
簡單講就是從圖片變雜訊的過程,訓練出反向的雜訊變圖片

Stable Diffusion
https://zh.wikipedia.org/wiki/Stable_Diffusion

---

其實目前這種"AI"根本就不是傳統意義的AI
深度學習這詞當初還比較不容易跟AI混淆,但後來實在太多太複雜
https://zh.wikipedia.org/zh-tw/%E6%...%AD%A6%E4%B9%A0

下指令給文生圖"AI",只是控制的一種手段
不下指令要如何控制? 不想文生圖也可以語音生圖、圖生圖
但這個只是生出想要的圖的玩法
也可以生出想要的小說、想要的漫畫、想要的影片、想要的音樂...等等

AI去下棋是另一種用法,AI去反推光罩圖案是另一種用法
AI去理解文意,去理解人類說話的內容,從資料庫回答問題也是一種用法

說實在,目前這種"AI"能應用的範圍太廣
汽車公司透過AI達成全自動駕駛
製藥公司透過AI去合成新藥物
航空公司用AI去設計出更好的機身、引擎
軍方用AI去更有效的管理戰場、遙控各式武器

而軍武這一塊是最可能AI毀滅人類的...
舊 2024-03-19, 12:00 AM #264
回應時引用此文章
skap0091離線中