欧美精彩一区二区91|欧美日韩亚洲一区二区动漫|中文字幕在线一级|女人喷液全过程在线

<em id="ntkpq"><input id="ntkpq"></input></em>
<dl id="ntkpq"><thead id="ntkpq"></thead></dl>
<listing id="ntkpq"><b id="ntkpq"></b></listing>

  • <delect id="ntkpq"></delect>

    1. 英特爾官宣1萬億參數(shù)AI大模型,比ChatGPT大5倍!

      2023-05-29 14:01:04  來源:互聯(lián)網(wǎng)

      眼看著 ChatGPT 持續(xù)爆火了幾個月,期間微軟、谷歌、Meta 等科技巨頭接連入局,如今英特爾也終于官宣“參賽”。

      在德國漢堡舉行的國際超級計算大會 (ISC) 高性能會議 (HPC)上,英特爾不JJJJ*展示了其在 HPC 和 AI 工作負載方面的性能,還宣布了一項出人意料的計劃:與阿貢國家實驗室攜手,用 Aurora 超級計算機開發(fā)生成式 AI 模型 Aurora genAI,參數(shù)量將多達 1 萬億!

      要知道,ChatGPT 的參數(shù)規(guī)模為 1750 億,即 Aurora genAI 模型將比它至少大 5 倍。

      php027Oxk

      AI 模型將由 Aurora 超算提供算力 

      據(jù)了解,英特爾 Aurora genAI 模型將以兩個框架為基礎(chǔ):NVIDIA 的 Megatron 和微軟的 DeepSpeed。

      Megatron:用于分布式訓(xùn)練大規(guī)模語言模型的架構(gòu),專門針對 Transformer 進行了優(yōu)化,不只支持傳統(tǒng)分布式訓(xùn)練的數(shù)據(jù)并行,也支持模型并行。

      DeepSpeed:專注于優(yōu)化大型深度學(xué)習(xí)模型的訓(xùn)練,通過提高規(guī)模、速度、成本和可用性,釋放了訓(xùn)練 1000 億參數(shù)模型的能力,極大促進大型模型的訓(xùn)練。

      phpd4M6xH

      除了這兩個框架,Aurora genAI 模型還將由 Aurora 超級計算機來提供算力——這臺英特爾為阿貢國家實驗室設(shè)計的超級計算機,在經(jīng)歷了各種推遲后,如今終于成型了。

      根據(jù)目前公開的資料顯示,Aurora 超級計算機由英特爾 Xeon CPU Max 和 Xeon GPU Max 系列芯片提供支持,總共有 10624 個節(jié)點,擁有 63744 個 Ponte Vecchio GPU、21248 個 Sapphire Rapids 至強 CPU、1024 個分布式異步對象存儲 (DAOS) 存儲節(jié)點以及 10.9 PB 的 DDR5 傲騰持久內(nèi)存。

      此外,英特爾方面還透露了 Aurora 超級計算機的早期性能結(jié)果:“Aurora 超算在科學(xué)和工程工作負載上具有更好性能,比 AMD MI250 GPU 的性能高 2 倍,在 QMCPACK 量子力學(xué)應(yīng)用上比 H100 提高了 20%,并接近線性擴展,可達到數(shù)百個節(jié)點?!?/p>

      值得一提的是,與Z*初的 1 Exaflop 目標相比,預(yù)計 Aurora 超級計算機在今年推出時,將提供超過 2 Exaflops 的雙精度浮點計算性能——比目前多次蟬聯(lián)全球超算 Top500 榜首的 Frontier 超級計算機(1.194 Exaflop/s)還要高。 

      以科學(xué)為重點的生成式 AI 模型 

      有了算力強悍的 Aurora 超算打底,注定 Aurora genAI 模型的規(guī)模不會小。據(jù)英特爾官方介紹,阿貢國家實驗室正在為 Aurora genAI 模型牽頭開展國際合作。

      阿貢副實驗室主任 Rick Stevens 表示:“該項目旨在利用 Aurora 超級計算機的全部潛力,以產(chǎn)生一種資源,可用于能源部實驗室的下游科學(xué),并與其他機構(gòu)合作?!?/p>

      總體而言,Aurora genAI 是一個以科學(xué)為重點的生成式 AI 模型,因此將在通用文本、代碼、科學(xué)文本以及生物學(xué)、化學(xué)、材料科學(xué)、物理學(xué)、醫(yī)學(xué)等科學(xué)數(shù)據(jù)上進行訓(xùn)練。

      由此產(chǎn)生的 AI 模型,將具有多達 1 萬億個參數(shù),包括從分子和材料的設(shè)計到數(shù)百萬個來源的綜合知識,可用于各種科學(xué)應(yīng)用:系統(tǒng)生物學(xué)、氣候科學(xué)、宇宙學(xué)研究、高分子化學(xué)與材料等。除了科學(xué)之外,Aurora genAI 模型還可能用于其他領(lǐng)域,如金融建模、自然語言處理、機器翻譯、圖像識別和語音識別等。 

      計劃 2024 年完成 

      除此之外,有關(guān) Aurora genAI 模型的更多信息英特爾尚未劇透,不過據(jù)外媒報道,英特爾計劃在 2024 年開發(fā)和完成 Aurora genAI 模型——如果進展順利,或許我們等待的時間并不會太久。

      這一消息的發(fā)布,引來了不少人的關(guān)注,而英特爾入局 AI 大模型即宣布 1 萬億參數(shù)起步,更是令人期待未來 GPT-4 等競品的發(fā)展:

      “萬億參數(shù)應(yīng)該是一個特殊的極限,但你也可以持懷疑態(tài)度,說這只是一個需要關(guān)注的巨大整數(shù)。毫無疑問,如果此模型類似于 GPT-4,這將增加一個數(shù)據(jù)點。但隨著各大公司宣布這個又宣布那個,我想知道我們是否會在 6 月達到頂峰?!?/p>

       “人們正在使用 H100 構(gòu)建新系統(tǒng),并且已經(jīng)有明顯更好的 AI GPU 了,如果這種情況繼續(xù)下去,NVIDIA 可能需要盡快宣布新卡以保持更好地位?!?/p>

       “我猜 GPT-4 很快就不會在許多基準測試中繼續(xù)保持 SOTA(state of the art,指在特定任務(wù)中目前表現(xiàn)更好的方法或模型)了,或許未來它也將在世界上Z*快的超級計算機上進行訓(xùn)練。作為參考,OpenAI 超級計算機擁有大約 10000 個 GPU,而 Aurora 有 63744 個 GPU?!?/p>


      文章關(guān)鍵詞: 責(zé)編:Admin

      圖文推薦

      熱聞推薦

      天天新聞網(wǎng)版權(quán)所有

      報錯:admin@qq.com (非誠勿擾)   QQ: 123456

      贛ICP備17003504號