《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業界動態 > ChatGPT如何驅使上千顆GPU為你工作

ChatGPT如何驅使上千顆GPU為你工作

2023-02-09
作者: 劉浩然
來源: 與非網eefocus
關鍵詞: OpenAI ChatGPT GPU

  一周之內,由人工智能實驗室OpenAI發布的對話式大型語言模型ChatGPT在全世界掀起“AI狂潮”,數十億次請求從全世界各個角落匯總到ChatGPT服務器。作為“新晉網紅”,ChatGPT “知無不言”,“有求必應”,許多人就身邊遇到的問題對它進行提問,雖然回答不一定準確,但也出現了相當多有意思的問題。

  ChatGPT是怎樣做到無所不答的?我們知道,訓練AI算法需要用到大量GPU算力資源。而作為當前AI算法的“頂流”,訓練ChatGPT用到的GPU數量或將達上千顆。本文將帶你了解ChatGPT工作的底層邏輯,以及它如何驅使上千顆GPU為你工作。

  如何訓練ChatGPT

  當我們想要構建一個AI模型時,最重要的步驟總結下來就是:定義架構、訓練、調試以及測試。記者詢問ChatGPT,你是如何訓練的,它的回復是:1. 選擇大規模語料庫,構建訓練集。2. 定義模型架構,通常使用Transformer模型。3. 選擇優化算法并設置超參數。4. 訓練模型,根據訓練損失下降情況和驗證集結果決定是否需要調整超參數。5. 使用測試集評估模型性能。6. 如果需要,對模型進行微調,以提高性能。

  微信截圖_20230209093113.png

  當決定要訓練一個語言類AI模型時,第一件事就要明確訓練AI的語料庫。語料庫的選擇十分重要,為了讓語言模型學到足夠多的語言信息,需要選擇盡量規模大的文本語料庫。以ChatGPT為例,訓練類似AI模型時,就需要準備各類網站的百科文章、網絡回答、專業論文等。據了解,一款通用AI算法所使用的預訓練語料庫大小為1-10GB之間,而用于訓練ChatGPT的前身——GPT-3的語料庫達到了45TB。

  訓練AI執行語言任務還繞不開Transformer模型。Transformer模型(變換器)是一種采用自注意力機制的深度學習模型,自注意力的意思即可以按照輸入數據各部分重要性的不同而分配不同的權重。它通過計算詞與詞之間的相對位置關系來確定注意力的權值,最終生成語句的語義表示。Transformer的優勢在于其可以并行計算,速度快,精度高,是目前自然語言處理中最常使用的模型之一。

  目前,基于龐大的訓練語料庫與Transformer模型,GPT-3已經具有了上下文學習能力。簡單的說,我們目前可以向模型輸入一個問題,再給出相似問題的解決方案,ChatGPT就可以自動猜測相關任務的答案。此外官方在GPT-3.5的訓練中,還添加了海量的代碼數據,這就是目前ChatGPT能夠為用戶解答編程問題的原因。AI專家分析,ChatGPT在訓練時添加的代碼語料庫可能具有詳細的注釋,這能很好的幫助AI理解代碼功能。

  經過多次訓練、調試后,ChatGPT才最終出現在我們眼前,為用戶回答各類腦洞大開的問題。

  訓練ChatGPT需要多少GPU

  無論是ChatGPT,還是其他AI模型,其主要功能都是幫助我們實現與硬件的交互,尤其是幫助我們高效利用具有龐大算力的GPU集群。記者就該問題也詢問了ChatGPT,得到的回復是:

  微信截圖_20230209093255.png

  ChatGPT的回答并沒有指出關鍵所在。我們知道,GPU的多核結構在運行大規模并行計算時,相比CPU會更有優勢。但在面對ChatGPT如此龐大的語料庫時,任何一顆GPU芯片都不能勝任。有AI算法專家表示,訓練通用的AI模型需要用到1億以上的參數,而ChatGPT的1750億就需要調用天文數字般的算力資源。英偉達和微軟研究院的研究論文稱,如果我們能夠在單個GPU中擬合模型,所需的大量計算操作也會需要超乎尋常的長訓練時間,GPT-3在單個英偉達V100 GPU上估計需要288年。如今時間已經來到2023年,相比于GPT-3,ChatGPT將會擁有更加恐怖的參數數量與訓練成本。

  不過當我們增加GPU數量后,AI算法的訓練時間可以顯著降低。以GPT-3模型訓練為例,使用8張V100顯卡,訓練時長預計需要36年,512張V100顯卡,訓練時間接近7個月,而1024張A100的訓練時長可以減少到1個月。這種利用多顯卡同時計算的方式就是分布式并行計算。

  分布式并行計算,是一組電腦通過過網絡相互連接傳遞信息,并協調它們的行為而形成的系統。組件之間彼此進行交互以實現一個共同的目標。它可以把一個需要非常巨大的計算能力才能解決的問題分成許多小的部分,由多臺計算機分別計算,再上傳運算結果。在消費端,很多人熟悉的NVLink就是分布式計算的一種。業界主流的分布式并行類型包括數據并行、模型并行和混合并行三種。

  在AI算法的訓練過程中,我們會用到PyTorch、TensorFlow等軟件工具幫我們實現分布式并行計算。例如可以把ChatGPT 45TB的語料庫平均分布到1000張英偉達H100 GPU中(每顆GPU具有1.8萬個核心),這樣單顆ALU僅會分到2.6KB左右的計算量,最后再通過逐級計算總成,訓練AI算法的速度將會大大減少。

  此外,AI算法更重要的一點就是神經網絡。神經網絡的搭建需要鏈接多個數據節點(數據節點可以是單個ALU核心),進行多次迭代與訓練建立不同邏輯對應的節點鏈接,而分布式計算就像鏈接不同神經元之間的神經束,讓GPU集群擁有了類似人腦一樣的思考方式。

  除了在訓練階段,ChatGPT在回答用戶問題時也可以以同樣的路徑鏈接各個節點,在上百TB的數據中找到最接近你問題的答案。所以,當你向ChatGPT提問時,其實是上千顆高性能GPU在一同解決你的問題。

  ChatGPT未來會怎么發展?

  目前,ChatGPT已經展現出來無與倫比的替代能力,很多人正在擔憂它的出現會威脅到自己的職業前途。在《流浪地球2》中,擁有超高智能的MOSS計算機已經在未來取代了絕大部分人工,甚至可以自行決定行星發動機的建設,這更加催生了人們對于AI發展的焦慮情緒。但就目前來看,ChatGPT距離完美還有些距離,起碼在算力方面,AI還遠達不到完全替代人工的程度。記者就未來發展向ChatGPT提問,得到的回復簡單總結是:1. 更大、更精準的語料庫。2. 不斷改進模型。3. 多語言支持。4. 在更專業的領域深耕。5. 用途更加廣泛。

  微信截圖_20230209093318.png

  未來,ChatGPT可能會普遍存在于人們的生活中,應用在各行各業里,成為一種高效、便捷的生產力工具,為人們的生活增添無數便利。

歡迎關注電子技術應用2023年2月22日==>>商業航天研討會<<

微信圖片_20210517164139.jpg


本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 成全高清视频免费观看| 波多野结衣在线看片| 国产福利精品视频| z0z0z0另类极品| 日韩国产精品欧美一区二区| 免费a级毛片无码a∨性按摩| 超清中文乱码精品字幕在线观看| 国产精品黄大片观看| 三年片在线观看免费观看大全中国| 最近高清中文在线国语字幕| 伊人久久大香线蕉亚洲| 色综合天天综合网国产成人网| 国产精品二区三区免费播放心| gogo全球高清大胆啪啪| 无码任你躁久久久久久老妇| 亚洲六月丁香婷婷综合| 狼群视频在线观看www| 国产AV国片精品一区二区| 亚洲人成在线播放网站岛国| 多人乱p欧美在线观看| 丝袜交kingfootjob| 日本边添边摸边做边爱喷水| 亚洲国产精品线观看不卡| 男人边吃奶边做边爱完整| 国产一区二区三区不卡在线观看| 日本wwwxxxxx| 国产馆在线观看视频| 一个人看的片免费高清大全| 日本丰满岳乱妇在线观看| 亚洲三级在线免费观看| 波多野结衣在线观看免费区| 十八禁视频网站在线观看| 贱妇汤如丽全篇小说| 国产欧美第一页| 67194国产精品免费观看| 天天综合天天干| 中文字幕一精品亚洲无线一区| 日韩精品一区二区三区毛片 | 天堂在线最新资源| 大女小娟二女小妍| 一区免费在线观看|