《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業界動態 > AMD發布首個AI小語言模型AMD-135M

AMD發布首個AI小語言模型AMD-135M

6900億token、推測解碼提速3.88倍
2024-10-08
來源:快科技

10月1日消息,AMD發布了自己的首個小語言模型(SLM),名為“AMD-135M”。

相比于越來越龐大的大語言模型(LLM),它體積小巧,更加靈活,更有針對性,非常適合私密性、專業性很強的企業部署。

1.jpg

AMD-135小模型隸屬于Llama家族,有兩個版本:

一是基礎型“AMD-Llama-135M”,擁有多達6700億個token,在八塊Instinct MIM250 64GB加速器上訓練了六天。

二是延伸型“AMD-Llama-135M-code”,額外增加了專門針對編程的200億個token,同樣硬件訓練了四天。

2.jpg

創建與部署流程

它使用了一種名為“推測解碼”(speculative decoding)的方法,通過較小的草稿模型,在單次前向傳播中生成多個候選token,然后發送給更大的、更精確的目標模型,進行驗證或糾正。

這種方法可以同時生成多個token,不會影響性能,還可以降低內存占用,但因為數據交易更多,功耗也會增加。

AMD還使用AMD-Llama-135M-code作為CodeLlama-7b的草案模型,測試了推測解碼使用與否的性能。

比如在MI250加速器上,性能可提升最多約2.8倍,銳龍AI CPU上可提升最多約3.88倍,銳龍AI NPU上可提升最多約2.98倍。

3.jpg

推測解碼

4.png

AMD-135M小模型的訓練代碼、數據集等資源都已經開源,遵循Apache 2.0。

按照AMD的說法,它的性能與其他開源小模型基本相當或略有領先,比如Hellaswag、SciQ、ARC-Easy等任務超過Llama-68M、LLama-160M,Hellaswag、WinoGrande、SciQ、MMLU、ARC-Easy等任務則基本類似GTP2-124MN、OPT-125M。

5.jpg



Magazine.Subscription.jpg

本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 国产免费黄色片| 好男人好影视在线播放| 亚洲精品无码久久| 色釉釉www网址| 国产精品无码免费专区午夜| 七次郎在线视频精品视频| 最近中文字幕mv免费高清视频7| 国产欧美另类久久精品蜜芽| 一区二区三区四区在线视频| 最新亚洲春色av无码专区| 亚洲综合五月天欧美| 美女被视频在线看九色| 国产成人精品午夜福利在线播放| 中国孕妇变态孕交XXXX| 曰本一区二区三区| 亚洲精品99久久久久中文字幕| 高清国产美女一级毛片| 国产美女网站视频| xxxx日本黄色| 日日婷婷夜日日天干| 亚洲一级黄色大片| 激情按摩系列片AAAA| 台湾三级香港三级经典三在线| 538在线播放| 奶特别大的三级日本电影| 久久久高清日本道免费观看| 欧美伊人久久大香线蕉综合| 人人爽人人澡人人高潮| 综合网小说图片区| 国产午夜福利在线观看视频| 2018在线观看| 在线视频免费国产成人| 中国特级黄一级**毛片| 日韩一区二区三区精品| 亚洲国产成人片在线观看| 狠狠色丁香久久婷婷综合| 台湾三级全部播放| 蜜桃麻豆www久久国产精品| 国产欧美日韩视频免费61794| wtfpass欧美极品angelica| 探花视频在线看视频|