《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 設計應用 > 基于BERT-CNN的新聞文本分類的知識蒸餾方法研究
基于BERT-CNN的新聞文本分類的知識蒸餾方法研究
2023年電子技術應用第1期
葉榕,邵劍飛,張小為,邵建龍
昆明理工大學 信息工程與自動化學院,云南 昆明 650500
摘要: 近年來,隨著大數據時代進入人類的生活之后,人們的生活中出現很多無法識別的文本、語義等其他數據,這些數據的量十分龐大,語義也錯綜復雜,這使得分類任務更加困難。如何讓計算機對這些信息進行準確的分類,已成為當前研究的重要任務。在此過程中,中文新聞文本分類成為這個領域的一個分支,這對國家輿論的控制、用戶日常行為了解、用戶未來言行的預判都有著至關重要的作用。針對新聞文本分類模型參數量多和訓練時間過長的不足,在最大限度保留模型性能的情況下壓縮訓練時間,力求二者折中,故提出基于BERT-CNN的知識蒸餾。根據模型壓縮的技術特點,將BERT作為教師模型,CNN作為學生模型,先將BERT進行預訓練后再讓學生模型泛化教師模型的能力。實驗結果表明,在模型性能損失約2.09%的情況下,模型參數量壓縮約為原來的1/82,且時間縮短約為原來的1/670。
中圖分類號:TP391.1
文獻標志碼:A
DOI: 10.16157/j.issn.0258-7998.223094
中文引用格式: 葉榕,邵劍飛,張小為,等. 基于BERT-CNN的新聞文本分類的知識蒸餾方法研究[J]. 電子技術應用,2023,49(1):8-13.
英文引用格式: Ye Rong,Shao Jianfei,Zhang Xiaowei,et al. Knowledge distillation of news text classification based on BERT-CNN[J]. Application of Electronic Technique,2023,49(1):8-13.
Knowledge distillation of news text classification based on BERT-CNN
Ye Rong,Shao Jianfei,Zhang Xiaowei,Shao Jianlong
School of Information Engineering and Automation, Kunming University of Science and Technology, Kunming 650500, China
Abstract: In recent years, after the era of big data has entered human life, many unrecognizable text, semantic and other data have appeared in people's lives, which are very large in volume and intricate in semantics, which makes the classification task more difficult. How to make computers classify this information accurately has become an important task of current research. In this process, Chinese news text classification has become a branch in this field, which has a crucial role in the control of national public opinion, the understanding of users' daily behavior, and the prediction of users' future speech and behavior. In view of the shortage of news text classification models with large number of parameters and long training time, the BERT-CNN based knowledge distillation is proposed to compress the training time while maximizing the model performance and striving for a compromise between the two. According to the technical characteristics of model compression, BERT is used as the teacher model and CNN is used as the student model, and BERT is pre-trained first before allowing the student model to generalize the capability of the teacher model. The experimental results show that the model parametric number compression is about 1/82 and the time reduction is about 1/670 with the model performance loss of about 2.09%.
Key words : news text;BERT;CNN;knowledge distillation

0 引言

    隨著大數據時代的到來,今日頭條、新浪微博和豆瓣等主流新聞媒體APP產生海量新聞文本,因此如何將這些新聞文本進行快速有效的分類對于用戶體驗乃至國家網絡輿情控制是十分必要的。針對中文新聞文本分類任務,研究者提出許多分類算法和訓練模型,證明深度學習分類方法的有效性。

    以BERT[1](Bidirectional Encoder Representation from Transformers)預訓練模型為例:在文獻[2]的實驗中可以得出,BERT-CNN模型取得的效果最佳,但是從工程落地的角度來說,模型參數量過于巨大,僅僅一個BERT模型,參數就達一億多。本文使用的是谷歌開源的面向中文的BERT預訓練模型,占用內存大小為325 Mb。另一方面,針對訓練時間過長的缺點,以該實驗為例,訓練18萬條新聞文本數據消耗的時間為3.5 h,很顯然對于未來的模型工程落地還存在很大的差距。因此,本文在保證不下降過多模型的準確率的前提下,將BERT-CNN進行模型壓縮,降低模型體積以及模型的訓練時間,提升模型的泛化能力。

    本文創新點主要體現在:(1)對實驗數據集進行了擴充處理,提升模型泛化能力;(2)通過觀察不同的T和α的組合對模型蒸餾性能的影響確定最優組合值而不是固定值;(3)蒸餾場景不再局限于傳統情感分析(二分類),本實驗面向10分類的文本分析,不同標簽文本的蒸餾性能也不盡相同。




本文詳細內容請下載:http://m.xxav2194.com/resource/share/2000005068




作者信息:

葉榕,邵劍飛,張小為,邵建龍

(昆明理工大學 信息工程與自動化學院,云南 昆明 650500)




wd.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 1000部无遮挡拍拍拍免费视频观看| 人人爽人人爽人人爽人人片av | 国产污视频在线观看| 久久天天躁夜夜躁2019 | 精品第一国产综合精品蜜芽| 女性无套免费网站在线看| 亚洲国产精品成人久久| 青青草原伊人网| 天天干天天干天天操| 九九九九九九伊人| 精品伊人久久大线蕉色首页| 国产色司机在线视频免费观看| 久久亚洲高清观看| 熟女性饥渴一区二区三区| 国产对白在线观看| free哆啪啪免费永久| 日韩精品视频在线播放| 免费看www视频| 久久亚洲精品专区蓝色区| 少妇熟女久久综合网色欲| 亚洲人成网男女大片在线播放| 美女扒开屁股让男人桶爽免费| 国产精品无码免费播放| 中文字幕人妻三级中文无码视频| 欧美日韩国产综合视频一区二区三区 | 一区二区三区在线免费看 | 国产自产21区| 久久久久久久久亚洲| 老司机精品视频在线观看| 国语自产精品视频在线区| 久久福利资源网站免费看| 足本玉蒲团在线观看| 坤廷play水管| 久久国产乱子伦免费精品| 爱情岛论坛亚洲永久入口口| 国产在线观看精品一区二区三区91| shkd-443夫の目の前で犯| 日韩有码在线观看| 亚洲色图第四色| 青草青在线视频| 国产高清免费的视频|