《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 設計應用 > 自動化構建移動端神經網絡的技術研究
自動化構建移動端神經網絡的技術研究
2020年電子技術應用第12期
宋存洋,李 欣
中國電子科技集團公司第二十八研究所,江蘇 南京210007
摘要: 深度學習已在視覺、語音、自然語言等應用領域取得巨大成功,然而隨著網絡結構日趨復雜,神經網絡參數量也迅速增長,設計網絡結構和調節參數這一過程需要大量的專業知識與反復試驗,成本極高。此外,由于功耗限制與存儲空間等因素,移動端設備上的神經網絡模型規模受限。設計了一種高效的移動端神經網絡架構搜索算法,具體包括:(1)設計了一種在預先給定神經網絡架構的情況下可以自動計算模型浮點數運算次數的算法;(2)改進現有的基于梯度的神經網絡架構搜索算法,設計了一種帶約束的架構搜索算法;(3)在神經網絡架構搜索過程中加入對浮點數運算次數的約束,通過調節約束的強弱搜索到幾種不同的神經網絡架構。訓練搜索到的神經網絡,測試其在圖像分類任務上的性能,并與工業界常用的模型相比較。實驗結果表明,該方法搜索到的模型能達到目前工業界主流模型性能。
中圖分類號: TN919.3+1
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.200835
中文引用格式: 宋存洋,李欣. 自動化構建移動端神經網絡的技術研究[J].電子技術應用,2020,46(12):83-88.
英文引用格式: Song Cunyang,Li Xin. Research on the technology of automatic construction of mobile terminal neural networks[J]. Application of Electronic Technique,2020,46(12):83-88.
Research on the technology of automatic construction of mobile terminal neural networks
Song Cunyang,Li Xin
The 28th Research Institute of China Electronics Technology Corporation,Nanjing 210007,China
Abstract: Deep learning has achieved great success in many areas such as computer vision, speech signal processing and natural language processing. However, as the neural architecture becomes more complex, the number of parameters increases rapidly. Designing efficient neural architectures requires expertise knowledge and quantities of repetitive experiments, which leads to high cost. Besides, the scale of neural networks running in mobile devices is strictly limited due to the power consumption limit and relatively small storage space. This paper proposes an efficient architecture searching algorithm for mobile devices. The main contributions include:(1)We propose an algorithm for calculating the number of floating point operations in neural networks under given architecture.(2)We improve an existing gradient based neural architecture search algorithm and propose a constraint NAS algorithm.(3)We search several efficient neural architectures by adding the constraint of the number of floating point operations to the architecture searching process and adjusting its strength. We train the searched neural networks, test their performance on image classification tasks and compare with other neural networks which are commonly used in industry. The experimental results show that the performance of the model searched by our method can reach the performance of mainstream models in industry.
Key words : lightweight neural network;convolution;model constraint;neural architecture search

0 引言

    自AlexNet以巨大的優勢在ImageNet圖像識別比賽中奪冠后,深度學習在視覺、語音、自然語言處理等方面取得了飛速的進展和巨大的成功。深度學習發展主要依賴于算力的提升和算法的進步。算力的提升主要在于GPU、TPU等硬件的應用與發展;而算法的進步多種多樣,例如優化方法的改進、激活函數的選擇等。本文主要關注于使用神經網絡架構搜索的方法構建輕量級神經網絡,主要工作包括:

    (1)設計了一種自動計算模型浮點數運算次數的算法。浮點數運算次數是反映神經網絡規模與運行速度的一個重要指標,也是一個動態的過程,可以看作架構參數的函數,除了具體的數值外,本文還計算了其對架構參數的偏導數。

    (2)基于梯度的神經網絡架構搜索,改進設計了一種帶約束的架構搜索方法。在實際任務中,為了使模型能運行在特定設備上,通常對模型的規模或運行速度等有一定的要求。不加約束的搜索,得到的模型很可能不滿足要求。本文實現的約束算法并不限于某一種特定約束,而是實現了一種接口,加入了對模型運行時延、模型規模多種不同的約束。

    (3)利用帶有浮點數運算次數約束的架構搜索算法,搜索到幾種高性能神經網絡架構。在幾個公開數據集上測試并對比其在圖像分類任務上的準確率,并與工業界常用的神經網絡模型進行比較。




本文詳細內容請下載:http://m.xxav2194.com/resource/share/2000003259




作者信息:

宋存洋,李  欣

(中國電子科技集團公司第二十八研究所,江蘇 南京210007)

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 四虎在线最新永久免费| 天天做天天爱天天综合网2021| 亚洲成人中文字幕| 老子影院在线观看| 国产精品一区在线观看你懂的| 一个人www免费看的视频| 日韩电影中文字幕在线观看| 亚洲综合在线观看视频| 色综合久久天天综合观看| 国产精品另类激情久久久免费 | 北岛玲日韩精品一区二区三区| 免费看片在线观看| 在线观看高嫁肉柳1一4集中文 | 国产片免费福利片永久| a级毛片在线播放| 把水管开水放b里是什么感觉| 亚洲av无码一区二区二三区| 激情五月婷婷网| 印度精品性hd高清| 香港三级欧美国产精品| 国产精品蜜芽tv在线观看| z0z0z0另类极品| 无需付费大片在线免费| 亚洲A∨无码一区二区三区| 波多野结衣护士无删减| 午夜无码国产理论在线| 超碰色偷偷男人的天堂| 国产精品igao视频网网址| 99国产精品欧美一区二区三区 | 做a的视频免费| 翁熄系列回乡下| 国产女同无遮挡互慰高潮视频| 67pao强力打造国产免费| 天天综合天天综合色在线| 中文字幕亚洲一区二区va在线| 日本高清免费xxx在线观看| 亚洲伊人色欲综合网| 永久黄网站色视频免费直播| 劲爆欧美第一页| 美女裸体a级毛片| 国产亚洲情侣一区二区无|