《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 設(shè)計(jì)應(yīng)用 > 基于Light-BotNet的激光點(diǎn)云分類研究
基于Light-BotNet的激光點(diǎn)云分類研究
2022年電子技術(shù)應(yīng)用第6期
雷根華1,王 蕾1,2,張志勇1
1.東華理工大學(xué) 信息工程學(xué)院,江西 南昌330013; 2.江西省核地學(xué)數(shù)據(jù)科學(xué)與系統(tǒng)工程技術(shù)研究中心,江西 南昌330013
摘要: 三維點(diǎn)云在機(jī)器人與自動(dòng)駕駛中都有著普遍的應(yīng)用,深度學(xué)習(xí)在二維圖像上的研究成果顯著,但是如何利用深度學(xué)習(xí)識(shí)別不規(guī)則的三維點(diǎn)云,仍然是一個(gè)開放性的問題。目前大場(chǎng)景點(diǎn)云自身數(shù)據(jù)的復(fù)雜性,點(diǎn)云掃描距離的變化造成點(diǎn)的分布不均勻,噪聲和異常點(diǎn)引起的挑戰(zhàn)性依然存在。針對(duì)于現(xiàn)有的深度學(xué)習(xí)網(wǎng)絡(luò)框架對(duì)于激光點(diǎn)云數(shù)據(jù)的分類效率不高以及分類精度低的問題,提出一種基于激光點(diǎn)云特征圖像與Light-BotNet相結(jié)合的CNN-Transform框架。該框架在于通過對(duì)點(diǎn)云數(shù)據(jù)進(jìn)行特征提取,以相鄰的特征點(diǎn)構(gòu)造點(diǎn)云特征圖像作為網(wǎng)絡(luò)框架的輸入,最后以Light-BotNet為網(wǎng)絡(luò)框架模型進(jìn)行點(diǎn)云分類訓(xùn)練。實(shí)驗(yàn)結(jié)果表明,該方法與現(xiàn)有的多數(shù)點(diǎn)云分類方法相比,能夠較好地提升激光點(diǎn)云的分類效率以及分類精度。
中圖分類號(hào): TP391
文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.222725
中文引用格式: 雷根華,王蕾,張志勇. 基于Light-BotNet的激光點(diǎn)云分類研究[J].電子技術(shù)應(yīng)用,2022,48(6):84-88,97.
英文引用格式: Lei Genhua,Wang Lei,Zhang Zhiyong. Research on laser point cloud classification based on Light-BotNet[J]. Application of Electronic Technique,2022,48(6):84-88,97.
Research on laser point cloud classification based on Light-BotNet
Lei Genhua1,Wang Lei1,2,Zhang Zhiyong1
1.School of Information Engineering,East China University of Technology,Nanchang 330013,China; 2.Jiangxi Engineering Technology Research Center of Nuclear Geoscience Data Science and System,Nanchang 330013,China
Abstract: Three dimensional point clouds are widely used in robots and automatic driving. The research results of deep learning on two-dimensional images are remarkable, but how to use deep learning to identify irregular three-dimensional point clouds is still an open problem. At present, due to the complexity of the data of the scenic spot cloud itself, the uneven distribution of points caused by the change of the scanning distance of the point cloud, and the challenges caused by noise and abnormal points still exist. Aiming at the problems of low classification efficiency and low classification accuracy of the existing deep learning Network framework for laser point cloud data, a CNN Transform framework based on laser point cloud feature image and Light-BotNet is proposed. The framework is to extract the features of point cloud data, construct the point cloud feature image with adjacent feature points as the input of the network framework, and finally take Light-BotNet as the network framework model for point cloud classification training. The experimental results show that compared with most existing point cloud classification methods, this method can better improve the classification efficiency and accuracy of laser point cloud.
Key words : point cloud feature image;BotNet;Transform;CNN;laser point cloud classification

0 引言

    大多的深度學(xué)習(xí)點(diǎn)云分類方法都是采用卷積層與池化層交替實(shí)現(xiàn)的,卷積層中的神經(jīng)元僅與上一層的部分區(qū)域相連接,學(xué)習(xí)局部特征,在點(diǎn)云數(shù)據(jù)特征提取時(shí)容易丟失部分特征,從而導(dǎo)致分類精度下降等問題。而Transform的提出則帶來了一種新的思路,主要利用自我注意機(jī)制提取內(nèi)在特征[1-3]。Transform最初應(yīng)用在自然語言處理(NLP)領(lǐng)域,并且取得了重大的成功,受到NLP中Transformer功能的啟發(fā),研究人員開始將Transformer應(yīng)用在計(jì)算機(jī)視覺(CV)任務(wù)。研究發(fā)現(xiàn)CNN曾是視覺應(yīng)用的基本組件[4-5],但Transformer正在顯示其作為CNN替代品的能力。Chen等人[6]訓(xùn)練序列變換器,以自回歸預(yù)測(cè)像素,并在圖像分類任務(wù)上與CNN取得競(jìng)爭(zhēng)性結(jié)果。卷積操作擅長(zhǎng)提取細(xì)節(jié),但是在大數(shù)據(jù)量的大場(chǎng)景三維點(diǎn)云數(shù)據(jù)分類任務(wù)中,要掌握三維點(diǎn)云的全局信息往往需要堆疊很多個(gè)卷積層,而Transform中的注意力善于把握整體信息,但又需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練。

    BotNet[7]網(wǎng)絡(luò)是伯克利與谷歌的研究人員在Convolution+Transformer組合方面一個(gè)探索,它采用混合方式同時(shí)利用了CNN的特征提取能力、Transformer的內(nèi)容自注意力與位置自注意力機(jī)制,取得了優(yōu)于純CNN或者自注意力的性能,在ImageNet中取得了84.7%的精度。將CNN與Transform結(jié)合起來,達(dá)到取長(zhǎng)補(bǔ)短的效果。BoTNet與ResNet[8]網(wǎng)絡(luò)框架的不同之處在于:ResNet[8]框架在最后3個(gè)bottleneck blocks中使用的是3×3的空間卷積,而BotNet框架則是采用全局自我注意替代空間卷積。帶自注意力模塊的Bottleneck模塊可以視作Transformer模塊。




本文詳細(xì)內(nèi)容請(qǐng)下載:http://m.xxav2194.com/resource/share/2000004426




作者信息:

雷根華1,王  蕾1,2,張志勇1

(1.東華理工大學(xué) 信息工程學(xué)院,江西 南昌330013;

2.江西省核地學(xué)數(shù)據(jù)科學(xué)與系統(tǒng)工程技術(shù)研究中心,江西 南昌330013)




wd.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 精品国产成人亚洲午夜福利| 天天操天天干天天拍| 国产精品无码电影在线观看| 亚洲乱码一区av春药高潮| jazzjazz国产精品一区二区 | 亚洲欧美另类第一页| 青青青手机视频在线观看| 日韩国产欧美在线观看一区二区 | 再深点灬用力灬太大了| 99久久超碰中文字幕伊人| 欧美一卡2卡3卡4卡5卡视频免费 | www性久久久com| 欧美怡红院成免费人忱友;| 国产成人AAAAA级毛片| 中文字幕精品视频在线观| 男男同志chinese中年壮汉| 国产精品亚洲综合五月天| 久久国产AVJUST麻豆| 精品人妻少妇一区二区三区不卡 | 婷婷激情综合网| 亚洲欧洲另类春色校园网站| 给我个免费看片bd| 国内揄拍国内精品| 久久国产精品偷| app草莓视频| 欧美成人性色区| 国产亚洲美女精品久久久2020| 一区二区乱子伦在线播放| 欧美白人最猛性xxxxx| 国产成a人片在线观看视频下载| 99久久人人爽亚洲精品美女| 日韩免费视频播播| 亚洲日韩av无码中文| 色综合久久天天综线观看| 在线观看国产欧美| 九九视频在线观看6| 精品福利一区二区三区免费视频| 国产精品无码久久av不卡| 丰满爆乳无码一区二区三区| 欧美色欧美亚洲高清在线视频| 国产农村妇女精品一二区 |