enet網(wǎng)絡(luò)學(xué)院科普 ENet是一種用于實(shí)時(shí)語(yǔ)義分割的深度神經(jīng)架構(gòu)-焦點(diǎn)熱文

            發(fā)布時(shí)間:2023-03-10 17:20:24  |  來(lái)源:互聯(lián)網(wǎng)  

            在生活中,很多人都不知道enet網(wǎng)絡(luò)學(xué)院_enet硅谷動(dòng)力學(xué)院是什么意思,其實(shí)他的意思是非常簡(jiǎn)單的,下面就是小編搜索到的enet網(wǎng)絡(luò)學(xué)院_enet硅谷動(dòng)力學(xué)院相關(guān)的一些知識(shí),我們一起來(lái)學(xué)習(xí)下吧!


            (資料圖片)

            Enet *** 學(xué)院(enet硅谷動(dòng)力學(xué)院)雷鋒網(wǎng)2019-02-26 10:14:15

            本文是為AI研究所整理的技術(shù)博客,原題:

            ENet——一種用于實(shí)時(shí)語(yǔ)義分割的深度神經(jīng)架構(gòu)

            作者|阿魯納瓦

            翻譯| callofduty890

            校對(duì)|范姜梨評(píng)|皮塔整理|鯉魚網(wǎng)

            原始鏈接:

            https://towardsdatascience . com/enet-a-deep-neural-architecture-for-real-time-semantic-segmentation-2 baa 59 cf 97 e 9

            圖一。一個(gè)語(yǔ)義分段的家伙和一個(gè)卡通之間的對(duì)話

            這是論文的摘要:

            ENet:用于實(shí)時(shí)語(yǔ)義分割的深度神經(jīng) *** 架構(gòu)

            作者亞當(dāng)·帕茲克

            論文:https://arxiv.org/abs/1606.02147

            介紹

            ENet(高效神經(jīng) *** )提供了實(shí)時(shí)按像素進(jìn)行語(yǔ)義分割的能力。ENet的速度提高了18倍,F(xiàn)LOP要求降低了75倍,參數(shù)降低了79倍,并為現(xiàn)有模型提供了類似或更好的精度。在CamVid、CityScapes和SUN數(shù)據(jù)集上進(jìn)行了測(cè)試。

            方法:

            圖3。ENet架構(gòu)

            以上是完整的 *** 架構(gòu)。

            它分為幾個(gè)階段,由表中的水平線和每個(gè)塊名稱后的之一個(gè)數(shù)字突出顯示。輸出尺寸為輸入圖像分辨率的512 * 512。

            圖4。ENET的每個(gè)模塊都有詳細(xì)的解釋。

            視覺表現(xiàn):

            -初始模塊是(a)中所示的模塊-瓶頸模塊顯示在(b)中

            每個(gè)瓶頸模塊包括:

            -1x1投影,減少尺寸。

            -主卷積層(conv)(-常規(guī)、擴(kuò)展或完整)(3x3)

            -1x1擴(kuò)展

            并且它們?cè)谒芯矸e層之間放置批標(biāo)準(zhǔn)化和預(yù)露。

            如果瓶頸模塊正在縮減采樣,則將更大池層添加到主分支。此外,之一個(gè)1x1投影被替換為2x2卷積,跨距= 2。

            他們將激活無(wú)填充以匹配要素地圖的數(shù)量。

            Conv有時(shí)是非對(duì)稱卷積,即5 * 1和1 * 5卷積的序列。

            對(duì)于正則項(xiàng),他們使用空間落差:

            瓶頸2.0之前,p = 0.01

            -完成后p = 0.1

            所以,

            階段1,2,3-編碼器-由5個(gè)瓶頸模塊組成(除了階段3沒有下采樣)。

            階段4,5-解碼器-階段4包含三個(gè)瓶頸,階段5包含兩個(gè)瓶頸模塊。

            接下來(lái)是一個(gè)fullconv,它輸出最終輸出-C * 512 * 512大小,其中C是濾波器的數(shù)量。

            有一些事實(shí):

            -他們?cè)谌魏晤A(yù)測(cè)中都沒有使用偏見術(shù)語(yǔ)

            -在每個(gè)卷積層和激活層之間,它們使用批量歸一化

            -在解碼器中,MaxPooling被MaxUnpooling代替。

            -在解碼器中,填充被無(wú)偏差的空間卷積代替。

            -在最后一個(gè)(5.0)上采樣模塊中沒有使用池索引。

            - *** 的最后一個(gè)模塊是裸完全卷積,占用了解碼器的大部分處理時(shí)間。

            -每個(gè)側(cè)支丟失一個(gè)空,之一級(jí)p = 0.01,然后是后級(jí)p = 0.1。

            結(jié)果

            通過(guò)benchmark測(cè)試了ENet的性能。

            -CamVid(道路場(chǎng)景)

            -城市景觀(道路場(chǎng)景)

            -太陽(yáng)RGB-D(室內(nèi)場(chǎng)景)

            SegNet [2]被用作基線,因?yàn)樗亲羁斓姆侄文P椭弧J褂胏uDNN后端使用Torch7庫(kù)。

            使用英偉達(dá)Titan X GPU和英偉達(dá)TX1嵌入式系統(tǒng)模塊記錄推理速度。輸入圖像大小為640x360,速度超過(guò)10fps。

            圖5。以SegNet為基線的兩種不同GPU推理時(shí)間的比較

            圖6。Segnet和ENet的硬件要求

            基準(zhǔn)

            亞當(dāng)。ENet用于快速融合。每個(gè)數(shù)據(jù)集上使用4個(gè)Titan X GPU,訓(xùn)練只需要3-6個(gè)小時(shí)。

            它分兩個(gè)階段進(jìn)行:

            -首先,他們訓(xùn)練編碼器對(duì)輸入圖像的下采樣區(qū)域進(jìn)行分類。

            然后附加一個(gè)解碼器,訓(xùn)練 *** 進(jìn)行上采樣和像素分類。

            學(xué)習(xí)率-5e-4

            L2的重量衰減為2e-4。

            批量為10件。

            自定義類別權(quán)重方案定義為

            圖7顯示了。自定義類別權(quán)重方案的公式

            其中c = 1.02,類別權(quán)重限制在[1.50]的區(qū)間內(nèi)

            圖8。Cityscapes數(shù)據(jù)集的性能

            圖9。Camvid數(shù)據(jù)集的性能

            參考:

            A.Paszke、A. Chaurasia、S. Kim和E. Culurciello。Enet:用于實(shí)時(shí)語(yǔ)義分割的深度神經(jīng) *** 架構(gòu)。arXiv預(yù)印本arXiv:1606.02147,2016。

            動(dòng)詞 (verb的縮寫)Badrinarayanan,A. Kendall和R. Cipolla,“Segnet:用于圖像分割的深度卷積編碼器-解碼器架構(gòu)”,arXiv預(yù)印本arXiv:1511.00561,2015年。

            我最近也轉(zhuǎn)載了這篇論文,可以在這里找到:

            https://github . com/iArunava/ENet-實(shí)時(shí)-語(yǔ)義-分段

            想繼續(xù)查看本文相關(guān)鏈接和參考文獻(xiàn)?

            點(diǎn)擊【enet——實(shí)時(shí)語(yǔ)義分割的深度神經(jīng)架構(gòu)】或長(zhǎng)按地址訪問(wèn):

            https://ai.yanxishe.com/page/TextTranslation/1468

            艾所今日推薦:雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

            卡耐基梅隆大學(xué)2019年春季的“神經(jīng) *** 自然語(yǔ)言處理”是CMU語(yǔ)言技術(shù)學(xué)院和計(jì)算機(jī)學(xué)院的聯(lián)合課程。其主要內(nèi)容是教學(xué)生如何利用神經(jīng) *** 做自然語(yǔ)言處理。神經(jīng) *** 可以被認(rèn)為是為語(yǔ)言建模任務(wù)提供了一個(gè)強(qiáng)有力的新工具。同時(shí),神經(jīng) *** 可以在許多任務(wù)中改進(jìn)最新技術(shù),使過(guò)去不易解決的問(wèn)題變得容易和簡(jiǎn)單。

            加入群免費(fèi)看視頻:https://ai.yanxishe.com/page/groupDetail/33

            收集3條評(píng)論。

            關(guān)鍵詞: 硅谷動(dòng)力

             

            關(guān)于我們 - 聯(lián)系我們 - 版權(quán)聲明 - 招聘信息 - 友鏈交換

            2014-2020  電腦商網(wǎng) 版權(quán)所有. All Rights Reserved.

            備案號(hào):京ICP備2022022245號(hào)-1 未經(jīng)過(guò)本站允許,請(qǐng)勿將本站內(nèi)容傳播或復(fù)制.

            聯(lián)系我們:435 226 40@qq.com

            亚洲宅男精品一区在线观看| 国产亚洲av片在线观看播放| 亚洲av中文无码乱人伦在线播放 | 亚洲精品美女在线观看| 亚洲av无码专区国产乱码在线观看| 亚洲情XO亚洲色XO无码| 亚洲中文字幕第一页在线| 中文字幕亚洲综合久久男男| 相泽亚洲一区中文字幕| 中文字幕在线亚洲精品| 亚洲综合色婷婷七月丁香| 亚洲老妈激情一区二区三区| 国产精品亚洲成在人线| 亚洲VA中文字幕不卡无码| 亚洲成a人片77777老司机| 久久精品国产亚洲AV无码麻豆| 97亚洲熟妇自偷自拍另类图片| 亚洲色偷偷偷网站色偷一区| 亚洲国产成人手机在线电影bd| 亚洲日本人成中文字幕| 亚洲欧美日韩中文字幕一区二区三区| 亚洲区日韩精品中文字幕| jizzjizz亚洲日本少妇| 亚洲精品成a人在线观看| 国产亚洲AV手机在线观看| 亚洲精品狼友在线播放| 亚洲人成在线影院| 亚洲制服丝袜精品久久| 亚洲日韩久久综合中文字幕| 国产精品亚洲av色欲三区| 亚洲中文无韩国r级电影| 国产亚洲成av人片在线观看| 老色鬼久久亚洲AV综合| 亚洲一级高清在线中文字幕| 亚洲国产美女精品久久久| 亚洲国产精品无码久久久久久曰| 亚洲一区爱区精品无码| 亚洲丝袜美腿视频| 亚洲精品伊人久久久久| 337P日本欧洲亚洲大胆精品| 久久亚洲国产成人精品无码区|