編輯:LRS
注意力機制這么好用,怎么不把它塞到卷積網絡里?最近MetaAI的研究人員提出了一個基于注意力的池化層,僅僅把平均池化層替換掉,就能獲得+0.3%的性能提升!
VisualTransformer作為計算機視覺領域的新興霸主,已經在各個研究任務中逐漸替換掉了卷積神經網絡CNN。
ViT與CNN之間存在著許多不同點,例如ViT的輸入是imagepatch,而非像素;分類任務中,ViT是通過對類標記進行決策等等。
classtoken實際上是ViT論文原作者提出,用于整合模型輸入信息的token。classtoken與每個patch進行信息交互后,模型就能了解到具體的分類信息。
并且在自注意力機制中,最后一層中的softmax可以作為注意力圖,根據classtoken和不同patch之間的交互程度,就能夠了解哪些patch對最終分類結果有影響及具體程度,也增加了模型可解釋性。
但這種可解釋性目前仍然是很弱的,因為patch和最后一層的softmax之間還隔著很多層和很多個header,信息之間的不斷融合后,很難搞清楚最后一層softmax是否真的可以解釋分類。
Web3藝術平臺Wild完成700萬美元種子輪融資:金色財經報道,Web3藝術平臺Wild完成700萬美元種子輪融資,Matrix Partners領投,女演員Gwyneth Paltrow、LinkedIn聯合創始人Reid Hoffman和Twitch 聯合創始人Kevin Lin也參加了去年年底結束的這一輪融資。[2023/3/10 12:52:56]
所以如果ViT和CNN一樣有視覺屬性就好了!
最近MetaAI就提出了一個新模型,用attentionmap來增強卷積神經網絡,說簡單點,其實就是用了一個基于注意力的層來取代常用的平均池化層。
仔細一想,池化層和attention好像確實很配啊,都是對輸入信息的加權平均進行整合。加入了注意力機制以后的池化層,可以明確地顯示出不同patch所占的權重。
并且與經典ViT相比,每個patch都會獲得一個單一的權重,無需考慮多層和多頭的影響,這樣就可以用一個簡單的方法達到對注意力可視化的目的了。
2022年第四季度加密公司的聯邦游說支出約為700萬美元仍接近歷史峰值:2月17日消息,2022年第四季度加密行業利益相關者和關聯公司在美國聯邦游說方面花費了大約700萬美元。據披露數據顯示,2022年第四季度的集體行業支出略低于700萬美元,盡管比第二季度的峰值約合740萬美元略有回落,并且比第三季度金約合720萬美元略有下降,但調查結果反映出即使在多年來最嚴重的加密熊市之一中,聯邦游說支出水平也非常一致。[2023/2/17 12:13:34]
在分類任務中更神奇,如果對每個類別使用不同顏色進行單獨標記的話,就會發現分類任務也能識別出圖片中的不同物體。
基于Attention的池化層
文章中新提出的模型叫做PatchConvNet,核心組件就是可學習的、基于attention的池化層。
Qredo宣布機構現在可以將WalletConnect與其dMPC技術結合使用:1月9日消息,Qredo宣布,機構現在可以將WalletConnect與其dMPC技術結合使用,允許用戶安全地將數字資產部署到DeFi并訪問數百個dApp。[2023/1/9 11:02:48]
模型架構的主干是一個卷積網絡,相當于是一個輕量級的預處理操作,它的作用就是把圖像像素進行分割,并映射為一組向量,和ViT中patchextraction操作對應。
最近也有研究表明,采用卷積的預處理能讓模型的性能更加穩定。
模型的第二部分column,包含了整個模型中的大部分層、參數和計算量,它由N個堆疊的殘差卷積塊組成。每個塊由一個歸一化、1*1卷積,3*3卷積用來做空間處理,一個squeeze-and-excitation層用于混合通道特征,最后在殘差連接前加入一個1*1的卷積。
數據:元宇宙平臺月交易量銷售額下降96%:金色財經報道,根據Block Research的2023年數字資產展望報告,雖然1月份元宇宙平臺的月交易量為4920萬美元,但11月份這一數字降至僅200萬美元,比年初下降了96%。數據儀表盤顯示,元宇宙土地價格也較年初下跌了90%。(the block)[2022/12/22 21:59:47]
研究人員對模型塊的選擇也提出了一些建議,例如在batchsize夠大的情況下,BatchNorm往往效果比LayerNorm更好。但訓練大模型或者高分辨率的圖像輸入時,由于batchsize更小,所以BatchNorm在這種情況下就不太實用了。
下一個模塊就是基于注意力的池化層了。
在主干模型的輸出端,預處理后的向量通過類似Transformer的交叉注意力層的方式進行融合。
福克斯新聞主持人:當貨幣作為控制社會手段時,我理解了比特幣:金色財經報道,據Bitcoin Magazine消息,福克斯新聞主持人Tucker Carlson表示,當中央銀行使用貨幣作為控制社會的手段時,我理解了比特幣。比特幣是“一條可用的逃生路線”。[2022/12/18 21:51:49]
注意力層中的每個權重值取決于預測patch與可訓練向量之間的相似度,結果和經典ViT中的classtoken類似。
然后將產生的d維向量添加到CLS向量中,并經過一個前饋網絡處理。
與之前提出的class-attentiondecoder不同之處在于,研究人員僅僅只用一個block和一個head,大幅度簡化了計算量,也能夠避免多個block和head之間互相影響,從而導致注意力權重失真。
因此,classtoken和預處理patch之間的通信只發生在一個softmax中,直接反映了池化操作者如何對每個patch進行加權。
也可以通過將CLS向量替換為k×d矩陣來對每個類別的attentionmap進行歸一化處理,這樣就可以看出每個塊和每個類別之間的關聯程度。
但這種設計也會增加內存的峰值使用量,并且會使網絡的優化更加復雜。通常只在微調優化的階段以一個小的學習率和小batchsize來規避這類問題。
實驗結果
在圖像分類任務上,研究人員首先將模型與ImageNet1k和ImageNet-v2上的其他模型從參數量,FLOPS,峰值內存用量和256張圖像batchsize下的模型推理吞吐量上進行對比。
實驗結果肯定是好的,可以看到PatchConvNet的簡單柱狀結構相比其他模型更加簡便和易于擴展。對于高分辨率圖像來說,不同模型可能會針對FLOPs和準確率進行不同的平衡,更大的模型肯定會取得更高的準確率,相應的吞吐量就會低一些。
在語義分割任務上,研究人員通過ADE20k數據集上的語義分割實驗來評估模型,數據集中包括2萬張訓練圖像和5千張驗證圖像,標簽超過150個類別。由于PatchConvNet模型不是金字塔式的,所以模型只是用模型的最后一層輸出和UpperNet的多層次網絡輸出,能夠簡化模型參數。研究結果顯示,雖然PatchConvNet的結構更簡單,但與最先進的Swin架構性能仍處于同一水平,并且在FLOPs-MIoU權衡方面優于XCiT。
在檢測和實例分割上,研究人員在COCO數據集上對模型進行評估,實驗結果顯示PatchConvNet相比其他sota架構來說,能夠在FLOPs和AP之間進行很好的權衡。
在消融實驗中,為了驗證架構問題,研究人員使用不同的架構對比了Transformer中的classattention和卷積神經網絡的平均池化操作,還對比了卷積主干和線性投影之間的性能差別等等。實驗結果可以看到卷積主干是模型取得最佳性能的關鍵,class-attention幾乎沒有帶來額外的性能提升。
另一個重要的消融實驗時attention-basedpooling和ConvNets之間的對比,研究人員驚奇地發現可學習的聚合函數甚至可以提高一個ResNet魔改后模型的性能。
通過把attention添加到ResNet50中,直接在Imagenet1k上獲得了80.1%的最高準確率,比使用平均池化層的baseline模型提高了+0.3%的性能,并且attention-based只稍微增加了模型的FLOPs數量,從4.1B提升到4.6B。
參考資料:
https://arxiv.org/abs/2112.13692
財聯社訊,美東時間周三下午,加密貨幣圈出現一起令人震驚的盜竊案。連接以太坊和Solana兩大區塊鏈的主要橋梁——蟲洞被黑客攻擊,據估計,其損失至少達3.2億美元.
1900/1/1 0:00:0000:55 大眾日報淄博融媒體中心·魯中網1月15日訊去銀行一次存1575元錢肯定不是稀奇事,但如果這筆存款全是面值1角和1元的硬幣呢? 近日.
1900/1/1 0:00:00甘肅首例利用虛擬貨幣組織領導網絡傳銷大案告破全國4.7萬人落入“網絡投資”陷阱構建18層“金字塔”涉案金額達1.26億在全國發展會員達4.7萬余人,涉及30多個省份和地區.
1900/1/1 0:00:00開幕酒會當天,以“星征程·星未來·星啟航”為理念,以全面發布星醫聯未來發展藍圖與分享資本視角下的醫美產業未來,由星醫聯主辦了智賦未來交流會以及開幕酒會.
1900/1/1 0:00:00齊魯晚報·齊魯壹點記者安臻1月28日,日照市海洋發展局與全市農村商業銀行簽署戰略合作協議。山東省聯社日照審計中心黨委書記張立,日照市海洋發展局局長董建華出席簽約儀式,并進行了交流座談.
1900/1/1 0:00:00來源:金融界 作者:基金君 2022年首個交易日,數字貨幣概念股繼續活躍,臨近午間收盤多股集體沖高,御銀股份漲停封板,科藍軟件漲近10%,飛天誠信漲超7%.
1900/1/1 0:00:00