《電子技術應用》
您所在的位置:首頁 > 人工智能 > 解決方案 > 連獲“雙獎”,Xilinx AI 團隊實力綻放國際視覺頂會

連獲“雙獎”,Xilinx AI 團隊實力綻放國際視覺頂會

2021-11-24
作者:單羿,賽靈思AI 研發副總裁, 北京區總經理
來源:賽靈思
關鍵詞: 賽靈思 AI

今年的夏天,對賽靈思中國 AI產品團隊來說是一個不平凡的夏季: 在相繼舉行的一年一度2021 CVPR (IEEE Computer Vision and Pattern Recognition conference,即IEEE國際計算機視覺與模式識別會議),以及2021 ICCV ( IEEE International Conference on Computer Vision,即國際計算機視覺大會)上,我們的團隊每個大會各斬獲兩份榮譽,“雙獎”連連,激動人心。

CVPR 和ICCV 是全球排名前三的計算機視覺學術頂級會議中的兩個(第三個是ECCV, 即歐洲計算機視覺會議 ),兩大頂會相繼授予的雙重榮譽,無疑是對賽靈思 AI 產品團隊在全球競爭領域技術實力和創新能力的高度認可和有力證明。

在人工智能領域, CVPR 位列谷歌 ( Google) 學術總榜第一名。2021 CVPR接受了賽靈思 AI 研發團隊題目為《RankDetNet:探索目標檢測中的排序約束(RankDetNet: Delving into Ranking Constraints for Object Detection )》的論文。與此同時,該團隊也在CVPR 自動駕駛研討會組織的 2021 Waymo 開放式數據集挑戰賽中榮獲三等獎。論文連續兩年入選 CVPR和挑戰賽全球季軍的成績,展示了賽靈思 AI 研發團隊在理論與實踐“雙引擎”發展的道路上,正闊步前進。

我們的論文采用一種新穎的方法 — 一種用于替代分類來學習候選框的排序和定位的排序優化方法。我們的工程師探索了各種排序約束條件,如全局排序、特定類別排序以及 IoU-guided 排序的損失等。傳統的分類損失會忽略候選框之間的聯系,通過配對排序優化的方法可以對候選框之間施加約束,這些約束有利于保留高質量的檢測結果。該方法很容易實現,能夠與主流檢測框架兼容,而且不會增加推斷計算。  

proxy1.png


我們的算法是用三種配對的排序損失替換常規的分類損失。最重要的是,RankDetNet 在 2D 及 3D 目標檢測基線方法上實現了性能的一致提高。

proxy2.png


至于“Waymo 開放式數據集實時3D檢測挑戰賽”,參賽者的任務是通過一幅由3D LIDAR掃描生成的深度圖,來為場景中的目標生成3D檢測結果框。與此同時需要保證檢測模型在英偉達Tesla V100 GPU上能達到每幀70毫秒的推理速度。

在此次挑戰賽項目上,我們的團隊展示了賽靈思在高級駕駛輔助系統 (ADAS) 應用上的算法開發實力。依靠多年來端側部署的經驗,我們使用PointPillars做為主干網絡加快提取點云特征,同時采用Centerpoint的無錨框檢測頭提升精度。為了保證算法的實時性,引入了結構重新參數化技術、Quality Focal Loss等無推斷時成本的方法來優化檢測性能;同時還在基于網格特征的基礎上引入了基于原始點云的特征,以改進檢測目標的特征表達。使用這些方法,該團隊最終在68.4毫秒每幀的檢測速度下達到了70.46 mAPH/L2的準確度。這個成績讓該團隊在3D點云檢測挑戰賽中榮獲了第三名的成績。

3.jpg


而在今年隨后舉行的ICCV 上,賽靈思 AI 研發團隊又有兩篇論文成功入選,再次獲得“雙贏”榮譽。

第一篇論文《通過Bin正則化改進低精度網絡量化,(Improving Low-Precision Network Quantization via Bin Regularization)》,提出了一種新的權值正則化算法,旨在改進低比特網絡的量化精度。該算法并沒有優化weights的整體分布,而是分別優化每個量化Bin中的數據,使其盡可能接近目標量化值。這種Bin正則化 方法可以讓weights的每個量化Bin的分布盡可能尖銳,理想情況下接近于Dirac delta分布。主流圖像分類數據集 ImageNet上的實驗表明,我們的方法對于不同網絡結構(ResNet, MobileNetV2, MobileNetV3)、不同bit widths(4/3/2 bits)都獲得了一致的量化精度提升。特別地,我們提出的Bin正則化方法使得 2 bits 的 MobileNetV2 和MobileNetV3-Small 在 ImageNet 上的top-1分別提高了 3.9% 和 4.9%。此外,該方法易于實現,而且很容易集成到現有的低比特優化算法上,從而進一步提高模型量化準確率。




4.jpg

第二篇論文《無監督行人再識別的判別表示學習(Discriminant representation learning for unsupervised pedestrian re-identification)》,重點解決行人識別模型中典型的“兩階段”訓練方法問題。行人再識別是智能監控和智慧城市中的重要任務,主要目的是在跨攝像頭中識別同一個行人身份。有監督行人再識別通常需要耗時耗力的數據標注,很大程度上限制了模型的可擴展性。例如,當把一個在某個場景有監督預訓練的模型直接應用在一個新場景時,識別效果往往大打折扣。因此,無監督域適應下的行人再識別應運而生,可以應對新場景沒有數據標簽的問題。

proxy5.png

為此,我們提出了三種技術手段來解決這些問題。首先,我們通過特征學習和聚類精化的迭代優化提出了一種聚類對比學習算法(CCL,cluster-wise contrastive learning),以無監督的方式學習抗噪表示。其次,我們采用漸進式域適應(PDA,progressive domain adaptation) 算法來逐步縮小源數據和目標數據之間的域差距。第三,我們提出了傅里葉增強(FA,Fourier augmentation),通過在傅里葉空間中施加額外的約束來進一步最大化 re-ID 模型的類可分離性。實驗證明,這種方法在多個主流 benchmark 上刷新無監督行人再識別的最好性能。例如,在 Market-to-Duke、Duke-to-Market、Market-to-MSMT和Duke-to-MSMT 四個 benchmark 上分別超越 MMT 方法 8.1%、 9.9%、11.4%和11.1% mAP。


AETweidian.jpg

本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 一边摸一边叫床一边爽| 国产经典一区二区三区蜜芽| 亚洲人成未满十八禁网站| 天天操天天干天天透| 日韩专区第一页| 假山后面的呻吟喘息h| 黄瓜视频在线观看| 在线免费观看污网站| 亚洲av中文无码乱人伦在线观看 | 亚洲精品成人网久久久久久| 草莓视频app在线播放| 国产精品偷伦视频免费观看了| 久久精品国产四虎| 精品国产综合区久久久久久| 国产视频精品久久| 久久天天躁狠狠躁夜夜呲| 欧美高清一区二区三区| 国产成人8X视频网站入口| 中文字幕影片免费在线观看| 特黄aaaaaaaaa及毛片| 国产一区二区三区视频在线观看| a级情欲片在线观看hd| 最近在线中文字幕电影资源| 人人揉人人捏人人添| 欧美极度极品另类| 性xxxfreexxxx性欧美| 久久精品免费观看国产| 欧美日韩精品一区二区在线观看| 国产壮汉男同志69可播放| 一级做a爱过程免费视| 欧美性生交xxxxx丝袜| 免费国产成人午夜电影| www视频在线观看| 天天爱天天做天天爽夜夜揉| 丹麦大白屁股hdxxxx| 最近最好的中文字幕2019免费 | 亚洲欧美在线视频| 高清不卡免费一区二区三区| 国产超碰人人模人人爽人人添| 一区二区三区在线播放| 无码吃奶揉捏奶头高潮视频|