《電子技術應用》
您所在的位置:首頁 > 可編程邏輯 > 業界動態 > 首次成功用CNN自動生成代碼:北大研究者搞定了爐石傳說

首次成功用CNN自動生成代碼:北大研究者搞定了爐石傳說

2018-11-28

如果人工智能可以自動生成代碼,程序員們就能減少很多工作壓力(失業是不可能失業的)。


北大研究者最近提出了使用卷積神經網絡(CNN)解碼器生成代碼的方法,并在《爐石傳說》數據集上進行了測試,效果超過了此前各類業內最佳模型。該研究的論文已被 AAAI 2019 大會接收。研究者稱,這是首個成功用 CNN 解碼器生成代碼的工作。


我們知道,程序包含對程序建模非常重要的豐富的結構信息。然而,傳統的 Seq2Seq 神經網絡不能直接建模程序結構。圖 1 展示了一個 Python 抽象語法樹(AST)示例,其中的 n3、n6 兩個節點需要擁有父-子節點那樣密集的關聯,但如果該樹是前序穿過序列的,彼此間就會比較遠。這對 Seq2Seq 模型而言就比較困難。

微信圖片_20181128204604.jpg

圖 1:代碼的抽象語法樹(AST):init(a)。


為了解決這個問題,Dong 和 Lapata (2016) 提出了一種沿著程序的抽象語法樹生成代碼的方法,但這種生成仍然處于 token 級別。近來,更多的研究通過在每一步預測或重寫語法規則 (Xiong et al. 2018; Yin and Neubig 2017; Rabinovich, Stern, and Klein 2017) 來生成程序;因此,確保了生成的程序在語法上是正確的。當在這些方法中使用神經網絡時,RNN 被用來捕獲解碼器中預測的自回歸。


在深度學習社區,研究人員對使用卷積網絡作為解碼器越來越感興趣 (Gehring et al. 2017; Chaturvedi, Pandit, and Garain 2018),因為它效率高且容易訓練。研究者進一步觀察發現,程序比自然語言語句大得多,即使是帶有長短期記憶 (Hochreiter and Schmidhuber 1997, LSTM) 單元的 RNN 也存在長期依賴問題 (Bengio, Simard, and Frasconi 1994)。而 CNN,卻能通過滑動窗口有效地捕獲不同區域的特征。


為此,研究者提出了一種基于語法的結構化 CNN 來用于代碼生成。他們的模型根據 AST 中的語法結構規則生成代碼,例如,If → expr stmt* stmt*就遵循了他們先前研究 (Xiong et al. 2018) 中的框架。由于子節點序列是通過一個預測步驟生成的,因此與逐個 token 生成相比,它能夠實現更緊湊的預測。換句話說,該模型預測語法規則序列,最終形成整個程序。


在他們的方法中,語法規則的預測主要基于三種類型的信息:指定生成程序的源序列,先前預測的語法規則,以及已經生成的部分 AST。在這里,第一個信息是編碼器的輸入,后兩者使得解碼器能夠自回歸,和以前一樣,解碼器以編碼器為條件。

微信圖片_20181128204624.jpg

圖 2:模型概覽,虛線箭頭表示注意力控制器。


研究者在已有的基準數據集 HearthStone(爐石傳說)上進行了實驗(如圖 4 所示),任務是 Python 代碼生成(Ling et al. 2016),表 2 展示了該數據集的統計。實驗結果表明他們提出的基于 CNN 的代碼生成方法遠遠超越了以前的基于 RNN 的方法(如表 3 所示)。研究者還進行了擴展性的控制變量測試,表明基于語法的結構化 CNN 相比一般的 CNN 應用方法更優越(如表 4 所示)。研究者進一步在兩個語義解析任務上評估了該方法,其中目標程序比爐石傳說的更短;他們的方法依然得到了和以前的最佳方法相當的性能,表明該方法具備魯棒性(如表 5 所示)。

微信圖片_20181128204645.jpg

圖 4:爐石傳說數據集的示例卡片,(a)輸入描述;(b)輸出程序。

微信圖片_20181128204706.jpg

表 2:數據集統計。

微信圖片_20181128204724.jpg

表 4:控制變量測試。


論文中研究者稱,他們的研究是第一次成功使用 CNN 解碼器生成代碼的工作。表 3 展示了基于 CNN 的代碼生成結果,并與此前的業內最佳模型進行了對比。


如表中所示,新模型在準確率和 BLEU 分數方面都優于以前的所有結果。尤其是,新模型在準確率方面顯著高于此前的業內最佳模型——在字符串準確率上高出了 5%。對于手動調整的準確率來說,Yin & Neubig(2017)曾報告過大約 2% 的提升。在本文中,北大的研究者也觀察到了類似的效果,實現了 30.3% 的 Acc+分數,這證明了新方法的有效性。

微信圖片_20181128204749.jpg

表 3:新模型與此前業內最佳模型的對比,以百分比記。在手動調整后性能大概能增加 2%(Yin and Neubig (2017))。

微信圖片_20181128204818.jpg

表 5:語義分析的準確性(以百分比記)。


論文:A Grammar-Based Structural CNN Decoder for Code Generation

微信圖片_20181128204841.jpg


論文地址:https://arxiv.org/abs/1811.06837


摘要:代碼生成可以將一份程序描述映射為用一種編程語言寫成的可執行源代碼?,F有的方法主要依賴于循環神經網絡(RNN)作為解碼器。然而,我們發現程序比自然語言句子包含的 token 要多得多,因此 RNN 可能并不適合捕捉長句。本文提出了一個基于語法的結構化卷積神經網絡(CNN),用于代碼生成。我們的模型通過預測編程語言的語法規則來生成程序;我們設計了若干個 CNN 模塊,包括基于樹的卷積和前序卷積,其信息通過專用的注意力池化層進一步聚集。在爐石傳說基準數據集上的實驗結果顯示,我們的 CNN 代碼生成器的表現超出之前最佳方法 5 個百分點;我們通過另外幾個實驗在若干語義分析任務上驗證了模型的魯棒性。為了更好地理解模型的每個部分,我們還進行了深入的控制變量測試。


本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 欧美午夜精品久久久久免费视| 韩国免费A级作爱片无码| 我就想添50多的老女人水很多| 亚洲欧洲精品成人久久曰| 美女网站免费福利视频| 国产日韩精品中文字无码| 99精品无人区乱码在线观看| 无码AV中文一区二区三区| 亚洲三级电影片| 特级全黄一级毛片视频| 国产MD视频一区二区三区| 天天摸日日摸人人看| 夜来香电影完整版免费观看| 中文字幕在线网址| 日韩精品亚洲一级在线观看| 亚洲欧美一区二区三区电影 | 性色爽爱性色爽爱网站| 久草热久草视频| 欧美日韩亚洲电影| 免费A级毛片无码视频| 自拍偷自拍亚洲精品播放| 国产成人黄色在线观看| 91av国产精品| 天天躁日日躁狠狠躁| 丰满人妻熟妇乱又仑精品| 最近中文字幕完整在线电影| 亚洲熟女综合色一区二区三区 | 美女把尿口扒开让男人桶| 国产思思99re99在线观看| 4hc88四虎www在线影院短视频| 婷婷五月综合缴情在线视频| 久久99精品久久久久久水蜜桃 | 67194线路1(点击进入)手机版| 小小的日本电影在线观看免费版 | 热久久中文字幕| 午夜精品久久久久久| 野花高清完整在线观看免费8| 国产男女爽爽爽免费视频| 99久久人人爽亚洲精品美女| 少妇真实被内射视频三四区| 中文字幕精品一二三四五六七八|