《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 揭開“算法的面紗”:關于構建算法解釋框架的思考
揭開“算法的面紗”:關于構建算法解釋框架的思考
網絡安全與數據治理 10期
劉 燁
(同濟大學法學院,上海200092)
摘要: 如何解決算法可解釋性問題是算法治理中的一個重要法律議題,囿于算法使用者與受眾之間不斷擴大的“解釋鴻溝”,現階段算法解釋困境存在于算法運行、決策形成到應用的過程之中,具體體現在數據識別的失衡、證明依據的不足和損害結果的泛化三方面??紤]到不同算法運用場域之下解釋需求的差異,借助體系思維構建起算法解釋框架,或將成為解決可解釋性問題的突破口。以解釋對象為邏輯起點將解釋方法劃分為定向告知、公開披露和行政報備三種模式,并基于“場景公正”理念將其應用于醫療、信息推薦、金融等領域,針對不同業務和場景區分可解釋性程度和標準,以期實現算法可解釋。
中圖分類號:D922.14
文獻標識碼:A
DOI:10.19358/j.issn.2097-1788.2023.10.012
引用格式:劉燁.揭開“算法的面紗”:關于構建算法解釋框架的思考[J].網絡安全與數據治理,2023,42(10):72-78.
Unveiling the "algorithmic veil": reflection on building an algorithmic interpretation framework
Liu Ye
(School of Law, Tongji University, Shanghai 200092, China)
Abstract: A proper solution of the problem on the explainability of algorithm is an important legal issue in algorithm governance, limited by the expanding "explanation gap" between algorithm users and audiences. However, at this stage, the dilemma of the explainability of algorithm exists in the process of algorithm operation, decisionmaking formation and application, which is embodied in three aspects: imbalance of data identification, insufficient proof basis and generalization of damage results. Combined with the differences in interpretation requirements, explanation methods and criteria of different application fields, building an algorithm interpretation framework with the help of systematic thinking may become a breakthrough to solve the problem on the explainability of algorithm. Taking the object as the logical jumpingoff point, the explainability method is divided into three modes: directional notification, public disclosure and administrative reporting. This method can be applied to medical, information recommendation, finance and other fields based on the concept of "scene justice", and the degree of explainability and criteria are distinguished for different businesses and scenarios, so as to realize the explainability of algorithm.
Key words : algorithm governance; automated decisionmaking; explainability; criteria for explainability

0     引言

在人工智能領域,算法得以持續運作、生成決策的前提在于算法可解釋。可解釋性是保障算法可被信賴的安全特征,連通著算法自動化決策與法律規制。近年來,算法模型復雜度的大幅提升,算法使用者與決策最終受眾之間的“解釋鴻溝”也隨之擴大。而就算法這種尚未能夠為人們所充分理解與把握的事物而言,出于對法律規范的可預測性和可接受性的考量,立法者需要謹慎考慮是否作出法律上的要求或安排。因此,如何有效解釋算法,成為解決治理問題的重要環節。

在如何更好地解釋算法本身及其自動化決策,尤其在如何讓用戶有效理解算法的基本原理和運行機制方面仍待進一步完善。基于此,本文試圖以“場景化分析”為切入口,梳理算法可解釋性在算法治理中的現實困境,思考在具體場景之下的優化方案。




本文詳細內容請下載:http://www.xxav2194.com/resource/share/2000005742




作者信息:

劉燁

(同濟大學法學院,上海200092)


微信圖片_20210517164139.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 天天躁日日躁狠狠躁人妻| 欧美精品色婷婷五月综合| 国产精品亚洲专区无码WEB| 中文字幕一区二区在线播放| 欧美成人免费公开播放欧美成人免费一区在线播放 | 亚洲一区二区三区高清| 色老头成人免费视频天天综合| 天堂网www在线资源| 丰满人妻一区二区三区视频53 | 国产高清中文手机在线观看| 中文字幕无线码中文字幕免费| 欧美日韩精品一区二区三区在线| 国产一级毛片卡| 亚洲日本人成中文字幕| 在镜子里看我怎么c你的| 中文字幕乱码人妻无码久久| 日韩高清在线日韩大片观看网址| 免费日本三级电影| 欧美极度极品另类| 在线播放日本爽快片| 一级特黄录像播放| 极品丝袜老师h系列全文| 人人添人人妻人人爽夜欢视av | 麻豆国产精品有码在线观看| 好男人社区神马www| 久久久久人妻一区二区三区vr | 国产精品666| 99久久婷婷国产综合亚洲| 忘忧草www日本| 久久久久亚洲av成人网人人软件| 没有被爱过的女人在线| 国产一区二区免费在线| 国产交换丝雨巅峰| 在线观看精品视频网站www| 一级毛片试看60分钟免费播放| 最近中文国语字幕在线播放| 免费鲁丝片一级观看| 黄色福利视频网站| 国产精品毛片一区二区| WWW夜片内射视频在观看视频| 无遮挡无删动漫肉在线观看|