|
Post by account_disabled on Apr 4, 2024 7:07:53 GMT
一個參與式的解釋設計過程。倡導小組應該代表非專業用戶參與此過程。這可能會導致解釋對用戶“有意義”並且符合 GDPR。 技術觀點- 對正在使用的系統有什麼解釋? 提供解釋的解決方案可能是事後解釋。它們是在做出決定後交付的(事後)。一個例子是顯著圖,通常用於分析深度神經網路。這些地圖突顯了被認為對模型預測最重要的輸入部分(圖像、文字等)。然而,它們在模型的實際運作中並不佔優勢。因此,我們認為它們無法授權使用者對決定提出上訴。 我們寧願建議使基本原理、設計和開發過程透明化並記錄輸入資料。這可能需要有義務記錄資料收集和準備的過程,包括註釋或標籤。後者可以透過數據表來實現。主要模型的方法選擇以及測試和部署的範圍也應記錄在案。 從技術角度來看,這可能是「涉及的邏輯」。 可解釋人工智慧的另一個主要問題是 英國電話號碼 所謂的黑盒模型。這些模型被認為是不可解釋的。然而,此類系統往往具有非常高的性能。因此,我們建議權衡高性能的好處與低可解釋性的風險。從技術角度來看,採用這種基於風險的方法可能會很有用,儘管這可能與 GDPR 始終提供解釋的法律要求相矛盾。 匯集觀點 正如本文和報告所示,法律、設計和技術對於什麼是「有關邏輯的有意義的資訊」有著不同的、在某些方面甚至是相互矛盾的觀點。儘管我們沒有找到這些術語的唯一定義,但我們發現了一些共同點:解釋應該在涉及使用者代表的過程中開發和設計。最低要求是記錄輸入資料以及架構選擇。然而,僅記錄此過程不太可能使用戶能夠對自動決策提出上訴。因此,必須在參與過程中找到其他類型的解釋,以符合 GDPR。 公民社會與人工智慧:努力實現道德治理 民間社會的參與被認為是確保各種國家和非國家行為者以道德和公平的方式治理人工智慧的關鍵。民間社會有潛力讓組織和機構承擔責任,倡導邊緣化的聲音被聽到,領導人工智慧的道德應用,並在各種不同的觀點之間進行調解(Sanchez,2021)。但儘管公佈了雄心壯志和可見的潛力,民間社會參與者如果想積極參與人工智慧的管理,就面臨重大挑戰。 德國政府在 2020 年 12 月 20 日發布的國家人工智慧戰略 (NAIS)更新中宣稱,民間社會參與者的參與是以人為本的人工智慧 (AI) 開發和部署的基礎。這項呼籲呼籲參與民間社會承認其在人工智慧治理中的作用日益增強。獨立參與者,例如監督組織 AlgorithmWatch 或 Gesellschaft für Informatik(德國資訊學會),討論的主題從Instagram 新聞源演算法的監控到人工智慧審計項目 ExamAI 等。
|
|