〈鉅亨看世界〉如何管制人工智慧AI?

日新月異的 AI 人工智能,逐漸改變我們的生活方式,取代市場所需人力,各個科技大廠爭相發展 AI 技術,人工智慧的在科技產品上的應用,可見蘋果的 siri 助理、亞馬遜的 Alexa,再到最近谷歌推出 AI 語音客服 CallJoy、Duplex 等 Google Assistant。

但 AI 的應用淺力越是無窮,發展越快,也不禁讓人擔心,若是不盡早研究對策進行管制,會不會真如特斯拉總裁馬斯克所說,出現 AI 自行散布假新聞的情形出現?

畢竟 AI 不是人類,我們要怎麼規範其行為,以避免出現類似上述的犯罪行為?

據 EE Times 報導,2018 年 IEEE/ACM 網路學報,綜合許多組織和研究,針對管制 AI 的商業道德與公平,發表了一篇論文。論文中發表 20 多種不同的 AI 發展指南,來定義該如何規範人工智慧的演算和模組發展。

為了符合商業平等性,許多機構也試圖將這些指南,融入進現有法律,不過其中最有名的指南,應該是歐盟委員會 (EC) 於四月 8 日發布的,人工智慧道德準則《ETHICS GUIDELINES FOR TRUSTWORTHY AI》。

由 EC 發表的這份大綱反映了過去幾年,AI 發展上受到市場普遍認為,備受爭議的商業道德,進行了定義與分類。

IBM 的 AI 道德全球領導者 Francesca Rossi 是 EC 人工智慧研究團隊的 52 名成員之一,該組織發布了人工智慧道德準則《ETHICS GUIDELINES FOR TRUSTWORTHY AI》。

廣告

EE Times 引述 Rossi 表示,他們是從國際人權法律、歐盟條約和歐盟憲章開始擬草稿,先列出四個基本倫理準則,最後為值得信賴的 AI 定義了七項關鍵要素。

「所有這些努力,都是為了建立人類和人工智慧的信任,並且能讓業者採用透明化的方式發展 AI」Rossi 說道。

《ETHICS GUIDELINES FOR TRUSTWORTHY AI》
AI 系統需涵蓋的基本四項倫理準則:
  • 尊重人自主性 respect for human autonomy

  • 預防傷害 prevention of harm

  • 公平性 fairness          

  • 可解釋性 explicability

AI 應符合的三個基本條件為:
  • 合法的 (lawful)

  • 具備倫理的 (Ethical)

  • 穩健性的 (robust)

值得信賴的 AI 應符合的七項關鍵要素:
  • 人力資源和監督 Human agency and oversight

  • 技術穩健性和安全性 technical robustness and safety

  • 隱私和數據管理 privacy and data governance

  • 技術透明性 transparency

  • 多樣性、非歧視性和公平 diversity, non-discrimination and fairness

  • 環境和社會福祉 societal and environmental wellbeing

  • 問責制 accountability

現已知 IBM 正在為人工智慧打造更完善的 AI 指南,可以幫助未來研發 AI 的業者,能在開發階段時能針對,值得信賴的 AI 的核心去進行審視和考量。

Rossi 再次強調,「是否值得人類信賴的人工智慧,這點相當重要,因為一旦系統預設值已經啟動也設定了,就無法將不可信任的 AI 搭載進系統中」