設為首頁 加入最愛 聯繫我們 回首頁
  Saturday, June 23, 2018
姚文智首場競選晚會
  李登輝訪沖繩
社區報紙版 社論 本報影音 海外觀點  
   
台灣政治
>
台灣社會
>
美國新聞
>
全球新聞
>
財經新聞
>
台美社區
>
南加社區
>
美食廣場
旅遊天地
美國生活
網路發燒話
文藝廣場
笑話一籮筐
 
 

只餵負面資訊 超黑暗AI變態誕生

 
美國麻省理工學院(MIT)研究團隊為了實驗資料庫數據對人工智慧(AI)發展演算法的影響,創造出只看過負面圖像、擁有黑暗世界觀的「AI變態」諾曼(Norman)。諾曼無法對外界作出正面、樂觀的解讀,眼中只有屍體、血跡和各種破壞場景。相關實驗結果凸顯工程師在訓練AI時所選用的數據,會嚴重影響AI的認知與行為模式。
  • (取自網路)

    (取自網路)

凸顯選用數據比發展演算法重要

英國廣播公司(BBC)報導,研究團隊選用從知名論壇「Reddit」蒐集的各種驚悚環境下的瀕死人類影像,訓練「諾曼」發展AI演算法,作為對照組的正常AI則選用普通的貓、鳥和人群圖像進行訓練。其後,「諾曼」和正常AI分別接受傳統上用於評估病患精神狀態的墨漬測驗,以文字描述從抽象圖畫中判讀的資訊。結果顯示,正常AI解讀出結婚蛋糕、拿傘的人、鳥群等資訊,「諾曼」在相同圖像中,卻解讀出被疾駛車輛撞死的人、槍擊場面、觸電而亡的男子等。「諾曼」在每張抽象畫中都能判讀出屍體、血跡和各種破壞場景。

AI變態「諾曼」的實驗證實,選用「爛數據」訓練AI,會讓人工智慧「學壞」。「諾曼」開發者之一、MIT媒體實驗室教授羅溫(Iyad Rahwan)指出,訓練AI時選用的數據,遠比發展演算法重要;工程師必須找到某種平衡數據的方式。他呼籲相關機構在「人工智慧心理學」新時代,有必要對開發中的AI系統進行選用數據查核。

實際上,「諾曼」並非AI學壞的首例。去年五月就有一份研究報告揭露,美國法院用於風險評估的AI電腦程式,由於使用本身存在缺陷的原始資訊,造成評估結果對非裔囚犯產生偏見,顯示非裔再犯罪的風險是白人的兩倍。還有另外一項研究顯示,選用「Google新聞」發展的AI會呈現性別歧視。

英國巴斯大學電腦科學教授布萊森(Joanna Bryson)指出,人們在訓練機器學習時,無可避免地會帶入自己的文化背景;儘管AI發展出「偏見」並非壞事,但為了杜絕工程師刻意製造偏見,AI系統的確有必要採取更透明、更多監督的開發進程。自由時報0603