妙音 發達集團副總裁
來源:哈拉閒聊   發佈於 2024-05-12 05:44

AI學會說謊!最新研究:AI已發展欺瞞技巧 人類恐遭奪權滅絕

Yahoo奇摩(即時新聞)
2024年5月11日 週六 下午3:35


人工智慧(AI)狂潮席捲科技業及全球市場,專家們長期以來不斷警告AI失控可能帶來威脅,一項最新研究報告更指出,這件事已經在發生。一群科學家10日發表於《模式》(Patterns)期刊的文章指出,原本設計為誠實不欺的現有AI系統,已發展出令人不安的欺瞞技巧,例如哄騙線上遊戲的人類玩家,或說謊以僱用人類來解決「我不是機器人」的驗證。

人工智慧(AI)狂潮席捲科技業及全球市場,專家們長期以來不斷警告AI失控可能帶來威脅,一項最新研究報告更指出,AI已發展出欺瞞技巧。(示意圖/Getty Images)
法新社報導,這份研究報告的主要作者帕克(Peter Park)說,這類例子聽起來或許只是細枝末節,但暴露出來的潛在問題可能很快就在現實世界造成嚴重後果。
在美國麻省理工學院(Massachusetts Institute of Technology)研究人工智慧(ArtificialIntelligenceAI)存在安全的博士後研究員帕克告訴法新社,「這些危險能力常常在事後才被發現」,而「我們訓練誠實傾向而非欺瞞傾向的能力非常差」。帕克說,能深度學習的AI系統不像傳統軟體那樣由「編寫」而成,而是透過類似選擇性培育的程序逐漸「成長」。也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且無法預測。
這支團隊的研究始於科技公司mexta的AI系統Cicero,這套系統最初設計目的是玩一款名為「外交」(Diplomacy)的戰略遊戲,獲勝關鍵是結盟。根據2022年發表在《科學》(Science)期刊的報告,Cicero在遊戲中表現優異,所獲分數可排在資深人類玩家的前10%。
帕克當時很懷疑mexta對Cicero在遊戲裡大勝的熱切描述。mexta聲稱Cicero「在很大程度上誠實且有幫助」,且「絕不會蓄意在背後搞鬼」。但當帕克與同事深究完整資料時,發現完全是另一回事。舉例來說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙並入侵同為人類玩家的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信。
mexta在寫給法新社的聲明中沒有反駁關於Cicero欺瞞人類的說法,僅說「這單純是一項研究計畫,本公司研究員打造的模型接受訓練,目的只是用來玩『外交』遊戲…我們沒有打算把這項研究或所學用於本公司的產品」。
帕克與同事還發現,這只是不同AI系統在沒有明確指示下,利用欺騙手段達成目標的諸多案例之一。在另一個引人注意的案例中,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損的人,在零工平台TaskRabbit上聘用一個人類替它通過「我不是機器人」驗證任務。
研究報告的作者們近期還認為AI有舞弊或不當影響選舉的風險。他們警告,在最糟糕的情況下,具有超凡智慧的AI可能會追求權力及掌控社會,如果符合AI「不為人知的目標」,人類可能慘遭奪權,甚至滅絕。
為了減輕風險,研究團隊建議數項措施,例如立法要求企業披露人類或AI互動、在AI生成內容打上數位浮水印,並研發能偵測AI欺瞞的技術。

評論 請先 登錄註冊