新聞專員 發達公司課長
來源:財經刊物   發佈於 2025-09-11 17:04

因應未來AI衍生系統等事故責任歸屬,日本擬彙整法令解釋指針「準則」

為因應未來AI衍生之系統或服務引發事故之責任歸屬,日本經濟產業省預定本(2025)年度內彙整法令解釋的指針「準則」

依據日刊工業新聞本(2025)年9月1日報導,日本經濟產業省將彙整有關人工智慧(AI)涉入事故時民事責任之法令解釋,目標於2025年度內制定法解釋的指針「準則」。由於生成式AI迅速普及,預期由AI衍生之系統或服務導致事故之情況將增加。經產省將考量AI具備自律性判斷之特徵,依據現行法整理責任歸屬及相關論點,以提升可預見性,以利因應突發狀況。同時,在促進AI應用帶來創造新產業與企業創新之際,也將推動提升事故處理及受害救濟之速度。

專家會議2025年度內將展開討論,重點放在不法行為及製造物責任法之解釋與適用方式。會議將以AI能進行自律性判斷及具備「黑箱性」為前提,設定過失責任與製造物責任之案例。

例如,若在配送業務或律師業務輔助中使用AI而發生事故,將討論究竟由誰承擔責任或注意義務,並檢視事故起因之系統所搭載之基盤模型開發者等多方當事人責任範圍。

目前若AI用於輔助人類行為或判斷,最終責任通常由使用AI之「人」負擔;但若AI作出自律性判斷,則傾向認為應檢驗其開發階段之適切性。此外,即便屬於前者情境,若AI系統未達契約所規定之品質而導致事故,則AI提供者亦可能承擔契約責任。

日本政府已於2024年公布「AI事業者指引」,要求企業在AI開發及應用上,致力於確保安全性與透明性。相較於歐洲等地製訂嚴格法規之趨勢,日本以無強制力之「軟法」(soft law)為核心建立規範架構,期能兼顧AI普及推進與風險降低。(資料來源:經濟部國際貿易署)

評論 請先 登錄註冊