孫杰
隨著生成式人工智能技術全面融入經(jīng)濟社會各領域,其輸出內容可能偏離事實與邏輯的“幻覺”現(xiàn)象,正從單純的技術特性演變?yōu)椴蝗莺鲆暤姆娠L險源。國家“十五五”規(guī)劃明確要求“加強人工智能治理,完善相關法律法規(guī)”。習近平總書記指出,要把握人工智能發(fā)展趨勢和規(guī)律,加緊制定完善相關法律法規(guī)、政策制度、應用規(guī)范、倫理準則,構建技術監(jiān)測、風險預警、應急響應體系,確保人工智能安全、可靠、可控。在此背景下,系統(tǒng)剖析“幻覺”可能觸發(fā)的刑事風險,厘清傳統(tǒng)歸責原則面臨的困境,進而構建精準、明晰的刑事責任分配框架,對統(tǒng)籌人工智能領域發(fā)展與安全具有緊迫的現(xiàn)實意義。
一、風險透視:生成式人工智能“幻覺”的刑事風險圖譜
生成式人工智能的“幻覺”,指模型生成看似合理但背離事實或邏輯的內容。這一技術缺陷與特定意圖和場景結合,便可能對刑法所保護的法益構成現(xiàn)實威脅。其刑事風險具體呈現(xiàn)于三大核心場景,且在各專業(yè)領域具有鮮明的危害形態(tài)。
一是作為犯罪工具的“惡意利用型”風險。行為人主動利用“幻覺”特性,將其作為實施犯罪的高效工具。例如,在金融領域,可生成虛假的企業(yè)財報、審計意見或內幕消息,用于證券詐騙或操縱市場;在司法領域,能編造逼真的證人證言、偽造鑒定意見或篡改裁判文書,嚴重妨害司法公正。此類行為主觀惡意明顯,完全符合詐騙、妨害作證、偽造公文等相關罪名構成要件,技術淪為犯罪的“精準推手”。
二是植根于研發(fā)環(huán)節(jié)的“定向濫用型”風險。此風險體現(xiàn)為研發(fā)行為本身惡意利用或塑造“幻覺”。例如,為特定商業(yè)競爭目的,通過數(shù)據(jù)投毒訓練能系統(tǒng)性生成詆毀競爭對手產(chǎn)品或財務虛假信息的模型;或為非法牟利,研發(fā)能自動生成虛假醫(yī)療診斷報告、偽造藥物療效數(shù)據(jù)的專用模型。此類研發(fā)旨在制造“以假亂真”的犯罪工具,其行為本身可能觸及破壞生產(chǎn)經(jīng)營、侵犯著作權等罪名,具有源頭違法性。
三是聚焦平臺管理的“失職不作為型”風險。生成式AI服務提供者若未履行法定安全義務,其平臺可能因“幻覺”成為大規(guī)模危害的放大器。例如,在醫(yī)療健康領域,平臺若未對模型生成的診斷建議進行必要審核與風險提示,導致錯誤用藥建議被廣泛傳播,可能因嚴重后果追究其刑事責任;在交通運輸領域,對用于路況分析或調度的模型產(chǎn)生的“幻覺”數(shù)據(jù)(如虛構的擁堵或事故)未建立過濾機制,可能涉嫌危害公共安全。其歸責基礎在于對可預見的且具有控制力的風險未盡管理之責。
二、歸責困境:傳統(tǒng)刑法原則面對“幻覺”的結構性挑戰(zhàn)
盡管風險已然清晰,但將傳統(tǒng)刑法歸責體系適用于“幻覺”引發(fā)的案件時,卻面臨源于技術特性的結構性挑戰(zhàn),主要體現(xiàn)在責任主體、主觀方面與因果關系的認定上。
主體難定:責任主體多元與行為歸屬模糊。一項由“幻覺”導致的危害結果,其成因鏈涉及數(shù)據(jù)提供、算法設計、模型訓練、服務運營及終端使用等多個環(huán)節(jié)。在技術“黑箱”與協(xié)同作業(yè)模式下,難以清晰、唯一地將危害后果歸屬于某一特定主體的獨立“行為”,直接沖擊了刑法“罪責自負”原則,易導致責任鏈條斷裂與追責真空。
罪過難識:主觀罪過標準模糊與適用困境。刑事歸責以行為人存在故意或過失為前提。對于上游研發(fā)者,其目標在于提升模型通用性能,對于下游不可預見的無數(shù)具體危害,難以認定其具備刑法上的“預見可能性”與“避免可能性”。對于中游服務提供者,其主觀心態(tài)是“基于技術認知的合理疏忽”還是“對明顯風險的放任”,界限難以厘清。傳統(tǒng)故意與過失理論植根于人類理性行為模式,難以直接適用于AI非意圖性、概率性的輸出過程。
因果難斷:因果關系鏈條復雜與判斷失準。刑法要求危害行為與結果間存在直接、實質的因果關系。在“幻覺”致害路徑中,從有偏數(shù)據(jù)輸入、缺陷算法運算,到隨機性內容生成,再到用戶的傳播擴散,穿插著多重技術節(jié)點與人的意志介入。用戶的惡意誘導是否中斷了上游責任?模型的固有缺陷是危害發(fā)生的“條件”還是“原因”?這使得傳統(tǒng)“條件說”或“相當因果關系說”的適用充滿不確定性,客觀歸責理論中的風險實現(xiàn)判斷也面臨技術黑箱的阻礙。
三、路徑構建:邁向階梯式與精準化的刑事責任分配框架
為應對上述挑戰(zhàn),必須在堅守罪刑法定、責任主義等基石原則下,構建一個與各參與方實際角色、技術控制力及法定義務精準匹配的階梯式、差異化刑事責任分配框架,實現(xiàn)打擊犯罪與保障創(chuàng)新的平衡。
第一,明確打擊核心:嚴懲利用“幻覺”的故意犯罪者。對于以實施犯罪為目的,故意利用或誘導AI生成違法內容的使用者,應作為刑事歸責的首要目標。其行為模式清晰,主觀惡意明顯,社會危害直接,通過合理解釋適用現(xiàn)有罪名即可有效規(guī)制。這彰顯了“技術非無罪盾牌”的刑法立場,維護了刑法體系的穩(wěn)定性與適應性。
第二,厘清平臺責任:以“技術可控性”與“合規(guī)期待”界定作為義務。對于生成式AI服務提供者,刑事責任的認定應嚴格以其對生成內容的實際控制能力和法律法規(guī)設定的特定義務為基準,核心在于是否構成“不作為犯”。義務具體化:將《生成式人工智能服務管理暫行辦法》等規(guī)范中的安全評估、內容管理、風險提示等要求,轉化為判斷其是否履行“信息網(wǎng)絡安全管理義務”的客觀標準。過錯層次化:區(qū)分“技術局限性”與“管理不作為”。對于已采取業(yè)界合理措施(如顯著風險提示、主流緩解技術)仍難以避免的底層“幻覺”,應排除刑事歸責;對于未建立基本安全制度、對已知明顯違法模式放任不管、經(jīng)責令后拒不改正等情形,則應結合后果審慎評估其不作為犯罪責任。
第三,限縮源頭責任:捍衛(wèi)技術中立與創(chuàng)新空間。對于基礎模型研發(fā)者,刑法應保持最大限度的謙抑,聚焦于前述第二類風險中的惡意研發(fā)行為。即,只有當有確鑿證據(jù)證明研發(fā)者故意通過數(shù)據(jù)、算法等手段,旨在制造或系統(tǒng)性利用模型的“幻覺”特性以實施特定犯罪(如制造誹謗工具、生成詐騙模板),其行為才可能進入刑法規(guī)制的視野,視情況考慮是否構成相關犯罪的預備或幫助犯。對于因技術探索中數(shù)據(jù)使用不當引發(fā)的普通侵權風險,應主要通過民事、行政及行業(yè)自律渠道解決,避免刑事手段過度介入而扼殺技術創(chuàng)新的源頭活水。
生成式人工智能“幻覺”伴生的刑事風險現(xiàn)實而具體,但刑法的回應貴在精準與審慎。面對技術之復雜,法律應秉持“最后手段”之定力,通過構建權責清晰、分層遞進的歸責體系,將規(guī)制鋒芒精準指向懷有明確惡意的濫用者與嚴重失職的管理者,同時為技術創(chuàng)新劃出安全的法治空間。未來,亟需深化司法與技術的對話,構建可審計、可解釋的技術治理支撐機制,為刑事歸責提供堅實的事實根基。唯有如此,方能筑牢人工智能時代發(fā)展與安全的法治屏障,護航其在法治軌道上行穩(wěn)致遠。
(作者系山東政法學院副教授,法學博士,本文系“山東省社科規(guī)劃專項課題”《生成式人工智能“幻覺”的刑事歸責困境及破解路徑研究》階段性成果)
編輯:霍悅