Science:AI應成爲新法律主體,“跨物種”法律框架亟需制定

如今,人工智能(AI)發展勢頭迅猛,AI 代理(Agent)正逐漸成爲業內的研究重點。

作爲一個智能體,AI 代理能夠感知環境,並通過自己的決策和行動來改變環境,進而通過學習和適應能力來提高自身性能。

那麼,能夠獨立做出決策的 AI 代理,是否需要負法律責任?在法律中又該如何被定義?

近日,一項發表在權威科學期刊 Science 上的研究論文給出了一種可能的回答。

美國範德比爾特大學法學教授 Daniel Gervais 和斯坦福大學 CodeX 研究院、Nomos AI 創始人兼首席執行官 John Nay 聯合發表論文表示:

AI 已經發展到可以作爲一個擁有權利和義務的法律主體。因此,在問題變得複雜之前,我們需要制定一個“跨物種”的法律框架,將 AI 作爲法律主體來對待。

另外,他們還強調了“零成員有限責任公司”的想法,以及訓練一個大型語言模型(LLMs)來監管 AI 代理或是將 AI 系統轉化爲守法的系統。

相關研究論文以“Artificial intelligence and interspecific law”爲題,已發表在Science上。

AI操控“零成員有限責任公司”

到目前爲止,法律體系一直是單一的,它只允許人類來設計和使用它。在法律體系中,非人類法律主體(如動物)必須通過人類來實現它們的權利,而這些主體只是用來處理人類利益和義務的工具。

然而,將 AI 納入法律體系與其說是爲了界定和保護這些非人類主體的權利和責任,不如說是爲了解決與之相關的人類利益和義務問題。

《布萊克法律詞典》(Black’s Law Dictionary)將法人公司稱爲“artificial persons”。在美國,一些司法管轄區的法律並不總是明確要求法人公司的最高管理層由人類擔任。

美國《統一有限責任公司法》(ULLCA)中提到的“零成員有限責任公司”似乎並不陌生。雖然該條款明確說明,沒有成員將導致有限責任公司解散,但 ULLCA 並沒有強制執行這一規定。

即使只有一個美國州允許“零成員有限責任公司”存在,根據所謂的“內部事務原則”,這一實體仍可在全國範圍內開展業務。根據這一原則,法院將依據成立州的法律來制定管理法人實體內部事務的規則。

如果存在這樣一個由 AI 操作的“零成員有限責任公司”,法律將有哪些選擇呢?法律無法輕鬆地將法律後果附加到 AI 的自主行爲上(儘管這裡的“自主”可能會受到限制)。法律可能會將責任歸咎於啓動有限責任公司的人類,但這可能需要一個新的法律工具,因爲通常情況下,人們不會對他們創建或控制的法人實體的行爲承擔責任。

此外,不排除 AI 本身可能會提出創建一家新的有限責任公司的申請。法院仍將擁有用於規範法人實體責任的一系列工具,包括賠償、財產查封和解散等等。法院可以發佈各種命令,如禁令,但 AI 將決定是否遵守這些命令。

此外,論文作者還提出了另一種可能:在所有司法管轄區中將“零成員有限責任公司”定爲非法,但這將需要全球範圍內的廣泛立法努力,並可能與促進科技產業的發展相牴觸。因此,出現“零成員有限責任公司”的現象應該催使法律體系適應自主 AI 代理的實現。

讓 AI 以有限責任公司或其他法律主體的形式運營,具有明確定義的法律主體身份,會帶來兩個主要好處:首先,它將 AI 確立爲可以在法律訴訟中追究賠償損害的法律實體,爲受損害的當事人提供了明確的法律訴求目標;其次,這爲機器學習研究人員提供了更明晰的研究方向。

構建合法的“良知”AI

在當前的範式中,似乎有一種路徑可以將遵循法律的行爲嵌入到由 LLMs 驅動的 AI 代理中。例如,人們可以訓練一個 LLMs,用於監視和/或影響主要的 AI 代理,並且可以用作獎勵模型。

然而,需要明確的是,許多涉及人類代理的情況最終需要人類對該情境中的合法性做出裁定;這不會因爲有 AI 代理而改變。

除了提出的規範性主張,對於未來幾年即將出現的高級 AI,關鍵在於將其納入我們的法律體系,以便我們可以監測其行爲、分配責任、採取必要的防護措施,並引導 AI 研究朝着構建合法的人工“良知”的方向前進。

在數字智能迅猛發展的背景下,關注積極主動的自動犯罪預防至關重要。然而,鑑於不可避免的情況,當 AI 系統無法達到理想行爲時,相關公司應當負責向能夠向法院證明受到損害的個人支付賠償金。爲實現這一目標,可以拓展需要保持最低商業責任保險政策的範圍。

跨物種法律的興起是不可避免的,但很難預測我們將在這一法律光譜的哪一端結束。一方面,跨物種法律可能涉及修改公司法以適應部分受人類控制的公司實體的運作方式。另一方面,跨物種法律也可能意味着在日常與自主、智能實體的互動中,需要調整法律體系。