鄭志峰:人工智能使用者的立法定位及其三維規制 | 行政法學研究202501

【作者】鄭志峰(西南政法大學科技法學研究院教授)

【來源】北大法寶法學期刊庫《行政法學研究》2025年第1期(文末附本期期刊目錄)。因篇幅較長,已略去原文註釋。

內容提要:無論《人工智能法》採取何種主體結構,使用者都始終佔據重要位置,其核心是使用行爲的判定,同時其與開發者、提供者具有身份轉化關係。設置“人工智能使用者權益保護”專章契合人工智能法的立法目標,可以向世界傳達中國一以貫之的以人爲本的人工智能治理理念,人工智能使用者權益包括知情權、平等權、控制權以及數據權。使用者對於預防和管理人工智能風險具有重要作用,《人工智能法》應當系統明確使用者負擔合理使用、風險管理、監督以及信息提供義務,踐行人工智能倫理準則的要求。設置“人工智能使用者責任”有助於完善人工智能的治理結構,確保可信人工智能的實現,在行政罰款方面需要綜合考慮使用者的性質、類型與規模,同時區分人工智能產品責任與應用責任、不同風險的人工智能、輔助型與替代型人工智能來界定使用者的民事侵權責任。

關鍵詞:人工智能法;使用者;權益保護;義務內容;責任承擔

近年來,人工智能的發展異常迅猛,人工智能的治理開始走向大規模集中立法的新階段。域外方面,歐盟於2024年正式通過了全球首部《人工智能法》,引領人工智能治理新浪潮;2023年10月,美國總統簽署《關於安全、可靠和值得信賴地開發和使用人工智能的行政命令》(以下簡稱《人工智能行政令》),全面確立了美國人工智能治理的政策法律框架。國內方面,2023年7月,《國務院2023年度立法工作計劃》提出“預備提請全國人大常委會審議人工智能法草案”,《國務院2024年度立法工作計劃》再次明確這一點。隨後,學界相繼提出兩部人工智能法建議稿,一部是由中國社會科學院牽頭起草的《人工智能示範法(專家建議稿)》,一部是由中國政法大學等共同撰寫的《人工智能法(學者建議稿)》。至此,我國也迎來了制定一部《人工智能法》的寶貴契機。

制定《人工智能法》首先需要明確調整對象,即調整哪些主體及其開展的人工智能活動。人工智能產業鏈條中的主體類型非常多樣,有從事人工智能技術研發的開發人員,製造人工智能產品的生產者,向市場提供人工智能產品或者服務的企業,向人工智能提供組件或者插件的提供商,使用人工智能產品或者服務的個體用戶,利用人工智能系統進行API等衍生應用的第三方,其中哪些需要《人工智能法》進行規制需要思考。對此,無論是歐盟《人工智能法》,還是美國《人工智能行政令》,抑或我國兩部《人工智能法》建議稿,都明確將使用者及使用活動作爲重點規制對象。基於此,本文針對人工智能使用者進行探討,圍繞使用者的權利、義務、責任展開論述,以期爲我國《人工智能法》的制定貢獻智慧。

人工智能使用者的立法定位

既然是在人工智能立法的背景下探討使用者的規制,那麼首先就需要考察未來《人工智能法》的主體結構,明確使用者的立法定位。

(一)人工智能使用者的基本屬性

1.《人工智能法》的主體結構

有關《人工智能法》的主體結構,域內外存在不同的做法。第一種是提供者與部署者二元模式。例如,歐盟《人工智能法》採取了提供者(provider)與部署者(deployer)兩分的主體結構。其中,提供者是指開發人工智能系統或通用人工智能模型,或已開發人工智能系統或通用人工智能模型,並將其投放市場或以自己的名義或商標提供服務的人;而部署者,則是指在其授權下使用人工智能系統的人。第二種是開發者、部署者與消費者三元模式。2014年5月,美國科羅拉多州簽署了美國首部有關人工智能的監管立法,即《關於在與人工智能系統的互動中提供消費者保護的法案》(以下簡稱《人工智能消費者保護法案》)。對此,法案採取了開發者(developer)、部署者(deployer)以及消費者(consumer)的三元主體結構。其中,開發者指在本州開展業務並開發或有意實質性修改人工智能系統的人;部署者指在本州開展業務並部署高風險人工智能系統的人;消費者則是指本州的個體居民。第三種是開發者、提供者與使用者三元模式。2024年4月,日本內務和通信部(MIC)與經濟、貿易和工業部(METI)發佈《人工智能運營商指南1.0版本》,採取了研發者、提供者以及使用者的三元主體結構。國內兩部《人工智能法》建議稿也採取了類似日本的做法。

對比來看,無論採取哪種模式,人工智能使用者都是《人工智能法》調整的重點對象。需要注意的是,不同人工智能立法使用的術語略有不同,如歐盟《人工智能法》使用的是部署者,美國《人工智能消費者保護法案》提到了部署者與消費者,我國兩部《人工智能法》建議稿以及日本《人工智能運營商指南1.0版本》草案用的是使用者。其一,對於歐盟《人工智能法》中的部署者,可以認爲與我國兩部《人工智能法》建議稿中的使用者是同一概念。因爲2021年4月歐盟最初的《人工智能法》草案使用的就是使用者(user)的概念,2023年12月歐盟《人工智能法》草案統一將使用者替換爲部署者,但這種更換僅僅是術語上的,其定義並未改變,仍然指向使用人工智能系統的人。其二,美國《人工智能消費者保護法案》中的部署者與消費者,需要結合法案的內容來具體分析。其中,部署者有兩個限定條件,一是必須在科羅拉多州開展業務,二是部署高風險系統,相較於歐盟《人工智能法》中的部署者,其範圍更窄一些,但仍然可以理解爲是使用者,因爲法案對部署一詞的定義爲“使用(use)高風險人工智能系統”,核心仍然是使用行爲。至於消費者是一個專有概念,指購買、使用商品或者接受服務的個人,其並不適合直接作爲《人工智能法》常態調整的主體類型。

2.人工智能使用者的基本特徵

《人工智能法》之所以必須關注使用者,是因爲其具有規制的必要性。

第一,羣體屬性。發展人工智能技術的目的是造福公衆,賦能社會經濟的全面發展。而這一目的實現離不開使用者與使用行爲,唯有經過使用環節才能讓人工智能技術真正轉化爲推動社會進步的力量。美國《人工智能行政令》開篇就指出:“人工智能具有非凡的潛力,既充滿希望,又充滿危險。唯有通過負責任地使用人工智能纔有機會幫助解決緊迫的挑戰,才能讓我們的世界變得更加繁榮、富有成效、更具創新精神以及更加安全。”與開發者、提供者處於人工智能產業鏈的前端不同,使用者處於人工智能產業鏈的末端,卻是規模和數量最大的一類羣體,是評判人工智能技術應用程度與應用質量最有發言權的主體。面對規模龐大的使用者羣體,人工智能技術的利弊都會被無限放大,《人工智能法》理應給予充分的關注。

第二,利益屬性。相較於開發者、提供者來說,使用者的利益屬性是複雜的,既可能是人工智能技術的受益者,同時也可能是受害者。一方面,使用者是人工智能產品和服務的直接使用主體,享受着人工智能應用帶來的益處,讓自己的工作、學習和生活更加安全、便捷和智能。按照“利益與風險一致原則”,使用者在享有人工智能技術紅利的同時,理應就人工智能的外溢風險承擔義務與責任,如購買保險、賠償受害人、定期維護等,如此才能實現法律利益的平衡。另一方面,使用者往往是離人工智能技術最近的羣體,處於人工智能應用的一線,通常是不成熟技術、未知風險的承受者,需要法律予以救濟。雖然這兩種利益分配的場景與主體不完全一致,但使用者始終處於利益分配的中心,需要《人工智能法》來明確。

第三,風險屬性。近年來,人工智能產生的風險已經受到了廣泛關注。《人工智能法》的一大任務就是管理人工智能的風險,實現對人工智能的全生命週期治理。例如,歐盟《人工智能》就遵循一套與“去風險”政策相呼應的邏輯,即“識別風險—去風險”,從監管體系、監管範圍、監管機制和監管理念四個維度呈現出“去風險”取向。對於使用者來說,其兼具人工智能風險製造者與控制者的身份,是人工智能風險治理不可或缺的主體類型。一方面,使用者可以通過合理使用來預防人工智能已知風險的發生,還可以充當未知風險的發現者,將未知風險轉化爲已知風險乃至已知安全,讓人工智能技術發揮應有的積極作用。另一方面,使用者對於人工智能技術不負責任地使用甚至濫用,勢必會加速和擴大人工智能的風險,危及公衆安全乃至國家安全。從風險類型來看,無論人工智能產品或者服務如何安全,使用者始終都存在影響人工智能風險的可能性,需要法律予以規制。

(二)人工智能使用者的法律界定

1.使用行爲

人工智能使用者,顧名思義,是指使用人工智能產品或者服務的人。那麼,如何定義使用行爲就至關重要。

第一,使用行爲通常是指按照人工智能產品或者服務的使用說明和功能用途進行使用的活動。例如,使用自動駕駛汽車用於上下班通勤,使用生成式人工智能生成圖片、文字或者視頻,使用人臉識別系統監控工作場所等。當然,使用行爲也有合法、違法之分。但如果使用者沒有按照人工智能的用途進行使用,而是將其作爲一種普通工具使用,那麼就不屬於人工智能使用者。這至少包括兩種情況:第一種是使用者沒有開啓人工智能模式,產品或者服務仍然處於非人工智能狀態。例如,駕駛人將自動駕駛汽車作爲傳統車輛來使用,並未開啓車輛的自動駕駛功能。第二種是完全違揹人工智能用途來使用,致使人工智能無法正常發揮其功效,如將自動駕駛汽車作爲露營住所,或者將人形機器人作爲展覽玩具。之所以如此界定,原因在於《人工智能法》的目的在於預防和管理人工智能的內在風險,這種風險來自人工智能產品或者服務本身的性能。

第二,使用行爲強調對於人工智能產品或者服務的控制力,而不僅是被動地使用。作爲《人工智能法》調整的重要對象,使用者的使用行爲不能僅僅停留在對人工智能產品或者服務的被動使用上,還強調對於人工智能產品或者服務的控制上,即能夠主動控制人工智能產品或者服務的使用方式、用途等。例如,提供公共出行服務的自動駕駛公交車,使用者指的是能夠控制車輛自動駕駛功能的駕駛人,而不包括單純乘坐的乘客;工作場所安裝的人臉識別系統,僱主應當作爲使用者,因爲其能夠控制人臉識別系統的具體用途,至於上班打卡的僱員並非使用者。對此,2020年歐盟《人工智能責任條例》就明確將使用者(部署者)定義爲決定使用人工智能系統,並對相關風險和操作收益進行控制的人。而所謂的控制,意味着使用者自始至終影響操作方式或改變人工智能系統的運行功能。國內方面,《人工智能示範法(專家建議稿)》也充分認識到了這一點,在使用者之外引入了“受影響的個人、組織”的概念,很好地區分了兩者。

第三,使用行爲需要在《人工智能法》的調整範圍內。人工智能的應用場景非常豐富,對於人工智能的使用行爲也十分多樣,不一定都屬於《人工智能法》的調整範圍。例如,歐盟《人工智能法》就規定了許多例外情形:不在歐盟境內的人工智能系統的使用行爲;專門爲軍事、國防或者安全目的使用人工智能系統的活動;個人非職業活動中使用人工智能系統的情況;使用免費且開源的人工智能系統的行爲,除非構成高風險人工智能系統。國內方面,兩部《人工智能法》建議稿也作了相應的安排。例如,《人工智能法(學者建議稿)》排除了三類使用行爲:一是自然人因個人或者家庭事務使用人工智能的行爲;二是使用免費開源的人工智能;三是人工智能的軍事使用活動。筆者認爲,考慮到軍事人工智能的使用主要在於維護國家安全,同時使用行爲的影響與普通公衆相去甚遠,將之排除在《人工智能法》的調整之外具有合理性。至於個人或者家庭事務的使用行爲以及免費開源人工智能的使用行爲,鑑於兩者都存在風險管理、利益分配的必要性,故不應當一刀切地排除在外。

2.主體類型

使用者的類型多樣,可以是個人,也可以是組織。但使用者最典型的主體類型是個人,即個體終端用戶。這些用戶往往是購買人工智能產品或者服務的消費者。需要注意的是,《人工智能法》中的使用者需要與其他法律法規中的主體進行銜接。例如,《深圳經濟特區智能網聯汽車管理條例》(以下簡稱《深圳條例》)使用了駕駛人、所有人、管理人、乘客的概念,需要辨別誰是使用者。根據《深圳條例》規定,有條件自動駕駛汽車與高度自動駕駛汽車,需要配備駕駛人。這裡的駕駛人屬於使用者,因爲其直接決定是否開啓以及如何使用自動駕駛模式,並在緊急情況下承擔接管職責。對於完全自動駕駛汽車,《深圳條例》規定車內不需要配備駕駛人,甚至可以實現車內無人運行,但需要所有人、管理人通過遠程或者其他方式控制自動駕駛汽車,故他們屬於使用者。至於乘客,他們對於自動駕駛汽車沒有控制的權力,因而不屬於使用者,僅僅是“受影響的個人”。

除了個體用戶外,人工智能使用者還可以是組織。例如,歐盟《人工智能法》就列舉了法人、公共機關、機構和其他團體。國內方面,兩部《人工智能法》建議稿也提到了諸多組織作爲使用者的情形。總的來說,作爲組織的使用者可以分爲兩類:一是私法組織,典型的是企業。例如,歐盟《人工智能法》對於企業作爲使用者的情況就作了較爲細緻的規定,區分了一般企業與小微企業(包括初創企業),對於兩者的監管是存在區別的。同時,國內兩部《人工智能法》建議稿也都提到了企業作爲使用者。二是公法組織,典型的是國家機關。歐盟《人工智能法》就特別提到各類國家機關,包括執法機關、司法部門以及移民、庇護和邊境管制管理部門等。《人工智能示範法(專家建議稿)》也使用了“國家機關”“政府機關”“事業單位”“其他依法具有管理公共事務職能的組織”等概念,並明確了各種配套規則。

3.身份轉化

使用者的身份既可能是單一的,也可能是複合的,需要區分不同情形。一是使用者同時構成開發者、提供者。如果企業在開發、提供人工智能產品或者服務的同時,又使用自己開發、提供的人工智能產品或者服務,那麼企業的身份既是開發者、提供者,也是使用者,需要同時以三種身份受到《人工智能法》的調整。例如,某企業開發自動駕駛技術,生產了自動駕駛汽車,並利用自動駕駛汽車向社會提供無人駕駛出租車服務,那麼其同時具有開發者、提供者與使用者的身份。二是使用者轉化爲新的開發者、提供者。例如,歐盟《人工智能法》規定部署者(使用者)一旦具有下列行爲,視爲新提供者:在已投入市場或提供服務的高風險人工智能系統上冠以名稱或者商標;對已投放市場或提供服務的高風險人工智能系統進行實質性修改,使得風險超出了最初的合格性評估的預期;改變一個人工智能系統(包括通用人工智能系統)的預期用途,使其成爲高風險人工智能系統。一旦使用者成爲新提供者,原提供者將不再承擔提供者義務,但仍然需要提供必要的信息、技術准入和其他協助,以便新提供者履行義務。

人工智能使用者的權益保護

《人工智能法》是否需要就人工智能使用者權益保護進行專門規定關係重大,形式上關乎《人工智能法》的章節架構與體例安排,實質層面則關係到《人工智能法》的價值取向與治理邏輯,需要謹慎對待。

(一)規定“人工智能使用者權益保護”的必要性

域外方面,歐盟《人工智能法》、美國《人工智能消費者保護法案》等都沒有就人工智能使用者權益保護進行專門規定。國內兩部《人工智能法》建議稿也存在分歧,《人工智能示範法(專家建議稿)》沒有作相應規定,而《人工智能法(學者建議稿)》則創造性地設置了“使用者權益保護”專章。筆者認爲,未來《人工智能法》有必要就“人工智能使用者權益保護”作專門規定。

第一,完善《人工智能法》的治理結構。《人工智能法》採取什麼樣的治理結構關係重大,必須有嚴謹的邏輯線索,確保內在體系的自洽。從形式上看,未來《人工智能法》宜採取成熟的“總分”式立法技術,總則部分規定立法目的、適用範圍、基本原則等一般事項,分則部分落實人工智能立法具體要求。從實質層面來看,《人工智能法》的規則構建需要藉助“權力”“權利”“義務”以及“責任”規範來展開。歐盟《人工智能法》是典型的“權力—義務—責任”模式,其中,權力規範對應人工智能監管機構的監管事項,義務規範與責任規範分別對應人工智能提供者、部署者(使用者)的職責與法律責任。對比之下,我國《人工智能法》宜引入權利規範。一方面,權利規範的存在讓義務、責任規範有了前提與基礎,使用者權益保護正好是開發者、提供者負擔義務的目的所在,而違反這種義務則會引發法律責任的承擔,邏輯上更爲通暢。另一方面,權利規範的引入還可以對權力規範形成一種制度制約,讓監管機構的權力行使有了合法依據,也有了行爲邊界。

第二,迴應人工智能發展的實踐難題。當前,我國人工智能產業整體處於向上發展的階段,人工智能應用端相對繁榮,“人工智能+”行動在質與量上都取得了不錯的成效。與此同時,人工智能技術應用也對現有法律秩序產生了衝擊,嚴重影響着產業發展。對此,可以從兩個維度進行觀察:一個維度是對既有法律秩序的破壞,突出地表現爲人工智能技術應用對人們已有權利的侵害;另一個維度是人工智能技術應用在破壞已有法律秩序的同時,帶來了制度賦能與更新契機,由此引發了新的權利需求。權利是法學的核心範疇,也是應對科技變革的一種重要方式,構成了人工智能法乃至科技法的核心制度。例如,蒸汽機帶來的流水線式的工廠生產方式,催生了勞動者的權利;爲了應對印刷技術引起的盜版問題,著作權應運而生;而各種信息技術的廣泛應用,則使得隱私權與個人信息權益相繼提出。同樣,人工智能技術也帶來了新的權利需求,《人工智能法》設置“人工智能使用者權益保護”專章,可以很好地迴應實踐發展的需要。

第三,貢獻人工智能立法的中國智慧。當前,人工智能熱潮席捲全球,各國都在搶佔人工智能治理的高地,以便掌握人工智能國際治理的標準和話語權。聯合國成立了高級別專家諮詢機構,歐盟發佈了全球首部《人工智能法》,美國也先後發佈了多項人工智能的法律政策。與此同時,我國也積極參與人工智能國際治理,簽署了《布萊切利宣言》,發佈了《全球人工智能治理倡議》。顯然,新一代人工智能技術的可持續發展不僅是技術層面的競爭,也是法治軟實力的競爭。此種背景下,我國《人工智能法》的制定備受期待,不僅是促進我國人工智能治理的法治化,也是一次向世界傳達人工智能治理中國方案的寶貴契機。面對推出在先的歐盟《人工智能法》,我國《人工智能法》創造性設置“人工智能使用者權益保護”專章,不僅可以顯著區分歐盟《人工智能法》的治理邏輯,還能有力地展現中國一以貫之的以人爲本的人工智能治理理念,讓《人工智能法》成爲數字時代權利保護的宣言書,爲世界人工智能立法貢獻中國智慧。

(二)人工智能使用者權益保護的基本框架

既然《人工智能法》有必要就人工智能使用者權益保護進行專門規定,那麼下一步就需要解決規定哪些權利的問題。筆者認爲,《人工智能法》至少要明確使用者的四種權益。

1.知情權

人工智能具有高度智能屬性,背後是神經網絡、機器學習、大模型等技術在驅動,存在複雜性、不確定性、不透明性的特點,內部決策過程呈現“黑箱”狀態。對此,《人工智能法》首先需要賦予使用者知情權,彌補人工智能技術帶來的信息不對稱困境。需要注意的是,知情權的主體不僅僅指向個人,也包括作爲組織的使用者。其一,人工智能產品或者服務的基本情況,具體包括:開發者、提供者的名稱、聯繫方式及相關信息獲取方式;人工智能產品和服務的用途、目的意圖、主要運行機制、潛在風險;使用者享有的權利與救濟渠道。其二,人工智能的角色,以便使用者知曉人工智能的存在,避免產生人機混淆、認知失調。對此,有學者稱之爲識別法則(laws of identification),即要求實體必須說明其是否具有人工智能的性能。歐盟《人工智能法》就要求旨在與人類直接互動的人工智能系統須具有相應設計,使得人們知道自己正在與人工智能系統而非人類打交道。其三,解釋權。解釋權是知情權的應有之義,當人工智能的決策對於使用者有重要影響時,使用者理應有權要求提供者作進一步的解釋,這有助於提升公衆對於人工智能的信任度和接受度。2022年10月,美國白宮科技政策辦公室發佈《人工智能權利法案藍圖》,其中就明確規定“你應當知道影響你的結果是如何以及爲什麼由自動化系統決定的,包括當自動化系統不是決定結果的唯一輸入時。自動化系統應當提供技術上有效的解釋,對你和任何需要了解該系統的使用者和其他人來說都是有意義的”。

2.控制權

在以往的科技敘事中,人類與機器之間的關係是單向的控制關係,即人類通過控制機器來認識世界和改造世界。然而,人工智能的智能屬性不同於以往任何機器,能夠在沒有人類干預情況下自主決策、行動。這種自主性既極大地解放了人類,也帶來了控制權的焦慮,機器正在不斷蠶食人類的決策權。爲此,法律需要維護人類對於機器的控制權。《新一代人工智能倫理規範》明確提出:“保障人類擁有充分自主決策權,有權選擇是否接受人工智能提供的服務,有權隨時退出與人工智能的交互,有權隨時中止人工智能系統的運行,確保人工智能始終處於人類控制之下。”歐盟《人工智能法》也要求保障“使用期間自然人可以進行有效監督”。對於人工智能產品或者服務來說,無論是個體用戶還是作爲組織的使用者都理應享有控制權,可以隨時要求人工智能系統退出運行,除非不安全。同時,控制權還意味着使用者可以選擇不使用人工智能產品或者服務,要求提供者重新作出有人類參與的決策。

3.平等權

人工智能技術應用帶來了嚴重的歧視問題,這種科技失範擊穿社會公平正義底線的憂慮已經無法被等閒視之。美國《人工智能權利法案藍圖》指出:“有大量證據表明,自動化系統可以產生不公平的結果,並放大現有的不公平。例如,面部識別技術可能導致錯誤的和歧視性的逮捕,僱傭算法爲歧視性的決定提供信息,醫療保健算法對美國黑人的某些疾病的嚴重程度打折扣。人工智能和其他自動化系統內置所產生的歧視性做法的實例存在於許多行業、領域和背景中。”爲此,需要通過《人工智能法》重申、更新平等權,以應對人工智能歧視。這種平等權既包括個體用戶,也指向弱勢的數字羣體,既包括形式平等權,更包括實質平等權。基於此,《人工智能法》既要應對人工智能因爲性別、信仰、年齡、民族、經濟能力等數據質量不高、算法模型缺陷產生的形式意義、個體意義上的偏見和歧視,也要讓人工智能產品或者服務充分考慮未成年人、老年人、殘障人士等特殊羣體的需求,實現實質意義、羣體意義上的平等,彌合數字鴻溝。

4.數據權

人工智能技術的發展離不開數據,數據是人工智能的養料,唯有海量的數據才能讓人工智能日益智能化,提供更加針對性、個性化的服務。例如,《全球人工智能治理倡議》就提出“保障人工智能研發和應用中的個人隱私與數據安全,反對竊取、篡改、泄露和其他非法收集利用個人信息的行爲”。我國臺灣地區“人工智能基本法(草案)”第14條也特別規定:“個人資料保護主管機關應協助各目的事業主管機關,在人工智能研發及應用過程,避免不必要之個人資料蒐集、處理或利用,並應促進個人資料保護納入預設及設計之相關措施或機制,以維護當事人權益。”雖然《中華人民共和國個人信息保護法》已經對個人信息保護作了全面規定,但仍有必要通過《人工智能法》重申個人信息權益,以便個體用戶在使用人工智能產品或者服務中知曉、決定個人信息的處理。此外,考慮到數據已然成爲數字時代的重要生產要素,作爲組織的使用者的數據財產權益也應當得到保護。

人工智能使用者的義務規範

鑑於使用者對於人工智能風險治理的重要作用,明確使用者的義務至關重要。而在義務規範的具體設置方面,《人工智能法》應當充分考慮使用者的角色以及使用行爲所產生的影響。

(一)設置“人工智能使用者義務”的合理性

實踐中,對於是否需要系統規定人工智能使用者的義務存在不同的做法。歐盟《人工智能法》在明確提供者義務的同時,專門規定了部署者(使用者)負擔的各項義務。美國《人工智能消費者保護法案》同時對開發者與部署者(使用者)的義務作了規定。與此不同的是,國內兩部《人工智能法》建議稿都將義務指向開發者與提供者,沒有就使用者的義務進行專門規定。筆者認爲,《人工智能法》有必要系統規定使用者的義務。

第一,有助於踐行人工智能倫理準則。人工智能可以增進人類福祉,但前提是落實以人爲本、向善發展的倫理準則。無論是開發者、提供者,還是使用者,都應當是踐行人工智能倫理準則的義務主體。2024年聯合國首個人工智能決議《抓住安全、可靠和值得信賴的人工智能系統帶來的機遇,促進可持續發展》提出,“不當或惡意地設計、開發、部署和使用人工智能系統——例如在沒有適當保障措施或不符合國際法的情況下——構成風險”。我國《新一代人工智能倫理規範》同樣明確“本規範旨在將倫理道德融入人工智能全生命週期”,同時專章規定了“使用規範”。《人工智能法》要落實踐行這些倫理準則,不僅需要在設計、研發的“上游”嵌入倫理價值,也需要更具迴應性地規範人工智能技術的使用行爲。例如,《人工智能法(學者建議稿)》總則部分規定使用者“應當依法預防和控制人工智能可能存在的倫理風險”,《人工智能示範法(專家建議稿)》也規定從事使用活動“應當採取有效措施避免對個人、組織實行不合理的差別待遇”,這些都需要通過設置使用者義務規範來落實。

第二,有助於人工智能風險的預防與管理。智能社會是風險變數最大的社會。無論是歐盟《人工智能法》,還是美國商務部發布的《人工智能風險管理框架》,都充分看到了人工智能風險治理的重要性。如果說開發者、提供者主要是從前端控制人工智能產品和服務的風險,那麼使用者則主要影響的是人工智能產品和服務的後端,是人工智能風險轉化爲現實的最後一公里。相較於開發者、提供者,使用者對於人工智能產品和服務具有直接的控制力,如決定什麼時候啓用自動駕駛功能、餵給生成式人工智能哪些關鍵詞、如何使用深度合成技術等,能夠直接影響人工智能的風險轉化。歐盟《人工智能法》指出:“雖然與人工智能系統有關的風險可能來自此類系統的設計方式,但風險也可能來自此類人工智能系統的使用方式。部署者最瞭解高風險人工智能系統將如何具體使用,因此能夠識別開發階段未預見的潛在重大風險,並且部署者更瞭解使用環境、可能受影響的人羣或羣體,包括弱勢羣體。”鑑於使用者預防、管理人工智能風險的重要作用,《人工智能法》系統規定使用者義務具有合理性。

第三,有利於實現人工智能法的規範聯動。從《人工智能法》的適用來看,明確使用者的義務規範非常重要,可以實現不同規範之間的聯動。一方面,使用者義務規範與開發者、提供者義務規範存在邏輯關聯,開發者、提供者的義務需要使用者義務的配合才能完成。例如,歐盟《人工智能法》指出:“部署者在確保基本權利得到保護方面起着至關重要的作用,是對提供者在開發人工智能系統時所承擔義務的補充。”在此基礎上,法案專門將高風險人工智能系統提供者與部署者(使用者)的義務放在一節進行規定,一邊要求提供者建立質量管理體系,負擔文件留存與保存自動生成日誌的義務,另一邊也規定部署者(使用者)需要採取適當的技術和組織措施、保存自動生成日誌等義務。另一方面,使用者義務規範與使用者責任規範之間存在聯動關係,使用者的責任承擔需要考察使用者遵守義務的情況,缺少使用者義務規範會影響使用者責任規範的適用。

(二)人工智能使用者義務內容的具體展開

使用者的類型多樣,有的是使用人工智能技術的個人,如使用生成式人工智能服務的個體終端用戶,有的是利用人工智能技術的組織,如安裝人臉識別系統的企業,兩者的使用行爲對於他人的影響是不同的,負擔的義務也應當不同。綜合來說,《人工智能法》可以就使用者義務進行如下規定。

1.合理使用義務

使用者正確使用人工智能產品或服務,既是實現人工智能技術預期功能的前提,也是預防和管理人工智能風險的保障。其一,按照用途使用。我國《新一代人工智能倫理規範》在設置使用規範時,提倡善意使用,避免誤用濫用,禁止違規惡用。對使用者而言,首先需要了解人工智能產品或服務的基本信息、使用說明,知曉其潛在風險。例如,《深圳條例》第35條第1款規定:“智能網聯汽車駕駛人應當按照道路通行規定和車輛使用說明書的要求,掌握並規範使用自動駕駛功能。”此外,某些人工智能產品或服務的使用需要使用者具備特定的資質。其二,禁止濫用。一方面,人工智能產品或服務具有自主學習的能力,不排除被人爲“教唆變壞”的可能。2016年,微軟聊天機器人Tay上線不到24小時,就被“教壞”成爲一個集反猶太人、性別歧視、種族歧視於一身的“不良少女”。基於此,使用者負擔不得濫用人工智能交互學習能力的義務。另一方面,許多人工智能具有一定的危險性,使用者不應當進行違規改造或違反法律法規和倫理準則進行使用,如利用生成式人工智能從事違法犯罪活動、毆打虐待人形機器人等。

2.風險管理義務

使用者對於人工智能產品或者服務的風險具有管控能力,需要負擔風險管理義務,具體歸納如下:一是採取風險管理與預防技術與組織措施的義務。這類義務應當僅針對高風險人工智能的使用者,如利用人工智能進行量刑的司法機關、安裝人臉識別系統的大型企業。對於風險程度較低的人工智能,其使用者往往爲個體用戶,要求其採取技術與組織措施來預防和管理風險成本過高。二是控制輸入數據質量的義務。數據是人工智能運行的基礎,輸入的數據的多樣性、代表性越強,輸出的結果才能更加可靠和精準。因此,使用者應當保障數據質量,降低人工智能的失誤概率。例如,醫務人員在使用診療人工智能系統過程中,必須確保輸入的患者的病歷、影像等醫療數據本身準確、清晰以及全面,否則很可能會導致不正確的機器判斷出現。三是更新和維護人工智能系統的義務。人工智能具有不斷升級與自主學習的特點,使用者應當定期維護、及時更新人工智能系統,以便確保人工智能沒有安全漏洞,處於可適用的狀態。四是留存人工智能系統自動生存的日誌義務。留存日誌可以方便對人工智能產品或者服務進行數據回溯,查找事故發生的原因。

3.監督義務

人工智能具有自主能力,能夠獨立完成特定的任務,但並不意味着其能夠完全脫離人類的控制運行。從安全角度出發,使用者需要對人工智能負擔監督義務,具體分爲兩種:一是監督+緊急接管義務。例如,自動駕駛汽車存在有條件自動駕駛、高度自動駕駛以及完全自動駕駛三個階段,車輛的自主程度不斷上升。對此,根據《深圳條例》第35條第2款規定,對於有條件和高度自動駕駛汽車,使用者應當處於車輛駕駛座位上,監控車輛運行狀態和周圍環境,並且需要在緊急情況下予以接管。二是監督+事後再判斷義務。對於有些人工智能,使用者需要負擔監督義務,同時需要對人工智能的決策進行再判斷。最典型的例子就是診療人工智能,其主要是輔助醫務人員完成診斷治療活動。對此,世界衛生組織《醫療衛生中使用人工智能的倫理和規制》強調“在醫療保健場景中,人類應該完全控制醫療保健系統和醫療決策。人類監督可能取決於與人工智能系統相關的風險,但應該始終是有意義的”。易言之,出於維護醫療活動倫理性的原則,無論診療人工智能輸出的診斷意見是否正確,醫務人員都需要對機器判斷進行再判斷。

4.信息提供義務

如果人工智能產品或者服務的使用會影響第三人,那麼使用者負擔信息提供義務。例如,在工作場所安裝使用人臉識別系統的僱主,需要向被人臉識別系統監控的員工負擔信息提供義務,告知員工人臉識別系統的存在、收集信息的範圍以及可能產生的其他影響。日本《人工智能運營商指南1.0版本》草案指出,人工智能使用者負擔“向利益相關方提供信息”的義務。美國《人工智能消費者保護法案》更是明確部署者(使用者)需要向消費者提供一份聲明,披露如下信息:高風險人工智能的類型;管理歧視風險的措施;收集和使用的信息的性質、來源和範圍等。使用者的信息提供義務某種程度上是開發者、提供者信息提供義務的延續和補充,以保護受人工智能產品或者服務影響羣體的權益。

人工智能使用者的責任承擔

法律責任是《人工智能法》的重要內容,關係到受害人的救濟與行爲人的自由,但是否規定以及如何規定使用者的法律責任存在不同做法,需要仔細推敲。

(一)明確“人工智能使用者責任”的正當性

域外方面,歐盟《人工智能法》同時就提供者與部署者(使用者)的行政責任進行規定,但並未就民事責任作出安排。國內層面,《人工智能示範法(專家建議稿)》在法律責任一章中將使用者排除在外,僅僅針對研發者、提供者的法律責任進行規定;《人工智能法(學者建議稿)》則同時明確了開發者、提供者及使用者的行政責任與民事責任。筆者認爲,《人工智能法》應當就使用者的行政責任、民事責任進行規定。

首先,有助於規範銜接適用。使用者是《人工智能法》調整的重要主體類型,在規定使用者義務規範的同時,設置使用者責任規範合乎邏輯。例如,有條件自動駕駛汽車的使用者違反接管義務,造成其他交通參與者傷亡,使用者自然需要就其違反接管義務的行爲承擔民事侵權責任。同樣,在公共場所部署人臉識別系統的企業,若未採取合理的組織和技術措施存儲數據,導致海量的人臉數據泄露,甚至主動濫用人臉識別系統監控不特定公衆的隱私,那麼必然會引起行政責任。從規範銜接適用的角度來看,唯有明確使用者責任規範,才能真正激活使用者義務規範。此外,從風險規制理論出發,風險的作用之一就是構建規制組織與外部組織之間的問責關係。既然使用者需要負擔義務來預防和管理風險,那麼必然存在追責問題。

其次,促進人工智能產業的發展。歐盟的一項調查顯示,責任問題是企業部署人工智能的三大障礙之一,對於企業運營構成重大挑戰。2018年,歐盟委員會專門成立了責任和新技術專家組(Expert Group on Liability and New Technologies),決定開展人工智能法律責任的立法研究。2022年,歐盟委員會通過了《關於使非合同性民事責任規則適應人工智能的指令(人工智能責任指令)的提案》(以下簡稱《人工智能責任指令》)和《關於缺陷產品責任的指令的提案》(以下簡稱新《產品責任指令》),對人工智能的民事責任問題做了全面迴應。同樣,國內對於人工智能的責任問題非常關注,從自動駕駛汽車的交通事故責任、診療人工智能的醫療損害責任,到生成式人工智能的法律責任。其中,使用者處於人工智能產品或者服務的終端,是規模最大、影響最廣的羣體。一旦使用者不合理地利用甚至濫用人工智能技術,公衆對人工智能的信任裂痕將會擴大,需要通過追責來修復信任。

最後,符合人工智能法的性質。從域內外人工智能立法探索來看,是否需要同時明確人工智能使用者的各種法律責任是存在爭議的。筆者認爲,同時明確人工智能使用者的行政責任、民事責任符合人工智能法的性質。一方面,人工智能法學本身就是一種領域法學,是以人工智能爲對象橫跨不同法律部門、探索人工智能與法律結合的一般問題的法學。作爲領域法學,人工智能法學的一大特徵是公私交融。這意味着《人工智能法》在規則設計方面需要超越部門法,融貫公法與私法。另一方面,行政責任與民事責任都是人工智能風險治理的重要組成部分,是預防、管理人工智能風險的重要工具,《人工智能法》同時規定兩者非常貼切,有助於規範人工智能發展的正確路徑和方向。事實上,雖然歐盟《人工智能法》並未涉及民事責任問題,但歐盟新《產品責任指令》與《人工智能責任指令》有關人工智能系統、高風險人工智能、提供者、部署者等概念,都需要以歐盟《人工智能法》的規定爲準,兩者實爲一個硬幣的兩面。

(二)人工智能使用者法律責任的路徑構建

1.合理設置行政責任

公法責任包括行政責任和刑事責任。對此,《人工智能法》明確使用者的行政責任更爲重要,至於刑事責任可以通過轉至條款交由《中華人民共和國刑法》予以規定。

第一,責任方式。針對人工智能使用者的行政責任非常多樣,包括責令改正、給予警告、沒收違法所得、責令暫停或終止相關業務以及罰款等。其中,罰款對於使用者影響重大,需要精細化設置,具體可以考慮如下因素:其一,區分私法組織與公法組織。對於私法組織,可以設置相對較高的罰款數額,而在罰款依據上可以選擇上一年度營業額的一定比例或者固定最高數額來計算,兩者以較高者爲準。對於國家機關等公法組織,不宜適用罰款,原因在於國家機關的罰款來源於社會納稅,罰款部門本身也是國家機關,對其進行罰款意義不大。其二,對於私法組織,在設置罰款時應當區分一般企業與小微企業(包括初創企業)。歐盟《人工智能法》規定,小微企業(包括初創企業)罰款的最高數額是就低不就高,即以固定數額或者上一財政年度全球營業總額一定比例的較低者爲限。我國兩部《人工智能法》建議稿在設置行政罰款時都提到了需要充分考慮各種因素,包括違法行爲的嚴重程度、主觀狀態、補救措施等。

第二,合規免責。對於使用者來說,如果其建立並執行了有效的合規體系,是否可以考慮減免行政責任值得思考。對此,《人工智能示範法(專家建議稿)》第75條第1款規定:“人工智能研發者、提供者違反本法規定,承擔行政責任的,行爲主體合規建設經評估符合有效性標準的,依法免予處罰或者從輕處罰。”《人工智能法(學者建議稿)》第93條也明確了使用者的合規免責制度。筆者認爲,引入合規免責具有重要意義。一方面,合規免責可以減輕企業使用人工智能的負擔,推動人工智能的普及應用,營造有利於技術創新的氛圍。另一方面,合規免責可以督促企業在使用人工智能的過程建立並切實執行合規制度,最大程度地避免風險的發生。當然,合規首先是企業自我治理的良方,需要以“實現企業合法經營、避免違法行爲”爲目標。倘若拋開預防的直接目的,片面追求行政責任減免,合規必然會導致權力異化,產生廉政風險。

2.妥當安排民事責任

民事責任包括違約責任、侵權責任等,其中,明確使用者的侵權責任至關重要,可以很好地迴應社會公衆的期待。對此,可以按照如下規則進行設置。

第一,區分人工智能產品責任與應用責任。從《人工智能法》角度來看,產品責任主要針對的是開發者與提供者,而非使用者。與此不同,應用責任聚焦人工智能部署應用端的風險損害,更適合用來解決使用者的責任問題,但需要區分人工智能產品與服務。一方面,有別於傳統產品,人工智能產品需要提供者提供持續的更新升級等服務,提供者對其具有持續的控制力,但考慮到其通常以物的形態出現,使用者仍然能夠控制其使用的主體、方式、形式、升級更新等,極大地影響人工智能的風險控制與管理,更適合承擔應用責任。另一方面,使用者對於人工智能服務的控制力遜於提供者。以生成式人工智能爲例,雖然使用者可以通過關鍵詞來影響生成的內容,並決定後續的使用行爲,但提供者控制着生成式人工智能的軟件、芯片、算力、網絡等基礎設施,決定了生成式人工智能的性能、服務方式等。因此,對於人工智能服務來說,提供者應當作爲首要責任主體,使用者作爲輔助責任主體,兩者之間可以通過設置妥當的避風港規則來劃分責任邊界。

第二,區分風險程度不同的人工智能。人工智能的應用場景非常豐富,不同人工智能應用的風險程度不同,使用者的責任也理當有別。歐盟《人工智能法》一個立法核心就是基於風險的方法(risk-based approach),通過區分不同風險的人工智能,來配置對應的義務和程序,以及是否需要適用嚴格責任或過錯責任。對此,歐盟《人工智能責任條例》就區分了高風險人工智能與其他人工智能,前者規定部署者(使用者)需要承擔無過錯責任,後者適用過錯推定責任。歐盟《人工智能法》更是將人工智能分爲禁止的人工智能、高風險人工智能、有限風險人工智能以及低風險人工智能四類,分別設置不同的監管規則。侵權責任是人工智能風險治理的重要工具,理當貫徹風險分級治理的思維。與此同時,侵權責任的配置本身就要考慮行爲的風險程度。例如,《中華人民共和國民法典》有關高度危險物以及高度危險活動需要適用無過錯責任,建築物、懸掛物等物件致害適用過錯推定責任,其他的物的使用行爲一般適用過錯責任的規定,就體現了物及其使用行爲的風險程度不同。同樣,人工智能使用者的侵權責任也需要考慮這一點。從提高規制適配度、靈活度的角度出發,人工智能應當區分三個風險等級,高風險人工智能適用無過錯責任,有限風險人工智能適用過錯推定責任,低風險人工智能適用過錯責任。

第三,區分替代型與輔助型人工智能。人工智能幾十年的發展歷史,在整體上始終存在人工智能的“替代人類”與智能增強的“增強人類”的理念對立,具化爲替代型人工智能與輔助型人工智能之分。所謂的輔助型人工智能,指主要目的是輔助人類、增強人類的人工智能,人類仍然處於環內,如診療人工智能、司法人工智能等。而替代型人工智能,指主要目的是替代人類的人工智能,人類被排除在環外,如自動駕駛汽車等。這兩種人工智能的人機關係不同,使用者的責任自然也有差異。對於替代型人工智能來說,由於人工智能已經取代人類承擔任務,使用者沒有監督和接管的義務,追究使用者的過錯變得十分困難。例如,當完全自動駕駛汽車到來後,使用者從駕駛人徹底變爲乘客,汽車的運行全然交由人工智能系統完成。對此,按照傳統機動車交通事故責任規則追究使用者的過錯並不合適,適用無過錯責任或許更爲合理。與之不同的是,輔助型人工智能主要是輔助人類,人類仍然需要參與決策,如診療人工智能自主做出機器判斷,醫務人員仍然需要進行再判斷。此時,追究使用者的過錯責任是存在空間的。

結語

面對人工智能的廣泛應用,如何通過立法確保人工智能以人爲本、向善發展至關重要。人工智能立法首先需要確定調整對象,明確調整人工智能產業鏈上的哪些主體及其行爲。與開發者、提供者等主體不同,使用者處於人工智能產業鏈的末端,既是人工智能技術紅利的直接受益者,也是人工智能技術風險的一線承擔者,同時對於人工智能風險的預防和管理具有重要作用。基於此,無論未來《人工智能法》採取何種主體結構,使用者都佔據重要位置。從實現人工智能立法目標出發,未來《人工智能法》應當擺脫以往以提供者爲主的單一規制模式,圍繞使用者開展權利、義務以及責任三維規制,以便最大程度確保人工智能技術造福公衆。

-向上滑動,查看完整目錄-

《行政法學研究》2025年第1期

【教育法典】

1.教育法典總則的規範功能與要旨

馬懷德(3)

2.教育糾紛解決機制在教育法典中的體系化構建

李紅勃(12)

【人工智能治理】

3.人工智能使用者的立法定位及其三維規制

鄭志峰(22)

4.論數字政府中人工智能的法律地位與規範體系

——以人工智能立法爲背景

劉紹宇(38)

5.自動化行政裁量的包容性規制

趙龍(53)

【爭議化解】

6.稅務行政訴訟中舉證責任配置的現狀及其改進

侯卓(67)

7.行政檢察實質性化解行政爭議:核心問題、實踐模式和發展方向

章許睿 王敬波(81)

8.社會治理檢察建議的適用邊際

餘凌雲 陳思琳(98)

【學術專論】

9.論公立高校學位授予標準的制定與適用

林家睿(110)

10.行政協議適用標準的要素化解釋

吳明熠(121)

11.論行政處罰中的阻卻責任事由

——以無期待可能性爲中心的體系分析

張怡靜(134)

12.已公開個人信息在合理範圍內處理的規範邏輯與實踐因應

趙祖斌(146)

13.中國行政法典的憲法基礎

李策(160)

【青年論壇】

14.論作爲基本權利的個人信息受保護權

——基於基本權利的證成視角

吳飛(172)

15.公共數據“三權分置”模式的證成與建構

盧榮婕(184)

《行政法學研究》創刊於1993年,是由中華人民共和國教育部主管、中國政法大學主辦、《行政法學研究》雜誌社編輯出版的國內外公開發行的我國首家部門法學雜誌。本刊自2015年變更爲雙月刊,目前闢有專論、法律時評、行政法制比較研究、名家論壇、案例評議、行政複議與審判指導等常設欄目,爲緊密配合國家行政立法、行政執法、行政複議、行政訴訟等實踐,本刊還不定期推出一些專題研究和觀點摘編。

智能寫作4.0

1. 私有智庫:單篇對話與向量檢索的智能融合

自建知識庫是智能寫作4.0的一大創新亮點,它賦予了用戶構建個性化知識體系的能力。這一功能不僅支持單篇對話的存儲,使得用戶可以輕鬆回顧和整理過往的交流內容,而且通過向量檢索技術,用戶能夠實現對知識庫內容的高效檢索。這意味着,無論您的知識庫多麼龐大,您都可以通過關鍵詞或短語快速定位到所需信息,極大地提升了信息檢索的準確性和便捷性。

2. 一劃即達:法寶全庫數據的劃詞能力

劃詞檢索法寶全庫數據功能是智能寫作4.0的另一項革命性創新。用戶在閱讀或編輯文檔時,只需輕輕一劃,選中的文本即可觸發智能檢索,系統會立即從法寶全庫中檢索出相關數據和信息。這一功能不僅極大地簡化了信息查找的過程,而且通過實時更新的數據庫,確保了檢索結果的時效性和準確性,使得用戶能夠快速獲取到最相關的資料和數據。

3. 語言無界:19種語言的智能翻譯大師

智能寫作4.0的智能翻譯功能,支持多達19種語言的互譯,覆蓋了全球大部分主要語言。這一功能不僅能夠實現文本的即時翻譯,而且通過先進的算法優化,確保了翻譯的流暢性和準確性。無論您是需要將中文文檔翻譯成英文,還是需要將西班牙文翻譯成法文,智能寫作4.0都能爲您提供準確、自然的翻譯結果,讓您的跨語言溝通和創作更加輕鬆。

4. 模板王國:6000+文書模板與個性化定製的創意工具

智能寫作4.0提供了6000+的文書模板,覆蓋了法律、商務、教育等多個領域,滿足不同用戶的需求。這些模板由專業人士設計,確保了其專業性和實用性。此外,智能寫作4.0還支持自建文書模板,用戶可以根據自己的需求和喜好,創建個性化的模板,這不僅提高了文書創作的效率,而且使得文書更具個性化和專業性。

5. 實用工具:賦能司法案例的深度檢索報告

智能寫作4.0賦能司法案例檢索報告功能,是法律專業人士的得力助手。它不僅能夠檢索到最新的司法案例,而且通過智能分析,爲用戶提供案例的詳細報告,包括案件的基本情況、判決結果、爭議焦點、法律依據等關鍵信息。這一功能不僅極大地提高了法律研究的效率,而且通過深入的案例分析,幫助用戶更好地理解法律條文和司法實踐,爲法律實務工作提供了強有力的支持。

責任編輯 | 郭晴晴

審覈人員 | 張文碩 王曉慧

本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。