ChatGPT的資訊是受憲法保障的言論嗎
(圖/摘自Pixabay)
網路上最近頗夯的話題是,ChatGPT橫空出世,會如何改變人類社會呢?在憲法的課堂上也產生了漣漪。一位學生分享他在手機上與ChatGPT進行問答的經過,他的提問是什麼是「緊急命令法」?ChatGPT先給了一個四平八穩、中規中矩的答案;接下來就峰迴路轉了。ChatGPT告訴他,我國已在某年經立法院三讀通過、總統簽署公佈實施了《中華民國緊急命令法》,共計20條,而且提供了前5條的具體內容。
被問到爲何查不到政府的相關資訊時,ChatGPT則說了三個可能,包括不是公開資料、搜尋不得法及網路限制云云。事實上,中華民國立法院未曾制定過《緊急命令法》。學生不免一問:這不是無中生有嗎?此事似可一笑置之;但其中也有可以認真思考的法律問題。
這類的回答,算不算是故意提供錯誤資訊?會不會構成「謠言」以致觸法呢?有關機關或許不會在意。但如果政府認真思考ChatGPT是否應予管制時,設計程式提供錯誤的資訊供公衆利用,有沒有法律責任呢?回答這個問題,有另一個前提問題需要思考:ChatGPT提供的資訊,是受憲法保障的言論嗎?
憲法保障的言論如何定義,似乎原就沒有簡單的答案。但憲法保障的言論具備一個沒有爭議的要素,就是必須是「人」的言論。ChatGPT提供的資訊,是「人」的言論嗎?如果不是,就不是憲法保障的言論。能夠將ChatGPT稱爲機器人,就說ChatGPT提供的資訊是人的言論嗎?
恐怕不行。此中也許值得認真思索,人類可以創造各種機器,爲人類的生活提供各種便利;但是爲什麼要將機器稱爲機器人或是比擬爲人呢?製造機器「人」,人機難辨的問題就會層出不窮,該不該重新省思,是否一概稱之爲機器就好,避免使用「機器人」這個辭彙如何?
話說回來,ChatGPT提供的資訊不是人提供的資訊,就不是憲法保障的言論嗎?這樣的想法或許過於簡單。ChatGPT不是人,但背後的程式設計者是人,製造ChatGPT產品的是人。那ChatGPT提供的資訊是不是程式設計者或是產品製造人的言論呢?
恐怕也不好說。程式設計者或產品製造人並不真正知道、也無法預見ChatGPT針對每個問題提供的資訊會是什麼,甚至會有意設計爲同一個問題在不同的時間,每次提供不能事前預知的不同答案。在這個意義上,ChatGPT提供資訊更像只能是個產品,而不像是經由人類思維直接表達的言論,這就會落在憲法言論自由保障的射程之外。也就是說,這種產品如果因爲提供錯誤資訊而被指爲產品的瑕疵,或是可能會爲消費者帶來不合理的風險時,就可能產生產品製造人的法律責任。
下一個問題則是,ChatGPT每次提供資訊時都先聲明其所提供的資訊可能是錯誤的資訊,可以解免其法律責任嗎?怕也難以一概而論,而可能與消費者因此受到什麼損害有關。需要產品設計者或製造人回答的一個問題是,是不是明知其產品極有可能提供完全錯誤的資訊,卻仍然供給消費者使用呢?資訊平臺將無中生有而完全錯誤的資訊提供給消費者,其目的或是價值何在?資訊太多而不可控制會不會是應該負責而不是可免責的理由?這也只是談到消費者保護責任,還沒有進入其他的領域(如著作權)的討論。
最後想問的是,本文提出的問題,ChatGPT又會怎麼回答呢?(作者爲東吳大學法律研究所教授)