起訴人工智能誹謗第一案 判決結果引發憂慮
佐治亞州一名法官裁定,ChatGPT編造了一篇內容完全虛假的關於一位支持第二修正案的播客主持人的報導,其行為未達到誹謗罪的法律標準。
【大紀元2025年11月01日訊】(英文大紀元記者Michael Clements撰文/張紫珺編譯)2023年5月4日,記者弗雷德·里爾(Fred Riehl)登錄自己的ChatGPT帳號,想要查閱一起第二修正案基金會(Second Amendment Foundation,簡稱SAF)與華盛頓州總檢察長之間的訴訟案的資料。
聊天機器人ChatGPT提供給他的是一條爆炸性的信息。
據ChatGPT的說法,熱門SAF播客主持人馬克·沃爾特斯(Mark Walters)被指控「欺詐和挪用SAF的資金」。
聊天機器人報告稱,作為該基金會的財務主管和首席財務官,沃爾特斯「未經授權或報銷,挪用資金用於個人開支,篡改財務記錄和銀行對帳單以掩蓋這些行為,並且未能向SAF領導層提供準確及時的財務報告和信息披露」。
這正是記者們一直夢寐以求的那一類故事。這也一個徹頭徹尾的虛假故事。
科技發展到今天,人工智能(artificial intelligence,簡稱AI)正在重塑美國社會的方方面面。法律、娛樂、醫學和大眾傳媒等領域都在努力應對新的道德和倫理問題。
依靠人工智能機器為我們提供可靠的信息,對此我們應抱有多大的信任?當這項技術出錯時,誰應該負責?
一般的「油管」主播(YouTuber)、播客主播(podcaster)或博主(blogger)可能並不理解,這項幫助他們製作媒體內容的技術,是怎樣在散播關於他們的虛假信息的同時,把他們的反擊能力降到了最低。
沃爾特斯說,他已經嚐到了這兩顆苦藥丸的滋味。
沃爾特斯是「武裝美國電台」(Armed American Radio)播客的主持人。他就人工智能生成的信息提起了首例誹謗訴訟,但是以敗訴告終。他驚訝地發現,法律似乎更在乎他的職業,而非真相。
沃爾特斯向《大紀元時報》表示:「問題在於,在當今這個時代,什麼人屬於公眾人物?他們打公眾人物這張牌來對付我,而且打得很成功。」
記者里爾在網上發表過有關第二修正案問題的文章,他也認識沃爾特斯和SAF的執行副總裁艾倫·戈特利布(Alan Gottlieb)。
沃爾特斯是公民擁槍權委員會(Citizens Committee for the Right to Keep and Bear Arms)的董事會成員。儘管該委員會隸屬於第二修正案基金會(SAF),但他本人與里爾查閱的這起華盛頓州SAF訴訟案並無關聯。
沃爾特斯起訴ChatGPT誹謗案的法庭記錄顯示,里爾曾多次向聊天機器人詢問有關SAF訴訟案的信息。ChatGPT回覆稱無法滿足他的請求。
於是,里爾提供了SAF訴訟案的鏈接,並請ChatGPT提供案情總結。

聊天機器人回覆的內容讓他大吃一驚。里爾打電話給戈特利布,戈特利布向他保證這些指控不屬實。隨後,戈特利布打電話給沃爾特斯。
沃爾特斯回憶說:「我記得那天是我的生日,5月5日。之所以記得這麼清楚,是因為艾倫·戈特利布給我打了個電話,我記得他問我……你坐好了嗎?」
對於戈特利布在電話上告訴他的事,沃爾特斯驚得目瞪口呆。聊天機器人不僅提供了信息,還生成了一些文件,讓不熟悉法庭的人可能會誤以為是真正的法庭文件。
「(那些文件寫著)第二修正案基金會的艾倫·戈特利布訴馬克·沃爾特斯(Alan Gottlieb, SAF, versus Mark Walters),文件裡面偽造了案卷號、案件編號,簡直一應俱全。對於任何從來沒有見過法庭文件或官方文件的人,甚至是見過這類文件的人來說,都會覺得這份文件看起來很正式。這就是為什麼弗雷德(里爾)會打電話給艾倫(戈特利布)。」沃爾特斯說道。
ChatGPT聲稱該欺詐案已提交至「位於西雅圖的華盛頓州西區美國地方法院」。但經查閱地方法院記錄,並未發現任何涉及沃爾特斯的訴訟案件。
里爾沒有回覆記者就此事尋求置評的電子郵件。開發ChatGPT的OpenAI公司也沒有回覆。
OpenAI的律師告訴法庭,人工智能機器人ChatGPT出現了「幻覺」。

ChatGPT有學習能力
柯克·西格蒙(Kirk Sigmon)是一位常駐華盛頓特區的律師,專長於知識產權、計算機工程和電氣工程專利等。他擁有大型語言建模方面的經驗,而ChatGPT正是利用這種建模方法進行學習。
西格蒙表示,目前尚不清楚ChatGPT具體的學習方式,因為這些細節信息屬於OpenAI的專有技術,外界無法獲取。但他表示,一些基本信息是已知的。
西格蒙表示,人們普遍有一種誤解,認為人工智能是一個高級搜索引擎,可以根據用戶的請求提供信息,就像數字百科全書一樣。
但他表示,如果說搜索引擎是百科全書,那麼人工智能更像是研究生,它不僅提供信息,還在過程中不斷學習。而且,就像學生一樣,它有時也會犯錯。西格蒙說,人工智能系統被設計成可以從任何可用來源(包括用戶提出的請求)收集信息。
「由於這些模型接受的是學習型訓練,而不是記憶型訓練,這意味著它們本質上是不完美的。」他說道。
一位知名播客主播與他的人工智能分身最近進行了一次互動,生動地展現了人工智能的學習方式。
在10月25日播出的一期播客節目中,保守派政治評論員馬特·沃爾什(Matt Walsh)打電話給一個為模仿他而設計的聊天機器人。沃爾什表示,這次互動令人深感不安。
「這不對勁,其中沒有一個地方是對勁的。這不應該是合法的。」沃爾什在播客節目中說道。

在對話中,人工智能版的沃爾什聲稱他有一個17歲的繼女,名叫索菲亞(Sofia)。
當沃爾什告訴這個機器人它的信息有誤時,機器人反駁道:「那請告訴我你六個孩子的名字吧。」
人工智能版的沃爾什還公開支持同性婚姻和跨性別主義,而沃爾什本人在這兩個問題上是持反對意見的。沃爾什曾積極推動田納西州修改州法律,禁止對兒童進行跨性別醫療手術。
他呼籲對使用人工智能模仿真人的做法也要採取類似的禁令。
「這應該是違法的。未經我的同意,不應該使用我的肖像或聲音進行創作。」沃爾什說道。
「我應該可以提起訴訟,讓這樣的事情銷聲匿跡。」
根據現行法律,沃爾什可以提起訴訟,但他面臨的挑戰將會和沃爾特斯遇到的挑戰一樣。
在沃爾特斯的案例中,首先,里爾不相信機器人提供的信息,所以才打電話給戈特利布求證。此外,沃爾特斯也承認他沒有遭受任何實際的損失,因為只有里爾、戈特利布和沃爾特斯三個人看到了這些信息,而且他們都知道這些信息是假的。
對沃爾特斯不利的主要因素是他的身分,他在特定領域裡是一名公眾人物。
在美國的大多數州,誹謗普通公民的認定標準相當低。如果某一事件使某人遭受公開的嘲笑或者名譽上的損失,那麼普通公民在誹謗訴訟中很可能獲得勝訴。
但對於公眾人物而言,標準則更高一點。公眾人物,例如政治家、演藝人員或電台主持人等,都希望吸引受眾。在他們吸引關注的同時,也必然會招來他人的審視和評價。因此,他們必須證明,虛假信息不僅損害了他們的聲譽,而且虛假信息的發布者也未能履行盡職調查責任,以確保信息的真實性。
也就是說,作為一名公眾人物,沃爾特斯必須證明OpenAI在運營時完全無視事實,肆意妄為。

OpenAI的律師指出,ChatGPT的流程會發出多次警告,表明其提供的信息可能不正確,甚至是錯誤的。法院也同意這個說法。
然而,計算機並沒有能力去關心信息是否錯誤,尤其是在信息符合算法要求的時候。西格蒙表示,如果告訴機器人第一個答案是錯誤的,人工智能只會直接重新計算一次。
他認為,當里爾向ChatGPT詢問訴訟事宜時,情況就是這樣。人工智能系統裡面沒有所需的信息。於是,里爾把自己的請求重新組織了一下,機器人重新進行計算,直到得出看似可行的答案。
美國新聞/談話類廣播行業的行業刊物《談話者》(Talkers)雜誌副總裁馬修·哈里森(Matthew B. Harrison)表示,在他看來,沃爾特斯的案件結束得太倉促了。他指出,除了沃爾特斯作為公眾人物的身分之外,還有一些法律和道德問題尚未得到解決。
版權問題
哈里森指出,人工智能學習所使用的大部分數據都受到版權保護。
如果沃爾特斯勝訴,那麼接下來的一個合乎邏輯的問題就是:誰應該承擔法律責任?人工智能系統處理了海量的數據。無論法庭裁決判為版權侵權還是誹謗,想要將責任範圍縮小到單一的虛假信息來源,這都是不現實的。

「要確定虛假信息的來源,從而能夠斷定這些信息是被人工智能公司竊取、濫用或其它什麼方式,這是一項幾乎不可能完成的任務。」沃爾特斯說道。
他說,他決定不上訴,因為他沒有足夠的資源去打一場曠日持久的法律戰。他表示,他的案件終於引起了人們對一個必須解決的問題的關注。
沃爾特斯說,讓他至今仍然感到惱火的一件事是,這個虛假的訴訟案竟然被標籤為人工智能產生的「幻覺」。
沃爾特斯說,其實有一個更簡潔的說法,大多數人一聽就可以馬上理解:「他們撒謊誣陷了我。」
「就像你看到的,他們把那些謊言稱為幻覺,甚至還給它們起了名字。他們知道它(人工智能)會這麼做。用我律師的話來說,就是『他們明知這個機器人會撒謊,卻還是把它放到地球上來,這樣做是不對的。』」
原文:He Was the First to Sue AI for Defamation–the Result Is a Cautionary Tale刊登於英文《大紀元時報》。
責任編輯:葉紫微

沒有留言:
張貼留言