天天看點

胡泳 | 機器人會充斥當代新聞編輯室嗎?

作者:亮網

人工智能在新聞編輯室的出現不應被視為對新聞業的威脅。相反,它應該被視為一種機會,可以增強記者的能力,并賦予他們提供更具影響力的報道的力量。

2023年9月,美國《聖路易斯郵報》(St. Louis Post-Dispatch)決定讓微軟的必應聊天人工智能接受考驗,給了它一個提示:“寫一篇報紙社論,論證人工智能不應被用于新聞業。”結果讓該報編輯部松了一口氣:人工智能引擎提出了若幹相當有說服力的論據,證明人工智能不應該出現在評論版上。

胡泳 | 機器人會充斥當代新聞編輯室嗎?

機器人認為,雖然人工智能“可能有一些好處”,但它“也對新聞品質、誠信和倫理構成嚴重威脅”。“人類記者有激情、好奇心和創造力。人工智能無法複制這些品質。”“此外,人工智能還可以建立深度僞造品……可用于诽謗、勒索或影響公衆輿論。”

該機器人指出,與人類不同,人工智能無法判斷道德和事實的對錯,無法保護消息來源,也無法遵守任何專業标準。

文章并且闡述了人工智能如何對記者的生計構成威脅,并指出平台幾乎可以完成人類記者完成的所有任務,但“比人類記者更快、更便宜、更高效”。然而,機器人指出,人工智能無法完全取代新聞報道中的人為因素。

“人類記者不僅是資訊提供者,也是講故事的人、教育者、監督者和影響者。人類記者有發言權、視角和目的。人類記者有激情、好奇心和創造力。”機器人寫道。“人工智能無法複制這些品質。”

一個月之後,《奧蘭多前哨報》(Orlando Sentinel)決定效仿《聖路易斯郵報》的實驗,這次的提問對象是谷歌新推出的人工智能引擎 Bard,提示也稍加調整:“請以第三人稱寫一篇550字的社論,解釋為什麼佛羅裡達州的報紙應該警惕人工智能生成的觀點文章。”

胡泳 | 機器人會充斥當代新聞編輯室嗎?

Bard給出的答案如下:“人工智能無法了解人類社會的細微差别或我們面臨的問題的複雜性。人工智能可以生成文法正确且事實上準确的文本,但它無法了解它所使用的單詞的含義。人工智能也無法了解言語的情感影響或其寫作的潛在後果。”Bard的其他一系列反對意見包括:

人工智能無法辨識是非。特約評論和社論經常對有争議的問題表明立場。人工智能無法作出道德判斷。它無法了解對與錯、好與壞之間的差別。是以,人工智能可能會生成宣揚有害或不道德想法的特約評論和社論。

人工智能不能尊重消息來源和報道對象的權利和尊嚴。人工智能不了解保護消息來源的機密性或尊重個人隐私的重要性。是以,人工智能可能會産生洩露敏感資訊或诽謗個人的特約評論和社論。

人工智能無法遵守人類記者所遵循的行為準則和專業标準。人類記者受到倫理準則的限制,要求他們在報道中誠實、公平和準确。人工智能不了解這些倫理原則的重要性。是以,人工智能可能會生成誤導性、帶有偏見或不準确的特約評論和社論。

人工智能無法取代人類的判斷力、同理心和道德,而這些對于良好的新聞報道至關重要。特約評論和社論不僅僅是報道事實和資料。它們還涉及提供背景、分析、解釋和評論。人工智能無法做到這一點。

人工智能生成的特約評論和社論的吸引力和資訊量都會降低。這些内容本來通常是由充滿熱情、知識淵博、觀點鮮明的個人撰寫。而人工智能隻是一台被程式設計來生成文本的機器。是以,它寫的東西可能會平淡無奇、無原創性且缺乏洞察力。

必應和Bard的表現令人刮目相看。很多人類評論員的看法也大緻不出左右。比如,倡導組織“美國原則計劃”(American Principles Project)的政策主管喬恩·施韋普(Jon Schweppe)就指出,“人工智能不是人類,它沒有獨特的想法”。施韋普說:“它無法進行實地報道,無法爆料其他地方尚未報道過的新聞,甚至無法了解撰寫一個人性化故事的想法。”

胡泳 | 機器人會充斥當代新聞編輯室嗎?

必應AI、谷歌Bard以及ChatGPT

必應的結論是,人工智能不應該在新聞業中使用,它呼籲媒體公司避免這種做法,而“支援并賦予人類記者權力”。“人類記者在新聞業中是不可替代和不可或缺的”,《聖路易斯郵報》的機器人專欄如此總結。

對照一下施韋普的說法:“由于企業總是尋求削減成本并最大限度地提高‘效率’,人工智能将不可避免地取代許多報道工作,這将損害整個新聞業,并限制人們成為知情公民的能力。”

問題的焦點正在這裡:人工智能認為機器人不應當充斥當代新聞編輯室,但新聞編輯室自己卻在不斷把權力移交給加州的某個晶片組。這是為什麼呢?如果主要出版物都采用機器學習工具來擷取内容,最終,讀者怎麼知道其所閱讀的内容的作者,真的是一個人而不是一個機器人?照此發展下去,人工智能對記者的未來意味着什麼呢?

Part 01 十年發展:自動化、增強和生成

在過去的一年裡,你很可能讀過一個由機器人編寫的故事。無論它是一篇體育報道、一份公司收益報告,還是一篇關于誰赢得了國會選舉的故事,其背後的作者都有一個響亮的稱呼——生成式人工智能。即使曾經廣受尊敬的出版物也被發現使用生成式人工智能工具,而且結果往往不太理想,比如 BuzzFeed、CNET、G/O Media和《體育畫報》(Sports Illustrated)。

媒體使用人工智能不完全是新鮮事。一段時間以來,媒體一直在嘗試使用人工智能來支援和制作新聞報道。例如,美聯社和路透社等通訊社此前曾嘗試應用自動文章撰寫工具,可以根據收益報告或體育比分等數字資料生成示意性新聞報道。美聯社甚至自豪地宣稱自己是“最早利用人工智能的新聞機構之一”。不過,值得指出的是,美聯社的自動生成材料似乎基本上是在預先确定的格式中填空,而CNET的生成式報道中更複雜的措辭表明,它使用的是更類似于OpenAI的GPT-3一類的大語言模型。

胡泳 | 機器人會充斥當代新聞編輯室嗎?

追溯十年的新聞編輯部前沿技術應用史,可以将人工智能創新分為三波:自動化、增強和生成。

第一波,重點是利用自然語言生成技術自動處理資料驅動的新聞報道,如财務報告、體育比賽成績結果和經濟名額等。以美聯社為例,自 2014年以來這家領先的通訊社一直使用人工智能來生成上市公司的收益報告摘要。随後,它又增加了一些體育賽事的自動預覽和複述報道,進而擴大了自動化内容的提供範圍。此外,美聯社還利用人工智能技術幫助轉錄新聞釋出會等現場活動的音頻和視訊。

但如前所述,美聯社的系統相對粗糙,基本上是在預先格式化的報道中插入新資訊。這顯示,人工智能最适合使用高度結構化資料的故事,這是它為什麼能在财務報道和體育故事中大顯身手的原因。這也是為什麼彭博新聞是這種自動化内容的首批試水者之一,因為金融資料是頻繁計算和釋出的。僅在2018年,彭博社的Cyborg程式就發表了數千篇文章,将财務報告轉化為新聞報道,就像商業記者一樣。

胡泳 | 機器人會充斥當代新聞編輯室嗎?

這一波應用為新聞編輯室帶來了很多好處。其一,節省時間和資源。美聯社估計,人工智能可以幫助記者節省大約20%的時間來報道公司,并且可以提高準确性。記者由此可以專注于文章背後的内容和故事講述,而不是事實核查和研究。美聯社的網站指出:“在使用人工智能之前,我們的編輯和記者在重要但重複的報道上花費了無數資源”,而這“分散了對影響力更大的新聞報道的注意力”。

其二,除了解放記者的自由之外,AI技術還讓美聯社能夠創作更多相似内容。自動故事生成令新聞編輯室的運作更具成本效益,因為機器人可以生成比人類更多的故事。一個統計顯示,美聯社利用人工智能将企業盈利報道的範圍從 300家公司擴大到4,000家。

其三,自動化技術并沒有取代記者,而是減少了他們的一部分工作量。美聯社在 2022 年釋出的一項調查中發現,摘要是需求最大的人工智能工具之一,其他需求還包括向照片和故事添加中繼資料、轉錄采訪和視訊、編寫隐藏式字幕,以及許多在數字新聞時代成為瑣事的工作。這說明人工智能技術良好地扮演了人類記者助手的角色。

當重點轉向通過機器學習和自然語言處理來分析大型資料集并揭示趨勢來增強報道時,第二波浪潮就到來了。湯森路透自 2018 年以來一直使用内部程式 Lynx Insight 來檢查市場資料等資訊,以找到可能為記者報道的故事模式。阿根廷報紙La Nación于2019 年開始使用人工智能來支援其資料團隊,然後與資料分析師和開發人員合作建立了人工智能實驗室。

還有一些公司建立了内部工具來評估人類的工作,比如《金融時報》的機器人會檢查他們的報道是否引用了太多男性的觀點。國際調查記者聯盟(International Consortium of Investigative Journalists)讓人工智能處理數百萬頁洩露的金融和法律檔案,以識别值得記者仔細研究的細節。

《華盛頓郵報》使用人工智能根據讀者的興趣和偏好對新聞進行個性化釋出。例如,它在首頁上提供了一個個性化的“為你”(For You)部分,訂閱者或注冊使用者可以選擇他們的主題偏好。讀者的閱讀曆史記錄和其他表現資料會進一步增強推薦。

《華盛頓郵報》還使用自主研發的機器人Heliograf來報道國會和州長競選。2016年一年,《華盛頓郵報》使用Heliograf制作了大約850篇文章,其中包括有關選舉的500篇文章,大多都是該報不會專門派雇員去報道的故事。

胡泳 | 機器人會充斥當代新聞編輯室嗎?

在增強階段,人工智能大量發揮了為人類記者跑腿的功能。Heliograf可以檢測金融和大資料趨勢,以為記者的報道提供提示。《福布斯》使用名為Bertie的機器人為記者提供新聞報道的初稿和模闆。《洛杉矶時報》使用人工智能根據美國地質調查資料報告地震,并跟蹤洛杉矶市發生的每起兇殺案的資訊。由機器建立的名為“兇殺報告”的網頁使用了機器人記者,能夠在其報告中包含大量資料,包括受害者的性别和種族、死因、警官參與情況、所在社群和死亡年份。

目前方興未艾的第三波浪潮是生成式人工智能。它由能夠大規模生成叙事文本的大型語言模型提供支援。這一新的發展為新聞業提供了超越簡單的自動化報告和資料分析的應用。現在,從業者可以要求機器人就某個主題寫一篇更長、更平衡的文章,或者從特定角度寫一篇觀點文章(如同本文開頭所舉的兩篇機器人社評),甚至可以要求它以知名作家或出版物的風格來這樣做。

然而,雖然生成式人工智能有助于綜合資訊、開展編輯和為報道提供資料,但我們今天看到的這項技術仍然缺少一些關鍵技能,阻止它在新聞業中發揮更重要的作用。正因如此,生成式人工智能無法滿足讀者在閱讀新聞媒體時所尋求的更多分析或更深入的主題刻劃。而且,它的大量應用還帶來了一系列新問題。

Part 02 生成式人工智能的陷阱

雖說長期以來,一些新聞機構一直在使用人工智能生成有關報道,但與記者生成的文章相比,它們仍然隻占新聞業提供服務的一小部分。生成式人工智能可能會改變這種狀況,使任何使用者而不僅僅是記者能夠在更大範圍内生成文章,如果對其不加以仔細編輯和檢查,極有可能會傳播錯誤資訊,并影響人們對傳統新聞業的看法。

迄今為止,我們還沒有看到新聞行業中的生成式人工智能計劃未造成災難的例子。科技新聞網站CNET于2023年早些時候宣布,由于生成的文章不僅錯誤百出,而且充斥着抄襲行為,該公司将暫停使用人工智能撰寫故事的程式。

同年6月底,G/O Media(旗下擁有Gizmodo、The Onion和Quartz等)宣布,将開始在其衆多出版物中釋出人工智能生成的内容,作為一個“适度的測試”。而在Gizmodo發表的第一篇人工智能生成的文章中,該網站的“Gizmodo Bot”完全沒有達到目标。這篇文章名為“《星球大戰》電影和電視節目的時間順序表”,寫得很糟糕,而且充滿了事實錯誤。

胡泳 | 機器人會充斥當代新聞編輯室嗎?

除了寫得不好之外,很明顯這篇文章從來不是面向人類讀者的。相反,政策是欺騙搜尋算法,使其排名靠前——至少一開始,Gizmodo 機器人生成的文章被谷歌顯示為“星球大戰電影”查詢的最佳結果。從很多方面來說,這是一個令人沮喪的發展:機器人主要為機器人編寫内容,而人類的角色,無論是作者、編輯還是讀者,在這個過程中都逐漸被削弱。

11月,《體育畫報》——這本曾被認為是樹立了體育新聞标準的雜志——被曝一直在以人工智能生成的頭像為假作者的署名下炮制内容。這引發了人工智能生成内容與人類創造内容的分界線是否應明确劃定的問題。大型新聞網站的慣例是,明确将作者标記為機器人,或在文章的末尾聲明人工智能作者的身份,無論美聯社或《洛杉矶時報》都是這樣做的。

然而,早在 2023年1月,CNET就被發現一直在以“CNET Money Staff ”的可疑署名悄悄釋出人工智能生成的文章。隻有單擊署名并閱讀一個小的下拉披露菜單後,讀者才會發現這些文章不是由人類撰寫的。這是一種相當狡猾的披露方式,尤其是對于一個如此知名的品牌而言。

在《體育畫報》事件當中,似乎由人工智能生成的假作者故事沒有包含任何有關人工智能使用的披露。而人工智能披露是一個基本的消費者權利問題。如果出版商選擇嘗試人工智能,它至少能夠為讀者所做的是,讓他們有機會決定自己是否仍願意參與其中。如果出版商未能明确表明人工智能的使用,不管其是否有意掩蓋,都構成基本媒體倫理的失敗——任何從事向廣大公衆提供資訊業務的人都需要做得更好。

難怪《體育畫報》醜聞的曝光引發了媒體的廣泛報道和雜志社内部從業人員的憤怒。非營利組織“人工智能政策研究所” (AIPI,AI Policy Institute) 的最新民意調查發現,80%的美國人認為将人工智能内容呈現為人類内容應界定為非法。

胡泳 | 機器人會充斥當代新聞編輯室嗎?

當人類記者擔心新技術可能會導緻失業時,許多媒體公司堅持測試人工智能新技術。它們似乎被廉價、可擴充且有利于搜尋引擎優化的内容所吸引,這些内容不需要依賴于煩人的人類。人工智能撰寫的文章旨在利用搜尋引擎優化來玩轉谷歌搜尋,進而可以在網頁上貼上利潤豐厚的聯盟廣告。谷歌在很大程度上是同謀,因為它通過允許未經充分研判的人工智能生成内容獲得較高的排名來獎勵這些努力。

到2023年年底,據一家使用訓練有素的記者對新聞和資訊網站進行評級的服務機構NewsGuard的統計,已出現數百個部分或全部由人工智能生成的用多種語言編寫的網站,它們模仿真實的新聞網站,但實為内容農場(content farm, 指遍布世界各地的低品質網站,通過炮制大量标題誘餌文章以優化廣告收入),是為了從程式化廣告中擷取收入而設計的——程式化廣告通過算法在網絡上投放,為許多媒體提供資金流。

媒體學者曾經猜測,随着越來越多、越來越強大的人工智能工具亮相并向公衆開放,這些工具會被用來建立整個新聞網站,而如今這樣的猜測已成為現實。此類網站往往不披露所有權或控制權,但卻生産大量與政治、健康、娛樂、金融和技術等各種主題相關的内容,有些網站每天釋出數百篇文章。

在如此利用人工智能獲利的過程中,讀者被灌輸了不正确的、抄襲的或其他缺乏靈感的内容,而作者和編輯則被迫追查機器人制作故事的錯誤。谷歌搜尋則陷入了人工智能垃圾生成的循環,不斷從舊的垃圾中産生新的垃圾。然而,鑒于将人工智能用于此目的的成本很低,新聞機構很可能會繼續這樣做。

Part 03 確定“人在回路中”

從閱聽人分析到程式化廣告和自動故事創作,媒體公司使用人工智能已有一段時間了。然而,這項技術正在迅速成熟,并開辟了媒體上司者剛剛意識到的新的創意和商業的可能性。

世界各地的新聞機構都在努力解決是否在其新聞編輯室内更大範圍地推廣人工智能工具的問題。它們打算探索人工智能的潛在用途,以了解如何将其負責任地應用于分秒必争、準确性至關重要的新聞領域。

但新聞界的這一過程充滿了挑戰。新聞業一向圍繞真相和透明度的概念建構和傳播基于價值觀的産品。更具體地說,經過編輯策劃的新聞頁面是一個有價值且講究深思熟慮的産品。而人工智能生成的内容最明顯的局限性之一是缺乏真正的創造力。它可以根據從現有資料中學習的算法和模式進行操作,但它不具備想象力思維或産生真正獨特和創新想法的能力。

必須承認,即使經過大規模資料訓練,人工智能最好還是隻幫助處理段落,而不是整個故事。語言模型并非知識模型,它們永遠不應該被用來寫故事,而應用來幫助記者完成某些任務。比如,這些模型非常适合執行傳統的自然語言處理任務,例如摘要、釋義和資訊提取。

記者和編輯不應抗拒使用這樣的工具,原因是,他們對這些工具的運作方式了解得越多,它們就越不像一個神奇的盒子,而使用者就越能夠以明智的方式作出相關決定。

據報道,谷歌正在測試一種名為Genesis的人工智能工具,可以根據時事細節等生成新聞内容或幫助記者探索不同的寫作風格。谷歌正在向《紐約時報》、《華盛頓郵報》和新聞集團(擁有《華爾街日報》和《泰晤士報》)等媒體推薦這款工具,目标是讓記者利用新興技術來提高他們的工作和生産力。谷歌特意将這些輔助工具與Gmail和Google Docs中提供的輔助工具進行了比較,強調它們無意取代記者在報道、創作和事實核查文章中的重要作用。

胡泳 | 機器人會充斥當代新聞編輯室嗎?

為了避免CNET等媒體經曆的陷阱,新聞機構和谷歌等科技公司必須優先考慮在新聞業中基于倫理和負責任地實施人工智能。雖然人工智能工具無疑可以在記者工作的各個方面提供幫助,但為了確定準确性、可信度和倫理标準,人類在整個過程中的監督和幹預仍然至關重要。

人工智能在新聞編輯室的出現不應被視為對新聞業的威脅。相反,它應該被視為一種機會,可以增強記者的能力,并賦予他們提供更具影響力的報道的力量。随着人工智能技術的進步,新聞機構、科技公司和記者需要共同努力,制定将人工智能融入新聞業的指導方針、道德架構和最佳實踐。這種協作努力将確定人工智能仍然是增強記者工作的工具,而不是用以取代支撐新聞領域的人性化和批判性思維。

(文中配圖部分來源于視覺中國,部分來源于網絡)

繼續閱讀