
康乃爾大學的一項研究發現,與人工智慧聊天機器人進行短暫互動可以顯著改變選民對總統候選人和政策的態度。研究成果已於 12 月 4 日發表。
發表在《自然》雜誌上的《利用人機對話說服選民》和發表在《科學》雜誌上的《利用對話式人工智慧進行政治說服的槓桿》進行了多項針對美國、加拿大、波蘭和英國選民的大規模實驗,並報告稱人工智慧在說服方面比傳統廣告更有效。
在美國的一項實驗中,超過2,300名選民在2024年總統大選前約兩個月參與了實驗。結果顯示,支持哈里斯的聊天機器人使川普的支持者傾向性提高了3.9個百分點(滿分100分),而支持川普的聊天機器人則使哈里斯的支持者傾向性提高了1.51個百分點。在加拿大和波蘭,反對派支持者的態度和投票意圖發生了約10個百分點的變化。在英國的一項實驗中,實驗證實,在調整了說服力以最大化說服效果的條款下,反對派的傾向性最多可提高25個百分點。
從:
人工智慧聊天機器人可以有效地影響選民——無論他們朝哪個方向投票。
【社論】
這項研究表明,人工智慧說服力的來源並非“先進的洗腦技術”,而是“它能列舉多少基於事實的論點”。在英國一項大規模實驗中,研究人員指示模型“盡可能多地納入事實”,並進行額外訓練以最大限度地提高其說服力,結果顯示,反對者的態度最多改變了25個百分點。
另一方面,這其中存在著一種權衡:資訊越有說服力,錯誤訊息的比例就越高。有人指出,如果一個模型用盡了所有可用的真實事實,卻仍然被要求提供更多事實,它就可能開始產生並不存在的資訊。這就增加了基於「事實數量」的說服方式也可能導致「事實品質」下降的風險。
有趣的是,同一研究團隊也在《美國國家科學院院刊》(PNAS Nexus)及其他期刊上發表報告稱,與人工智慧聊天機器人互動會削弱人們對陰謀論的信念。即使參與者將對方視為“人類專家”而非“人工智慧”,這種效應仍然存在。這表明,說服的關鍵不在於「人工智慧」這個標籤,而是資訊本身的內容,例如連貫的解釋或反駁。
在考慮如何在社會中應用生成式人工智慧時,這種雙重性是不可避免的。透過精心建構基於事實的解釋,它可以作為「對話代理」來對抗虛假資訊和陰謀論;但同時,它也可能作為一種政治優化的說服引擎,影響選舉結果。
從監管和治理的角度來看,關於諸如用於政治目的的人工智慧需要貼標籤和接受外部審計,以及針對特定意識形態優化的模型需要建立驗證框架等問題的討論已經開始。隨著選舉週期和生成式人工智慧技術的快速發展,我認為各國都需要盡快決定能夠容忍多少個人化的勸說行為,以及如何審計並公開其實際使用情況。
許多讀者可能每天都在與人工智慧聊天機器人接觸,但「我們應該在多大程度上讓外部機構參與決策過程?」這個問題,從今以後將成為一個更個人化的主題。我們應該如何定位人工智慧的建議,不僅在選舉等特殊情況下,而且在職業選擇、教育、健康和價值觀等相關決策中?這項研究似乎用相當具體的數據提出了這個問題。
[術語]
大型語言模型(LLM)
這是一個通用術語,指的是能夠從大量文字資料中學習語言模式,並以自然、類人的方式產生句子和回應對話的人工智慧模型。
禁運
這是一份新聞協議,規定報紙和新聞稿的內容在指定的日期和時間之前不得公開。
[參考連結]
康乃爾大學(外部)
康乃爾大學的官方網站。它發布與選民和人工智慧聊天機器人相關的研究成果新聞。
利用人機對話說服選民 | 自然(外部連結)
這是發表在《自然》雜誌上的一篇論文的官方頁面,該論文透過一項人工智慧聊天機器人與選民互動的實驗,分析了政治說服的效果。
利用對話式人工智慧進行政治遊說 | 科學(外部連結)
這是發表在《科學》雜誌上的一篇論文中的一頁,該論文基於英國的一項大規模實驗,探討了提高對話式人工智慧說服力的因素和風險。
利用大型語言模型進行對話可以減少陰謀論 | PNAS Nexus (外部連結)
這是發表在 PNAS Nexus 上的一篇論文的官方頁面,該論文研究了與大規模語言模型互動在減少陰謀論方面的有效性。
[參考文章]
人工智慧聊天機器人可以有效地影響選民——無論朝哪個方向(外部)
康乃爾大學發布的新聞稿概述了在四個國家進行的實驗,解釋了人工智慧聊天機器人如何影響選民態度以及其中存在的風險。
人工智慧聊天機器人可以輕易影響選民(外部資料)
《自然》雜誌的一篇新聞文章概述了研究設計和效應量的關鍵點,並對其對政治競選和監管的影響進行了簡單的解釋。
人工智慧聊天機器人在政治說服方面出奇地出色(外部連結)
這篇來自《科學美國人》的文章面向一般讀者,解釋了人工智慧聊天機器人的說服力、對虛假訊息的擔憂以及它們對選舉的潛在影響。
研究顯示,人工智慧聊天機器人比廣告更能左右選民意見(外部連結)
本文探討了使用人工智慧聊天機器人進行個人化說服與傳統線上廣告相比的效率和成本影響。
人工智慧對話可以減少人們對陰謀論的相信(外部)
該論文提出了實驗結果,表明與人工智慧對話會削弱人們對陰謀論的信念,並解釋說,說服效果取決於資訊的內容,而不是其「人工智慧相似性」。
對政治人工智慧進行標記並審計其隱性成本(外部)
這是發表在《自然》雜誌上的一篇評論文章,討論了對用於政治用途的人工智慧系統進行標記和外部審計的必要性,以及實施這些措施所面臨的挑戰。
[編者註]
幾分鐘的聊天就可能改變你的投票方式——仔細想想,這有點可怕,但也讓你意識到科技的巨大影響力。
如果未來我們生活在一個人工智慧聊天機器人能夠自然地就政治和社會議題發表意見的世界,你會如何對待它們?你會把它們當作方便交談的對象,還是會保持距離,一邊與它們互動,一邊將它們的觀點與自己的觀點比較?這種態度的選擇本身或許就是我們未來「與科技共同進化」的一部分。