AI工具可能有助於調解一些極具爭議的文化戰分歧。據英國《衛報》報道,研究人員稱,他們研發的系統通過創建反映多數人和少數人意見的群體聲明,幫助人們取得一致。
這項研究的共同作者、來自牛津大學的蘇摩菲德(Chris Summerfield)教授表示,該AI工具可以有多種用途。「我希望看到的是,它能讓英國的政治領袖更瞭解英國人民的真正想法」,他指出,問卷調查只能提供有限的洞察力,而被稱為公民大會的論壇通常成本高昂、通勤困難且規模有限。
蘇摩菲德是在谷歌DeepMind工作時進行這項研究。他與來谷歌DeepMind的同事在《科學》期刊撰文,介紹了他們建立的、以德國哲學家哈貝馬斯(Jurgen Habermas)命名的AI系統「哈貝馬斯機器」(Habermas Machine)。
該AI系統的運作方式是收集團體內個人的書面意見,生成一套旨在能讓所有人都接受的團體聲明。然後,群體成員可以對這些陳述進行評分,選出獲得最多認可的聲明。參與者還可將批評回饋給哈貝馬斯機器,由AI生成第二輪聲明,再次評分並選出最終的修訂文本。
研究團隊用該系統進行了一系列實驗,在英國共招募了5000多名參與者。在每個實驗中,參與者被要求回應從猴子在醫學研究中的角色到公共教育中的宗教教學等各種話題。
在一項75個6人小組的實驗中,研究員發現哈貝馬斯機器的初始群組聲明有56%比人類調解員製作陳述更受參與者喜愛。AI的答卷也被評為品質更高、更清晰、更有資訊性。
另一系列實驗發現,與參加者的早期意見分歧相比,走完AI機器的兩步流程後,群體的一致度提高了。總體而言,認同度平均增加了8個百分點,相當於100個人中有4個人改變了對原本意見不一的主題的看法。不過,研究員強調,參與者並不總是轉而支持大多數人的觀點。
研究員說:「機器似乎在做的是,大致上尊重每個小群體中大多數人的觀點,但也嘗試撰寫一段文字,不讓少數人覺得自己被深深剝奪了權利,所以它也算是認可了少數人的觀點。」
然而,哈貝馬斯機器本身也備受爭議。有研究人員指出該系統無助於將民主討論轉化為政策。
UCL的衝突解決專家賈森(Melanie Garson)說:「雖然是是科技樂觀主義者,但我擔心有些少數族群可能太小,無法影響這種群體聲明,卻可能不成比例低受到其結論的巨大影響」。
她也指出,哈貝馬斯機器無法讓參與者有機會解釋自己的感受,從而讓持不同觀點的人感同身受。本報訊