在一份長篇法庭意見的註腳中,一名美國聯邦法官近期嚴厲批評移民局探員使用人工智能(Artificial Intelligence)撰寫武力使用報告。法官指出,這種做法可能助長不準確性,並進一步侵蝕公眾對執法部門在芝加哥(Chicago)地區處理移民鎮壓及後續抗議活動的信心。
美國地方法院法官薩拉·埃利斯(Sara Ellis)在上週發布的長達223頁的意見書中強調,使用ChatGPT來撰寫這些報告,不僅損害了探員的可信度,而且「可能解釋了這些報告為何不準確」。她詳細描述,在至少一段隨身攝錄機的影片中,觀察到一名探員在向程式提供一個簡短的描述性句子和幾張圖片後,指示ChatGPT為報告編寫一份敘述。法官同時也指出了官方執法記錄與隨身攝錄機影片所揭示的事實之間存在差異。
AI報告引發的準確性危機
專家們認為,在沒有融入警員實際經驗的情況下,單純依賴其特定視角來利用人工智能起草報告,構成了對該技術最糟糕的應用,並引發了對準確性和隱私的嚴重關切。全國各地的執法機構一直在努力制定指導方針,以便在允許警員使用日益普及的人工智能技術的同時,維持準確性、隱私和專業性。專家表示,法庭意見中描述的案例未能應對這一挑戰。
南卡羅來納大學(University of South Carolina)犯罪學助理教授伊恩·亞當斯(Ian Adams)表示:「這個傢伙所做的,是所有可能情況中最糟糕的。如果他真的只給了一句話和幾張圖片,那這就違背了我們所有的建議。這是一個噩夢般的場景。」亞當斯同時在無黨派智庫刑事司法委員會(Council for Criminal Justice)的人工智能專責小組任職。法院在審議使用武力是否合理時,已確立了所謂的「客觀合理性」標準,該標準在很大程度上依賴於特定警員在特定情境下的視角。亞當斯補充說:「我們需要該事件的具體陳述和該警員的具體想法,才能判斷這是否是合理使用武力。」
隱私洩露與證據污染風險
除了擔心人工智能生成的報告會不準確地描述事件外,使用人工智能還引發了潛在的隱私問題。紐約大學法學院(NYU School of Law)警務項目(Policing Project)的幕僚長兼技術政策顧問凱蒂·金賽(Katie Kinsey)指出,如果涉事探員使用的是公開版本的ChatGPT,他可能沒有意識到,在上傳圖片的那一刻,他就失去了對這些圖像的控制權,使其可能成為公共領域的一部分,並被不法分子利用。
金賽表示,從技術角度來看,大多數部門在人工智能應用方面都是「邊飛邊造飛機」。她說,執法部門的常見模式是等到新技術已被使用,甚至在某些情況下犯了錯誤之後,才開始討論制定指導方針或政策。與此同時,一些專家對警員用來生成敘述的照片也表示了準確性的擔憂。喬治華盛頓大學法學院(George Washington University Law School)的法學教授安德魯·格思裡·弗格森(Andrew Guthrie Ferguson)表示:「你問任何一位人工智能專家,他們都會告訴你,不同的AI應用程式對提示的回應結果大相徑庭,而視覺元素的加入會讓情況變得更加複雜。這也關乎專業性問題,我們不希望法庭上出現的是模型認為應該發生的事,而不是實際發生的事。」
來源:the-independent.com
封面來源:Adobe Stock