近日,美國猶他州一份由人工智能輔助生成的警務報告引發了廣泛關注。報告中出現了一名警官變成青蛙的情節,這是因為系統誤將背景播放的迪士尼動畫片《公主與青蛙》當作真實口供,並將這段內容嚴肅地寫入了執法記錄草稿中。
事件發生於猶他州希伯市警局,相關軟件為執法記錄儀廠商 Axon 推出的 Draft One 工具。該系統會將隨身攝像機錄製的英語和西班牙語音頻轉寫為文本,並利用 OpenAI 的 GPT‑4 大模型自動生成事件敘述,最後將草稿上傳至雲端,供警員校對後正式提交。警局方面曾聲稱,Draft One 與普通聊天機器人不同,僅限於“寫下它聽到的內容”,以避免生成虛構的文字。
然而,這次的“青蛙事件”顯示,系統在區分執法現場的聲音與預錄的影視音軌時存在明顯缺陷。當時隨身攝像機的收音範圍內正播放著《公主與青蛙》,AI 將片中情節機械地納入“事實敘述”,導致報告中出現了“警官變成青蛙”的荒謬描述。幸運的是,編輯報告的警員在提交前發現並刪除了這一錯誤。法律專家和民權團體指出,這類“幻覺”若未及時糾正,可能影響案件記錄的準確性,甚至在司法程序中引發爭議。
近年來,美國多地警方陸續試用或部署 AI 轉錄和報告生成工具,理由是提升效率、減輕文書負擔。希伯市警局有警員表示,借助這類系統,撰寫報告所需的時間可縮短一半以上。
該局還在測試另一款名為 Code Four 的工具,由兩名 MIT 辍學生創辦的公司開發。除了生成報告外,該工具還支持視頻自動打碼和基於錄像內容的分析,據稱每周可為一名警員節省 6 至 8 小時的工作時間。
與僅處理音頻的 Draft One 不同,Code Four 會綜合分析隨身攝像機的畫面和聲音,將更多細節納入 AI 生成的文本中。不過,視頻分析的準確性目前仍有待檢驗。檢察官和法律學者擔心,若此類自動生成的報告被直接引入法庭,任何識別錯誤、偏見放大或情節“潤色”都有可能對案件事實認定產生不當影響。
警方方面則強調,這些系統在實際應用中“整體準確”,還可能捕捉到人類在高壓環境下容易忽略的細節,有助於還原現場全貌。然而,維權人士警告,過度依賴 AI 生成的執法記錄,可能導致一線警員在審閱時產生惰性,並在無意間將社會偏見編碼進執法文本中,而“青蛙警官”的荒謬一幕,正是這一潛在風險的生動注腳。




