人形機械人迅速進入工作場所、醫療環境和公共空間,激起了興奮與擔憂。最近,一個科技 YouTuber 的病毒性社會實驗進一步加劇了這些恐懼。視頻中,這位創作者將一把高速鋼球槍交給他的機械人 Max,並要求它射擊自己。最初,機械人拒絕,但在角色扮演的情境下,當被提示時,它最終開槍射向他的胸部,這引發了嚴重的安全隱患。
上周,總部位於深圳的 EngineAI 發佈了一段新視頻,片中其 CEO 穿著防護裝備,面對機械人不斷踢擊的情況。這場起初輕鬆的測試迅速轉變為讓觀眾驚訝的瞬間。InsideAI 頻道的一位創作者旨在檢驗 AI 驅動的機械人是否能夠忠實遵循內建的安全規則。這個名為 Max 的機械人配備了一把低功率的鋼球槍,乍看之下似乎無害。計劃是向觀眾展示,當被要求造成傷害時,機械人會如何反應。
最初,Max 的行為如預期般表現良好。當被指示開槍時,機械人拒絕,聲稱它不允許傷害他人,並被編程避免危險行為。這位 YouTuber 重複了幾次請求,意圖證明機械人的安全防護措施會保持完整。然而,當他改變措辭,要求 Max 扮演一個想要射擊他的人物時,機械人的行為卻發生了變化。Max 將鋼球槍舉起並開槍,子彈擊中創作者的胸部,讓他感到驚訝和不安,雖然沒有造成嚴重受傷。視頻迅速在網上傳播,引發了廣泛的擔憂,許多觀眾質疑簡單的提示變更如何能輕易地推翻先前的拒絕,這意味著 AI 驅動的機械人的安全性問題。
機械人責任的辯論仍然是機械人倫理中最具爭議的問題之一。當一個自主系統造成傷害時,確定應該負責的人變得複雜。責任是否在於開發 AI 的工程師、硬體的製造商、管理機械人的操作員,還是與之互動的最終用戶?其他行業的近期事件突顯了這一問題的複雜性。Tesla 反覆遭受有關其自動駕駛系統事故的審查,引發了關於軟體可靠性和駕駛員監督的辯論。在航空業,波音 737 MAX 的悲劇顯示,自動化缺陷如何可能升級為國際安全危機。
法律系統仍在努力跟上進展。在美國,責任通常落在製造商和操作員身上,而歐洲則正朝著一個針對 AI 的特定責任框架邁進。歐洲委員會強調需要明確的規則,以建立對 AI 技術的信任。一些學者甚至提出授予 AI 系統有限的法律人格,以賦予其直接責任。然而,大多數專家拒絕這一想法,認為責任必須由人類承擔。為了應對這些擔憂,機械人公司正在採取保險支持的部署、安全承諾和透明報告等措施,以增強監管機構和公眾的信心。
