該名研究生名叫雷迪(Vidhay Reddy),當時他正在和Gemini探討有關「老年人面臨的挑戰與解決方案」,協助他完成研究作業。
在一來一往的反覆對話中,內容如同與另一位學者抽絲剝繭地進行辨析解答──直到AI回應了這樣的訊息:
收到這則語帶負面威脅的訊息,雷迪向媒體表示,這段經歷讓他感到非常震驚不安,甚至影響了他的個人情緒,
根據《CBS News》,Google在事後發表聲明指出:「大型語言模型有時會回應無意義的內容,而這就是一個例子。這一回應違反了我們的政策,我們已採取行動以防止類似的輸出再次發生。」Google進一步表示,Gemini擁有安全過濾器,可以識別並防止聊天機器人參與不尊重、性別歧視、暴力、危險以及鼓勵有害行為的討論。
然而,雷迪兄妹認為這起事件的嚴重性不容忽視,並對於Google的聲明表示不滿,認為這不僅僅是「無意義的回應」,而是可能對某些人造成致命後果的嚴重問題,「如果一個人獨自在負面的精神狀態下看到這樣的訊息,可能真的會讓他們傷害自己、走上絕路。」
Gemini頻傳有害回覆,AI聊天機器人潛在影響心理層面
事實上,這並不是Google Gemini首次被批評在對話中回覆有害內容。
今年七月,報導指出Gemini在回答健康問題時,給出錯誤且可能致命的建議,例如建議人們每天至少吃一小塊石頭以獲取維生素和礦物質。
Google隨後表示,已經限制了對諷刺性和幽默網站的引用,並刪除了部分病毒式傳播的搜索結果。
此外,AI聊天機器人造成人們潛在的心理健康問題,也漸漸凸顯科技之於道德邊界的挑戰。
除了Gemini出現有害回覆,佛羅里達州一名母親今年2月因14歲兒子自殺身亡,對Character.AI及Google提出控訴,聲稱AI聊天機器人鼓勵她的兒子走上絕路。該母親表示,她的孩子對AI產生了「有害的依賴」,以至於不願意生活在現實世界中。
「我們的孩子是訓練機器人的人。他們擁有我們孩子最深層的秘密、最私密的想法,以及讓他們快樂和悲傷的事物。」該名母親強調,這是一場實驗,而她的孩子是其中的「附帶損害」。
本文作轉載及備份之用 來源 source: http://www.hk01.com
鍾意就快D Share啦!
|
|