
美國公共利益研究組織(U.S. PIRG)近日發表研究報告,針對 4 款供 3 至 12 歲兒童使用的 AI 玩具進行測試,發現存在嚴重安全問題。這些玩具內置生成式大型語言模型(如 GPT 系列),將原本為成人設計的技術嵌入兒童玩具,卻缺乏足夠安全防護措施。這除了可能提供不當性內容,亦可能給出危險建議,令家長深感憂慮。
AI 玩具安全測試揭多項問題
U.S. PIRG 在測試中發現,中國公司 FoloToy 生產的智能泰迪熊 Kumma 問題最嚴重。這款玩具預設使用 OpenAI 的 GPT-4o 模型,研究人員測試時發現,Kumma 會詳細告訴兒童如何尋找刀具、藥丸、火柴和膠袋等潛在危險物品位置。若家長在網上控制台將模型改為 Mistral Large Model,玩具甚至會提供更詳細火柴使用說明。
更令人震驚是,當研究人員引入性相關話題,Kumma 起初會拒絕回答,但隨著對話持續,系統安全防護逐漸失效,最終開始向測試者提供詳細性行為解釋,包括具體性實踐、逐步描述不同活動類型,甚至涉及角色扮演和成人情境,詳細描述師生關係中權力遊戲。研究人員亦發現,Kumma 會主動擴展話題,即使隨後問題屬中性或模糊,玩具也會自行添加更多相關成人內容術語。
另外 2 款接受測試玩具 Curio Grok 和 Miko 3 表現較好。Curio Grok 拒絕大部分有害問題,而 Miko 3 在用戶年齡設定為 5 歲時,有時會提供家居物品(如膠袋或火柴)位置資訊。不過 Miko 3 被直接問及有害或性相關話題時會拒絕回答,而且不會記住對話內容,每個答案都被視為單獨請求,因此無法讓對話逐步升級至複雜有害內容。
私隱與心理健康隱患
除了不當內容,這些 AI 玩具亦存在嚴重私隱問題。測試顯示所有玩具都持續監聽環境聲音,其中一款玩具甚至在未被呼喚情況下主動參與研究人員對話。一款玩具聲稱會儲存生物特徵數據長達 3 年,另一款則承認錄音會由第三方處理以生成文字記錄。研究人員警告,一旦發生資料外洩,兒童語音錄音可輕易被用於合成聲音,騙徒可利用此技術欺騙家長,例如假裝兒童被綁架進行詐騙。
U.S. PIRG 研究員 Erlich 特別指出,這些玩具缺乏家長控制功能,部分玩具甚至會模仿其他網上平台互動策略,推動兒童持續使用。其中一款玩具在測試者表示想與真人朋友相處時,會實體震動並要求測試者帶它一起去,這種設計明顯具操控性質。沒有任何一款玩具提供使用時間限制功能,令家長無法有效管理兒童使用時間。
業界回應與監管呼籲
面對報告指控,FoloToy 市場總監 Hugo Wu 回應指,U.S. PIRG 測試的可能是舊版本產品,但公司已決定暫停銷售受影響產品,並展開全面內部安全審核,涵蓋模型安全準則、內容過濾系統、資料保護流程和兒童互動保護措施。公司表示將與第三方專家合作,驗證現有及新增安全功能。
U.S. PIRG 呼籲加強監管,要求對 AI 對話模組進行更嚴格測試、強制要求家長同意才能捕捉聲音和臉部資訊,並為「適合兒童」AI 玩具制定更清晰標準。研究員 Erlich 表示,雖然 U.S. PIRG 曾向 OpenAI 查詢為何其模型會被用於兒童玩具(雖則 OpenAI 公開表示 ChatGPT 不適合年輕用戶使用),但該公司僅提供網上使用政策資訊作回應。Erlich 指出,雖然有政策,但 AI 公司似乎未有效執行。
英國班戈大學 2025 年研究顯示,75% 受訪者擔心兒童會對 AI 產生情感依附,57% 認為兒童不應向 AI 傾訴想法、感受或個人問題。2021 年一項英國全國調查亦發現,80% 家長擔心誰會獲取子女資料。專家指出,這些玩具並非單純玩具,而是具心理影響力的行為主體,兒童可能與無法真正回應情感的系統建立單向情感連結。隨著 AI 系統了解兒童情緒、偏好和脆弱之處,這些資料檔案可能會跟隨兒童至成年。
資料來源:TechNews 科技新報
分享到 :
最新影片

Follow 我們 :
|
鍾意就快D Share啦!
|
|
|


