
愈來愈多國際慈善組織與公共衛生機構,正使用 AI 工具生成極端貧困或性暴力倖存者的圖像。這些合成相片大量出現於 Adobe Stock 及 Freepik 等知名圖庫平台,令 AI 倫理問題備受國際關注。
資金壓力與成本考量成轉用 AI 主因
推廣道德影像使用的非政府組織 Fairpicture 成員 Noah Arnold 表示,這股趨勢的成因之一,是美國政府大幅削減對非政府組織的預算。美國前總統特朗普曾於 2025 年 7 月簽署《2025 年度撤銷法案》,從美國國際開發署(USAID)及其他對外援助計劃中撤回約 80 億美元(約港幣 624 億元)資金,並取消約 83% 的 USAID 合約。在資金壓力下,許多機構轉向使用 AI 生成圖像,以節省拍攝與授權成本,同時亦可避開肖像權的法律及倫理爭議。
複製貧困視覺模式 強化種族刻板印象
比利時安特衛普熱帶醫學研究所研究員 Arsenii Alenichev 在醫學期刊《The Lancet Global Health》發表評論文章,揭露他收集了超過 100 張由 AI 合成的「援助圖像」。這些圖像包括手持空盤的兒童、在泥濘水窪中蜷縮的孩子,以及臉上掛著淚痕、身穿婚紗的非洲女孩等畫面。Alenichev 指出,這些內容除了明顯強化對非洲、印度等地的負面刻板印象,也出現種族化傾向,複製了所謂「貧困的視覺語法」。標題為「垃圾河中游泳的亞洲兒童」、「白人志工為非洲村落孩童看診」、「難民營裡的真實童年」等 AI 生成圖像,已廣泛上傳至主流圖庫網站。聯合國及慈善組織 Plan International 亦曾於實際宣傳活動中使用 AI 生成的影片或圖像,其中聯合國的影片在《衛報》查詢後已被撤下。
圖庫平台持續流入 恐成訓練數據來源
Freepik 行政總裁 Joaquín Abela 回應時指出,是消費者推動 AI 圖像的需求,平台無法為此負責。然而專家擔憂,這些圖像一旦被收錄進資料庫,便可能會用於訓練下一代 AI 模型,進一步複製與放大現有偏見,令募資訴求逐漸脫離現實。
呼籲制定清晰準則 避免科技誤用
Alenichev 表示,這些相片不應獲准公開使用,否則只會加深全球觀眾對特定地區的誤解與污名。多項研究證實,生成式 AI 會延續甚至放大社會偏見,Fairpicture 及相關單位呼籲制定清晰準則,禁止以 AI 過度簡化或娛樂化他人的痛苦,避免科技落入被誤用的灰色地帶。
分享到 :
最新影片

Follow 我們 :
|
鍾意就快D Share啦!
|
|
|


