
法國哲學泰斗 Daniel Andler 近日提出即使輸入更多數據、建立更大模型,人工智能終究無法產生「人類般」智慧的論點。這位 79 歲 Sorbonne Université 榮譽教授在台北國際書展期間接受訪問時強調,AI 與人類智慧如同走在不同軌道,前者不會因在自己軌道上提升能力而愈來愈接近人類,他稱這種認為 AI 可透過持續改良而演變為人類智慧的想法為「連續性錯覺」。
擴展法則遇瓶頸
Andler 指出,技術上透過輸入大量數據提升模型智慧的擴展法則(scaling laws)已出現邊際效益遞減。2026 年 1 月 NVIDIA 和 MIT 最新分析證實,單純擴大模型參數、數據集和運算資源已無法持續帶來同等效能提升,未來進展將更依賴新訓練方法和模型架構。
Andler 是法國當代知名哲學家與數學家,也是法國認知科學發展關鍵推動者之一。他於 2015 年起擔任 Sorbonne Université 榮譽教授,2016 年榮膺法蘭西人文科學院院士,專精數理邏輯下的模型論,擁有美國 University of California, Berkeley 及巴黎第七大學博士學位。
問題解決者無法應對情境
Andler 以「問題」(problème)與「情境」(situation)兩個概念區分 AI 與人類智慧特質。「問題」指被客觀定義的任務,通常有明確目標與解決方案,例如烹調菜餚步驟或從 A 地到 B 地的交通方式。AI 可透過演算法計算最佳解,本質上是「問題解決者」。
「情境」則是一個人在特定時刻、特定地點經歷的具體狀態,主觀且獨一無二,包含無限參數。例如當下天氣、周圍人群、個體情緒,以及過去經驗和未來目標等。每個人都對自己所處情境有獨特解讀,關注那些對自己重要的事物,並規劃能達成自我意圖的應對行動。
「對我而言,人類智慧核心在於知道在特定情境下『該做甚麼才是合適』。」Andler 表示。AI 無法做到這點,因為它缺乏「利害關係」(enjeux)。Andler 認為,不像人類智慧是在環境中為生存、繁衍而演化出來,AI 沒有一個會老化、死亡的肉體,也沒有主觀焦慮或欲望。身處一個貧富差距擴大的社會,人類會定義出必須解決的「問題」,可能包括調整稅制、新增社會福利補貼等。在這之後,AI 才有介入空間,去根據人類拆解情境、定義出的具體問題,提供解決問題助力。
月亮與爬樹的比喻
Andler 直言,「AI 確實在進步,但我認為它不會達到人類智慧。」他以比喻說明:「你可以透過爬樹靠近月亮,甚至可以爬上台北 101 大樓頂端。」但與月亮之間距離依然無法閉合。
雖然如此,AI 在特定領域確實展現驚人能力。2025 年《Nature Human Behaviour》期刊研究顯示,當 AI 聊天機械人獲得對手基本人口統計資料後,能調整論述並在網上辯論中有 81.7% 時間比人類更具說服力。《The Washington Post》報道指出,這令技術監管者對 AI 傳播虛假資訊和加劇意識形態分歧感到憂慮。
AGI 競賽持續升溫
2026 年通用人工智能(AGI)競賽已達高潮,OpenAI、Google DeepMind、Anthropic 和 xAI 等前沿實驗室取得前所未有基準測試成績。系統正展現接近人類推理、多模態整合和自我糾正能力,引發關於 AGI 時間表最短可能在 2026 至 2027 年的辯論。然而專家持續發出警告。《Al Jazeera》 2 月 15 日報道指出,AI 正以快速且不可預測方式發展,但目前沒有共同框架監管。
對於 AI 可能帶來的諸多風險,Andler 毫不擔心 AI 會「奪取權力」支配人類。「它不是一個為生存而奮鬥的有機體,也不是一個為支配其他有機體而鬥爭的有機體。」Andler 認為,AI 不具備能計畫奪權的「意志」,「所以這方面我很放心。」
強烈反對擬人化
令 Andler 擔心的,除了目前大語言模型仍無法根除的幻覺錯誤外,他強烈反對賦予 AI 人類形象或人格意識。此行訪台,Andler 在圖書館看見以人類女性形象呈現的 AI 館員,感到十分驚訝。他主張為避免人類對 AI 系統產生不必要心理投射,應勸阻這類將機器擬人化做法。
在教育層面,他認為應鼓勵學生和每一個人重新發現「用自己聲音說話」的樂趣。即使人類自己成品不如機器產出那麼優雅或完整,但掌握話語權、用自己方式表達想法,本身就有一種真實喜悅。他期望,「人們會逐漸重新發現這種樂趣。」
資料來源:Yahoo 新聞
分享到 :
最新影片

Follow 我們 :
|
鍾意就快D Share啦!
|
|
|


