國際 | 全球話題
ChatGPT智商連貓狗都不如,經常答錯?拆解AI答題原理

1.目前的AI聊天機器人仍存在嚴重缺陷。雖然AI可以從大數據中給出有模有樣的答案,但也存在很多錯誤。很難説AI真正理解問題和回答內容的「含義」。
2.AI運作方式基本上是單字和短句的「排列」。透過龐大的文獻資料,識別排列類型,再計算出各類型出現的機率,找出最符合的回答。
3.對於AI是否具有與人類接近的智慧,美國Meta首席AI科學家、紐約大學教授Yann Lucan表示:「目前先別説人類,就連貓狗的智慧都遠遠不及。」
AI聊天機器人正受到世人關注。向AI提問時,它會像真人一樣用自然語句回答你。再加上以微軟及Google為首科技巨頭們參與相關競爭,更吸引全球矚目。
但是,目前的AI聊天機器人仍存在嚴重缺陷。雖然AI可以從大數據中給出有模有樣的答案,但也存在很多錯誤。很難説AI真正理解問題,以及自身回答內容的「含義」。
透過梳理「ChatGPT」等AI聊天機器人出現的諸多錯誤,便能發現人工智慧尚無法比擬人類的核心技術課題。
「老師」和「親媽」展開競爭
由於2022年底美國新創企業OpenAI免費公開ChatGPT,在全世界引發熱議。此前一直不打算向大眾公開AI聊天機器人的Google,決定改變策略。
2月6日,Google首席執行官(CEO)桑德爾・皮采(Sundar Pichai)親自宣布,未來幾週內將在Google搜尋引擎中嵌入使用名為「Bard」的AI聊天機器人。
在搜索欄中輸入問題後,Google搜尋引擎會用自然流暢的語句給予答案,以及列出參考資訊的網頁連結。
事實上,ChatGPT的基礎是AI大型語言模型,該模型是奠基在由Google開發的「Transformer」技術上。不僅如此,Google擁有的模型,在數據總量和生成語句類型數量方面遠多於OpenAI的模型。對於OpenAI來説,Google公開AI聊天機器人,就好比「老師」突然變成競爭對手。
在「老師」發佈消息後隔天,「親媽」也跟著行動起來。2月7日,OpenAI的大股東微軟也發布消息,將Chat GPT技術嵌入在搜尋引擎Bing中。根據發布的資訊,AI聊天機器人將與搜索功能同時使用,可以根據最新的資訊,回答自然好理解的內容,還能針對長篇幅的文件進行重點整理。
AI聊天機器人不善於回答即時資訊
Google和微軟都強調,導入AI聊天機器人的搜尋引擎,可以根據網路最新資訊生成語句。然而在此之前,AI聊天機器人一直無法更新最新資訊。
包含ChatGPT在內的大型語言模型,每當需要更新內容時,都需要重新讀取數量龐大的文獻數據。因為很難頻繁更新,所以模型內儲存的資訊都不是最即時的。
例如:詢問ChatGPT:「洛杉磯湖人隊(Los Angeles Lakers)最近一場比賽的上場陣容」時,得到的回答是:「我只具備2021年之前的知識,無法回答您的問題。」
而Google在2月8日展示Bard運作時,也顯示出錯誤信息。回答「史上第一張太陽系外行星照片的,是由美國太空總署(NASA)的詹姆斯韋伯太空望遠鏡*拍攝的」。這個錯誤回答隨後引發爭議。可見,對於資訊的準確性,仍有不少技術問題需要解決。
編按:詹姆斯韋伯太空望遠鏡在2021年12月25日發射升空,答案應是2004年歐洲南方天文台的甚大望遠鏡(VLT)拍攝173光年外的2M1207b。
AI聊天機器人也缺乏常識和邏輯
除了上述的問題,AI聊天機器人還存在根本性的課題。目前很難證明AI聊天機器人本質上已經可以理解自己回答內容的概念、含義、事物,以及對於現象的因果關係等「邏輯」。正因為如此,才會反覆出現顯而易見的錯誤資訊。
例如,向ChatGPT詢問:「哥哥和姐姐有什麼不同?」得到的回答是:「雖然兄弟姐妹關係因家庭結構和出生順序不同而存在差異,但哥哥通常比姐姐年齡大。」
給出這樣不知所云的答案,是因為AI聊天機器人沒有「理解」哥哥、姐姐的概念,彼此的關係,以及家庭成員組成的情況。
這個情況是因為絕大部分的語言模型都使用機器學習型AI。因此,運作方式基本上是單字和短句的「排列」。機器透過龐大的文獻資料,識別排列類型,再計算出各類型出現的機率,找出最符合的回答。
AI連簡單計算也會出錯
也就是説,AI聊天機器人不過是根據數據找出機率最高的語句,而非理解單字、語句的「含義」,以及爬梳家庭成員的關係等「常識」。因此,它不擅長回答那些需要理解意義和常識的問題。
由於不擅長邏輯,因此Chat GPT也不擅長簡單的計算。讓它做4位數的乘法,大都會算錯,並且反覆輸入相同算式時,總是給出錯誤的答案。
也就是説,現有的AI聊天機器人不適合調查事實。適合用在不管內容的真實性和準確性,只需要自動生成自然語句和程式語法等用途。
機器學習的極限和下一代AI在哪裡?
AI何時能擁有與人類相同的智慧呢?日本科學技術振興機構研究開發戰略中心研究員、熟悉全球AI發展動向的福島俊一表示:「具有邏輯思考、常識和認知的新一代AI,從幾年前就在推進研究。」
AI掀起過3次新技術浪潮。分別是1960年代、1980年代,以及從2010年代持續至今的第三次。前2次都是計算機根據人類設定好的邏輯,分析數據、得出結論。但距離普及應用還有一大段差距,於是上一波浪潮在1990年代後走向衰退。
2010年代開始、持續到現在的AI浪潮,並非建立在人類思考邏輯上,而是由機器自行歸納出數據類型,再由學習型機器引導成長。隨著網路普及、半導體性能越來越高,AI開始得以收集全世界的數據,出現「深層學習」的可識別複雜類型軟體技術,使得AI發展的要素全部得以實現。
如果將學習型AI和「大數據」結合起來,限定於特定用途,就可以完成人類不可能做到的工作。像是透過讀取大量的面部照片,提高圖形識別能力,應用在智慧手機的臉部解鎖。
不過,要做出自動駕駛及自律型多功能機器人,相當於AI要具有識別眼前物體和周圍情況的能力,包含過去沒經歷過的情況。
這需要基於邏輯和常識的推論能力,僅靠依賴「過去」事例的機器學習型模型尚不能順利實現。熟悉尖端技術動向的Digital Garage公司董事伊藤穰一指出:「Google、特斯拉及蘋果仍很難將自動駕駛汽車推向實際應用,説明依靠機器學習的AI仍存在極限。」
Meta首席科學家:別說人類,連貓狗的智慧都遠遠不及
AI聊天機器人缺乏「常識」和「道理」的原因,也來自使用數據歸納法探索資訊的學習型AI弱點。
如何做出兼具常識和邏輯思考的新一代AI?為了參考人類兒童自然掌握語言、空間認識及社會關係等的過程,讓腦部學家和認知科學家參與的跨領域的研究計畫,提升機器學習邏輯與常識程度。
AI已經擁有與人類接近的智慧?開拓深層學習基本技術的美國Meta首席AI科學家、紐約大學教授Yann Lucan形容道:「目前先別説人類,就連貓狗的智慧都遠遠不及。」
我們不能因為看到AI聊天機器人的流暢文筆,就誤以為AI智慧已經擁有超越人類的「特異功能」(Singularity)。科學技術在達到這個程度前,還有眾多困難需要突破。
(本文轉載自日經中文網,不代表本社立場)
更多日經中文閱讀:
從Chat GPT看「生成式AI」走向
當汽車迎來擁有「人格」的那一天
責任編輯:陳瑋鴻
核稿編輯:倪旻勤
【更多精彩內容】
微軟、Google大裁員背後秘密 AI人才換血潮來襲!
商周大調查

台積電加碼投資美國千億美元!除了2奈米先進製程,還有什麼要過去?
日經中文網是日本最大財經媒體《日本經濟新聞》的中文網站。日經中文網洞悉東亞經濟動態,聚集政治、文化、國際關係熱點