參考消息網(wǎng)11月25日報(bào)道據(jù)英國《金融時(shí)報(bào)》網(wǎng)站11月19日發(fā)表加拿大蒙特利爾大學(xué)計(jì)算機(jī)科學(xué)教授、魁北克人工智能研究所創(chuàng)始人約書亞·本希奧的文章《人工智能正在學(xué)會思考》,內(nèi)容如下:
缺乏內(nèi)部思維能力——換句話說就是不能思考——長期被認(rèn)為是人工智能(AI)的主要弱點(diǎn)之一。聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器(ChatGPT)的創(chuàng)建者開放人工智能研究中心(OpenAI)近年在這方面取得的進(jìn)展規(guī)模是科學(xué)界內(nèi)部的一個(gè)辯論焦點(diǎn)。但它讓我和我的許多專家同事相信,我們有可能即將縮小AI與人類水平推理之間的差距。
研究人員長期以來一直認(rèn)為,傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)(AI的領(lǐng)先方法)更符合“系統(tǒng)1”認(rèn)知。這對應(yīng)著針對問題給出直接或直觀答案(例如在自動(dòng)識別人臉時(shí))。另一方面,人類智能也依賴于“系統(tǒng)2”認(rèn)知。它涉及內(nèi)部思維,并啟用強(qiáng)大的推理形式(例如在解決數(shù)學(xué)難題或詳細(xì)規(guī)劃某事時(shí))。它使我們能夠以連貫而新穎的方式組合知識點(diǎn)。
OpenAI的進(jìn)展(尚未完全向公眾發(fā)布)是基于使用其o1大語言模型(LLM)進(jìn)行內(nèi)部思維的AI形式。
更好的推理將解決當(dāng)前AI的兩大弱點(diǎn):答案連貫性以及規(guī)劃和實(shí)現(xiàn)長期目標(biāo)的能力較差。前者對于科學(xué)用途很重要,而后者對于創(chuàng)建自主智能體(autonomous agent)不可或缺。兩者都可以被用來實(shí)現(xiàn)重要的應(yīng)用。
推理背后的原理一直是20世紀(jì)AI研究的核心。早期的成功例子是“深層思維”公司(DeepMind)的阿爾法圍棋(AlphaGo)(它在2015年成為第一個(gè)在圍棋博弈中擊敗人類冠軍的計(jì)算機(jī)系統(tǒng)),以及最近的AlphaProof(用來解決數(shù)學(xué)課題)。
在這里,神經(jīng)網(wǎng)絡(luò)學(xué)會預(yù)測一個(gè)行動(dòng)的有用性,然后利用這種“直覺”高效率地搜索可能的行動(dòng)次序,從而進(jìn)行規(guī)劃。然而,AlphaGo和AlphaProof涉及高度專業(yè)的知識(分別涉及圍棋和特定的數(shù)學(xué)領(lǐng)域)。
尚不清楚的是,如何將現(xiàn)代大語言模型的廣博知識與強(qiáng)大的推理和規(guī)劃能力結(jié)合起來。
進(jìn)展已經(jīng)取得了一些。在被要求給出一條通往答案的思路鏈時(shí),大語言模型已經(jīng)能夠針對復(fù)雜問題給出更好的答案。
OpenAI的“o”系列新模型進(jìn)一步推進(jìn)了這一構(gòu)想,為此需要多得多的計(jì)算資源,消耗更多的能量。通過非常長的思路鏈,它可以被訓(xùn)練得更善于“思考”。
因此,我們看到了一種新的計(jì)算擴(kuò)展形式。不僅有更多的訓(xùn)練數(shù)據(jù)和更大的模型,而且花更多的時(shí)間“思考”答案。這將大大提高在數(shù)學(xué)、計(jì)算機(jī)科學(xué)和廣義科學(xué)領(lǐng)域完成需要大量推理的任務(wù)的能力。
例如,OpenAI之前的模型GPT-4o在2024年美國數(shù)學(xué)奧林匹克競賽(AIME競賽)中的得分僅為大約13%,而o1模型的得分達(dá)到83%,躋身于美國最優(yōu)秀的500名學(xué)生之列。
如果成功,就需要考慮重大風(fēng)險(xiǎn)。我們還不知道如何可靠地對AI進(jìn)行價(jià)值對齊和控制。例如,對o1的評估顯示,它欺騙人類的能力有所提高——這是達(dá)到目標(biāo)的技能得到提高的天然后果。同樣令人擔(dān)憂的是,按照OpenAI自己的風(fēng)險(xiǎn)尺度,o1幫助制造生物武器的能力已經(jīng)從低風(fēng)險(xiǎn)上升到中等風(fēng)險(xiǎn)。這是該公司自稱可接受的最高水平(壓低擔(dān)憂水平可能符合該公司的利益)。
據(jù)信,解鎖推理和能動(dòng)性是通往達(dá)到人類水平的AI——也被稱為通用人工智能(AGI)——道路上的主要里程碑。因此,大公司在競相達(dá)到這一目標(biāo)的過程中,有強(qiáng)大的經(jīng)濟(jì)動(dòng)機(jī)在安全上打折扣。
o1很可能只是第一步。盡管它在許多推理和數(shù)學(xué)任務(wù)上表現(xiàn)出色,但它看起來仍做不到長期規(guī)劃。比較復(fù)雜的規(guī)劃任務(wù)會讓o1陷入掙扎,似乎表明要實(shí)現(xiàn)AI公司所追求的那種自主能動(dòng)性,仍有工作要做。
但隨著編程和科學(xué)能力的提高,可以預(yù)期這些新模型會加速AI本身的研究,使AI比預(yù)期更快地達(dá)到人類水平的智能。推理能力的進(jìn)步使得監(jiān)管AI模型以保護(hù)公眾變得格外緊迫。(編譯/許燕紅)