飛象原創(chuàng)(魏德齡/文)諾貝爾獎得主杰弗里·辛頓在2025世界人工智能大會上的發(fā)言令很多人感到興奮,尤其是圍繞人類理解語言與大模型理解問題相似性的觀點,以及大模型在博聞強(qiáng)記方面的能力,尤其是所謂會出現(xiàn)比人類更智能AI的觀點,無疑燃起了現(xiàn)場的人工智能從業(yè)者繼續(xù)努力奮斗的高昂斗志。
然而,如果仔細(xì)審視前沿領(lǐng)域人工智能觀點的話,包括辛頓的發(fā)言在內(nèi),無論是對大模型的褒與貶,實際上均來自于對這些技術(shù)未來的無限擔(dān)憂。正如奧本海默的那句:“我已成為死亡,世界的毀滅者”。如果說核能技術(shù)是人類打開的一次潘多拉魔盒的話,人工智能可能是歷史的又一次押韻。
對大模型的褒與貶
辛頓的發(fā)言無疑代表對于大模型褒的一面,在去年一次與外媒的采訪中,他便表示AI將會在最終操控人類。當(dāng)他在2022年看到Google開發(fā)的大語言模型PaLM的聊天機(jī)器人能夠解釋笑話的時候,他認(rèn)為這是AI能夠理解人類語言的重要時刻,并逐漸開始意識到AI有可能威脅人類,未來擁有超越人類智慧的AI將可以用語言操控人類,試圖說服不要關(guān)掉電源的開關(guān)。
如同人類在勸說操控一個3歲的孩子,“有個人,把老虎當(dāng)寵物,那老虎也可以當(dāng)小虎崽,是很可愛的寵物。但是,如果一直養(yǎng)這個寵物,那么你要確保它長大的時候,它不會把你給殺掉。”給出這段發(fā)言的辛頓似乎在復(fù)述“養(yǎng)虎為患”的成語故事。
而辛頓的好朋友,與他一起獲得圖靈獎的楊立昆,卻代表了對于大模型貶的一面。在他的觀點中,人工智能更像是一個小鎮(zhèn)做題家般的書呆子,對于世界的理解局限于大量的現(xiàn)有資料內(nèi)容,但人類的知識理解涉及對世界的感知、經(jīng)驗、情感以及更深層次的直覺和常識,這是很多文本難以觸及的層面。有人這樣形容:“GPT 雖然‘讀遍’了互聯(lián)網(wǎng),但它從未喝過一口紅酒、摔過一只杯子,從未親身體驗過任何事情。”但對于一個可能還坐不穩(wěn)的嬰兒來說,便已經(jīng)能夠通過以不斷向地面拋出物體的方式,感知了解地心引力所帶來的物理特性。
于是,楊立昆開始越來越提及AMI(先進(jìn)機(jī)器智能)一詞,可以學(xué)習(xí)抽象概念,并據(jù)此進(jìn)行邏輯推理、制定計劃的AI系統(tǒng)。如同人類全神貫注于一件事時, AI 模型不應(yīng)該僅僅依賴像素級重建誤差,而是要具備多層次抽象表征能力。好比人類的大腦并非逐像素、逐幀地處理世界,而是依賴抽象層次的表征與結(jié)構(gòu)化信息。
已經(jīng)上崗的不完美管理者
然而,正是這樣沒有抽象能力、沒有感知能力的人工智能,卻在如今已經(jīng)在很多企業(yè)中進(jìn)入到實際崗位中,甚至可能成為很多普通人工作生活中難以揮之的夢魘。今年在人工智能領(lǐng)域的一大暢銷書《連結(jié)》中,列舉了不少AI在掌握關(guān)鍵權(quán)力后,可能帶來的隱憂。
例如,銀行中正在開始通過人工智能來進(jìn)行放貸的評定,這也意味著對于信用稍有問題的人來說,一旦失去了人情的介入,出現(xiàn)資金問題,無法還款,此人將可能在人工智能來進(jìn)行判定的體系中,再無出頭之日。
這也引出的另一個問題便是,人工智能在信用評定中的思維方式在大模型中完全處于黑盒的狀態(tài),無論是AI在進(jìn)行信用評定,或充當(dāng)人力資源管理者進(jìn)行績效考核,更不用提使其進(jìn)入執(zhí)法或安全領(lǐng)域,誰也可能無法說清大模型的腦子里到底在真實的想些什么,又如何充當(dāng)著人類工作生活的裁判員。如果活在訂單系統(tǒng)中的外賣員已經(jīng)足夠辛苦的話,未來由大模型所規(guī)劃的工作考核,也許將會讓更多人汗流浹背。甚至不完美的人工智能可能會帶來某種新形式的官僚辦事風(fēng)格。
另一個近在咫尺的話題,便是擁有幻覺、不完美的人工智能作品正在污染人類的知識體系,并進(jìn)一步影響模型的認(rèn)知。當(dāng)下搜索引擎所使用AI總結(jié)的內(nèi)容結(jié)果,很多錯誤百出,但對于門外漢而言,可能信以為真。更不用說AGI撰寫的文章,盡管外行看著內(nèi)行,但內(nèi)行看了又十分外行,有些幻覺更是令人笑掉大牙。
同時,奇怪蹩腳的機(jī)器語言,還正在成為兒童的對外交流工具,不少廠商開始將AI引入到早教產(chǎn)品中,悟性欠缺、沒有感知能力,難以多層次抽象表征的人工智能,反倒成為了人類幼崽的老師,讓不少人開始為人類的未來而擔(dān)憂。
褒貶之意在于向善
實際上,很多人在聽取辛頓的演講后都發(fā)現(xiàn),核心表達(dá)之意可能并不在于人工智能將會如何取代人類,而是AI向善。“每個國家可以做自己的研究,讓AI向善。他可以在自己主權(quán)的AI上進(jìn)行研究,他不可以不給別的國家,但是,他可以把成果分享給大家,也就是怎么訓(xùn)練AI,讓AI向善。”
這一層面,顯然比警惕未來AI如何統(tǒng)治世界更具現(xiàn)實意義。就像同期展館中的一些演示項目,AI開始監(jiān)測到崗員工的情緒,觀察教室中學(xué)生的上課狀態(tài),一個本沒有情感的智能體,卻開始監(jiān)督起人類的情感。
《連結(jié)》一書開頭拋出這樣的問題:“要是我們真那么聰明,為什么這么愛走上自我毀滅的道路?”而該書給出的答案是,面對人工智能,也需要打造強(qiáng)大的自我修正機(jī)制。
如果只是一味逐利于AI概念,或幻想通過打開魔盒換來突飛猛進(jìn)的快感,最終并不是AI將操控的人類,而是失控的人類,正在作繭自縛。