當(dāng)用戶憤然指出“在這件事上人工智能AI一點(diǎn)都不智能,是智障”時(shí),這句話雖然情緒化,卻尖銳地觸及了當(dāng)前人工智能發(fā)展中的一個(gè)核心矛盾:公眾對(duì)AI的過高期望與其實(shí)踐能力之間的顯著差距。人工智能并非無所不能的“超人”,其智能表現(xiàn)高度依賴于數(shù)據(jù)、算法、算力以及具體的應(yīng)用場(chǎng)景。
在許多情況下,AI系統(tǒng)確實(shí)會(huì)表現(xiàn)出令人啼笑皆非的“智障”行為。例如,一個(gè)訓(xùn)練有素的圖像識(shí)別模型,可能會(huì)將一張斑馬照片誤判為“穿著條紋睡衣的馬”;一個(gè)看似流暢的對(duì)話AI,在面對(duì)稍微復(fù)雜的邏輯推理或多輪上下文關(guān)聯(lián)時(shí),可能突然給出荒謬或自相矛盾的答案;一個(gè)自動(dòng)駕駛系統(tǒng)在遇到訓(xùn)練數(shù)據(jù)中未曾涵蓋的極端道路情況時(shí),可能會(huì)陷入茫然甚至做出危險(xiǎn)決策。這些“失敗”案例,恰恰揭示了當(dāng)前主流人工智能(尤其是基于深度學(xué)習(xí)的模型)的本質(zhì)弱點(diǎn):它們?nèi)狈φ嬲睦斫狻⒊WR(shí)和因果推理能力,本質(zhì)上是高級(jí)的模式匹配和統(tǒng)計(jì)關(guān)聯(lián)工具。
造成這種“不智能”感受的根源是多方面的。數(shù)據(jù)偏見與局限:AI從人類產(chǎn)生的數(shù)據(jù)中學(xué)習(xí),數(shù)據(jù)中的偏見、錯(cuò)誤或不完整性會(huì)直接被模型吸收并放大。場(chǎng)景的泛化能力不足:在一個(gè)領(lǐng)域表現(xiàn)卓越的AI,換到一個(gè)看似相近但數(shù)據(jù)分布不同的場(chǎng)景,性能可能急劇下降。再次,缺乏常識(shí)與世界模型:AI不懂物理定律、社會(huì)規(guī)范,也不具備人類與生俱來的、基于億萬次現(xiàn)實(shí)交互形成的常識(shí),因此其反應(yīng)時(shí)常顯得“不近人情”或“愚蠢”。人機(jī)交互設(shè)計(jì)的缺陷:有時(shí)問題不在于AI核心能力,而在于產(chǎn)品設(shè)計(jì)未能合理設(shè)定用戶預(yù)期、有效框定問題范圍,或提供清晰的失敗反饋機(jī)制。
將AI斥為“智障”可能忽略了其另一面。在特定的、定義明確的封閉任務(wù)中(如圍棋、蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)、特定風(fēng)格的繪畫生成),AI的表現(xiàn)已經(jīng)遠(yuǎn)超人類。它的“智能”是高度特化的、工具性的。公眾的挫敗感,部分源于對(duì)“通用人工智能”的期待被過早地投射到了現(xiàn)有的“狹義人工智能”產(chǎn)品上。
因此,與其用“智障”一詞全盤否定,我們更需要的是:
- 建立合理的預(yù)期:認(rèn)識(shí)到當(dāng)前AI是強(qiáng)大的輔助工具,而非全知的替代者。
- 推動(dòng)技術(shù)透明:開發(fā)者應(yīng)更清晰地說明系統(tǒng)的能力邊界、訓(xùn)練數(shù)據(jù)和潛在缺陷。
- 強(qiáng)調(diào)人機(jī)協(xié)同:最佳模式往往是將AI的強(qiáng)大計(jì)算與模式識(shí)別能力,與人類的常識(shí)、倫理判斷和創(chuàng)造力相結(jié)合。
- 持續(xù)投入研究:針對(duì)AI的魯棒性、可解釋性、因果推理和常識(shí)獲取等根本難題,仍需科學(xué)界的長(zhǎng)期攻堅(jiān)。
用戶的批評(píng)是一面鏡子,映照出AI發(fā)展的現(xiàn)實(shí)階段。每一次“智障”失誤,都是對(duì)研究者和開發(fā)者的一次重要提醒,指明了技術(shù)需要突破的方向。人工智能的進(jìn)化之路,正是在不斷試錯(cuò)、糾正和迭代中蜿蜒前行。讓AI變得更“智能”的責(zé)任,恰恰落在能理解其局限并善用其長(zhǎng)處的人類肩上。