以下是陳小平教授的演講實(shí)錄:
今年可以說是人工智能70周年,因?yàn)閺膱D靈(A. Turing)提出圖靈測(cè)試到今年正好70年。今天我和大家分享對(duì)人工智能70年發(fā)展的一些總結(jié)性思考,包括四個(gè)部分:
①著名的圖靈測(cè)試背后的圖靈假說及兩類AI;
②AI的兩種經(jīng)典思維——強(qiáng)力法和訓(xùn)練法,給出它們的能力邊界——封閉性準(zhǔn)則,并以“阿法狗”四代為典型案例加以分析(兩類經(jīng)典思維的集成并符合封閉性準(zhǔn)則);
③封閉性的嚴(yán)格定義,并在定義基礎(chǔ)上討論封閉性給人工智能帶來(lái)的科學(xué)挑戰(zhàn)、技術(shù)挑戰(zhàn)和工程挑戰(zhàn);
④介紹中科大機(jī)器人團(tuán)隊(duì)為應(yīng)對(duì)封閉性挑戰(zhàn),在過去10年中所做的部分努力和進(jìn)展。
70年來(lái),人工智能技術(shù)有很大發(fā)展,主流技術(shù)現(xiàn)在能解決什么問題?我們總結(jié)以后給出一個(gè)條件,叫做“封閉性準(zhǔn)則”:對(duì)于所有滿足封閉性或者能夠被封閉化的場(chǎng)景來(lái)說,用現(xiàn)有人工智能技術(shù)就能實(shí)現(xiàn)大規(guī)模產(chǎn)業(yè)化應(yīng)用。這個(gè)結(jié)論不是我在實(shí)驗(yàn)室里憑空想出來(lái)的,過去五年我到各種代表性企業(yè)去調(diào)研,包括全球最大的制造業(yè)企業(yè)像華為、富士康、聯(lián)想等,一直到10人以下的企業(yè),而且對(duì)其中部分企業(yè)反復(fù)去調(diào)研,實(shí)地考察他們的生產(chǎn)線,了解相關(guān)的各種情況。經(jīng)過調(diào)研和分析發(fā)現(xiàn),可以用“封閉性”描述現(xiàn)有人工智能技術(shù)大規(guī)模產(chǎn)業(yè)應(yīng)用的條件,滿足封閉性的場(chǎng)景就能應(yīng)用,不滿足就不保證能應(yīng)用。另一方面,不滿足這個(gè)條件的應(yīng)用還有很多,怎么辦?所以我們要想辦法超越封閉性。
關(guān)于人工智能技術(shù)進(jìn)展,過去幾年很多人往往只關(guān)注一類技術(shù),其實(shí)值得關(guān)注的不止一類??紤]到人工智能技術(shù)種類太多,我只總結(jié)了其中的兩種AI經(jīng)典思維,而這兩種經(jīng)典思維都符合封閉性準(zhǔn)則。今天我重點(diǎn)講封閉性給我們帶來(lái)的挑戰(zhàn),定義這種挑戰(zhàn)到底是什么。中科大機(jī)器人團(tuán)隊(duì)為了超越封閉性,提出了一條稱為“開放知識(shí)”(openknowledge)的技術(shù)路線,我會(huì)簡(jiǎn)要介紹過去10年中我們?cè)谶@個(gè)方向上的主要工作和進(jìn)展情況。
一、圖靈假說和兩類人工智能
首先回顧一下人工智能的史前基礎(chǔ)研究,我只講和今天內(nèi)容相關(guān)的兩條線索。一條線索是公元前約300,歐幾里得完成了《幾何原本》,其核心成果是一個(gè)幾何學(xué)的實(shí)質(zhì)公理系統(tǒng)。這本書經(jīng)過多人努力,寫了100多年,直到歐幾里得才寫完。又經(jīng)過了2 000多年,到了1899年,Hilbert發(fā)表了《幾何基礎(chǔ)》,從實(shí)質(zhì)公理系統(tǒng)進(jìn)化到形式公理系統(tǒng),現(xiàn)代邏輯誕生了。這條線索和我今天講的第四部分內(nèi)容有關(guān)(我們的開放知識(shí)技術(shù)路線實(shí)際上采用了實(shí)質(zhì)公理系統(tǒng)的思想)。
另外一條線索是1651年Hobbes在《利維坦》中指出,推理和計(jì)算是可以相互轉(zhuǎn)化的。哲學(xué)家的論證可能不被科技界接受為證明,但是至少他提出了這個(gè)與人工智能有關(guān)的觀點(diǎn)。1931年,Godel在證明著名的不完備性定理的過程中,得到了一個(gè)中間結(jié)果:他定義了一個(gè)形式算數(shù)系統(tǒng)KN及KN可表示性,還定義了一個(gè)計(jì)算系統(tǒng)——遞歸函數(shù),證明了KN可表示與遞歸函數(shù)的等價(jià)性。這就很有意思了,KN是典型的推理,而遞歸函數(shù)是純粹的計(jì)算,Godel嚴(yán)格證明了二者的等價(jià)。1936—1937年間,圖靈提出了圖靈機(jī)模型,并形成了Church-Turing論題,標(biāo)志著計(jì)算機(jī)科學(xué)的誕生。上述這些成果包含著Godel-Turing推論(雖然文獻(xiàn)中沒有看到這個(gè)名稱):大量復(fù)雜推理是圖靈可計(jì)算的。這里的復(fù)雜推理包括命題演算可表達(dá)的推理(比如第一個(gè)NP完全問題SAT)、一階謂詞演算K可證的形式推理、KN可表示的推理等,這些推理問題都在圖靈機(jī)上可計(jì)算,所以都是計(jì)算問題。注意這個(gè)推論是得到嚴(yán)格證明的。
1950年,圖靈在Mind上發(fā)表的論文里提出了圖靈測(cè)試[1],至今已經(jīng)70年了。圖靈測(cè)試想證實(shí)或證偽的假說是什么?就是圖靈假說,雖然文獻(xiàn)里也沒有看到“圖靈假說”的名稱,但圖靈在1950年論文里寫得非常清楚,他試圖證實(shí)的假說是:不僅推理,而且決策、學(xué)習(xí)、理解、創(chuàng)造等人類智力活動(dòng)都可以在圖靈機(jī)上實(shí)現(xiàn)。顯然,這個(gè)假說是Godel-Turing推論的實(shí)質(zhì)性推廣,是人類科技史上最偉大的假說之一,而圖靈測(cè)試是其驗(yàn)證手段。其現(xiàn)實(shí)意義是,如果圖靈假說成立,這些種類的智能都可以在計(jì)算機(jī)上實(shí)現(xiàn),當(dāng)時(shí)第一批電子數(shù)字計(jì)算機(jī)已經(jīng)在使用了。
圖靈假說與任何假說一樣,有一個(gè)預(yù)期的有效范圍。這個(gè)范圍是什么?看這張圖(見圖1)。我覺得人工智能涉及三層空間,最下面一層是現(xiàn)實(shí)世界,中間一層是數(shù)據(jù)層,再上面一層是知識(shí)層。用三層空間可以區(qū)分出兩種典型的人工智能,一種可稱之為“信息處理AI”,它只關(guān)心上面兩層,對(duì)下面一層是不關(guān)心的,它的應(yīng)用領(lǐng)域主要是信息產(chǎn)業(yè),但信息產(chǎn)業(yè)滲透到別的產(chǎn)業(yè),這種AI也滲透到別的產(chǎn)業(yè)中??墒切畔⑻幚鞟I不能解決一切問題,比如不能解決涉及感知和行動(dòng)的問題。同時(shí)考慮三層空間的人工智能,我稱之為“機(jī)器人AI”,它的應(yīng)用領(lǐng)域包括工業(yè)、農(nóng)業(yè)、物流、服務(wù)業(yè)等,顯然比信息處理AI更加廣泛。二者的主要區(qū)別是:機(jī)器人AI一定涉及感知和行動(dòng),而信息處理AI不涉及感知和行動(dòng)。除了這兩種典型的AI,還有一些非典型的,比如只涉及感知,不涉及行動(dòng)的AI。
圖1 圖靈假說與兩類典型AI
圖靈假說的預(yù)期范圍,就是信息處理AI(也就是圖靈所說的thinking machines)。
下面的例子中,兩類AI在同一個(gè)問題中的表現(xiàn)相同,但用戶的反應(yīng)完全不同,這說明了信息處理AI和機(jī)器人AI之間的區(qū)別。假設(shè)有一臺(tái)聊天機(jī)器人,用戶說“請(qǐng)幫我端飯”,機(jī)器人說“自己端”;用戶說“有智能”。用戶又說“請(qǐng)幫我端湯”,機(jī)器人還說“自己端”。這時(shí)用戶就不太滿意了,說“你會(huì)的句型太少了”,但總體上還是接受這臺(tái)機(jī)器人的。我們?cè)偌僭O(shè)有一臺(tái)家庭服務(wù)機(jī)器人,能當(dāng)保姆的那種,用戶對(duì)機(jī)器人說,“請(qǐng)幫我端飯”,機(jī)器人說“自己端”,用戶說“有個(gè)性”。用戶心想,你是一個(gè)服務(wù)機(jī)器人,是在家里干活的,居然不幫我端飯,還讓我自己端,真有個(gè)性。用戶又說“請(qǐng)幫我端湯”,機(jī)器人還讓用戶“自己端”,這時(shí)用戶什么反應(yīng)?用戶會(huì)說:你只會(huì)聊天,我要退貨!用戶顯然不能接受這樣的家庭服務(wù)機(jī)器人。這兩類AI是非常不一樣的,因?yàn)樗鼈兊膽?yīng)用目標(biāo)不同,從而劃分為兩類不同的AI(參見文獻(xiàn)[2]第二章)。兩類AI的劃分以前好像沒有明確提過,其實(shí)這個(gè)劃分最初是圖靈給出的。1948年,圖靈親自打印了一篇論文,到現(xiàn)在沒有正式發(fā)表,但在圖靈圖書館里可以找到,我在PPT里貼了相關(guān)的兩頁(yè)。在這篇手稿中,圖靈一開始設(shè)想的人工智能是什么?是用機(jī)器代替一個(gè)人的所有部分,這樣的人工智能他稱為intelligent machinery,而且他分析了這種“智能機(jī)器”的一個(gè)例子——無(wú)人車。圖靈考慮到當(dāng)時(shí)的技術(shù)條件,建議首先研究沒有感知和行動(dòng)能力的thinking machines,注意他對(duì)兩種AI的用詞是有區(qū)別的,后者就是信息處理AI。對(duì)于這種“思維機(jī)器”,圖靈建議了一些研究課題,比如國(guó)際象棋、圍棋、語(yǔ)言學(xué)習(xí)和機(jī)器翻譯等。看起來(lái),70年來(lái)人工智能實(shí)際做過的研究,基本上都是圖靈想到的。經(jīng)過70年的探索、積累和發(fā)展,現(xiàn)在我們是不是可以想一些新的東西了?從上面的討論可知,早在70年前,圖靈已經(jīng)把人工智能劃分為兩個(gè)階段——第一階段是信息處理AI,第二階段是機(jī)器人AI,而AI的實(shí)際發(fā)展也是這么走過來(lái)的:20世紀(jì)50年代開始了第一個(gè)階段,70~80年代開始了第二階段,現(xiàn)在是兩個(gè)階段同時(shí)在推進(jìn)(參見文獻(xiàn)[2]第一章)。二、兩種AI經(jīng)典思維
過去70年這兩個(gè)階段的推進(jìn)有什么主要成果?我總結(jié)[3]有兩種AI經(jīng)典思維,一種是強(qiáng)力法,是需要有模型的,還要有推理機(jī)或者搜索算法。基礎(chǔ)性的數(shù)學(xué)工具主要有邏輯、概率和決策論規(guī)劃三種。強(qiáng)力法的關(guān)鍵是模型,對(duì)于機(jī)器人AI來(lái)說,模型有兩個(gè)組成部分,一個(gè)部分是知識(shí)庫(kù),即抽象知識(shí)的符號(hào)表達(dá);另一個(gè)部分叫做模型降射(英文是modeled grounding),這是抽象知識(shí)到現(xiàn)實(shí)場(chǎng)景的一種廣義映射。
有人說強(qiáng)力法到20世紀(jì)80年代以后就消失了,其實(shí)強(qiáng)力法從90年代開始進(jìn)入一個(gè)新的賽道,我叫它“大知識(shí)”,國(guó)際上比較流行的稱呼是知識(shí)技術(shù)(knowledge technologies),剛才Gil教授在報(bào)告中就大量涉及到大知識(shí)。不過她今天的報(bào)告是關(guān)于“科學(xué)發(fā)現(xiàn)”的,可能會(huì)讓人以為大知識(shí)只與科學(xué)發(fā)現(xiàn)有關(guān),其實(shí)不是這樣的。一般國(guó)內(nèi)只關(guān)注大知識(shí)中的一個(gè)部分——知識(shí)圖譜,實(shí)際上大知識(shí)的內(nèi)容非常豐富,我這里列出了一部分代表性工作,希望大家關(guān)注。比如,有一個(gè)知識(shí)庫(kù)做了10年,搜集了30億條常識(shí),據(jù)估計(jì)花了67.5億美元,這是干嗎?
推理機(jī)是一個(gè)專門研發(fā)的程序,它根據(jù)知識(shí)庫(kù)中的知識(shí)進(jìn)行推理,以回答問題。知識(shí)庫(kù)一般存儲(chǔ)著預(yù)期應(yīng)用領(lǐng)域的基本知識(shí),比如在“就餐問題”中,為了讓機(jī)器人在就餐過程中為人提供幫助,就需要有一個(gè)就餐領(lǐng)域的知識(shí)庫(kù)(見圖2)。有了推理機(jī)和知識(shí)庫(kù),用戶或者AI系統(tǒng)自身就可以向推理機(jī)提問了,比如問“碗能不能盛米飯?”注意知識(shí)庫(kù)里沒有寫這個(gè)問題的答案,但是可以推理出結(jié)果“可以盛”;還可以問“碗能不能盛湯?”也能推出結(jié)果“可以盛”。
上面這個(gè)例子是我為說明推理而編寫的,故意做了簡(jiǎn)化。實(shí)際應(yīng)用中,可以問更復(fù)雜的問題,比如有了相關(guān)的知識(shí)庫(kù),可以向推理機(jī)提問“本·拉登藏在什么地方?”事實(shí)上就是這么找到的(不過這個(gè)例子和前面就餐的例子不完全一樣,需要對(duì)推理結(jié)果進(jìn)行驗(yàn)證)。
圖2 模型、推理與降射
機(jī)器人AI模型的另外一部分是模型降射,比如bowl(碗)在知識(shí)庫(kù)中只是一個(gè)符號(hào),而機(jī)器人AI只掌握符號(hào)(包括符號(hào)之間的關(guān)系)是遠(yuǎn)遠(yuǎn)不夠的,機(jī)器人必須能夠識(shí)別、操縱知識(shí)庫(kù)符號(hào)所代表的現(xiàn)實(shí)場(chǎng)景中的對(duì)象(如碗),這就需要建立AI模型中的符號(hào)如bowl到場(chǎng)景中所有碗的集合g(bowl)的降射g。
我的PPT里給出了碗的三個(gè)例子(見圖2)。第一個(gè)例子是常規(guī)的碗,第二個(gè)例子看著不像碗,像盤子,但是專家考證這是宋代汝碗,只好也算做碗。假設(shè)一個(gè)機(jī)器人的g(bowl)恰好包含常規(guī)的碗和宋代汝碗兩個(gè)場(chǎng)景元素,并用這個(gè)AI模型為用戶提供就餐服務(wù)。我們考慮一種情況:在運(yùn)行過程中,機(jī)器人遇到了PPT里給出的第三個(gè)例子:一只破碗,底兒都漏了。因?yàn)锳I模型沒有把brokenbowl(代表破碗)當(dāng)作一個(gè)與bowl不同的獨(dú)立變?cè)?,機(jī)器人自然地將破碗也當(dāng)作碗,于是推理機(jī)從AI模型推出:用破碗也能盛湯。這就有問題了,用破碗盛湯不僅把湯都漏了,完不成任務(wù),而且會(huì)帶來(lái)其他一系列問題。下文將把這里的brokenbowl定義為一個(gè)“丟失變?cè)薄?/span>
出現(xiàn)上述情況說明什么?說明原來(lái)的AI模型有問題,有時(shí)用它推出的結(jié)果不正確,而且有害。只看這個(gè)例子覺得很簡(jiǎn)單,把AI模型(知識(shí)庫(kù)和模型降射)改一改就行了。但在實(shí)際應(yīng)用中,一個(gè)知識(shí)庫(kù)可以有幾百萬(wàn)條知識(shí),改了其中一條,會(huì)影響其他很多條。這還不是最難的,最難的是:改了一個(gè)反例(比如破碗)之后,還有沒有別的反例?——不知道!現(xiàn)在沒有辦法知道反例是否已被窮盡了。結(jié)果,我們永遠(yuǎn)不知道一個(gè)AI系統(tǒng)是不是一個(gè)能夠?qū)嵱玫南到y(tǒng),這是最難的。所以,機(jī)器人AI的核心挑戰(zhàn)在于降射,具體說是降射的“無(wú)盡性”。第二種經(jīng)典思維是訓(xùn)練法,收集并標(biāo)注一些數(shù)據(jù),訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò),然后用訓(xùn)練好的網(wǎng)絡(luò)回答問題。在ImageNet的一項(xiàng)比賽中,用訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)可以識(shí)別1 000類物體,包括7種魚、26種鳥、衛(wèi)生紙等。表面上看,目前的訓(xùn)練法不涉及知識(shí),因而也不涉及降射問題,這不就繞過了降射難題嗎?實(shí)際上并非如此。比如衛(wèi)生紙臟了,能不能用?破的能不能用?這些都是衛(wèi)生紙的反例,在訓(xùn)練法中所有反例的數(shù)據(jù)都要找出來(lái),否則訓(xùn)練出的神經(jīng)網(wǎng)絡(luò)如何識(shí)別反例?可是如果我們不知道存在哪些反例,怎么去收集數(shù)據(jù)呢?所以,訓(xùn)練法沒有繞過降射挑戰(zhàn),只不過改變了降射挑戰(zhàn)的表現(xiàn)形式——怎么找到所有代表性數(shù)據(jù)?從80年代開始,國(guó)際人工智能在應(yīng)用中一直面臨主要挑戰(zhàn)是脆弱性問題。脆弱性在文獻(xiàn)中的表述我寫在PPT里了,現(xiàn)在我把它重新表達(dá)一下,分成三個(gè)子問題:第一,非典型情況是不是窮盡了?前面提到的“反例”都代表非典型情況。第二,找到的非典型情況是不是都可解?有的找到不可解。第三,如果前面兩個(gè)子問題出現(xiàn)了,是不是致命的?如果非典型情況是致命的,你就哭了。假如不存在失誤致命性,前面的兩個(gè)挑戰(zhàn)就屬于純學(xué)術(shù)追求,無(wú)論結(jié)果如何都不影響應(yīng)用。有人說,AlphaGo是怎么回事?AlphaGo不是笑到了最后嗎?這個(gè)問題很重要,我把AlphaGo總結(jié)為一張圖(參見文獻(xiàn)[2]第二章),就是這張PPT。AlphaGo是根據(jù)圍棋規(guī)則建一個(gè)圍棋博弈樹(或稱搜索樹)。因?yàn)閲迤灞P上有361個(gè)點(diǎn)可以落子,還有一個(gè)選項(xiàng)pass,總共362個(gè)落子,圍棋決策就是在這些選項(xiàng)中進(jìn)行選擇。于是,黑棋第一步可以從362個(gè)落子中進(jìn)行選擇,其中每一個(gè)落子都有對(duì)應(yīng)的勝率。到白棋的第一步,因?yàn)楹谄逡呀?jīng)走了一步,棋盤上就是少了一個(gè)選項(xiàng),剩下361個(gè)落子可選,每個(gè)落子也有對(duì)應(yīng)的勝率。之后的情況是類似的,黑白雙方輪流,一直走到最后下出勝負(fù)。這樣總共可以下出多少種不同的棋?大概是10300。理論上,每個(gè)棋局下的每個(gè)落子都有勝率,但實(shí)際上算不出來(lái),因?yàn)?0300的計(jì)算量太大。于是AlphaGo Zero進(jìn)行了2 900萬(wàn)局自博(自己和自己下棋),通過自博產(chǎn)生的數(shù)據(jù)反推出所有的勝率估計(jì)。這些都在我的這一張圖上表現(xiàn)出來(lái)了。獲得落子的勝率估計(jì)之后,AlphaGo Zero下棋時(shí)只根據(jù)勝率估計(jì)決定落子,至于對(duì)手風(fēng)格、策略甚至“假摔”等,根本就不考慮。實(shí)戰(zhàn)效果很好,阿法狗三代戰(zhàn)勝了所有人類圍棋高手,四代100:0戰(zhàn)勝了三代。四代沒有跟人下過,因?yàn)椴罹嗵?,沒法下了。AlphaGo Zero向我們提出很多問題,比如人工智能是不是應(yīng)該模擬人的思維?柯潔說人類圍棋下了幾千年都是錯(cuò)的,AlphaGo才是對(duì)的,這說明AlphaGo跟人類思維在本質(zhì)上是不一樣的。另外,AlphaGo Zero用了四項(xiàng)核心技術(shù),其中兩項(xiàng)強(qiáng)力法、兩項(xiàng)是訓(xùn)練法,2017年Nature的論文里說得非常清楚[4]。所以,認(rèn)為AlphaGo僅僅是深度學(xué)習(xí)的勝利,是完全違背事實(shí)的。如果我們對(duì)人工智能發(fā)展現(xiàn)狀和態(tài)勢(shì)的判斷,建立在對(duì)第三次浪潮標(biāo)志性成果的根本性誤解之上,豈不過于荒唐和危險(xiǎn)?我把上面的回顧和分析總結(jié)為這樣一個(gè)問題:人工智能現(xiàn)有技術(shù)的能力,發(fā)展到哪一步了?邊界在哪兒?2019年我得到一個(gè)結(jié)果,叫做“封閉性準(zhǔn)則”[3]。目前封閉性準(zhǔn)則只針對(duì)強(qiáng)力法和訓(xùn)練法,有興趣的同行可以考慮該準(zhǔn)則是否能夠以及如何推廣到AI的其他技術(shù)途徑。封閉性準(zhǔn)則對(duì)兩種AI經(jīng)典思維的具體要求是不一樣的。對(duì)于強(qiáng)力法有三個(gè)要求:第一,要能夠用一組確定的變?cè)?,完全描述?yīng)用場(chǎng)景。AlphaGo Zero為什么成功?一個(gè)根本原因在于,滿足了封閉性準(zhǔn)則的三個(gè)條件。AlphaGo Zero滿足封閉性準(zhǔn)則第一個(gè)條件的具體表現(xiàn)是:僅僅用362個(gè)落子完全描述圍棋問題(每個(gè)落子作為一個(gè)變?cè)?,這個(gè)落子在不同棋局下的勝率是該變?cè)娜≈担?,而圍棋的其他?chǎng)景元素如對(duì)手的風(fēng)格、策略等等全都不考慮。封閉性準(zhǔn)則對(duì)強(qiáng)力法的第二個(gè)要求是:這些變?cè)念I(lǐng)域定律,并且領(lǐng)域定律能用AI模型表達(dá)。圍棋的領(lǐng)域定律就是圍棋規(guī)則,但難以把握和使用,所以AlphaGo Zero通過2 900萬(wàn)局自博得到一組采樣(代表性數(shù)據(jù)),用強(qiáng)化學(xué)習(xí)技術(shù)和殘差網(wǎng)絡(luò),從這組采樣反推出362個(gè)落子的勝率估計(jì),并保存在殘差網(wǎng)絡(luò)中。之后下棋時(shí),AlphaGo Zero每一步棋的決策完全根據(jù)落子勝率估計(jì)做選擇。封閉性準(zhǔn)則對(duì)強(qiáng)力法的第三個(gè)要求是:AI模型的預(yù)測(cè)與應(yīng)用場(chǎng)景足夠接近。也即是說,不要求模型預(yù)測(cè)與場(chǎng)景情況完全一致。這個(gè)要求在AlphaGo Zero上的具體表現(xiàn)是:實(shí)戰(zhàn)效果非常好,這證明了362個(gè)落子的勝率估計(jì)與實(shí)際情況足夠接近。封閉性準(zhǔn)則對(duì)訓(xùn)練法的三個(gè)要求是:存在完整、確定的設(shè)計(jì)和評(píng)價(jià)準(zhǔn)則;存在足夠好的代表性數(shù)據(jù)集;神經(jīng)網(wǎng)絡(luò)經(jīng)過訓(xùn)練符合評(píng)價(jià)準(zhǔn)則。分析表明,AlphaGo Zero完全地滿足了這三個(gè)要求。其中,代表性數(shù)據(jù)集是借助于蒙特卡洛樹搜索(一種典型的強(qiáng)力法技術(shù))采集的。總結(jié)一下兩種AI經(jīng)典思維的應(yīng)用條件:在封閉性和封閉場(chǎng)景中,強(qiáng)力法和訓(xùn)練法的應(yīng)用不存在理論上的困難;如果應(yīng)用失敗了,是由別的問題引起的(如工程實(shí)現(xiàn)或商業(yè)模式),而不是由于強(qiáng)力法、訓(xùn)練法理論上的局限性。值得注意的是,在當(dāng)前的產(chǎn)業(yè)現(xiàn)狀下,滿足封閉性準(zhǔn)則的應(yīng)用場(chǎng)景很多!典型的應(yīng)用場(chǎng)景包括制造業(yè)、智慧農(nóng)業(yè)、物流、IT和部分服務(wù)業(yè),這些行業(yè)部門基本上都符合封閉性準(zhǔn)則的要求。比如智慧農(nóng)業(yè),中國(guó)到后年將建成10億畝高標(biāo)準(zhǔn)農(nóng)田,依其建造標(biāo)準(zhǔn),農(nóng)業(yè)機(jī)器人和人工智能技術(shù)都能進(jìn)入大田應(yīng)用。但是,大部分真實(shí)場(chǎng)景原本不是封閉性的,如何實(shí)現(xiàn)AI的產(chǎn)業(yè)落地?這就需要對(duì)應(yīng)用場(chǎng)景進(jìn)行封閉化、半封閉化或柔性化[5]。這張PPT是封閉化的例子。傳統(tǒng)的工業(yè)自動(dòng)化都是封閉化,比如汽車生產(chǎn)線,原始的生產(chǎn)過程是人工完成的,當(dāng)然是非封閉的,因?yàn)槿斯ぐ拇罅恳蛩厥菬o(wú)法完全嚴(yán)格描述的,存在很多丟失變?cè)?、難解變?cè)?。將這樣的原始生產(chǎn)過程改造為工業(yè)自動(dòng)化過程,使其所有變?cè)寄軌蛲耆枋霾⒕_控制,用AI的觀點(diǎn)看就是封閉化。另一條落地路徑是半封閉化,比如高鐵。高鐵系統(tǒng)實(shí)際上做了一個(gè)半封閉化,因?yàn)楦哞F行車的過程是完全封閉化的,有圍欄封閉了行車區(qū)域。但是,站臺(tái)、候車室、車廂是非封閉化的,因?yàn)檫@些地方不做封閉化也可以保證應(yīng)用效果。所以高鐵的總體效果是半封閉化。第三種落地路徑叫做分治化或柔性化。對(duì)于一個(gè)復(fù)雜的生產(chǎn)過程或工作流程,把其中一部分單元智能化,剩下的單元暫時(shí)做不到智能化就繼續(xù)留給人工去做,但是單元之間的連接要實(shí)現(xiàn)智能化,這就是分治法或柔性化??梢栽谌齻€(gè)層次上做柔性化,最簡(jiǎn)單的層次是智能工廠或智能車間;第二個(gè)層次是柔性制造鏈,在行業(yè)內(nèi)部不同的企業(yè)進(jìn)行連接;第三個(gè)是行業(yè)內(nèi)外的柔性化,實(shí)現(xiàn)全生態(tài)連接,這符合工信部提出的先進(jìn)制造的理想。根據(jù)我們的分析,用現(xiàn)有的人工智能技術(shù),完全可以在未來(lái)15年內(nèi)用柔性化實(shí)現(xiàn)這個(gè)理想目標(biāo)。可見封閉性準(zhǔn)則為未來(lái)15年人工智能在產(chǎn)業(yè)上的大規(guī)模落地提供了某種參考依據(jù)。除了上面提到的應(yīng)用,還有很多場(chǎng)景,特別是家庭服務(wù)機(jī)器人(機(jī)器人保姆),是不能封閉化的。把家里的人和所有東西都像工廠生產(chǎn)線一樣封閉化,進(jìn)行精確控制,是不行的。比如機(jī)器人給你洗臉,先把你夾住,然后像一個(gè)零部件一樣加載到精確定位的生產(chǎn)線上進(jìn)行洗臉操作,這是不可行的。那么,這些應(yīng)用場(chǎng)景的真正挑戰(zhàn)在什么地方?這就是非封閉性。剛才我提到了脆弱性背后的三大挑戰(zhàn),現(xiàn)在我嘗試用科學(xué)語(yǔ)言把問題進(jìn)一步抽象化,重述這三個(gè)挑戰(zhàn)。第一個(gè)是科學(xué)挑戰(zhàn):變?cè)遣皇歉F盡了?第二個(gè)是技術(shù)挑戰(zhàn):變?cè)遣皇强山??第三個(gè)是工程挑戰(zhàn):失誤會(huì)不會(huì)致命?首先討論封閉性的科學(xué)挑戰(zhàn)。什么是變?cè)??現(xiàn)在我給出嚴(yán)格定義。人工智能有三種主要的基礎(chǔ)性數(shù)學(xué)工具:邏輯、概率和決策論規(guī)劃(即基于馬爾可夫決策的各種形式化方法)。這里我以邏輯形式化為例,給出變?cè)囊粋€(gè)定義如下。邏輯演算中的個(gè)體符號(hào)指稱場(chǎng)景對(duì)象,謂詞符號(hào)指稱對(duì)象屬性,對(duì)象和屬性通稱場(chǎng)景元素。知識(shí)庫(kù)KB所包含的每一個(gè)個(gè)體符號(hào)和每一個(gè)謂詞符號(hào)稱為KB的一個(gè)變?cè)?。變?cè)欠?hào)系統(tǒng)中的東西,而現(xiàn)實(shí)場(chǎng)景中與變?cè)獙?duì)應(yīng)的東西叫做場(chǎng)景元素。降射是變?cè)c其對(duì)應(yīng)的所有場(chǎng)景元素之間的廣義映射,定義為:任給場(chǎng)景S和變?cè)獂,g(x)是變?cè)獂在S中對(duì)應(yīng)的所有場(chǎng)景元素的集合。降射g被一個(gè)AI模型建模的部分,稱為模型降射,記為gm(x)。經(jīng)常出現(xiàn)的情況是,對(duì)于某個(gè)變?cè)獂,g(x)1gm(x),也就是在變?cè)獂上真實(shí)降射和模型降射不相等,這時(shí)稱模型降射gm是不完全的。看我剛才舉過的那個(gè)例子。在就餐場(chǎng)景的例子中,AI模型中的模型降射gm(bowl)只包含兩個(gè)場(chǎng)景元素——常規(guī)的碗和宋代汝碗,不包括破碗。但是,真實(shí)的降射g至少包含這三種碗。所以,對(duì)應(yīng)于破碗的變?cè)猙rokenbowl是AI模型的一個(gè)丟失變?cè)誓P徒瞪?em>gm是不完全的。在上述定義的基礎(chǔ)上,可以嚴(yán)格定義“無(wú)盡性”:如果不存在系統(tǒng)性的可行方法,能夠判斷場(chǎng)景S在AI模型M下是否存在變?cè)獂使得g(x)≠gm(x),則稱降射g是無(wú)盡的,稱S在M下是非封閉的。注意,無(wú)盡性不是說:存在一個(gè)變?cè)獂使得不等式g(x)≠gm(x)成立;而是說:不存在一種系統(tǒng)性的可行方法,可以判定是否存在一個(gè)變?cè)獂使得不等式g(x)≠gm(x)成立。直觀上,即使一個(gè)場(chǎng)景包含的變?cè)獢?shù)量是有限的,如果沒有辦法確定描述該場(chǎng)景所需的所有變?cè)欠穸及谀P徒瞪渲辛?,而是在AI系統(tǒng)的運(yùn)行過程中不斷遇到“新”變?cè)?,那么這個(gè)場(chǎng)景就具有變?cè)獰o(wú)盡性,簡(jiǎn)稱無(wú)盡性。下面我們進(jìn)一步觀察和分析:針對(duì)無(wú)盡性,人工智能的基礎(chǔ)性數(shù)學(xué)工具提供了什么支持?首先看邏輯。傳統(tǒng)邏輯是實(shí)質(zhì)公理系統(tǒng),一個(gè)實(shí)質(zhì)公理系統(tǒng)也可以看成一個(gè)知識(shí)庫(kù),它與它描述的現(xiàn)實(shí)場(chǎng)景之間的關(guān)系沒有嚴(yán)格規(guī)定,受到Hilbert等人的嚴(yán)厲批評(píng),所以后來(lái)才改成了形式公理系統(tǒng),進(jìn)入現(xiàn)代邏輯(回憶我第一張PPT里對(duì)人工智能史前基礎(chǔ)研究的回顧)?,F(xiàn)代邏輯由兩層組成,上面一層是形式公理系統(tǒng)的語(yǔ)法部分,也可以看成是一個(gè)知識(shí)庫(kù);下面一層是形式公理系統(tǒng)的語(yǔ)義部分,也就是知識(shí)庫(kù)的一組“模型”,其中每一個(gè)模型是一個(gè)代數(shù)結(jié)構(gòu),還是抽象的東西。所以這兩層都和真實(shí)場(chǎng)景沒有嚴(yán)格定義的直接關(guān)系??墒?,無(wú)盡性意味著出現(xiàn)這樣的情況:有些變?cè)獂沒有包含在代數(shù)結(jié)構(gòu)里,但是在現(xiàn)實(shí)場(chǎng)景中卻有對(duì)應(yīng)的場(chǎng)景元素g(x),所以這個(gè)x是一個(gè)丟失變?cè)?,于是就?dǎo)致對(duì)應(yīng)的知識(shí)庫(kù)存里沒有關(guān)于x的知識(shí),這就是出現(xiàn)了丟失知識(shí)。這下我們清楚了,既然相關(guān)的知識(shí)丟失了,你用這樣的知識(shí)庫(kù)去控制一個(gè)AI系統(tǒng),當(dāng)然就會(huì)出問題。這樣我們就發(fā)現(xiàn),無(wú)盡性是涉及三層的(從知識(shí)庫(kù)到現(xiàn)實(shí)場(chǎng)景),但傳統(tǒng)邏輯沒有充分、有效地把握現(xiàn)實(shí)場(chǎng)景,而現(xiàn)代邏輯不考慮現(xiàn)實(shí)場(chǎng)景,所以無(wú)盡性是處于邏輯學(xué)的研究范圍之外的。也就是說,邏輯學(xué)作為人工智能的一種基礎(chǔ)性數(shù)學(xué)工具,在無(wú)盡性問題上沒有給我們提供任何支持。再看概率和決策論規(guī)劃,因?yàn)闆Q策論規(guī)劃也要用概率,我就把它們放到一起分析。在概率和決策論規(guī)劃的框架下,每一個(gè)樣本點(diǎn)w?W是一個(gè)變?cè)?,g (w)是w對(duì)應(yīng)的場(chǎng)景元素。使用概率或決策論規(guī)劃總要設(shè)置一個(gè)樣本空間W,無(wú)盡性意味著:W中變?cè)赡芪锤F盡真實(shí)場(chǎng)景的所有元素。出現(xiàn)這種情況會(huì)導(dǎo)致什么結(jié)果?不同的概率理論太多了,但主流的概率論都遵守Kolmogoroff公理,包含以下三條: (1) P(A) ≥ 0, where A is any event in W;(2) P(W) = 1, where W is the sample space;(3)P(A B) = P(A) P(B), where A and B are mutuallyexclusive。從三條公理可以看出,Kolmogoroff概率只考慮給定樣本空間中的概率推理;如果增加一個(gè)樣本點(diǎn)w’?W,將導(dǎo)致原來(lái)所有樣本點(diǎn)w?W的概率值P(w)可能都要調(diào)整;換句話說,如果你設(shè)置的樣本空間和真實(shí)的場(chǎng)景不一致,推出來(lái)的所有概率值原理上都是沒有理論保證的。這樣說,有人可能擔(dān)心數(shù)學(xué)家、統(tǒng)計(jì)學(xué)家會(huì)不會(huì)反對(duì)?據(jù)我所知他們不反對(duì)。我們團(tuán)隊(duì)有統(tǒng)計(jì)學(xué)教授,計(jì)算機(jī)專業(yè)學(xué)生受到統(tǒng)計(jì)學(xué)教授最嚴(yán)厲的批評(píng)就是這一點(diǎn)。統(tǒng)計(jì)學(xué)教授說:你一開始設(shè)置的樣本空間如果不能很好地符合真實(shí)場(chǎng)景和研究目的,后面弄的一大堆理論、算法、數(shù)據(jù)、實(shí)驗(yàn)結(jié)果等等,無(wú)論看起來(lái)多好,都沒有意義。這也說明,Kolmogoroff概率論對(duì)無(wú)盡性沒有提供支持。所以,人工智能的三種主要的基礎(chǔ)性數(shù)學(xué)工具都沒有對(duì)無(wú)盡性挑戰(zhàn)提供支持,而其他數(shù)學(xué)工具通常是以這三種基礎(chǔ)性工具為理論基礎(chǔ)的,繼承了三種主要工具的理論特性。這反映了封閉性的科學(xué)挑戰(zhàn)。現(xiàn)在考慮封閉性的技術(shù)挑戰(zhàn)。有些變?cè)词鼓軌蛘业?,但是未必能夠處理,這種變?cè)覀兎Q之為“難解變?cè)?/strong>”。比如文獻(xiàn)[6]里有一個(gè)例子:明明是一只猴子,被深層網(wǎng)絡(luò)識(shí)別為人,為什么?因?yàn)檫@里有遮擋。用我們的術(shù)語(yǔ)來(lái)表述,遮擋是一個(gè)無(wú)限值的變?cè)恳粋€(gè)值降射為現(xiàn)實(shí)場(chǎng)景中猴子與遮擋物之間的一種可能的相對(duì)位置組合。這種情況下,如何找出無(wú)限多種相對(duì)位置組合的有限多個(gè)代表性樣本,使之有效地代表無(wú)限多種組合,最終保證被任意遮擋的猴子總被正確識(shí)別?這是一個(gè)技術(shù)挑戰(zhàn)(其背后可能也存在著科學(xué)挑戰(zhàn))。還有其他與遮擋類似的情況,比如“光照”,這種變?cè)孟窀y處理。上面是人工智能發(fā)現(xiàn)的一些例子。統(tǒng)計(jì)學(xué)做了更加系統(tǒng)的研究,難解變?cè)ńy(tǒng)計(jì)學(xué)中稱為latent variables)被區(qū)分為八種常見類型,現(xiàn)有的解決辦法都是要針對(duì)變?cè)霈F(xiàn)的場(chǎng)景做具體分析,弄清楚面臨的變?cè)前祟愔械哪囊活?,然后再?gòu)膶?duì)應(yīng)于該類變?cè)膸装俜N方法中嘗試現(xiàn)有的解法,看看能不能成功求解,如果最后都不成功,那就是不可解的。由此可見,即使可解,通常也是非常困難的,所以稱為難解變?cè)?。這是技術(shù)上的挑戰(zhàn)。最后簡(jiǎn)單談?wù)?strong>封閉性的工程挑戰(zhàn),主要表現(xiàn)為“失誤致命性”。如果在一個(gè)場(chǎng)景中,丟失變?cè)碗y解變?cè)拇嬖诳梢詫?dǎo)致AI系統(tǒng)出現(xiàn)不可接受的結(jié)果(不一定是死人,而是出現(xiàn)不可接受的后果),這就叫做失誤致命性?,F(xiàn)在的解決辦法是:通過前面提到的封閉化、半封閉化、柔性化(見第二節(jié)),以規(guī)避失誤致命性,此外沒有別的辦法。所謂封閉化,其實(shí)就是進(jìn)行場(chǎng)景裁減或者場(chǎng)景改造,以排除可能引起致命性失誤的情況。現(xiàn)在概括一下封閉性的定義和意義。定義是:滿足以下三個(gè)條件的場(chǎng)景是封閉的,①降射不是無(wú)盡的,②場(chǎng)景不含難解變?cè)?,③?yīng)用不存在致命性失誤。三個(gè)條件都滿足的場(chǎng)景就是封閉性場(chǎng)景,封閉性場(chǎng)景可以應(yīng)用現(xiàn)有AI技術(shù),這是好消息。只要有一個(gè)條件不滿足,就是非封閉性場(chǎng)景,現(xiàn)有AI技術(shù)不保證可應(yīng)用。我們下面將要討論的是三個(gè)條件都不滿足的情況。前面說過了,這時(shí)我們面臨著科學(xué)挑戰(zhàn)、技術(shù)挑戰(zhàn)和工程挑戰(zhàn)這三重挑戰(zhàn)。四、超越封閉性:開放知識(shí)技術(shù)路線科大機(jī)器人團(tuán)隊(duì)認(rèn)為,既然基礎(chǔ)性數(shù)學(xué)工具沒有給我們提供支撐,我們就必須做更多的反思。其中一項(xiàng)反思是考察臨近學(xué)科是如何應(yīng)對(duì)底層挑戰(zhàn)的。計(jì)算機(jī)科學(xué)體系大概像我這張PPT表現(xiàn)的樣子(見圖3),圖靈機(jī)和可計(jì)算性理論是整個(gè)大廈的理論基礎(chǔ)。對(duì)比發(fā)現(xiàn),AI的理論基礎(chǔ)——對(duì)應(yīng)于可計(jì)算性理論的智能理論,目前肯定是沒有的;作用類似于馮·諾依曼體系結(jié)構(gòu)的工作原理有沒有?不太清楚。在對(duì)比的基礎(chǔ)上,我們問兩個(gè)問題。第一,智能科學(xué)現(xiàn)有的工作原理和未來(lái)可能出現(xiàn)的理論基礎(chǔ)能不能有效應(yīng)對(duì)非封閉性?因?yàn)榉忾]性問題用現(xiàn)有AI技術(shù)已經(jīng)可以解決了。第二,我們的理論基礎(chǔ)應(yīng)該起什么作用?好像現(xiàn)在也不太清楚。那我們就看看計(jì)算機(jī)科學(xué)的理論基礎(chǔ)起什么作用。我們分析認(rèn)為,計(jì)算機(jī)科學(xué)的理論基礎(chǔ)所起的作用是:提供了一種計(jì)算的形式公理元語(yǔ)義。圖3 對(duì)比計(jì)算機(jī)科學(xué)體系
再對(duì)比經(jīng)典物理學(xué)。這是經(jīng)典物理學(xué)體系的結(jié)構(gòu)(見圖4)。對(duì)應(yīng)到人工智能,理論基礎(chǔ)仍然沒有;但是現(xiàn)在這個(gè)對(duì)應(yīng)比較好,人工智能技術(shù)對(duì)應(yīng)于工程力學(xué),這個(gè)層次上我們已經(jīng)有一些成果了。針對(duì)這個(gè)對(duì)比繼續(xù)問上面的兩個(gè)問題:非封閉性能不能有效應(yīng)對(duì)?理論基礎(chǔ)應(yīng)該起什么作用?我們看看經(jīng)典力學(xué),它的基礎(chǔ)理論包括牛頓力學(xué)、哈密頓力學(xué)和拉格朗日力學(xué)三種力學(xué)(通常我們學(xué)一種就可以了),其作用是為經(jīng)典物理學(xué)提供了一種實(shí)質(zhì)公理元語(yǔ)義。
圖4 對(duì)比經(jīng)典物理學(xué)體系
注意計(jì)算機(jī)科學(xué)和經(jīng)典物理學(xué)的理論基礎(chǔ)在邏輯學(xué)上的差別:前者是形式的,后者是實(shí)質(zhì)的。這個(gè)區(qū)別很有道理,因?yàn)橛?jì)算機(jī)科學(xué)不直接涉及現(xiàn)實(shí)世界,而物理學(xué)涉及。現(xiàn)在回到人工智能領(lǐng)域,進(jìn)一步分析我們面臨的挑戰(zhàn),特別是機(jī)器人AI面臨的挑戰(zhàn)。我們發(fā)現(xiàn):場(chǎng)景變異無(wú)盡性是挑戰(zhàn)的根本來(lái)源。通常我們是針對(duì)一些典型的場(chǎng)景進(jìn)行建模(用強(qiáng)力法或訓(xùn)練法),而非典型場(chǎng)景被我們有意無(wú)意的忽略了。為什么會(huì)這樣?這是思維經(jīng)濟(jì)學(xué)原理所要求的,任何實(shí)際的建模不可能包含所有邏輯可能的場(chǎng)景(相當(dāng)于模態(tài)邏輯語(yǔ)義學(xué)中的所有“可能世界”)。于是在AI系統(tǒng)的運(yùn)行過程中,就不可避免地會(huì)遇到“新”場(chǎng)景,而且新場(chǎng)景會(huì)包含“新”元素,這些新元素在AI模型里沒有對(duì)應(yīng)的變?cè)?。圖5描述了這種情況。我們發(fā)現(xiàn):場(chǎng)景變異無(wú)盡性可以解釋人工智能的很多難題。比如昨天Bengio教授在演講中提到的幾個(gè)問題,其中之一是Credit assignment is only over short causal chains,都可以用場(chǎng)景變異無(wú)盡性來(lái)解釋。事實(shí)上,變?cè)獰o(wú)盡性的根源是場(chǎng)景變異無(wú)盡性。
圖5 場(chǎng)景變異無(wú)盡性
基于上述觀察,我們的基本觀點(diǎn)概括為一句話:“正常情況下,任何AI模型總會(huì)丟失一些變?cè)?/strong>”目前一定會(huì)是這樣,我們只能在這個(gè)條件下找出路。“開放知識(shí)”技術(shù)路線的基本想法是:設(shè)計(jì)AI系統(tǒng)時(shí)只針對(duì)一組典型場(chǎng)景(注意一般不是一個(gè)場(chǎng)景)建一個(gè)初始模型;在AI系統(tǒng)運(yùn)行過程中,如果遇到了一個(gè)新場(chǎng)景,就針對(duì)該場(chǎng)景建一個(gè)增量模型。增量模型中的知識(shí)來(lái)自外部知識(shí)源,所有網(wǎng)上的知識(shí)都是我們的外部知識(shí)源,當(dāng)然這個(gè)問題很有挑戰(zhàn)性。不過更難的是:增量模型和初始模型往往語(yǔ)義不一致,沒法整合為一個(gè)同一語(yǔ)義下的AI模型。怎么辦?我們的辦法是:為AI系統(tǒng)提供一個(gè)統(tǒng)一的語(yǔ)義基礎(chǔ),這就是一個(gè)基礎(chǔ)性語(yǔ)言常識(shí)的實(shí)質(zhì)元語(yǔ)義。注意,我們不是提供所有語(yǔ)言知識(shí),而是只提供基礎(chǔ)性語(yǔ)言常識(shí),就是語(yǔ)義辭典描述的那些知識(shí),這些基礎(chǔ)性語(yǔ)言常識(shí)是語(yǔ)言學(xué)家們通過長(zhǎng)期研究和精煉而得出的。另外,這個(gè)元語(yǔ)義不是一個(gè)單純的理論框架,而且是一個(gè)實(shí)用系統(tǒng),實(shí)際地包含基礎(chǔ)性語(yǔ)言常識(shí)。我們完成了它大約1%的工程開發(fā),這樣我們就知道這套辦法在工程上是可行的,而且也近似知道了這個(gè)元語(yǔ)義系統(tǒng)的工程總量大概是多大。剛才周明老師說,建立某個(gè)預(yù)訓(xùn)練模型可能需要1200萬(wàn)美元,估計(jì)我們這套模型只需要1200萬(wàn)元人民幣。開放知識(shí)(簡(jiǎn)稱OK)系統(tǒng)的體系結(jié)構(gòu)如圖6所示。面向不同的任務(wù)提取相關(guān)的外部知識(shí),其中一個(gè)任務(wù)由它的任務(wù)場(chǎng)景和任務(wù)目標(biāo)組成,所以場(chǎng)景改變也被視為任務(wù)改變,也會(huì)觸發(fā)外部知識(shí)的提取。本地知識(shí)包括:機(jī)器人/AI系統(tǒng)硬件的感知、行動(dòng)等基礎(chǔ)能力的知識(shí);典型場(chǎng)景的背景知識(shí);降射及OK機(jī)制的元知識(shí)。AI模型還包含基礎(chǔ)性語(yǔ)言常識(shí),用于支持外部知識(shí)提取和知識(shí)組合。知識(shí)組合之后,形成當(dāng)前任務(wù)模型,然后整體性降射到任務(wù)場(chǎng)景。這是整個(gè)OK技術(shù)路線的系統(tǒng)架構(gòu),2011年開始實(shí)施工程實(shí)現(xiàn)和系統(tǒng)測(cè)試[7]。
圖6 OK體系結(jié)構(gòu)
同時(shí),我們對(duì)外部知識(shí)提取部分展開了形式化研究,在因果邏輯(causal Logic)的框架上形式化為“知識(shí)修復(fù)問題”[8],如圖7所示。假設(shè)機(jī)器人接受了一項(xiàng)新任務(wù),這項(xiàng)任務(wù)帶有新的場(chǎng)景元素。如果利用本地知識(shí)庫(kù)中的初始知識(shí)解決不了,機(jī)器人就生成相應(yīng)的一些要求,依據(jù)這些要求從網(wǎng)上尋找合適的外部知識(shí)源,從中提取一塊可以用來(lái)解決當(dāng)前任務(wù)的知識(shí),這塊知識(shí)就叫做本地知識(shí)的一個(gè)“修復(fù)”。然后在元語(yǔ)義之下,把知識(shí)修復(fù)與本地知識(shí)進(jìn)行整合,機(jī)器人用整合后的知識(shí)做任務(wù)規(guī)劃,形成當(dāng)前任務(wù)的一個(gè)解決方案(即一系列行動(dòng)),由機(jī)器人去執(zhí)行。
圖7 知識(shí)修復(fù)問題
我們考慮了知識(shí)修復(fù)問題的多種模式,發(fā)現(xiàn)它們的計(jì)算復(fù)雜性都很高[9](見表1)。不過,我們找到了一種計(jì)算上易處理的情況(a computationally tractable case),即當(dāng)外部知識(shí)具有 a1 ù …ù an Ta的表達(dá)形式時(shí),一種模式的知識(shí)修復(fù)問題(即thecredulous rehabilitation)可以在O(n2)時(shí)間內(nèi)完成。這個(gè)結(jié)果非常好,因?yàn)榇罅砍R姷耐獠恐R(shí)源具有這種表達(dá)形式,這表明知識(shí)修復(fù)問題是實(shí)際可解的。表1 知識(shí)修復(fù)問題的計(jì)算復(fù)雜性結(jié)果
相應(yīng)地,我們的實(shí)驗(yàn)測(cè)試也針對(duì)這種形式的外部知識(shí)源展開。不過,我們(暫時(shí))假定外部知識(shí)的提取是半自動(dòng)的,即先人工初選一些“合適的”知識(shí)源,然后讓機(jī)器人從中自動(dòng)選擇當(dāng)前任務(wù)所需的知識(shí)修復(fù)。
從2011年開始的一個(gè)系列實(shí)驗(yàn)主要從兩個(gè)維度進(jìn)行考察,一個(gè)維度是機(jī)器人基本能力的不同情況(包括本地知識(shí)庫(kù)中的初始知識(shí)),我們?cè)O(shè)置了不同能力;另一個(gè)維度是外部知識(shí)的不同情況,我們預(yù)選了不同的外部知識(shí)源。這些知識(shí)源的體量都很大,通常其中只有一小部分知識(shí)是當(dāng)前任務(wù)相關(guān)的,讓機(jī)器人自己找。同時(shí),我們選擇了兩個(gè)原始任務(wù)集,它們都是由網(wǎng)絡(luò)用戶提供的,并由專業(yè)人士濾除語(yǔ)義上不合理的任務(wù),但不考慮這些任務(wù)是否可由機(jī)器人實(shí)現(xiàn)。第一個(gè)原始任務(wù)集包含2萬(wàn)多條用戶任務(wù),經(jīng)過語(yǔ)義聚類,產(chǎn)生11 615個(gè)不同的用戶任務(wù)作為測(cè)試集1,其中每一項(xiàng)任務(wù)都需要機(jī)器人執(zhí)行一個(gè)完整的行動(dòng)序列才可以完成任務(wù)。第二個(gè)原始任務(wù)集包含3000多條用戶愿望,比如“我渴了”,這種任務(wù)不是聊天,而是要求機(jī)器人想辦法,通過執(zhí)行一系列行動(dòng),讓用戶不渴。通過語(yǔ)義聚類,產(chǎn)生了467條不同的用戶愿望,作為測(cè)試集2。對(duì)兩個(gè)測(cè)試集的整體性測(cè)試沒有完全在實(shí)體機(jī)器人上進(jìn)行,而是通過仿真實(shí)驗(yàn),對(duì)外部知識(shí)提取、知識(shí)整合和機(jī)器人任務(wù)規(guī)劃能力進(jìn)行測(cè)試。第一類任務(wù)的實(shí)驗(yàn)結(jié)果顯示,引用外部知識(shí)沒有顯著提升任務(wù)可解度,這個(gè)結(jié)果提供了非常有價(jià)值的實(shí)驗(yàn)觀察。第二類任務(wù)只用本地知識(shí)連1%都解決不了,使用了兩類外部知識(shí)之后,任務(wù)可解度達(dá)到了28.69%[7],這個(gè)提升非常顯著。這項(xiàng)實(shí)驗(yàn)給我們很大的信心,后來(lái)一直在改進(jìn)并重復(fù)進(jìn)行這個(gè)測(cè)試。到了2017年,兩類任務(wù)的測(cè)試效果都獲得進(jìn)一步提升,第二類任務(wù)提升得更多[10]。
我們通過對(duì)試驗(yàn)結(jié)果(包括提升明顯和不明顯的結(jié)果)的分析,得出開放知識(shí)技術(shù)路線對(duì)外部知識(shí)的要求如下:第一,知識(shí)的引用量很重要。比如,測(cè)試集1有1萬(wàn)多個(gè)任務(wù),而我們?cè)趯?shí)驗(yàn)中使用的外部知識(shí)量與任務(wù)量在同一個(gè)量級(jí),引用知識(shí)量明顯不足;測(cè)試集2引用的知識(shí)量和測(cè)試集1基本相同,可是只有467個(gè)用戶任務(wù),知識(shí)引用量明顯增加,效果也明顯提升。第二,知識(shí)的適用性具有決定性作用,不適用的知識(shí)對(duì)任務(wù)可解度改進(jìn)沒有任何價(jià)值。這與剛才Gil教授和田奇博士談到的一些內(nèi)容都是有關(guān)的。第三,知識(shí)協(xié)調(diào)性很重要,這里的協(xié)調(diào)性包括外部知識(shí)之間的互補(bǔ)性,以及外部知識(shí)對(duì)于當(dāng)前任務(wù)的適用性。總的觀察是:如果三個(gè)條件都得到較好的滿足,利用外部知識(shí)可以幫助AI系統(tǒng)有效應(yīng)對(duì)場(chǎng)景變異挑戰(zhàn)。值得注意的是:開放知識(shí)技術(shù)路線不是把全世界的知識(shí)都拿來(lái)用,而是每次只拿其中很小的一部分就夠了。即使對(duì)測(cè)試集2,實(shí)際使用的知識(shí)引用量也是非常有限的。當(dāng)然,必須滿足上面指出的三個(gè)條件,可見這些條件的必要性。下面看一些實(shí)體機(jī)器人上的試驗(yàn)測(cè)試,這些實(shí)驗(yàn)還涉及我們的另一個(gè)工作,即“融差性原理”,這個(gè)原理在下面介紹的內(nèi)容中表現(xiàn)為“融差能力”。注意,“融差”不是傳統(tǒng)的容錯(cuò),而是要利用差異,以更好地解決無(wú)盡性等難題。經(jīng)過反復(fù)摸索,我們發(fā)現(xiàn),利用融差性原理,可以解決過去無(wú)法解決的很多深層難題。事實(shí)上,融差性原理是開放知識(shí)技術(shù)路線的深層基礎(chǔ)。
第一個(gè)實(shí)驗(yàn)是用我們自主研發(fā)的“可佳”機(jī)器人,在家庭環(huán)境中為用戶提供服務(wù),比如用微波爐加熱食品。這個(gè)功能2010年就實(shí)現(xiàn)了(見圖8),并在當(dāng)年的深圳高交會(huì)上公開演示了100多場(chǎng)??墒?,在實(shí)驗(yàn)室條件下好用,不等于在千家萬(wàn)戶都好用,千家萬(wàn)戶包含著各種各樣的變異場(chǎng)景!事實(shí)上,這個(gè)實(shí)驗(yàn)是場(chǎng)景無(wú)盡性的一個(gè)代表性案例,反映了機(jī)器人AI遇到的普遍性挑戰(zhàn)。所以,10年來(lái)我們通過這個(gè)實(shí)驗(yàn)不斷深化對(duì)場(chǎng)景無(wú)盡性的認(rèn)識(shí),摸索解決辦法。
在這個(gè)視頻中,機(jī)器人自己打開微波爐,把食品放進(jìn)去加熱,摁按鈕,直到最后把加熱后的食品從微波爐里取出來(lái)。我們的可佳機(jī)器人是用強(qiáng)力法 訓(xùn)練法開發(fā)的,比如摁按鈕是用訓(xùn)練法做的,任務(wù)規(guī)劃是強(qiáng)力法實(shí)現(xiàn)的,機(jī)器人摁按鈕之后會(huì)看顯示屏,判斷自己是不是按中了。為了體現(xiàn)場(chǎng)景變異,我們讓實(shí)驗(yàn)人員給機(jī)器人搗亂,用搗亂代表場(chǎng)景變異,環(huán)境的其他方面不變,這樣比較容易進(jìn)行試驗(yàn)。大家看,可佳現(xiàn)在要打開微波爐的門,人又來(lái)?yè)v亂,讓機(jī)器人的操作不成功。可佳能夠發(fā)現(xiàn)自己的操作不成功,然后會(huì)想辦法補(bǔ)救。實(shí)驗(yàn)結(jié)果表明,整個(gè)任務(wù)在人搗亂的情況下仍然可以完成。
圖8 “可佳”機(jī)器人自主操作微波爐加熱食品
其實(shí)在很多現(xiàn)實(shí)場(chǎng)景中,毛病往往出在人身上,可是大家往往認(rèn)為毛病主要出在機(jī)器人身上。這個(gè)觀察適用于人和機(jī)器人之間的協(xié)作?,F(xiàn)在很多人假設(shè),人和機(jī)器人協(xié)作中都是機(jī)器人犯錯(cuò),據(jù)我們觀察,更多的是人犯錯(cuò)。
剛才這個(gè)視頻反映的是機(jī)器人如何應(yīng)對(duì)場(chǎng)景變異。我們還有一個(gè)工作是應(yīng)對(duì)對(duì)象變異,比如機(jī)器人抓取各種不同大小、形狀和表面特性的東西,這是一個(gè)很大的挑戰(zhàn)。為此,這些年我們嘗試將融差性原理應(yīng)用于從機(jī)器人手爪硬件設(shè)計(jì)直到軟件控制,這樣做出來(lái)的柔性手爪可以抓握家庭環(huán)境中具有不同大小、形狀和剛度的常見物品(見圖9)。
圖9 不同剛度物體無(wú)力反饋的融差操作
下面播放的這個(gè)視頻中,用我們的柔性手爪抓握不同剛度、不同表面特性的物品,而且控制程序和硬件參數(shù)都不用調(diào)整,目前也沒有使用力反饋(沒有使用力傳感器),只用一個(gè)價(jià)值人民幣1000元左右的攝像頭,放在傳送帶上方,大致看出物品的大小和形狀就行,肯定看不出材質(zhì)和剛度。這個(gè)手爪大約人民幣2000元,如果做成產(chǎn)品批量生產(chǎn),估計(jì)100元以下。我見過7000美元的手爪,抓不了這么多東西,更抓不了豆腐。
現(xiàn)在大家看到機(jī)器人在抓豆腐。豆腐很軟,人不小心就捏碎了。右下角是硬木塊,可以用榔頭敲,都不會(huì)變形的。豆腐、蛋糕和木塊等不同剛度的物體全部放到傳送帶上,柔性手爪完全一樣地抓,都可以抓起來(lái)。
關(guān)于開放知識(shí)的未來(lái)工作,我們覺得有很多,這里只列舉三個(gè)課題。第一,涉及降射的因果推理。昨天Bengio教授在演講中提到,因果發(fā)現(xiàn)需要涉及現(xiàn)實(shí)世界和行動(dòng)。我們進(jìn)一步提出:因果關(guān)系的研究需要與降射相關(guān),因而涉及三層空間(見圖1)。第二,異質(zhì)知識(shí)系統(tǒng)性整合的原理和方法。第三,融差性原理的理論基礎(chǔ)和系統(tǒng)性方法。
最后,對(duì)未來(lái)15年做一個(gè)展望。預(yù)期現(xiàn)有人工智能技術(shù)將得到大規(guī)模產(chǎn)業(yè)化應(yīng)用,但一定要遵守封閉性準(zhǔn)則。這種局面是過去70年中從來(lái)沒有出現(xiàn)過的,令人振奮。其次,基礎(chǔ)研究將受到更高程度的重視,并出現(xiàn)應(yīng)用驅(qū)動(dòng)、強(qiáng)化基礎(chǔ)、深化技術(shù)的發(fā)展態(tài)勢(shì)。另外,未來(lái)15年中人工智能倫理將成為人工智能的一種新的核心競(jìng)爭(zhēng)力,值得關(guān)注。
參考文獻(xiàn)
[1] A. M. Turing, Computing Machinery and Intelligence. Mind 49: 433-460,1950.[2]陳小平(主編),《人工智能倫理導(dǎo)引》,中國(guó)科學(xué)技術(shù)大學(xué)出版社,2020年(待出)。[3]陳小平,人工智能中的封閉性和強(qiáng)封閉性——現(xiàn)有成果的能力邊界、應(yīng)用條件和倫理風(fēng)險(xiǎn),《智能系統(tǒng)學(xué)報(bào)》2020年第1期(CAAI Trans. Intelligent Systems, 15(1): 114-120).[4]DavidSilver, Julian Schrittwieser, et al, Mastering the game of Go without human knowledge,Nature, Oct. 18, 2017.[5]陳小平,封閉性場(chǎng)景:人工智能的產(chǎn)業(yè)化路徑,《文化縱橫》2020年第1期.[6]Alan L. Yuilleand Chenxi Liu, Limitations of Deep Learning for Vision, and How We Might FixThem, The Gradient, 2018.[7]XiaopingChen, Jiong kun Xie, Jianmin Ji, and Zhiqiang Sui, Toward Open KnowledgeEnabling for Human-Robot Interaction, Journal of Human-Robot Interaction, 2012,1(2): 100-117.[8]XiaopingChen, Jianmin Ji, et al, Handling Open Knowledge for Service Robots, In:Proceedings of IJCAI 13, Beijing, China, Aug 3-9, 2013: 2459-2465.[9]JianminJi and Xiaoping Chen, A Weighted Causal Theory for Acquiring and UtilizingOpen Knowledge, International Journal of Approximate Reasoning (IJAR) 55(9):2071-2082, 2014.[10]DongcaiLu, Xiaoping Chen, et. al.,Integrating Answer Set Programming with Semantic Dictionaries for Robot Task Planning,In: Proceedings of IJCAI 2017, 4361-4367.(本報(bào)告根據(jù)速記整理)