(本文由科學(xué)大院根據(jù)鄂維南院士在中國科學(xué)院學(xué)部第九屆學(xué)術(shù)年會(huì)上的報(bào)告《數(shù)學(xué)與人工智能》整理而成,首發(fā)于科學(xué)大院)
人工智能是一個(gè)快速發(fā)展的領(lǐng)域,每個(gè)人都在以自己的方式體驗(yàn)它,每個(gè)人都有不同的感受和對未來的預(yù)見。
毫無疑問,計(jì)算機(jī)科學(xué)家推動(dòng)著當(dāng)前人工智能最前沿的發(fā)展,但早在1956年,即我們通常認(rèn)為的“人工智能元年”,數(shù)學(xué)家們就已經(jīng)開始系統(tǒng)地研究人工智能。
以四位數(shù)學(xué)家為例:
圖靈(Alan?Mathison?Turing)是普林斯頓大學(xué)數(shù)學(xué)系的畢業(yè)生,研究數(shù)理邏輯,他的貢獻(xiàn)無需多言;馮·諾依曼(Von Neumann)研究決策過程,這也是人工智能很重要的一部分;維納(Norbert Wiener)從行為主義反饋的角度來研究人工智能,而且他的研究非常系統(tǒng),并不是零星的想法;香農(nóng)(Claude Elwood Shannon)從通訊和信息理論的角度對人工智能進(jìn)行了研究。
人工智能取得的輝煌成就
2012年以來,我們都能感受到人工智能取得的輝煌成就。
2016年,AlphaGo戰(zhàn)勝了當(dāng)時(shí)最好的圍棋選手李世石。
2024年,AlphaGeometry參加奧林匹克數(shù)學(xué)競賽,在平面幾何的題目上打敗了銀牌選手,得分也遠(yuǎn)遠(yuǎn)超過了吳文俊先生的解題方法。由此我們可以感受到,人工智能的水平跟我們最好的選手已經(jīng)不相上下了。
ChatGPT和 GPT-4的水平怎么樣?我舉一個(gè)例子:“計(jì)算一根棒子的溫度分布”這個(gè)題目并不難(見下圖),但GPT-4的解題方法讓我感到很震驚:它先寫出微分方程,再加入邊界條件,然后解微分方程得出了結(jié)果。這竟然和我的做法差不多,這讓我感受到了很大的挑戰(zhàn)。

Sora可以生成視頻,支持用簡單的文本提示生成非常逼真的視頻,這可以說是開啟了物理世界跟虛擬世界連接的橋梁。

談到AI for Science,AlphaFold2用非常簡潔優(yōu)雅的辦法,把生命科學(xué)中一個(gè)非常基礎(chǔ)的問題(預(yù)測蛋白質(zhì)結(jié)構(gòu))徹底解決了,這是我沒有預(yù)料到的。我們正在做OpenLAM,目的是發(fā)展一個(gè)大原子模型。

現(xiàn)有人工智能技術(shù)路線不適合中國
除了以上的例子,我還可以用幾個(gè)數(shù)字來告訴大家,Open AI公司有多么雄心勃勃。雖然其中一些數(shù)據(jù)不是經(jīng)官方發(fā)布的,但從這些數(shù)字我們可以窺視到OpenAI在人工智能領(lǐng)域的決心與野心。
到2028年,OpenAI和微軟聯(lián)合投資1,000億美元,打造“星際之門”算力系統(tǒng)。到2030年,他們計(jì)劃耗費(fèi)全球3%的用電量。另外,OpenAI準(zhǔn)備籌集7萬億美元來建立新的芯片制造體系。這7萬億相當(dāng)于去年的全球GDP的7%,而去年全球半導(dǎo)體行業(yè)的產(chǎn)值是5,000億美元,所以這個(gè)差距還是相當(dāng)大的。大家都會(huì)好奇,這7萬億美元究竟要用于什么,因?yàn)檎麄€(gè)芯片行業(yè)并不需要這么多錢。
然而,我想強(qiáng)調(diào)的是,這條技術(shù)路線并不適合中國,也不應(yīng)該是未來人工智能發(fā)展的最佳路徑。
理由非常簡單:從國內(nèi)的大模型頂尖團(tuán)隊(duì)來看,目前第一梯隊(duì)的計(jì)算能力可能達(dá)到“萬卡”的規(guī)模,比如1萬張A100或者1萬張華為A910B的規(guī)模。不過,到了明年這個(gè)時(shí)候,當(dāng)GPT-5推出時(shí),美國的第一梯隊(duì)將擁有10萬張卡的規(guī)模。10萬張卡意味著什么?用人民幣計(jì)算大約需要200億到300億元。那么,國內(nèi)有多少團(tuán)隊(duì)能負(fù)擔(dān)得起這樣的花銷?
另外,剛才提到的“星際之門”計(jì)劃,投資大約1,000億美元,預(yù)計(jì)將使用百萬張卡。百萬張卡的能源消耗據(jù)說需要10個(gè)核電站來支撐,因此即便對于美國來說,負(fù)擔(dān)這個(gè)項(xiàng)目也是非常不容易的事。這其中存在著巨大的能源問題和水資源問題。有人計(jì)算過,百萬張卡的規(guī)模需要耗費(fèi)英國一半的用水量來進(jìn)行冷卻。
所以,這樣的技術(shù)路徑本身存在巨大的浪費(fèi)問題。
就中國來講,我們在人工智能領(lǐng)域里面不光存在算力的問題,還存在著其他問題。
第一,我們的人才資源和算力資源沒有對接好。我國當(dāng)前的第一梯隊(duì)是基于過去的人才體系建立的。而相比之下,OpenAI的人才厚度和廣度則完全不同。scaling law(標(biāo)度律)是統(tǒng)計(jì)物理復(fù)雜系統(tǒng)中的常見概念,我們需要怎樣的人工智能人才?他們不僅僅來自計(jì)算機(jī)視覺、自然語言處理、機(jī)器學(xué)習(xí)這些顯而易見的領(lǐng)域,還應(yīng)該來自更上游的算力系統(tǒng)、系統(tǒng)軟件、高性能計(jì)算、數(shù)據(jù)庫等領(lǐng)域,甚至于腦科學(xué)、心理學(xué)、物理學(xué)、數(shù)學(xué)等更廣泛的領(lǐng)域。人才的厚度和廣度極其重要,而目前我們國家有多少團(tuán)隊(duì)具備這樣的人才儲(chǔ)備呢?
當(dāng)前這些人才資源主要來自于高校,但實(shí)際上大多數(shù)高校在當(dāng)前人工智能發(fā)展的前沿已經(jīng)被邊緣化了,這不僅是中國的情況,美國同樣如此。我個(gè)人認(rèn)為,中國人工智能發(fā)展的首要目標(biāo)之一是要把人才資源和算力資源對接好。
第二,我們尚未建立好底層創(chuàng)新體系。當(dāng)前的技術(shù)框架基本依賴于國外,我個(gè)人認(rèn)為,我們還不具備一個(gè)系統(tǒng)的、完整的底層創(chuàng)新體系。
第三,我們還缺乏綜合性、前瞻性的人才。
因此,我們現(xiàn)在面臨兩個(gè)基本任務(wù):
一、要建立完整的人工智能底層創(chuàng)新體系,包括芯片、系統(tǒng)軟件、數(shù)據(jù)和數(shù)據(jù)庫、高性能計(jì)算等。這一底層創(chuàng)新體系必須建立起來,不能有任何幻想。
二、技術(shù)路線的可持續(xù)性問題也需要解決。新的技術(shù)路線從何而來?這需要我們不斷探索人工智能發(fā)展的底層邏輯和基本原理才能找到。這是一個(gè)非常困難的任務(wù),但必須直接面對。
探索底層邏輯和基本原理
人工智能發(fā)展的歷史經(jīng)歷了多次大起大落,以及不斷的“小起小落”。為什么會(huì)出現(xiàn)這種情況呢?其實(shí),這是因?yàn)槲覀儗θ斯ぶ悄艿幕驹砗偷讓舆壿嬂斫獠粔蛲笍亍?/span>
我最近在閱讀《錢學(xué)森傳》,發(fā)現(xiàn)錢學(xué)森在開展航天工作時(shí),對未來3年、5年、10年都進(jìn)行了非常好的規(guī)劃,并且基本上是按照這些規(guī)劃執(zhí)行的。相比之下,人工智能領(lǐng)域連對下一年的發(fā)展都無法準(zhǔn)確規(guī)劃,原因就是我們?nèi)狈Φ讓舆壿嫼突驹瓌t的深刻理解,因此它不斷超越我們的預(yù)期。這一現(xiàn)象既是好事,也有負(fù)面影響,因?yàn)槲覀儫o法準(zhǔn)確預(yù)期和規(guī)劃未來的發(fā)展。
我們可以根據(jù)三條線索來探尋人工智能的基本原理:
1.類腦的觀點(diǎn)
人類的大腦,甚至一些動(dòng)物的大腦,都是典型的智能系統(tǒng)。從這些系統(tǒng)中,我們學(xué)到了神經(jīng)元、神經(jīng)網(wǎng)絡(luò)的概念。雖然以下問題一直沒有完全弄清楚:人腦的概念是如何形成的?意識(shí)是如何產(chǎn)生的?直觀感知的來源是什么?但從人腦研究人工智能必然會(huì)成為未來5至10年的一個(gè)重要研究方向。
2.計(jì)算系統(tǒng)的觀點(diǎn)
計(jì)算系統(tǒng)是一個(gè)非常典型的應(yīng)用場景,當(dāng)前的計(jì)算方法相對成熟,但人工智能需要邁向下一步——智能計(jì)算。
3.?dāng)?shù)學(xué)的觀點(diǎn)
從數(shù)據(jù)管理的角度來看,我們需要為學(xué)習(xí)過程中的數(shù)據(jù)空間和物理世界建立數(shù)學(xué)模型。例如,當(dāng)我們談?wù)撝悄軙r(shí),就必須為物理世界和機(jī)器人的物理操作建立數(shù)學(xué)模型。
最后我要提到的是“心智空間”(mental space),雖然聽上去有點(diǎn)像算命的術(shù)語,但實(shí)際上這是心理學(xué)領(lǐng)域的概念。現(xiàn)階段對心智空間的心理學(xué)研究基本停留在描述性和概念性層面,但由于大模型的出現(xiàn),我們現(xiàn)在有了實(shí)驗(yàn)工具,這是一個(gè)非常有前景的研究方向。從數(shù)學(xué)的角度,我們需要為這類研究建立相應(yīng)的數(shù)學(xué)模型。
人工智能的主要技術(shù)
由于時(shí)間關(guān)系,我從數(shù)據(jù)的角度來介紹人工智能的主要技術(shù),包括0數(shù)據(jù)、小數(shù)據(jù)、大數(shù)據(jù)、全數(shù)據(jù)。

1.0數(shù)據(jù)
0數(shù)據(jù),即不需要用數(shù)據(jù),主要技術(shù)是符號表示、邏輯推理,機(jī)器證明。1956年在達(dá)特茅斯第一次人工智能會(huì)議上,艾倫·紐厄爾(Allen Newell)和赫伯特·西蒙(Herbert Simon)就開發(fā)了Logic Series系統(tǒng)。該系統(tǒng)模仿了人類的思維方式和邏輯推理過程,能夠證明一些簡單的定理。這種技術(shù)路徑雖然不需要數(shù)據(jù),但總體上是模仿人的思維方式。
隨后,專家系統(tǒng)出現(xiàn)了,這標(biāo)志著人工智能技術(shù)的進(jìn)一步發(fā)展。在1997年,IBM開發(fā)的國際象棋電腦Deep Blue,就是一個(gè)基于專家知識(shí)的系統(tǒng),它戰(zhàn)勝了國際象棋世界冠軍卡斯帕羅夫。然而,面對圍棋這類復(fù)雜系統(tǒng)時(shí),專家系統(tǒng)暫時(shí)卻顯得力不從心,因?yàn)檫@一類復(fù)雜系統(tǒng)將帶來組合爆炸的問題。
對比國際象棋和圍棋的棋盤可以發(fā)現(xiàn),從國際象棋的8×8棋盤,到圍棋的19×19棋盤,可以組合的選擇是呈指數(shù)型爆炸式增長的。因此,專家系統(tǒng)的套路在解決圍棋的問題時(shí)就無能為力了。Deep Mind的創(chuàng)始人就是看了國際象棋比賽,才發(fā)現(xiàn)需要發(fā)展新的技術(shù)。

2.小數(shù)據(jù)
在神經(jīng)網(wǎng)絡(luò)興起之前,統(tǒng)計(jì)學(xué)習(xí)(如支持向量機(jī))、Perceptron(小型神經(jīng)網(wǎng)絡(luò))等基于小數(shù)據(jù)的方法已經(jīng)在模式識(shí)別等領(lǐng)域得到了廣泛應(yīng)用。
然而,小數(shù)據(jù)方法同樣面臨維數(shù)災(zāi)難和組合爆炸的挑戰(zhàn)。在數(shù)學(xué)上,維數(shù)指自由度的個(gè)數(shù),所謂“維數(shù)災(zāi)難”指的是問題的自由度太多,導(dǎo)致復(fù)雜性指數(shù)級增長。
為了解決這個(gè)問題,我們也采取了多種策略。例如,在模式識(shí)別中,用特征工程來簡化問題;在統(tǒng)計(jì)學(xué)中,用廣義線性模型從經(jīng)驗(yàn)中尋找非線性函數(shù)的線性組合,以描述多個(gè)變量的非線性關(guān)系;在量子化學(xué)中,Hartree-Fock模型作為一種基本工具,通過將多變量函數(shù)近似為單變量函數(shù)的乘積,來解決維數(shù)災(zāi)難問題。盡管這種方法在數(shù)據(jù)科學(xué)中可能存在較大誤差,但在量子化學(xué)中卻是一種有效的工具,因?yàn)槊鎸Χ嘧兞亢瘮?shù)的復(fù)雜性,我們別無選擇。
可以說,對組合爆炸和維數(shù)災(zāi)難認(rèn)識(shí)的不足是人工智能經(jīng)歷大起大落的根本原因。
作為1956年達(dá)特茅斯會(huì)議的組織者之一和圖靈獎(jiǎng)獲得者,馬文·明斯基(Marvin Minsky)曾在1971年樂觀地預(yù)測,在未來3到8年內(nèi),人工智能模型將達(dá)到一般人類的智能水平。顯然他的預(yù)言沒有實(shí)現(xiàn)。
1973年,應(yīng)用數(shù)學(xué)家詹姆斯·萊特希爾(James Lighthill)在其報(bào)告中指出,人工智能的現(xiàn)實(shí)成果與專家們的承諾之間存在巨大差距。這份報(bào)告引發(fā)了人工智能領(lǐng)域的一系列反駁,人們認(rèn)為該報(bào)告可能不夠公平合理。事實(shí)是,從那時(shí)起,英國和美國開始減少對人工智能研究的投入,這導(dǎo)致了人工智能發(fā)展的低谷。
可以說,對組合爆炸和維數(shù)災(zāi)難認(rèn)識(shí)的不足是人工智能經(jīng)歷大起大落的根本原因。
????3.大數(shù)據(jù)
十幾年前,深度學(xué)習(xí)開始興起,這是一種基于大數(shù)據(jù)和神經(jīng)網(wǎng)絡(luò)的方法。神經(jīng)網(wǎng)絡(luò)是一個(gè)非常古老的概念,但現(xiàn)代的神經(jīng)網(wǎng)絡(luò)層數(shù)更多一些。事實(shí)上,多層神經(jīng)網(wǎng)絡(luò)并非2012年首次出現(xiàn)。
在算法層面,深度學(xué)習(xí)使用的反向傳播算法和隨機(jī)梯度下降算法也都是已知的算法。隨機(jī)梯度下降算法起源于20世紀(jì)50年代,而反向傳播算法則是在80年代提出的。
然而,深度學(xué)習(xí)的關(guān)鍵成就在于,它首次真正地訓(xùn)練好了神經(jīng)網(wǎng)絡(luò),這得益于兩個(gè)主要因素:一是高質(zhì)量、大規(guī)模的數(shù)據(jù)集,如李飛飛牽頭構(gòu)建的ImageNet;二是強(qiáng)大的計(jì)算資源,如GPU。兩個(gè)因素的組合能夠把神經(jīng)網(wǎng)絡(luò)的潛力充分發(fā)揮出來。
這其中,辛頓(Geoffrey Hinton)功不可沒。他堅(jiān)持了40年的深度學(xué)習(xí)研究,盡管許多人對他的路徑持懷疑態(tài)度,但他的堅(jiān)持最終得到了回報(bào)。2012年的ImageNet競賽是一個(gè)標(biāo)志性事件,辛頓等人研發(fā)的深度學(xué)習(xí)模型AlexNet在該競賽中取得了顯著的成績,與其他方法相比,它的表現(xiàn)有了質(zhì)的飛躍。

AlexNet是一個(gè)由5層卷積層和3層全連接層組成的網(wǎng)絡(luò),擁有6000萬個(gè)參數(shù),這與之前用于識(shí)別手寫數(shù)字的幾百個(gè)可訓(xùn)練參數(shù)的LeNet網(wǎng)絡(luò)相比,差距巨大。
看到這個(gè)結(jié)果后,我的第一個(gè)想法是“或許我能做得更好”。我甚至還和學(xué)生寫了一篇文章,試圖提出更好的技術(shù)路線。但后來發(fā)現(xiàn)這是徒勞的,因?yàn)槲乙庾R(shí)到,深度學(xué)習(xí)的方法不僅適用于圖像識(shí)別,還具有通用性,可以用于其他任務(wù),這也是現(xiàn)在深度學(xué)習(xí)如此廣泛的原因。
如何用數(shù)學(xué)的觀點(diǎn)來看待神經(jīng)網(wǎng)絡(luò)?
神經(jīng)網(wǎng)絡(luò)的概念可以追溯到20世紀(jì)40年代,是一項(xiàng)歷史悠久的技術(shù)。直到60年代,明斯基和帕珀特(Seymour?Papert)出版了著名的《Perceptrons》一書,希望為人工智能的發(fā)展建立一套基礎(chǔ)理論。他們研究了哪些邏輯函數(shù)可以通過神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)。但結(jié)論是悲觀的:許多簡單的函數(shù)都無法用神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)。這本書的出版對當(dāng)時(shí)神經(jīng)網(wǎng)絡(luò)和人工智能的發(fā)展產(chǎn)生了非常負(fù)面的影響。我認(rèn)為他們的出發(fā)點(diǎn)從根本上就是錯(cuò)誤的。
進(jìn)入80年代末,Cybenko定理的提出為神經(jīng)網(wǎng)絡(luò)領(lǐng)域帶來了新的希望。這個(gè)定理認(rèn)為任何連續(xù)函數(shù)都可以用神經(jīng)網(wǎng)絡(luò)來逼近,許多人也將其視為神經(jīng)網(wǎng)絡(luò)最基本的數(shù)學(xué)定理。但這個(gè)觀點(diǎn)也是錯(cuò)誤的,數(shù)學(xué)家都知道,連續(xù)函數(shù)也可以用多項(xiàng)式來逼近,這被稱為魏爾斯特拉斯逼近定理。盡管我們“玩轉(zhuǎn)”多項(xiàng)式這么多年,但對于剛才提到的高維問題,多項(xiàng)式仍然有局限??偠灾珻ybenko定理雖然正確,但并未明確指出神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)方法(如多項(xiàng)式)之間的區(qū)別。
1993年,Barron提出了一個(gè)真正的正確觀點(diǎn),他證明了神經(jīng)網(wǎng)絡(luò)逼近函數(shù)時(shí),其收斂速度與維數(shù)無關(guān)。以多項(xiàng)式為例,要將誤差降低10倍,所需的自由度數(shù)量需要指數(shù)級增長,這就產(chǎn)生了維數(shù)災(zāi)難。而神經(jīng)網(wǎng)絡(luò)則不受此限制,其性能與維數(shù)無關(guān),這為我們提供了一個(gè)正確的出發(fā)點(diǎn),突顯了神經(jīng)網(wǎng)絡(luò)在處理高維問題上的優(yōu)勢。

在了解到Barron定理后,我意識(shí)到盡管這一理論沒有得到足夠的重視,但它為深度學(xué)習(xí)提供了重要的啟示。首先,深度學(xué)習(xí)有潛力解決維數(shù)災(zāi)難問題,這正是我在科學(xué)計(jì)算研究中所面臨的問題;其次,我們需要從數(shù)學(xué)上更深入地理解深度學(xué)習(xí)與傳統(tǒng)多項(xiàng)式方法之間的區(qū)別?;谶@些認(rèn)識(shí),我著手布局了兩個(gè)主要方向。這也是我投身于“AI for Science”的原因。
在科學(xué)領(lǐng)域,許多問題和困難都源于自由度過多,例如量子力學(xué)、分子動(dòng)力學(xué)、蛋白質(zhì)折疊等典型的多體問題。2018年,我和唐院士在北大組織了一個(gè)討論會(huì),從那時(shí)起我們開始系統(tǒng)推進(jìn)“AI for science”。
當(dāng)然,除了維數(shù)問題,還有其他挑戰(zhàn),例如記憶災(zāi)難。以偵探小說為例,故事的結(jié)局往往與開篇的場景緊密相關(guān),但要處理這樣長的記憶鏈?zhǔn)欠浅@щy的。傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)在這方面存在局限,而Transformer架構(gòu)則沒有這樣的困難。
????4.全數(shù)據(jù)
剛才說的這些都是利用大數(shù)據(jù),并且是具體場景下的大數(shù)據(jù)。接下去要談到全數(shù)據(jù),所謂全數(shù)據(jù),就是如何把所有的數(shù)據(jù)都用起來。
在探討如何充分利用所有數(shù)據(jù)的過程中,我們首先需要解決的關(guān)鍵問題是如何有效處理無標(biāo)注數(shù)據(jù)。例如,對于醫(yī)學(xué)影像數(shù)據(jù),高質(zhì)量的標(biāo)注往往需要專業(yè)醫(yī)生的參與,這在實(shí)際操作中難以實(shí)現(xiàn)。因此,大多數(shù)數(shù)據(jù)實(shí)際上是未標(biāo)注的。為了解決這一問題,預(yù)訓(xùn)練模型成為了關(guān)鍵技術(shù)。目前,BERT和Open AI的預(yù)訓(xùn)練模型是兩個(gè)主要的解決方案。BERT通過“填空”的方式進(jìn)行預(yù)訓(xùn)練,而Open AI則通過“預(yù)測下一個(gè)詞”的方式。

其次,我們需要考慮模型的通用性,即模型必須能夠解決所有下游任務(wù)。Open AI的“預(yù)測下一個(gè)詞”模型不僅具有通用性,還是一種生成模型,這與BERT有顯著不同。更重要的是,這種模型具有標(biāo)度律,這為我們提供了兩個(gè)重要的好處。
首先,標(biāo)度律可以幫助我們預(yù)測所需的計(jì)算資源,類似于摩爾定律指導(dǎo)我們對未來技術(shù)發(fā)展的預(yù)期;其次,標(biāo)度律是復(fù)雜系統(tǒng)的一個(gè)常見現(xiàn)象,它揭示了系統(tǒng)行為的可預(yù)測性。

此外,我們還討論了“涌現(xiàn)”的概念,即量變引起質(zhì)變。以人類大腦為例,盡管我們的大腦結(jié)構(gòu)與動(dòng)物相似,但由于體積的差異,這種量變最終導(dǎo)致了質(zhì)的飛躍。

如何降低大模型的計(jì)算成本
最后,我們來探討一下如何從系統(tǒng)的層面降低大模型的計(jì)算成本。
人工智能有兩個(gè)基本任務(wù):一是要有知識(shí),二是要有推理能力。
從知識(shí)的角度來說,知識(shí)可以被分為不同類型,包括極高頻知識(shí)(如條件反射)、高頻知識(shí)(如學(xué)習(xí)得來的數(shù)學(xué)知識(shí)),以及低頻知識(shí)(如通過網(wǎng)絡(luò)查詢得到的信息)。這些知識(shí)需要不同的處理方法,但在此不作深入討論。
從推理能力來說,有時(shí)需要嚴(yán)格推理,有時(shí)則可以相對寬松。以AlphaGeometry為例,它通過定理庫實(shí)現(xiàn)嚴(yán)格推理,而直觀的輔助線添加則來源于大數(shù)據(jù)模型。這種模式值得更廣泛的推廣。
但最重要的是,大模型開發(fā)不是“一錘子買賣”,而應(yīng)視為整個(gè)系統(tǒng)的一部分,系統(tǒng)包括:底層的計(jì)算系統(tǒng)、算力、系統(tǒng)軟件、數(shù)據(jù)庫、模型、智能體和機(jī)器人,上層操作系統(tǒng)負(fù)責(zé)任務(wù)分配。這將是未來通用人工智能的正確發(fā)展框架。自2018年以來,我就開始布局這一領(lǐng)域,包括建立國家和國際上第一個(gè)AI數(shù)據(jù)庫。
當(dāng)前,探索人工智能基本原理的時(shí)機(jī)已經(jīng)成熟,與過去相比,現(xiàn)在我們擁有了所有必要的基本條件。這一探索不僅是人工智能長期發(fā)展的基礎(chǔ),也是確保其持續(xù)進(jìn)步的關(guān)鍵,尤其是對中國而言,還要考慮到我們在某些資源方面有所不足的問題。此外,這一過程還需要多學(xué)科人才的緊密合作。
至于我國應(yīng)該如何布局人工智能戰(zhàn)略,我認(rèn)為要從整個(gè)計(jì)算產(chǎn)業(yè)的角度來規(guī)劃。高校作為人才培養(yǎng)的基地,需要認(rèn)識(shí)到人工智能是一個(gè)特殊的學(xué)科,并從全校層面進(jìn)行戰(zhàn)略布局。最終目標(biāo)是實(shí)現(xiàn)人力資源和算力資源的有效對接,構(gòu)建一個(gè)高質(zhì)量、多層次的人才梯隊(duì)。
謝謝大家。
主辦單位:中國科學(xué)院學(xué)部學(xué)術(shù)與出版工作委員會(huì)
技術(shù)支持:中國科學(xué)院計(jì)算機(jī)網(wǎng)絡(luò)信息中心
關(guān)于學(xué)術(shù)引領(lǐng)網(wǎng)站上的任何文字、圖片、視頻資料的使用必須經(jīng)過中國科學(xué)院學(xué)部工作局的許可
© 1996 - 中國科學(xué)院 版權(quán)所有 京ICP備05002857號-1 京公網(wǎng)安備110402500047號
通訊地址:北京市海淀區(qū)中關(guān)村北一條15號(100190)
