久久久91-久久久91精品国产一区二区-久久久91精品国产一区二区三区-久久久999国产精品-久久久999久久久精品

ABB
關注中國自動化產業發展的先行者!
CAIAC 2025
2025工業安全大會
OICT公益講堂
當前位置:首頁 >> 資訊 >> 行業資訊

資訊頻道

模擬人類大腦:人工智能的救贖之路
  • 點擊數:1438     發布時間:2019-11-08 09:32:00
  • 分享到:
這兩年, 頻頻有專家警示深度學習即將進入寒冬。而同時, 一個名叫“類腦智能”的詞匯火起來, 這個概念說的是一種比目前深度學習更加接近人腦的智能。這背后的故事是, 深度學習的大佬,目前已經注意到深度學習的原創性進展面臨瓶頸,甚至呼吁全部重來。為了拯救這種趨勢, 模擬人腦再次成為一種希望。然而這一思路是否經得住深度推敲? 我本人做過多年計算神經科學和AI , 做一個拋磚引玉的小結。
關鍵詞:

這兩年,頻頻有專家警示深度學習即將進入寒冬。而同時,一個名叫“類腦智能”的詞匯火起來,這個概念說的是一種比目前深度學習更加接近人腦的智能。這背后的故事是,深度學習的大佬,目前已經注意到深度學習的原創性進展面臨瓶頸,甚至呼吁全部重來。為了拯救這種趨勢,模擬人腦再次成為一種希望。然而這一思路是否經得住深度推敲?  我本人做過多年計算神經科學和AI,做一個拋磚引玉的小結。

AI發展的危機人工智能,目前多被理解成一個領域領應用的工程學科,從自動安防系統到無人駕駛是它的疆土,而模式識別和計算機專家,是這片陸地的原住民。目前的人工智能事實上以工程思維為主,從當下人工智能的主流深度學習來看,打開任何一篇論文,映入眼簾的是幾個知名數據集的性能比較,無論是視覺分類的ImageNet,Pascal Vol,還是強化學習的Atari game。各種各樣的bench mark和曲線,讓我們感覺像是一個CPU或者數碼相機的導購指南。

那么,是否這些在這些流行數據庫跑分最高的“智能工具"就更智能?這可能取決于對”智能“ 本身的定義。如果你問一個認知專家“智能”是不是ImageNet的錯誤率, 那么他一定會覺得相當好笑。一個人可能在識別圖片的時候由于各種勞累和馬虎,在這個數據集的錯誤率高于機器。但是只要你去和它談任何一個圖片它所理解的東西,比如一個蘋果,你都會震驚于其信息之豐富,不僅包含了真實蘋果的各種感官,還包含了關于蘋果的各種文學影視,從夏娃的蘋果,到白雪公主的蘋果。應該說,人類理解的蘋果更加接近概念網絡里的一個節點,和整個世界的所有其它概念相關聯,而非機器學習分類器眼里的n個互相分離的“高斯分布”。

如果我們認為,”智能“ 是解決某一類復雜問題的能力,是否我們就可以完全不care上述那種”理解“呢 ? 這樣的智能工具,頂多是一些感官的外延,而”感官“ 是否可以解決復雜問題呢?一個能夠準確的識別1000種蘋果的機器,未必能有效的利用這樣的信息去思考如何把它在圣誕節分作為禮品分發給公司的員工,或者取悅你的女友。沒有”理解“ 的智能,將很快到達解決問題復雜度的上限。缺少真正的理解,甚至連做感官有時也會捉襟見肘,你在圖像里加入各種噪聲,會明顯的干擾分類的準確性,這點在人類里并不存在。比如下圖的小狗和曲奇,你可以分出來,AI很難。

2.jpg

”語言“ 在人類的智能里享有獨一無二的特殊性,而剛剛的”理解“問題,背后的本質是目前深度學習對語言的捉襟見肘。雖然我們可以用強大的LSTM生成詩歌(下圖),再配上注意力機制和外顯記憶與人類對話,也不代表它能理解人類的這個語言系統。目前機器對自然語言處理的能力遠不及視覺(當下的圖卷積網絡或可以這個領域做出貢獻)。

3.jpg

4.jpg

更加糟糕的還有強化學習,深度強化學習已經戰勝了最強大的人類棋手。但是強化學習卻遠非一種可靠的實用方法。這里面最難的在于目前的強化學習還做不到可擴展,也就是從一個游戲的問題擴展到真實的問題時候會十分糟糕。一個已經學的很好的強化學習網絡,可以在自己已經學到的領域所向披靡,然而在游戲里稍微增加一點變化,神經網絡就不知所措。我們可以想象成這是泛化能力的嚴重缺失,在真實世界里,這恰恰一擊致命。

5.jpg

游戲里的王者不代表真實世界能用

事實上在很長時間里,人工智能的過分依賴工科思維恰恰給它的危機埋下了伏筆,在人工數據上破記錄, 并不代表我們就會在剛說的“理解”上做進步。這更像是兩個不同的進化方向。其實,關于智能的更深刻的理解,早就是認知科學家,心理學家和神經科學家的核心任務。如果我們需要讓人工智能進步,向他們取經就看起來很合理。

腦科學與人工智能合作與分離的歷史

雖然看起來模擬生物大腦是達到更高層次人工智能的必由之路,但是從當下的人工智能學者的角度,這遠非顯然。這里的淵源來自人工智能的早期發展史,應該說深度學習來自于對腦科學的直接取經,然而它的壯大卻是由于對這條道路的背離。我們可以把這個歷史概括為兩次合作一次分離。

第一次合作: 深度學習的前身-感知機。模擬人類大腦的人工智能流派又稱為連接主義,最早的連接主義嘗試就是模擬大腦的單個神經元。Warren McCulloch 和 WalterPitts在1943 提出而來神經元的模型,這個模型類似于某種二極管或邏輯門電路。事實上,人們很快發現感知機的學習有巨大的局限性,Minksky等一批AI早期大師發現感知機無法執行“異或”這個非常基本的邏輯運算,從而讓人們徹底放棄了用它得到人類智能的希望。 對感知機的失望導致連接主義機器學習的研究陷入低谷達15年, 直到一股新的力量的注入。

第二次合作:這次風波,來自一群好奇心極強的物理學家,在20世紀80年代,hopefiled提出了它的 Hopefield 網絡模型,這個模型受到了物理里的Ising模型和自旋玻璃模型的啟發,Hopefield發現,自旋玻璃和神經網絡具有極大的相似性。每個神經元可以看作一個個微小的磁極,它可以一種極為簡單的方法影響周圍的神經元,一個是興奮(使得其他神經元和自己狀態相同),一個是抑制(相反)。如果我們用這個模型來表示神經網絡,那么我們會立刻得到一個心理學特有的現象:關聯記憶。比如說你看到你奶奶的照片,立刻想到是奶奶,再聯想到和奶奶有關的很多事。這里的觀點是,某種神經信息(比如奶奶)對應神經元的集體發放狀態(好比操場上正步走的士兵),當奶奶的照片被輸入進去,它會召喚這個神經元的集體狀態,然后你就想到了奶奶。

由于這個模型可以模擬心理學的現象,人們開始重新對模擬人腦的人工智能報以希望。人們從不同領域開始涌入這個研究。在這批人里,發生了一個有趣的分化。有的人沿著這個路數去研究真實大腦是怎么思考的,有的人則想直接用這個模型制造機器大腦,前者派生出了計算神經科學,后者則導致了聯結主義機器學習的復興, 你可以理解為前者對貓感興趣,后者只對機器貓感興趣,雖然兩者都在那里寫模型。CNN和RNN分別在80年中后期被發現, 應該說,CNN的結構是直接借鑒了Husel和Wiesel發現的視覺皮層處理信息的原理,而RNN則是剛剛說到的Hopefield網絡的一個直接進化。

AI與腦科學的分離:90年代后人工智能的主流是以支持向量機為代表的統計機器學習,而非神經網絡。在漫長的聯結主義低谷期, Hinton堅信神經網絡既然作為生物智能的載體,它一定會稱為人工智能的救星,在它的努力下,Hopefield網絡很快演化稱為新的更強大的模型玻爾茲曼機,玻爾茲曼機演化為受限玻爾茲曼機, 自編碼器,堆疊自編碼器,這已經很接近當下的深度網絡。而深度卷積網絡CNN則連續打破視覺處理任務的記錄,宣布深度學習時代開始。

然而,如果你認為這一股AI興起的風波的原因是我們對大腦的借鑒,則一定會被機器學習專家diss,恰恰相反,這波深度學習的崛起來自于深度學習專家對腦科學的背離。CNN雖然直接模擬了大腦視皮層結構的模擬,利用了層級編碼,局部網絡連接,池化這樣和生物直接相關的原理。但是,網絡的訓練方法,卻來自一種完全非生物的方法。由于信息存儲在無數神經元構成的網絡連接里,如何讓它學進去,也是最難的問題。很久以前,人們使用的學習方法是Hebian learning 的生物學習方法,這種方法實用起來極為困難。Hinton等人放棄這條道路而使用沒有生物支撐但更加高效的反向傳播算法,使得最終訓練成功。從此數據猶如一顆顆子彈打造出神經網絡的雛形 ,雖然每次只改一點點,最終當數據的量特別巨大,卻發生一場質變。

CNN能夠在2012年而不是2011或者2010年開始爆發是因為那一年人們提出了Alexnet。而Alexnet比起之前的Lenet一個關鍵性的微小調整在于使用Relu,所謂線性整流單元替換了之前的Sigmoid作為激活函數。Simoid 函數才是更加具有生物基礎的學習函數,然而能夠拋棄模擬大腦的想法使用Relu,使得整個網絡的信息流通通暢了很多。

7.jpg

深度學習另一條主線,沿著讓機器聽懂人類的語言,一種叫LSTM的神經網絡,模擬了人類最奇妙的記憶能力,并卻開始處理和自然語言有關的任務,LSTM框架的提出依然是沒有遵循大腦的結構,而是直接在網絡里引入類似邏輯門的結構控制信息。

由此我們看到,神經網絡雖然在誕生之初多次吸收了生物學的原理本質,而其最終的成功卻在于它大膽的脫離生物細節,使用更加講究效率的數理工科思維。生物的細節千千萬,有一些是進化的副產品,或者由于生物經常挨餓做出的妥協,卻遠非智能的必須,因此對它們的拋棄極大的解放了人工智能的發展。

腦科學究竟能否開啟深度學習時代的下個階段

那么生物神經網絡究竟可不可以啟發人工智能呢?剛剛的分析我們看到生物的細節并不一定對人工智能有幫助,而生物大腦計算的根本原理卻始終在推動深度學習 。正如CNN的發展直接使用了層級編碼的原理,然后根據自己計算的需求重新設定了細節,無論如何變化,生物視覺處理和CNN背后的數學核心卻始終保持一致。

那么目前的深度學習工具用到了多少生物大腦計算的基本原理呢,答案是,冰山一角。如果說人工智能要繼續革命,那么無疑還要繼續深挖這些原理,然后根據這些原則重新設定細節。答案很簡單,宇宙的基本定律不會有很多,比如相對論量子論這樣的根本原理幾乎統治物理世界。如果生物大腦使用一套原理實現了智能,那么很可能人工智能也不會差很遠。即使細節差距很大,那個根本的東西極有可能是一致的。

這樣的數學原理應該不會有很多條,因為人腦的結構一個驚人的特點就是雖然腦區非常不同,但不同腦區的構造卻極為相似,這種相似性顯示了大腦不同腦區使用類似的基本原理。我們目前的深度學習算法,無論是CNN還是RNN,都只是發現了這個基本原理的某個局部。發現這個基本原理,恰恰是計算神經科學的使命。對于智能這個上帝最杰出的作品,我們能做的只有盲人摸象,目前摸到的東西有一些已經被用到了人工智能里,有些則沒有,我們隨便舉幾個看看。

確定已經被應用的原理:

1,層級編碼原理(Hierarchical coding):生物神經網絡最基本的結構特點是多層,無論是視覺,聽覺,我們說基本的神經回路都有層級結構,而且經常是六層。這種縱深的層級,對應的編碼原理正是從具體特征到抽象特征的層級編碼結構。最有名的莫過于祖母細胞,這一思路直接催生了以CNN為代表的深度學習。

8.jpg

皮層網絡的構成往往是6層結構,在不同的腦區反復出現

9.jpg

層級編碼假設

2,集群編碼原理 (Distributed coding):一個與層級編碼相對應的生物神經編碼假設是集群編碼,這里說的是一個抽象的概念,并非對應某個具體的神經元,而是被一群神經元所表述。這種編碼方法,相比層級編碼,會更具備魯棒性,或更加反脆弱,因為刪除一些細胞不會造成整體神經回路的癱瘓。集群編碼在深度學習里的一個直接體現就是詞向量編碼,word2vect,詞向量編碼并沒有采取我們最常想到的每個向量獨立的獨熱編碼,而是每個向量里有大量非零的元素,如此好比用一個神經集群表述一個單詞,帶來的好處不僅是更加具有魯棒性,而且我們無形中引入了詞語之間本來的互相關聯,從而使得神經網絡更好的吸收語義信息,從而增加了泛化能力。在此處,每個詞語概念都有多個神經元表達,而同一個神經元,可以參與多個概念的描述。這與之前說的每個概念比如祖母對應一個特定的神經元有比較大的區別。

10.jpg

然而目前的深度學習依然缺乏對集群編碼更深刻的應用,這點上來看,計算神經科學走的更遠,我們使用RNN內在的動力學特性,可以編碼很多屬性。

局部被應用或沒有被應用的原理:

1,cortical minicolumn:皮層內的神經元都采取簇狀結構,細胞之間不是獨立的存在,而是聚集成團簇,猶如一個微型的柱狀體。這些柱狀體成為信息傳輸的基本單元。這種驚人一致的皮層內結構,背后的認知原理是什么呢? 目前還沒有定論。但是Hinton已經把類似的結構用到了Capsule Network,在那里,每個Capsule對應一個簇狀體,而它們有著非常明確的使命,就是記錄一個物體的不同屬性,由于一個Capsule有很多神經元構成,它也可以看作一個神經元向量,如果它用來記錄一組特征,則可以對付向旋轉不變性這種非常抽象的性質。

11.jpg

神經簇細胞,每個神經簇有80-120個神經元,猶如大腦認知的基本單元,你可以把某個組成神經簇的細胞集團看成矢量神經元

12.jpg

Dynamic Routing Between CapsulesCapsule Network (Hinton)每個Capsule取代之前的單個神經元,能夠同時感知物體的多個屬性,如長度,寬度,角度,最終通過多個特征確定物體存在的概率,因此比卷積網絡具備表述更多不變性的能力,比如旋轉不變性

2,興奮抑制平衡:生物神經系統的各個組成部分,尤其是靠近深層的腦區,都具有的一個性質是興奮性和抑制性神經元的信號互相抵消,猶如兩個隊伍拔河,兩邊勢均力敵(最終和為零)。這使得每個神經元接受的信息輸入都在零附近,這帶來的一個巨大的好處是神經元對新進入信號更加敏感,具有更大的動態范圍。這個原理已經被深度學習悄悄的介入了,它的直接體現就是極為實用的batch normalization,輸入信號被加上或減去一個值從而成為一個零附近的標準高斯分布(這和興奮抑制平衡效果類似),從而大大提升了網絡梯度傳輸的效率。

3,動態網絡連接:生物神經系統的神經元和神經元之間的連接-突觸本身是隨放電活動變化的。當一個神經元經過放電,它的活動將會引起細胞突觸鈣離子的濃度變化,從而引起兩個神經元間的連接強度變化。這將導致神經網絡的連接權重跟著它的工作狀態變化,計算神經科學認為動態連接的神經網絡可以承載工作記憶,而這點并沒有被目前的深度學習系統很好利用。

13.jpg

Synaptic Theory of Working Memory (Science)

4 Top down processing:目前深度學習使用的網絡以前向網絡為主(bottom up),而事實上,在生物大腦里,不同腦區間反饋的連接數量超過前向的連接,這些連接的作用是什么?一個主流的觀點認為它們是從高級腦區向感官的反向調節(top down),如同我們所說的相由心生, 而不是相由眼生。同一個圖片有美女拿著蛋糕,可能一個你在饑腸轆轆的時候只看到蛋糕而吃飽了就只看到美女。我們所看到的,很大程度上取決于我們想要看到什么,以及我們的心情 。這點對我們的生存無疑十分重要,你顯然不是在被動的認知和識別物體,你的感知和認知顯然是統一的。你在主動的搜索對你的生存有利的物體,而非被動的感覺外界存在。這一點目前深度學習還完全沒有涉及。一個引入相應的機制的方法是加入從深層神經網絡返回輸入層的連接,這樣深層的神經活動就可以調控輸出層的信息處理, 這可能對真正的“理解”有著極為重大的意義。

14.jpg

給卷積神經網絡加入從輸出端返回輸入端的連接,是一個深度學習未來的重要方向Deep Convolutional Neural Networks as Models of the Visual System

7,Grid Cells: 海馬柵格細胞是一組能夠集群表征空間位置的細胞,它們的原理類似于對物體所在的位置做了一個傅里葉變換,形成一組表征物體空間位置的坐標基。為什么要對空間里物體的位置做一次傅里葉變換,這里包含的原理是對任何環境中的物體形成通用的空間表示,在新的環境里也可以靈活的學習物體的位置,而不是一下子成為路癡。

15.jpg

Grid Cell被用在強化學習里,使得我們可以得到更加強大的導航能力。

我們對柵格細胞的認知可能只是更大的神經編碼原則的一個局部,正如同傅里葉變換和量子力學之間存在著隱秘的聯系。雖然柵格網絡,目前已經被Deepmind用于空間導航任務,但是目前AI所應用的應該只是這一原理的冰山一角。

8 Dale Principle:Dale Principle 說的是興奮型和抑制型神經元是完全分開的,猶如動物分雌雄。興奮性神經元只對周圍神經元發放正向反饋(只分泌興奮性遞質, 如Glutamine),讓其它神經元一起興奮,而抑制型神經元只發放負向反饋(只分泌抑制型遞質,如GABA),取消其它神經元的興奮。目前的深度學習網絡不會對某個神經元的連接權重做如此限制,每個神經元均可向周圍神經元發放正或負的信號。這一原理到底對AI有沒有作用目前未知。

16.jpg

8 Routing by Inhibitory cells :生物神經系統包含種類豐富的抑制型神經元,它們往往在生物神經網絡起到調控功能,如同控制信息流動的路由器,在合適的時候開啟或關閉某個信號。當下的AI直接用attention的機制,或者LSTM里的輸入門來調控是否讓某個輸入進入網絡,其它一點類似路由器的作用,但是種類和形式的多樣性遠不及生物系統。

9 臨界:大腦的神經元組成一個巨大的喧鬧的動力系統,根據很多實驗數據發現,這個動力系統處于平衡和混沌的邊緣,被稱為臨界。在臨界狀態,神經元的活動是一種混亂和秩序的統一體,看似混亂,但是隱含著生機勃勃的秩序。臨界是不是也可以用于優化目前的深度學習系統,是一個很大的課題。

10,自由能假說:這個假定認為大腦是一臺貝葉斯推斷機器。貝葉斯推斷和決策的核心即由最新采納的證據更新先驗概率得到后驗概率。認知科學的核心(Perception)就是這樣一個過程。

這里再說兩句認知,認知的過程用機器學習的語言說就是用大腦的內部變量來模擬外部世界,并希望建立內部世界和外部的一個一一映射關系。這里我們說認知的模型是一個概率模型,并且可以被一系列條件概率所描述。如果用一個形象的比喻來說,你可以把你的大腦看成一個可以自由打隔斷的巨大倉庫,你要把外部世界不同種類的貨放進不同的隔斷,你的大腦內部運作要有一種對外界真實變化的推測演繹能力,即隨時根據新的證據調整的能力,你和外界世界的模型匹配的越好,你的腦子就運轉越有效率。認知是對外部世界運動的一種編碼,你可以立刻聯想到機器學習里的表征方法(representation),如果你熟悉RNN或CNN的embeding過程,就會有一種豁然開朗的感覺。這個假說的理論如果成立,我們機器學習目前應當使用的只是冰山一角,可以參考強化學習種的有模型學習。更多內容見大腦的自由能假說-兼論認知科學與機器學習

11 一些未被量化的心理學和認知科學領地,比如意識。意識可以理解為自我對自我本身的感知。關于意識的起源,已經成為一個重要的神經科學探索方向而非玄學,最近的一些文章指出(The controversial correlates of consiousness - Science 2018),意識與多個腦區協同的集體放電相關。但是,關于意識的一個重大疑團是它對認知和智能到底有什么作用,還是一個進化的副產物。如果它對智能有不可替代的作用,那么毫無疑問, 我們需要讓AI最終擁有意識。一個假說指出意識與我們的社會屬性相關,因為我們需要預測它人的意圖和行動,就需要對它人的大腦建模,從而派生了對自己本身大腦的感知和認知,從而有了意識。那么我們究竟需要不需要讓AI之間能夠互相交流溝通形成組織呢?這就是一個更有趣的問題了。

深度學習對腦科學的啟發:

反過來,深度學習的某些發現也在反向啟發腦科學,這點正好對應費曼所說的,如果你要真正理解一個東西,請你把它做出來。由于深度學習的BP算法太強大了,它可以讓我們在不care任何生物細節的情況下任意的改變網絡權重,這就好比給我們了一個巨大的檢測各種理論假設的東西。由于當下對大腦連接改變的方式我們也只理解了冰山一角,我們可以先丟下細節,直接去檢驗所有可能的選項。這點上看, 用深度學習理解大腦甚至更加有趣。

就那剛剛講的興奮抑制平衡來看,最初人們對興奮抑制平衡作用的理解更多停留在它通過對信號做一個信息增益,而在深度學習興起后 ,我們越來越多的把它的功能和batch normalization 聯系起來,而batch normalization更大的作用在于對梯度消失問題的改進,而且提高了泛化性能,這無疑可以提示它的更多功能。而最近的一篇文章甚至直接將它和LSTM的門調控機制聯系起來。抑制神經元可以通過有條件的發放對信息進行導流,正如LSTM種的輸入門,輸出門的作用,而互相連接的興奮神經元則作為信息的載體(對應LSTM中央的循環神經網絡)

17.jpg

Cortical Microcircuit as gated recurrent networks DeepMind LSTM 和皮層通用回路具有極為密切的相關性

我們距離通用人工智能可能還有多遠?

其實人工智能的目標就是找尋那個通用人工智能,而類腦計算是實現它的一個重要途徑 。通用智能和當下的智能到底有什么實質性的區別,作為本文結尾,我們來看一下:

對數據的使用效率:比如大腦對數據的應用效率和AI算法并非一個等級,你看到一個數據,就可以充分的提取里面的信息,比如看到一個陌生人的臉,你就記住他了,但是對于目前的AI算法,這是不可能的,因為我們需要大量的照片輸入讓他掌握這件事。我們可以輕松的在學完蛙泳的時候學習自由泳,這對于AI,就是一個困難的問題,也就是說,同樣的效率,人腦能夠從中很快提取到信息,形成新的技能,AI算法卻差的遠。

這是為什呢?可能這里的掛件體現在一種被稱為遷移學習的能力。雖然當下的深度學習算法也具備這一類舉一反三的遷移學習能力,但是往往集中在一些真正非常相近的任務里,人的表現卻靈活的多。這是為什么呢?也許, 目前的AI算法缺少一種元學習的能力。和為元學習,就是提取一大類問題里類似的本質,我們人類非常容易干的一個事情。到底什么造成了人工神經網絡和人的神經網路的差距,還是未知的,而這個問題也構成一個非常主流的研究方向。

能耗比:如果和人類相比,人工智能系統完成同等任務的功耗是人的極多倍數(比如阿法狗是人腦消耗的三百倍,3000MJ vs 10MJ 5小時比賽)。如果耗能如此劇烈,我們無法想象在能源緊張的地球可以很容易大量普及這樣的智能。那么這個問題有沒有解呢? 當然有,一種,是我們本身對能量提取的能力大大增強,比如小型可控核聚變實用化。另一種,依然要依靠算法的進步,既然人腦可以做到的,我們相信通過不斷仿生機器也可以接近。這一點上我們更多看到的信息是,人工智能的能耗比和人相比,還是有很大差距的。

不同數據整合:我們離終極算法相差甚遠的另一個重要原因可能是現實人類在解決的AI問題猶如一個個分離的孤島,比如說視覺是視覺,自然語言是自然語言,這些孤島并沒有被打通。相反,人類的智慧里,從來就沒有分離的視覺,運動或自然語言,這點上看,我們還處在AI的初級階段。我們可以預想,人類的智慧是不可能建立在一個個分離的認知孤島上的,我們的世界模型一定建立在把這些孤立的信息領域打通的基礎上,才可以做到真正對某個事物的認知,無論是一個蘋果,還是一只狗。

溝通與社會性:另外,人類的智慧是建立在溝通之上的,人與人相互溝通結成社會,社會基礎上才有文明,目前的人工智能體還沒有溝通,但不代表以后是不能的,這點,也是一個目前的AI水平與強AI(超級算法)的距離所在。

有的人認為,我們可以直接通過模擬大腦的神經元,組成一個和大腦類似復雜度的復雜系統,讓它自我學習和進化,從而實現強AI。從我這個復雜系統專業的角度看,這還是一個不太現實的事情。因為復雜系統里面最重要的是涌現,也就是說當組成一個集合的元素越來越多,相互作用越來越復雜,這個集合在某個特殊條件下會出現一些特殊的總體屬性,比如強AI,自我意識。但是我們幾乎不可能指望只要我們堆積了那么多元素,這個現象(相變)就一定會發生。

至于回到那個未來人工智能曲線發展展望的話題,我們可以看到,這些不確定的因素都會使得這條發展曲線變得不可確定。然而有一點是肯定的,就是正在有越來越多非常聰明的人,開始迅速的進入到這個領域,越來越多的投資也在進來。這說明,AI已經是勢不可擋的稱為人類歷史的增長極,即使有一些不確定性,它卻不可能再進入到一個停滯不前的低谷了,我們也許不會一天兩天就接近終極算法,但卻一定會在細分領域取得一個又一個突破。無論是視覺,自然語言,還是運動控制。

能否走向通用人工智能的確是人工智能未來發展最大的變數,或許,我們真正的沉下心來去和大腦取經還是可以或多或少的幫助我們。因為本質上,我們在人工智能的研究上所作的,依然是在模擬人類大腦的奧秘。我們越接近人類智慧的終極算法,就越能得到更好的人工智能算法。

來源:混沌巡洋艦

熱點新聞

推薦產品

x
  • 在線反饋
1.我有以下需求:



2.詳細的需求:
姓名:
單位:
電話:
郵件:
主站蜘蛛池模板: 欧美成人高清手机在线视频 | 欧美bbwhd极品另类 | 成年人在线观看网址 | 97精品国产91久久久久久久 | 手机看片久久高清国产日韩 | 韩国特黄毛片一级毛片免费 | 欧美三级伦理片 | 欧美一级特黄乱妇高清视频 | 韩国亚洲伊人久久综合影院 | 毛片在线播放a | 国产99视频精品免费观看9e | 日韩精品片 | 亚洲步兵一区二区三区 | va在线| 成 人 免费观看网站 | 日本高清视频www夜色资源 | 免费人成又黄又爽的视频在线 | 国产成人精品高清在线 | 久久久免费观看视频 | 亚洲系列中文字幕一区二区 | 欧美国产视频 | 99久久伊人 | 91中文字幕在线观看 | 一区二区国产精品 | 福利在线一区二区 | 国产麻豆综合视频在线观看 | 久热香蕉精品视频在线播放 | 久久国产免费观看精品1 | 黄网站免费看 | 国产精品人人视频 | 污91视频| 日韩一级欧美一级毛片在线 | 成人在线黄色 | 国产精品爱久久久 | 春色影院 | 日本一区二区免费在线 | 91久久亚洲最新一本 | 五月国产综合视频在线观看 | 一区二区三区无码高清视频 | 亚洲狠狠成人综合网 | 久久综合久久美利坚合众国 |