我們什么時候才能擁有在各方面能夠模仿人腦的人工智能?專家們對這個問題意見不一。
但大家都同意的是,目前的人工智能系統與人類的智力相去甚遠。直接表現是:AI只在特定任務中表現優異,無法將其能力擴展到其他領域。
例如,我們可以創造一個在星際爭霸賽中擊敗世界冠軍的程序,但這個程序在其他類型的游戲中可能連業余選手也打不過;一個經過訓練的神經網絡可能在X光片中發現乳腺癌“跡象”,但它卻無法分辨貓和狗。
為什么會出現這種情況?數據科學家Herbert Roitblat在他的著作《 Algorithms Are Not Enough》中將AI的這種缺點歸納為:算法。具體而言,我們現在用AI處理的問題,都是可以用數學公式表示出來,并且在很大程度上能夠求解此公式。
換句話說,如果我們發現了一個問題,并找到了其數學表達式,我們就可以以此創建一個人工智能算法去解決它,這種算法往往比我們自己去解決更有效率。然而,那些未被發現,以及無法用可計算的數字方式代表的問題,仍然是我們無法觸及的空白領域。
當前的一些人工智能探索思路,例如“神經符號系統"、Bengio的系統2深度學習思想、LeCun提出的自監督學習等雖然取得了不錯的進展,但是它們仍然涉及在預結構化空間運行,沒有一個思路能解決這個空間從何而來,因此也沒有解決從狹隘到一般智能的具體需求。
1
符號AI的表述
圖注:“Algorithms Are Not Enough”
在人工智能的整個歷史中,科學家們經常發明新的方法來利用計算機的進步以巧妙的方式解決問題。前幾十年的人工智能側重于符號系統。
人工智能的這一分支假定人類思維基于符號的操縱,任何能夠“處理”符號的系統都是智能的。符號 AI 要求人工開發人員“仔細”定義計算機程序行為的規則、事實和結構。符號系統可以解決很多問題,如記憶信息、以超快的速度計算復雜的數學公式以及模擬專家決策。流行的編程語言和我們每天使用的大多數應用程,其基礎都是符號 AI 。
但符號 AI只能局限于解決有著清晰“分步解決方案”的問題。問題是,人類和動物執行的大多數任務不能用明確的規則來表示。
"智力任務,如下棋、化學結構分析和微積分,在計算機中相對容易執行。但是有些一歲的孩子甚至是老鼠都能做到的一些活動對于計算機而言卻難以做到。這被稱為“Moravec’s paradox” ("莫拉韋茨的悖論"),以科學家Hans Moravec(漢斯·莫拉韋茨)的名字命名,他說,與人類相比,計算機可以用很少的算力執行高水平的推理任務,但很難執行一些人類和動物自然獲得的簡單技能。
數百萬年來,人類大腦已經進化出機制,使我們能夠執行基本的感應運動功能。我們接球,我們識別面孔,我們判斷距離,一切似乎都毫不費力。
另一方面,“智力活動”是近年來才得到發展的新概念。我們經常進行大量的訓練,并且非常努力的去完成各種各樣的任務。那么,我們能否問這樣一個問題:是能力讓我們產生了智力,還是智力讓我們產生了能力?
2
機器學習中的表述
因此,盡管具有非凡的推理能力,符號AI仍然與人類的表述方式緊密相連。 機器學習提供了不同的人工智能方法。無需明確的規則,而是通過實例"訓練"機器學習模型。Roitblat表示:"(機器學習)系統不僅可以做“專門任務”,而且可以將其能力擴展到以前沒有見過的事件,至少擴大一定范圍。 最流行的機器學習形式是監督學習,其中模型接受一組輸入數據(例如濕度和溫度)和預期結果(例如下雨概率)的訓練。機器學習模型使用此信息來微調,形成從輸入映射到輸出的一組參數。即使遇到以前沒有見過的數據輸入時,訓練有素的機器學習模型也可以非常準確地預測結果。并不需要去制定明確的規則。 但是,受監督的機器學習仍然建立在人類智力提供的表述基礎上,盡管這種表現比象征性的人工智能更寬松。Roitblat 這樣描述受監督的學習:"機器學習涉及問題的表述時,它的解決方法是將其設置為三組數字。一組數字表示系統接收的輸入,一組數字表示系統生成的輸出,第三組數字表示機器學習模型。 因此,盡管受監督的機器學習并沒有像符號AI那樣被規則緊密的約束,但它仍然需要人類智慧所創造的嚴格表述。人類工程師必須定義特定問題,策劃訓練數據集,并在創建機器學習模型之前標記結果。只有當問題以自己的方式被嚴格表述時,模型才能開始調整其參數。 換句話說:表述由系統的設計者選擇,在許多方面,表述是設計機器學習系統的最關鍵部分。 機器學習另一個分支是深度學習,常常被比作人腦,其核心是深度神經網絡。深度學習模型可以執行非常復雜的任務,如對圖像進行分類或轉錄音頻
圖注:深度學習模型可以執行復雜的任務,如對圖像進行分類(來源:http://www.deeplearningbook.org)
但同樣,深度學習的威力在很大程度上取決于架構和表現力。大多數深度學習模型需要標記的數據,而且沒有一種通用的神經網絡架構可以用以解決所有可能的問題。
在構建模型的過程中,機器學習研究員必須首先定義要解決的問題,然后“找”一個大型訓練數據集,然后找出能夠解決該問題的深度學習架構。
在訓練期間,從輸入到輸出,深度學習模型將調整數百萬個參數。但是,它仍然需要機器學習工程師來決定神經網絡的層次數和類型、學習速率、優化功能、損失功能和其他不可學習的方面。
與許多機器智能一樣,深度學習的威力來自系統的設計方式,而不是來自它的自主智能。只有巧妙的表述,包括巧妙的架構,才能使機器智能變得聰明。
如果將深度學習網絡描述為學習自己的表述,那就錯了。網絡的結構決定了它能從其輸入中獲得什么表述。換句話說,對于深度學習網絡和任何其他機器學習系統來說,它如何表述輸入以及它如何表述解決問題的過程同樣具有確定性。
機器學習的其他分支也遵循相同的規則。例如,無人監督的學習不需要標記示例。但是,它仍然需要一個明確的目標,如網絡安全中的異常檢測、營銷中的客戶細分、維度降低或嵌入表示。
強化學習是機器學習的另一個流行分支,與人類和動物智力的某些方面非常相似。似乎智能體在訓練時不依賴標簽示例。相反,它被賦予一個環境(例如棋或棋盤)和一組它可以執行的動作(例如移動棋子,放置石頭)。在每一步,agent執行一個操作,并以獎勵和處罰的形式接收來自其環境的反饋。通過反復試驗,強化學習智能體會發現產生更多回報的動作序列。
計算機科學家Richard Sutton(理查德·薩頓)將強化學習描述為"第一個智能計算理論"。近年來,它已成為非常流行的解決復雜的問題,如掌握計算機和棋盤游戲,并開發多功能的機械手。
圖注:強化學習可以解決復雜的問題,如游戲板和視頻游戲以及機器人操作
但強化學習環境通常非常復雜,智能體可以執行的可能操作的數量非常大。因此,強化學習代理需要人類智力的大量幫助來設計正確的獎勵、簡化問題和選擇正確的架構。例如掌握網絡游戲DotA 2的強化學習系統OpenAI 5,就依靠其設計師簡化很多游戲規則,例如減少可用其角色的數量等。
除了瑣碎的系統之外,檢查所有可能導致獎勵的行動的所有可能組合幾乎是不可能的。與其他機器學習情況一樣,需要啟發式系統來將問題簡化為更易處理的問題,即使這樣無法保證能夠產生最佳答案。
這恰恰也是當前人工智能系統的缺陷:目前人工智能工作的方法,是在研究員已經想出了如何構建和簡化問題的基礎上開發的,以便現有的計算機和流程能夠解決這些問題。要擁有真正的一般智能,計算機需要擁有能夠定義和構建自己的問題的能力。
3
AI朝著正確的方向發展嗎?
有各種努力來應對當前人工智能系統的挑戰。一個比較流行的想法是繼續擴大深度學習的規模。一般推理是,更大的神經網絡最終將破解智能的“密碼”。畢竟,人腦有超過100萬億個突觸。谷歌人工智能研究人員開發的最大神經網絡有一萬億個參數。證據表明,在神經網絡中添加更多的圖層和參數可以帶來漸進式改進,尤其是在 GPT-3 等語言模型中更為明顯。
但是,大型神經網絡并不能解決一般智能的根本問題。
雖然GPT-3語言模型的重大成就,但它們不是通常意義上智能。本質上,他們只是抽象層面上的抄襲者,他們用一種語言模擬單詞的順序。給它一個提示,它會創建一個文本,但這些文本它并不像“真正的語言”一樣有著彼此之間的聯系。它和所有當前的人工智能應用程序一樣,都是只解決了一個特定的問題。這正是它被宣傳為一種語言模式而不是通常意義上的智能的原因。
其他研究方向試圖為當前的人工智能結構添加結構改進。
例如,混合人工智能將符號AI和神經網絡結合在一起,將前者推理能力與后者的模式識別能力相結合。混合人工智能(也稱為"神經符號系統")已經有幾個實際案例,表明混合系統需要的訓練數據更少,在推理任務方面比純神經網絡方法更穩定。
系統2深度學習是深度學習先驅Yoshua Bengio(優舒亞·本吉奧)提出的另一個研究方向,它試圖將神經網絡超越統計學。系統2深度學習旨在使神經網絡能夠學習"高級表示",而無需明確嵌入象征性智能。
另一項研究工作是自我監督學習,由另一位深度學習先驅、卷積神經網絡發明者Yann LeCun提出。自我監督的學習旨在學習任務,而不需要標記的數據。
所有這些解決方案都為(路徑問題)帶來了更強大的問題解決方案,但沒有一個能解決這些解決方案是如何構建或生成的問題。它們仍然涉及在預結構化空間運行。沒有一個能解決這個空間從何而來的問題。上述都是這些都是非常重要的想法,只是它們沒有解決從狹隘到一般智能的具體需求。
因此,人工智能是一項正在進行中的工作。有些任務已經比其他任務進展得更遠了,但是有些還有很長的路要走。人工智能的缺陷往往是其創造者的缺陷,而不是計算決策的內在屬性。它正在隨著時間的推移而進步。
責任編輯:lq
-
神經網絡
+關注
關注
42文章
4838瀏覽量
107800 -
AI
+關注
關注
91文章
39793瀏覽量
301451 -
人工智能
+關注
關注
1817文章
50098瀏覽量
265420
原文標題:為什么AI無法解決一般智能問題?
文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
萬里紅核心參編多項人工智能領域重要標準
嵌入式系統中的人工智能
微軟與新思科技分享智能體人工智能技術的行業影響
人工智能+工業軟件:智能仿真加速賦能產業變革
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!
關于人工智能處理器的11個誤解
超小型Neuton機器學習模型, 在任何系統級芯片(SoC)上解鎖邊緣人工智能應用.
最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)
開售RK3576 高性能人工智能主板
亞馬遜一年助力兩百萬人提升人工智能技能的關鍵洞察
什么時候才能擁有在各方面能夠模仿人腦的人工智能?
評論