本文給當今人工智慧界推崇深度學習的現象潑了冷水,指出了人工智慧的盲點:溯因推理,並提醒人們不要忽視深度學習的種種問題,否則將會因為深度學習又面臨第三次“人工智慧的冬天”。
最近深度學習領域的進步再次激發了人們對那些通用人工智慧新機器的興趣。這一想法認為,透過構建更大、更好的神經網路,我們就能夠獲得越來越接近於人類大腦的數字化版本。
但這是一個神話,計算機科學家 Erik Larson 認為,所有的證據都表明,人類和機器所擁有的智慧有本質的不同。Larson 的新書《The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do》(目前尚無中譯本,本文暫譯為《人工智慧的神話:為什麼計算機不能像我們這樣思考》),討論了廣泛宣傳的關於智慧和推理的誤解,是如何將人工智慧研究引向狹窄的道路,限制了創新和科學發現。
《人工智慧的神話》, Erik J. Larson 著。
Larson 警告說,除非科學家、研究人員和支援他們工作的組織不改變方向,否則他們將註定“屈服於機器世界的擴張,在機器世界中,真正的發明被邊緣化,轉而支援那些鼓吹現有方法的未來主義言論,而這正是來自根深蒂固的利益集團。”
人工智慧的神話
以科學的觀點來看,人工智慧的神話是假定我們將透過在應用領域取得進展,來實現通用人工智慧(Artificial General Intelligence,AGI),例如對影象進行分類、理解語音指令,或玩遊戲。但是,這些狹窄的人工智慧系統的基礎技術並不能解決通用智慧能力所必須解決的更大挑戰,例如進行基本的對話、完成簡單的家務活,或者其他需要常識性的任務。
Larson 寫道:“當我們成功地應用了更簡單、更狹窄的智慧版本,並從更快的計算機和大量的資料中獲益時,我們並沒有逐步取得進展,而是在摘取低垂的果實。”
人工智慧神話的文化後果就是忽視了智慧的科學奧秘,無休止地談論深度學習和其他當代技術的不斷進步。這個神話阻礙了科學家們思考新的方法來應對智慧的挑戰。
“如果我們選擇忽視一個核心奧秘,而不是正視它,我們就無法獲得創新,”Larson 寫道,“健康的創新文化強調探索未知,而非誇大現有方法的延伸……關於人工智慧必然成功的神話,往往會扼殺真正進步所需要的發明文化。”
演繹、歸納和溯因推理
當你走出家門時,你發現街道是溼的。你首先想到的是,一定是下雨了。但現在是晴天,人行道是乾的,所以你立即排除了下雨的可能性。當你往旁邊看時,你看到一輛灑水車停在街道旁。你就斷定,街道之所以是溼的,是因為灑水車沖洗了街道。
上面是一個“推理”的例子,即從觀察到結論的行為,也是智慧生物的基本能力。我們不斷地根據我們所知和感知的事物來推理。它們大多發生在潛意識中。
Larson 寫道:“任何能夠進行推理的系統都必須具有一些基本的智慧,因為利用已知和觀察到的事物來更新信念的行為本身,必然與我們所指的智慧相關聯。”
人工智慧研究人員將他們的系統建立在兩種型別的推理機上:演繹式和歸納式。演繹式推理是利用先驗知識對世界進行推理。這是符號人工智慧的基礎,也是人工智慧早期幾十年研究人員關注的重點。工程師透過賦予它們一組預先定義的規則和事實來建立符號系統,人工智慧利用這些知識來推理它所接收到的資料。
溯因推理是透過經驗獲取知識,在過去十年中,溯因推理在人工智慧研究人員和科技公司中獲得了更多的關注。機器學習演算法是溯因推理引擎,一個在相關例項上訓練的機器學習模型,將找到輸入對映到輸出的模式。最近幾年,人工智慧研究人員利用機器學習、大資料和先進的處理器,對超出符號系統能力的任務進行模型訓練。
第三種推理型別,即溯因推理,是由美國科學家 Charles Sanders Peirce 在 19 世紀首次提出的。溯因推理是一種能夠提出直覺和假設的認知能力,作出比隨機猜測真相更好的猜測。
美國科學家 Charles Sanders Peirce 在 19 世紀提出了溯因推理。資料來源:紐約公共圖書館,公共領域。
舉例來說,街道潮溼的原因可能有很多(包括一些我們從未直接經歷過的),但是透過溯因推理,我們可以選擇最有希望的假設,迅速排除錯誤的假設,尋找新的假設,並得出可靠的結論。正如 Larson 在《人工智慧的神話》一書中寫道:“我們從實際上無限可能中猜測哪些假設看起來是可能的或可信的。”
溯因推理就是許多人所說的“常識”。這是我們看待事實或資料的概念框架,也是結合其他推理型別的“粘合劑”。這能讓我們時刻注意大腦中大量的資訊,以及我們從感官接受到的海量資料中的相關內容。
但問題在於,人工智慧界對溯因推理的關注還很少。
人工智慧與溯因推理
20 世紀 80 年代和 90 年代,由於溯因邏輯程式(Abductive Logic Programming)的嘗試,溯因進入了人工智慧的討論中,但是這些努力都存在缺陷,最終被放棄。Larson 告訴 TechTalks:“它們是對邏輯程式設計的重新表述,是演繹的一種變體。”
Erik J. Larson,《人工智慧的神話》一書作者。
溯因在 2010 年代得到了另一個機會,那就是貝葉斯網路,它是試圖計算因果關係的推理引擎。但是,與早期的方法一樣,較新的方法也有一個缺陷,它不能捕捉到真正的溯因,Larson 說,貝葉斯和其他圖形模型都是“歸納法的變種”。他在《人工智慧的神話》一書中稱它們為“名副其實的溯因”。
在很大程度上,人工智慧的歷史都以演繹和歸納為主導。
“當早期人工智慧先驅 Alan Newell、Herbert Simon、John McCarthy 和 Marvin Minsky 開始著手解決人工推理(人工智慧的核心)問題時,他們認為編寫演繹式規則就足以產生智慧思維和行動,”Larson 說,“事實上事實並非如此,在關於我們如何做科學的討論中,這一點應該更早被認識到。”“這太奇怪了,沒有人真的停下來,明確地說‘等等,這是行不通的!’” Larson 說,“這將使研究直接轉向溯因或假設的生成,或者說,‘上下文敏感推理’。”
在過去的二十年裡,隨著資料和計算資源的日益豐富,機器學習演算法——特別是深度神經網路——已經成為人工智慧領域的研究熱點。深度學習技術開啟了以前超出計算機極限的應用。這也吸引了世界上一些最富有的公司的興趣和資金。
Larson 說:“我認為,隨著全球資訊網的出現,經驗式或歸納式(以資料為中心)的方法佔據了上風,而溯因法和演繹法一樣,基本上被遺忘了。”
但是,機器學習系統也存在嚴重的侷限性,包括缺乏因果關係,邊緣情況處理不好和對資料的需求過多。同時,隨著研究人員嘗試將機器學習應用到醫療和金融等敏感領域,這些限制正變得越來越明顯,問題也越來越多。
溯因推理與人工智慧的未來之路
包括強化學習先驅 Richard Sutton 在內的一些科學家認為,我們應該堅持使用能夠隨著資料和計算的可用性而擴充套件的方法,即學習和搜尋。舉例來說,隨著神經網路的規模越來越大,資料也越來越豐富,它們最終會超越極限,帶來新的突破。
Larson 駁斥了資料驅動的人工智慧的大規模應用,認為“作為一種智慧模型,其本質是有缺陷的”。他重申,儘管搜尋和學習都可以提供有用的應用,但是它們是基於非溯因推理。
“如果沒有推理思維的革命,搜尋就無法擴充套件到常識或溯因推理中,而這還沒有發生。與機器學習類似,學習方法的資料驅動特性意味著推理必須來自資料,可以說,人們經常進行的許多智慧推理顯然不是這樣的,”Larson 說,“我們不會僅僅透過觀察過去,比如說,從大型資料集中獲取的資料,就能弄清楚對未來的結論、思考或者推理。”
另一些科學家認為,混合人工智慧將符號系統與神經網路結合起來,將有望克服深度學習的缺陷。IBM Watson 就是一個例子,它在 《危險邊緣》(Jeopardy!)美國電視智力問答節目中擊敗了世界冠軍而聞名。最新的概念證明了混合模型在單獨的符號人工智慧和深度學習表現不佳的應用中有很好的效果。
Larson 認為,混合系統可以填補僅靠機器學習或僅靠規則方法的空白。身為自然語言處理領域的研究人員,他目前正致力於將大型與訓練語言模型,如 GPT-3,與知識圖譜形式的語義網方面的舊工作相結合,以便在搜尋、問題回答和其他任務中創造更好的應用。
“但是演繹-歸納組合並不能讓我們達到溯因,因為這三種類型的推理在形式上是不同的,所以它們不能相互還原,也不能結合起來得到第三種。”他說。
Larson 在《人工智慧的神話》一書中將規避溯因的努力稱為“推理陷阱”。
他寫道:“不管計算機的速度有多快,單純的歸納啟發技術,比如機器學習,還是不夠的。像 Watson 這樣的混合系統,也達不到一般的理解,”“在一個開放的場景,如語言理解,這需要關於世界的知識,而溯因是核心和不可替代的。正因為如此,將演繹與歸納策略相結合的嘗試總是註定要失敗……這一領域需要一個關於溯因的基礎理論。與此同時,我們卻被困在了陷阱裡。”
人工智慧的商業化
人工智慧社群對資料驅動方法的狹隘關注,使得研究和創新集中於那些擁有海量資料儲存和雄厚財力的少陣列織。當深度學習成為一種將資料轉換成有利可圖的產品的有效方式,大型科技公司正陷入僱傭人工智慧人才的激烈競爭,他們透過給研究人員提供豐厚的薪酬,使得他們離開學術界。
這一轉變使得非營利性實驗室和小公司難以參與到人工智慧的研究。
Larson 說:“當你將人工智慧研發與大型資料集的所有權和控制權聯絡在一起時,初創企業就會面臨進入壁壘,因為他們並不擁有資料。”他補充說,資料驅動的人工智慧從本質上講就是在商業領域創造了“贏家通吃”的局面。
反過來,人工智慧的壟斷也阻礙了科學研究。由於大型科技公司集中精力創造可以利用其巨大的資料資源以保持競爭優勢的應用,沒有什麼動力去探索其他人工智慧方法。這一領域的工作開始傾向於狹隘而有利可圖的應用,而忽視了可以帶來新發明的努力。
“目前沒有人知道如果沒有如此龐大的集中式資料集的情況下,人工智慧將會是什麼樣,因此,對於那些想要透過設計出不同、更強大的人工智慧來競爭的企業家來說,沒有什麼真正的機會。”Larson 說。
Larson 在他的書中警告了當前的人工智慧文化,“它在不斷編織人工智慧神話的同時,從低垂的果實中榨取利潤。”他寫道,通用人工智慧進展的假象可能會導致另一個人工智慧的冬天。
不過,儘管人工智慧的冬天可能會抑制人們對深度學習和資料驅動的人工智慧的興趣,但它也能為新一代的思想家探索新的途徑開闢道路。Larson 希望科學家們開始超越現有的方法。
Larson 在《人工智慧的神話》一書中提供了一種推理框架,它揭示了當今該領域所面臨的挑戰,並幫助讀者看穿通用人工智慧或奇點進展的誇大說法。“我的希望是,非專業人士有一些工具與這種非科學的必然想法作鬥爭,我的同事和其他人工智慧科學家將此視為解決這一領域所面臨的現實問題的警鐘。”
作者介紹:
Ben Dickson,軟體工程師,也是 TechTalks 的創始人,作家,撰寫關於科技、商業和政治方面的文章。
原文連結:
https://bdtechtalks.com/2021/09/20/myth-of-artificial-intelligence-erik-larson/