編者按:半個世紀光電情,披星戴月星辰明。中科院之聲與中國科學院光電技術研究所聯合開設“流光E彩”科普專欄,講述生活中的光電科普趣事,傳播最生動的光電知識,展示最前沿的光電進展。
能自動避開障礙物的無人駕駛的汽車,在無聊時供我們“調戲”的智慧手機語音助手,能比親朋好友還懂我們所愛的推薦演算法…不知道你是否已經注意到,人工智慧技術早已滲透進我們的生活的方方面面,我們現在身處的時代,正以前所未有的速度接近下一次技術革命,而開啟下一次技術革命大門的鑰匙就藏身於人工智慧的廣闊藍海中。
機器學習,也得先打好基礎
面對自動開啟關閉的家用電器、和智慧音箱對談的時候,也許你會對於它們的貼心智慧大呼不可思議,機器是如何讀懂我們想法的呢?事實上,我們目前的人工智慧基本都是基於機器學習技術實現的。
機器學習,顧名思義,就是讓機器具有學習的能力,而學習能力正是普通機器與人工智慧的分水嶺。讓我們回到1765年詹姆斯·瓦特改良蒸汽機的時代,無論春夏秋冬,這臺開啟了人類第一次工業革命的機器只會日以繼夜地重複著一個動作,任何人看到這臺機器的時候都不會把它與“智慧”二字聯絡起來。隨著科技的進步,人們設計了許多更為複雜的機器,但它們仍然不具備基本的智慧。
這種情況一直持續到20世紀50年代,計算機理論發展迅速,機器學習終於登上了歷史的舞臺。機器學習的基本思想其實並不複雜,我們透過對演算法輸入大量資料進行訓練,讓演算法生成模型來實現對其潛在規律的揭示和對未來情況的預測。試想,從明天開始,你試圖對家門口路過的灑水車的行為進行預測,前六天,你發現灑水車每天都會五點準時路過,此時你自然而然形成了一個簡單的認識(模型):灑水車每天五點都會路過。如果第七天是週日,灑水車放假了(但你並不清楚),你發現灑水車沒有再像往常一樣路過,此時意味著之前的模型並非是完全準確的,於是又過了一週,灑水車仍然是前六天每天五點到,週日不再出現,你便可以透過新資料來糾正模型,從而更加接近事實。
這個過程和我們的學習過程是一樣的,一開始,我們的機器就像一張白紙,一無所知,正如同第一天之前我們也不知道灑水車會來,但這不重要,當我們試圖給具有機器學習能力的機器輸入資料的時候,一切都變得與眾不同了,假設上面故事的主角是一個十分懶惰的人,他不願意自己去動腦筋思考灑水車什麼時候來,於是他希望讓機器學習幫助自己預測灑水車的行為,他把每一天灑水車的行為資料輸入到演算法中,這個過程我們稱之為“訓練”,透過大量的資料訓練,我們的機器學習演算法對於灑水車行為的預測將會越來越準。
圖1 機器學習過程與人類學習過程異同
“三年高考五年模擬”,機器也躲不過題海戰術
有了資料之後,我們還需要選擇合適的“學習方法”才能讓AI學得更快更好。你可能已經或多或少聽到過一些與機器學習有關的名詞,但卻一頭霧水,比如監督學習,強化學習等等,實際上這些都是描述機器學習過程中不同的訓練方法,往往適用於不同的情況。
例如,我們希望讓一個演算法學會辨認貓和狗,如果我們提前給演算法看大量貓狗的照片,並且告訴它這張照片是貓還是狗,那麼這就叫監督學習(Supervised Learning);如果我們給演算法大量貓狗的照片,但是不告訴它哪些是貓哪些是狗,而讓演算法自動尋找貓和狗的差異,這就叫非監督學習(Unsupervised Learning);如果讓演算法不斷地做選擇題,每次都讓演算法看圖後選擇是貓還是狗,答對獎勵加分,答錯懲罰扣分,演算法在試圖儘量得分,規避扣分的情況下經過大量訓練便會自己“進化”出正確辨認貓狗的能力,這就是強化學習(Reinforcement Learning)。
所以看到這裡你大概應該能猜到我們是如何讓機器學習工作了,正是透過大量的資料訓練,機器才能擁有如此強大的能力,即使Alpha Go背後的科學家們並不是圍棋大師,甚至完全不會圍棋,也能讓Alpha Go戰勝世界冠軍,而這在傳統的機器身上是不可能發生的,因為它的所有行為都是設計者提前編寫好的,因此它無法實現超出設計者認知的行為。
機器學習:並非無懈可擊
看到這裡,也許你想問:“那麼,機器學習是否意味著我們離人工智慧時代已經近在咫尺了呢?”
很可惜,我們距離真正的強人工智慧還有很大的差距,這是因為當前的基於資料的人工智慧演算法在很多時候是具有很大侷限性的。比如,一個接受長期辨識貓狗訓練的AI 可能會把吉娃娃錯認為貓,也有可能會把無毛貓誤認為狗,這主要是因為機器學習得到的結果好壞與訓練資料是高度相關的,如果訓練AI用的資料是偏頗的,比如訓練用的貓的照片基本都是有毛長尾貓,狗的照片基本都是大型犬,那麼這樣訓練得到的AI 將很容易在辨識某些其他種類的貓狗時犯錯。
目前的AI更致命的問題在於,很多時候,由於機器學習的可解釋性缺陷,其是一個黑箱過程,我們無法解釋它到底是根據什麼特徵做出判斷,我們人類在學習辨認貓狗的時候,往往會把判斷特徵集中在貓狗身上的某些關鍵部位,但一個透過影象訓練得到的AI,即使結果正確率很高,但卻有可能把某些判斷特徵放在環境上,顯然這是不合理的。這樣的特徵導致AI的應用存在潛在的風險,例如一個自動駕駛AI如果我們不能判斷出它是根據什麼做出駕駛決策,那麼即使它在推廣前的測試中無比安全,也可能在現實中出現的複雜路況中犯致命錯誤,3月份發生在美國的一場車禍就是因為輔助自動駕駛系統錯誤地把卡車的白色車廂識別為了天空,導致汽車徑直撞了上去。
有趣的是,這也從另一個角度為我們闡明瞭一個道理:題海戰術雖然有用,但並不高效,而且會導致潛在錯誤,要想從根本上學習新知,就要運用到因果邏輯,從根本上搞清楚事物的來龍去脈,而這也正是科學家們目前希望在人工智慧身上實現的。
實現因果邏輯,機器還需努力
貝葉斯網路的創始人,圖靈獎得主朱迪亞·珀爾認為,讓人工智慧實現本質飛躍的關鍵就藏在每一個人的大腦中,上天賜予我們人類的最為強大的武器——因果邏輯。
珀爾把因果思維分成三個等級:第一個等級是關聯,與之對應的是觀察的能力,這是我們目前的基於資料的弱人工智慧所處於的級別;第二個等級是干預,對應控制變數實施行動的能力,即能夠藉助干預來獲得認知;第三個等級是反事實,對應想象的能力。幸運的是,我們所有人都處在第三層級,想象給予了我們透過想象構建反事實——即虛構的世界的能力來建構認知,例如著名的電梯思想實驗引導愛因斯坦在一個世紀前將狹義相對論推廣到具有加速度的非慣性系中。
圖2 珀爾的“因果階梯”
(圖片來源於朱迪亞·珀爾的著作《為什麼:關於因果關係的新科學》)
關聯和因果的區別在於,關聯是資料間最表層的資訊,也即是相關性。例如,資料表明,一年中的溫度與犯罪率有相關性,溫度低的時候犯罪率更高,如果我們把這些資料輸入只懂得分析關聯性的AI,它在預測犯罪率的時候便容易犯錯。比如春節期間犯罪率上升的原因主要是因為春節期間小偷的活動變得頻繁,而春節一般是溫度最低的時候,因此如果僅僅從關聯的角度分析資料,我們將會得到氣溫降低導致犯罪率上升的結果。假如我們用這個AI去預測一個沒有春節文化的國家的惡犯罪率,或者是一個氣溫異常的年份的犯罪率的時候,顯然會得到錯誤的結論。
但是從因果的角度出發,我們不僅要分析資料之間的關聯性,還要判斷其內部的邏輯鏈條,比如,當溫度全年保持不變,犯罪率是否還會變化?如果得到的答案是“是”,那麼我們便認為除了溫度還有其它的影響因素,比如去年由於疫情,春節人員流動降低,雖然冬天溫度仍照常下降,但犯罪率卻沒有隨之變化了,那麼我們便認為春節人員流動才是導致犯罪率變化的主要原因。
珀爾認為,從機器學習上升到因果學習的一個重要渠道是引入“干預”(do)運算元,P(A|B)與P(A|do B)完全不同的。其緣由在於,“干預”與“觀測”本質上有根本的不同,例如:觀測到公雞打鳴和強制讓公雞打鳴是完全不同的兩件事,我們目前的演算法可以很容易回答公雞打鳴和太陽昇起這兩件事之間的相關性,可是它卻很難正確回答強制讓公雞打鳴時是否也會太陽昇起。珀爾認為,只接受被動觀測資料的人工智慧是無法攀登上第二級階梯回答與干預有關的問題的,也就無從理解“公雞打鳴”與“太陽昇起”這兩件事之間的因果關係,因為因果關係的確認需要進行控制變數實驗,而這樣的實驗本身是建立在干預上的。也許你會問,如果觀測到維度足夠大,獲得足夠充分的資料是否可以代替干預呢?實際上我們很難保證資料範圍與實際測試環境的一致,更困難的地方在於很多時候無法先驗地知道資料本身是否是完備的,這就導致無論我們用多麼巨量的資料去訓練得到的演算法都有可能因為資料與測試環境的不完全一致而出錯,這被稱為OOD(Out of Distribution)問題,就連圖靈獎得主Yoshua Bengio也認為OOD泛化是當前人工智慧最急需解決的一個問題。
看到這裡,你大概能知道為什麼我們離想象中的人工智慧還差得很遠,因為我們目前構建的人工智慧,別說擁有第三層級的想象力了,其甚至連判斷因果的能力都沒有。很幸運的是,科學家們已經認識到,因果學習是讓人工智慧實現下一次飛躍的關鍵了,許多科學家相繼投入了因果機的理論研究當中,例如清華大學的崔鵬教授提出了將因果推理與機器學習相結合的穩定學習(Stable Learning)來改進OOD泛化問題,CMU的黃碧薇博士利用因果發現在時間序列的非穩態資料上實現了更精準的預測。我相信,伴隨著技術的發展,人工智慧技術一定會越來越可靠,並且造福人類!
參考文獻:
1. 【慘烈!特斯拉再次撞上白色卡車,兩名乘客急送ICU】https://mp.weixin.qq.com/s/2OSlB4-zvwFJE0HMIvNeAw
2. Zheyan Shen, Peng Cui, Tong Zhang, and Kun Kuang. Stable learning via sample reweighting. In AAAI, pages 5692–5699, 2020.
3. Huang, et al., Causal Discovery and Forecasting in Nonstationary Environments with State-Space Models, ICML, 2019.
4. BAREINBOIM E, PEARL J. A general algorithm for deciding transportability of experimental results [J]. Journal of causal Inference, 2013, 1(1):107-134.
5. J. Pearl, “The Seven Tools of Causal Inference with Reflections on Machine Learning,” Communications of ACM, 62(3): 54-60, March 2019
6. 【崔鵬:穩定學習——挖掘因果推理和機器學習的共同基礎】
https://mp.weixin.qq.com/s/f-rI5W6tc6qOzthbzK4oAw
7. Pearl, J., & Mackenzie, D. (2018). The book of why : the new science of cause and effect. First edition. New York, NY: Basic Books, Hachette Book Group.
來源:中國科學院光電技術研究所、中國科學院成都分院