胡泳/文 從網路的早期開始,戴維·溫伯格就一直是一位先鋒思想領袖,探討關於網際網路對我們的生活、對我們的企業以及最重要的——對我們的想法——的影響。
幾十年來,他保持為一個網際網路價值的預言家,但在《混沌:我們如何在一個充滿可能性的網際網路世界中蓬勃發展》一書中,他承認預測並不見得有用:有關網路的聲音並沒有以言說者期待的方式改變世界。商業和技術總是比預言家更快。
一方面,這是由於世界的不可預測性增加了。人工智慧、大資料、現代科學和網際網路都在揭示一個基本事實:世界比人類所看到的要複雜得多,也不可預測得多。
我們不得不開始接受這樣一個事實:這個世界真正的複雜性,遠遠超過我們用以解釋它的定律和模型。正是“深不可測的複雜性”令我們開始啟用人造的機器來打破預測的舊界限,而這一轉向表明,瞭解我們的世界如何運作,並不是為未來做準備的必要條件。
另一方面,溫伯格提出一個更加驚人的看法:人類的預測是不是可欲的?
過去,當我們面對未來時,我們往往依賴於預測。“預測方式的故事也是我們對世界執行方式的理解的故事。”可既然預測是不可行的,那讓我們換一種認知策略會怎樣?
這種想法並不像表面上看起來那麼簡單,因為它不只是策略變換,而是有可能顛覆我們作為人類對自己的一個核心假設:人是一種能夠理解世界執行機制的特殊生物。若該假設不再成立,宇宙就從可知的變為不可知的。而想要改變如此根深蒂固的人類自我認知,無疑會帶來很深的痛苦。
在此基礎上,溫伯格把問題挖得更深:“至少從古希伯來人開始,我們就認為自己是上帝創造的獨一無二的生物,有能力接受他對真理的啟示。自古希臘人開始,我們就把自己定義為理性的動物,能夠看到世界的混亂表象之下的邏輯和秩序。”我們把自己放在一個基座上,並加以膜拜。
如果我們發現,我們不僅不知道我們不知道的東西,也不理解我們認為我們知道的東西,那會如何呢?如果我們需要放棄對這個世界的理解,對不可解釋的事情也需要從不接受到接受,那又會如何呢?如此富有挑戰性的問題,吸引你把這本書讀下去。
不預測未來,而是創造可能性
每隔一段時間,整齊有序的世界就會受到一些科學家/哲學家的衝擊。他們說,事情不是大家想得那樣。你為什麼想和你如何想,都錯了。
世界以不同的方式運作,有不同的理由、不同的關係和不同的結果。牛頓、愛因斯坦、哥白尼、達爾文甚至弗洛伊德都扮演過這類角色,他們永遠改變了思想和行動的程序。現在,溫伯格似乎期待著人工智慧(AI)來承擔該角色。
溫伯格分析了人為什麼喜歡作預測。人喜歡提前瞭解所有的可能性,併為它們做準備,儘管常常會出現準備過度、準備不足和準備不當。假如上述這三種情況發生,社會就不得不承擔巨大的成本。
與人相比,機器則沒有這些盲目性。它們在非預期的情況下運作,聽從資料的指示。機器學習能在對資料背後意義一無所知的情況下,發現數據之間的關係。它們發現並證明一切都在同時發生,而不是按順序發生。
溫伯格的第一個也是最好的例子,是一個名為“深度患者”(Deep Patient)的醫療學習怪物。
紐約某醫學院的研究人員向它輸入整整70萬份病歷,並讓它不受限制地找出它能做的事情。結果,它作出的診斷和預測遠遠超出了人類醫生的能力。雖然該“黑盒”診斷系統無法解釋它給出的預測,但在某些情況下,它的確比人類醫生更準確。
這就是深度學習,會帶來人類從未考慮過或甚至無法想象的發現。溫伯格說,“深度患者”的教訓是,深度學習系統不必將世界簡化為人類能夠理解的東西。
這違背了我們迄今為止所建立的一切。機器學習對天氣、醫療診斷和產品效能的預測比我們做得更好,但往往以犧牲我們對其如何得出這些預測的理解為代價。
溫伯格強調,雖然這可能帶來危險,但也是一種解放,因為它使我們能夠駕馭我們周圍大量資料的複雜性,從混亂和瑣碎的資料中獲益。
溫伯格將此形容為“從混沌理論轉向混沌實踐——將這一理論那令人興奮的想法應用於日常生活”。這就是本書英文書名Everyday Chaos的由來,它討論的並非理論意義上的混沌,而是每日每時的混沌。
溫伯格指出,這種轉向並非始於人工智慧,而是從有網際網路以來就開始了。各行各業都採取了那些完全避免預測未來的做法,比如柔性生產、敏捷開發、A/B測試、最小化可行產品、開放平臺和使用者可修改的影片遊戲等。他甚至極而言之地說,我們在過去20年裡做的那些發明與革新,都是為了避免去預測未來會發生什麼。
我們對這種新的認知模型已經如此適應,以至現在我們對上述與傳統認知模型相悖的新事物,已經習以為常了。
我們在網際網路上公認的工作方式,事實上推翻了關於未來如何運作的舊假設:網際網路並不試圖預測未來併為其做準備,而是透過創造更多深不可測的可能性來造就我們的繁榮。網路也降低了在沒有定律、假設、模型、甚至對什麼會成功的直覺的情況下運作的成本。
戰略不是漫長的計劃,也不通往可知的未來
預期和準備,是我們處理日常事務的核心,也是企業做戰略規劃的核心。
長期以來,人類一直認為,如果能夠理解事件發生的永恆定律,我們就能夠完美地預測、規劃和管理未來。但認知模型發生轉換後,我們的最佳戰略往往需要忍住不去預測,因為預測總是著眼於透過減少可能性來集中資源。
很多人把戰略理解為“長期規劃”,只有存在一個有序、可預測的未來,這樣的規劃才有意義。在不同程度上,以不同的方式,戰略規劃要求公司能夠將各種可能性縮小到自己可以追求的可能性。
正因如此,溫伯格才說:“戰略規劃通常被視為一種限制性操作。它識別可能性,並選擇企業想要實現的可能性。”
這種線性思維激發了一種異乎尋常的戰略制定方法——場景規劃(scenario planning)。在場景規劃的過程中,戰略制定者發明並深入考慮有關企業的若干同樣合理的未來故事。雖然這無疑有助於開啟思路,探索未來如何影響現在,但它受限於一種錯誤的世界觀。
從根本上說,不管設計出幾個場景,面對世界的複雜性,都還是過於簡單化。線性思維當然也可以努力增加自身的複雜程度,但無論線性思維趨向多麼複雜,世界都不會有如其所願的規則結構。我們需要的是非線性思維。
在《瞬時競爭力:競爭優勢的終結》一書中,麗塔·麥克格拉斯教授,駁斥了邁克爾·波特關於企業可以擁有“可持續競爭優勢”的看法。相反,她提倡一種 “持續重構的戰略”。
這種對戰略的理解要求公司必須對環境中的任何變化保持警惕。它們也必須擁有特定的組織結構和文化,使其能夠透過脫離當前的軌跡來作出反應,從而創造一個新的軌跡。與波特式的戰略觀相比,這是180度的翻轉,那種認為戰略是一個漫長的計劃、通往一個基本可知的未來的觀點徹底過時了。
場景規劃尋找的是大規模的變化,而麥克格拉斯的方法是意識到可見的變化。這是對商業生活中各方面的微妙關係的更恰當的反應,其中不乏一些變化,可能對企業業務產生終結性的影響,或者令企業在競爭激烈的賽道上跛行。
在這樣一個混亂和不可預測的時代,戰略應該比以往更加重要。它確實重要,但前提是我們必須深刻地調整對戰略的思考方式。混沌狀態下的戰略應轉變思路,不是縮小可能性,而是去儘可能創造更多可能性。
這也是網際網路給我們帶來的教訓:惟有隨機應變,方能創造可能性。這樣的戰略路徑也意味著,我們不再需要為準備過度、準備不足或準備不當導致的資源浪費或機會錯失,而付出沉重代價。
以預測準確性為目標,放棄可解釋性
商業實踐中的這些變化預示著,我們對世界如何運作和未來如何發生的想法,有了更多的試驗機會。
機器學習正在讓我們面對我們一直憑本能感覺到的事情:這個世界遠遠超過了我們理解它的能力,更不用說控制它的能力。如同書的前言所說:“萬物皆一體。”一切都會影響其他一切,一直如此,永遠如此。這種混亂是我們生活、商業和世界的真相。
面對這一事實,溫伯格扮演了AI代言人的角色。他批評說,我們堅持讓機器向我們解釋自己,顯示了我們的不安全和無知。我們堅持要知道它們是如何得出結果的,對機器的要求比對人類的要求更高。
為了讓機器更好地發揮潛力,溫伯格建議我們接受超出我們理解能力的系統。這些系統只需要以預測準確性為目標,而毋需保證可解釋性。在許多情況下,如果這些系統的歷史表現良好,我們就可以接受它們的建議,就像我們會接受醫生基於一個我們不能理解的有效性研究而給出的建議一樣。
他詩意地描述說:這些新工具“創造了一個因特殊性而蓬勃發展的充滿聯絡和創造性的世界。它們開啟了一個世界,在這個世界裡,每個微粒都相互依存,而粗暴的解釋只會侮辱這種複雜的關係”。
在這樣歌頌了機器以後,溫伯格也認識到,如果不加以控制,系統很可能以最殘酷的方式對待最弱勢的群體。
但他筆鋒一轉:“我們之所以製造這些工具,總的來說,是因為在大多數時候,它們都是有效的。”由此來看,衡量系統的標準是有效而不是倫理:“機器學習系統極度非道德化。它們只是機器,而不是代表正義的機器。”
溫伯格承認,人工智慧系統需要底線價值觀,但又指出,正是在這裡,我們遇到一個棘手的問題:“將價值判斷程式化意味著,計算機要達到我們所要求的具體和精確程度。然而,關於價值觀的討論往往是混亂、不精確和爭論不休的。”所以人類應該怎麼辦呢?停止試圖將人的價值灌輸給機器?
讀到這裡,我覺得溫伯格此書,在暗自敦促人類向機器投降。儘管他的說辭是,機器可以透過創造更多未來的可能性,從而讓人類更加彭勃地發展下去。但是,如果說他之前關於混沌的日常應用及企業應用等尚能引發我的共鳴,到了機器與人關係這一部分,就不由我不產生懷疑了。他的兩個前提都不能讓我信服。
其一,不管怎樣,機器也會越來越多地接手人類事務。“這個未來不會安定下來,不會自行解決問題,也不會屈服於簡單的規則和期望。感到不知所措、困惑、驚訝和不確定是我們面對世界的新常態。”就是說,反正你也註定搞不清楚人的未來境況,所以不如就把自己交給機器好了。
其二,機器本身可能教會我們新的倫理。雖然人工智慧需要學習更多的倫理知識,但倫理學科是不是也可以從人工智慧中學習一些東西呢?“當你試圖開發一個影響人的機器學習應用時,你很快就會知道,公平比我們通常認為的要複雜得多,而且公平幾乎總是要求我們做出艱難的權衡。”
所以,機器不僅是我們的管家,也可能是我們的導師。最後,溫伯格把這一切上升到敬畏的高度:我們比以往任何時候都對未來更具掌控力,但我們駕馭世界的技術和認知手段,恰恰證明了這個世界已經超出我們自欺欺人的理解。他將此稱作“一個新悖論的起點”,並說人類應該感到敬畏,一如以往敬畏星空。
敬畏什麼呢?敬畏演算法的有效性,因為它們比任何人類都能更好地掌握“宇宙的相互關聯性、流動性和純粹的美麗”?
理解,還是不理解,這是一個問題
溫伯格對網路化知識的認識曾給我們開啟新疆界(見《知識的邊界》),而現在,他對人工智慧時代的知識的見解,可以歸納如下:
人類努力獲得對複雜系統的理解。然而,我們基於“人類的理解”所做的預測並不像人工智慧那樣準確,雖然人工智慧並不真正理解任何東西。
不過,鑑於人工智慧的預測比基於人類理解的預測更準確,我們應該放棄對理解的追求,而專注於建立能夠為我們做決定的人工智慧。將主導權交給預測性人工智慧,我們將迎來人類進化的下一個階段。
毋庸置疑,人工智慧的未來關鍵在於,到底我們是應該放棄理解,還是致力於建立可以理解的人工智慧?
這提出了令人匪夷所思的問題。隨著技術的發展,我們可能很快就會跨越一些門檻,而越過這些門檻,使用人工智慧就需要信仰的飛躍。當然,我們人類也並不能夠總是真正解釋我們的思維過程,但我們找到了直覺上信任和衡量人的方法。對於那些以不同於人類的方式思考和決策的機器來說,這是否也是可能的?
我們以前從未製造過以其創造者不理解的方式運作的機器。我們能指望與這些不可預測和不可捉摸的智慧機器,達成多好的溝通和相處?這些問題將把我們帶向人工智慧演算法研究的前沿。
人工智慧並不一向這樣。從一開始,對於人工智慧的可理解性,或可解釋性,就存在兩派觀點。
許多人認為,建造根據規則和邏輯進行推理的機器是最有意義的,這樣將使它們的內部運作,對任何願意檢查某些程式碼的人來說是透明的。
其他人則認為,如果機器從生物學中獲得靈感,並透過觀察和體驗來學習,那麼智慧將更容易出現。這意味著要把計算機程式設計轉給機器。與其由程式設計師編寫命令來解決一個問題,不如由程式根據例項資料和所需輸出生成自己的演算法。後來演變成今天最強大的人工智慧系統的機器學習技術,遵循的正是後一種路徑:機器基本上是自己程式設計。
任何機器學習技術的工作原理本質上比手工編碼的系統更不透明,即使對計算機科學家來說也是如此。這並不是說,所有未來的人工智慧技術都將同樣不可知。但就其性質而言,深度學習是一個特別黑暗的黑盒子。
一旦面對黑盒子,就產生了人對系統的信任問題。而溫伯格恰恰沒有深入處理人對人工智慧的信任。比如,即便“深度患者”的診斷比人類醫生更準確,但要是它無法解釋自己給出的判斷,醫生和患者會對它表示信任嗎?
人類的信任往往基於我們對其他人如何思考的理解,以及對這些思考可靠性的經驗瞭解。這有助於創造一種心理安全感。而AI對於大多數人來說仍然是相當新穎和陌生的。它使用複雜的分析系統進行決策,以識別潛在的隱藏模式和來自大量資料的微弱訊號。
即使可以在技術上解釋,AI的決策過程對於大多數人來說通常都是難以理解的。更何況目前的人工智慧發展,是在朝著不可理解的方向加速前進。同自己不明白的事情互動會引起焦慮,並使我們感覺我們失去了控制。
晶片製造商英偉達推出的自動駕駛汽車,看上去與其他自動駕駛汽車沒什麼不同。
但它實際上迥異於谷歌、特斯拉或通用汽車所展示的任何東西,而是顯示了人工智慧的崛起。英偉達的汽車並不遵循工程師或程式設計師提供的任何一條指令。相反,它完全依靠一種演算法,這種演算法透過觀察人類的行為而學會了自己駕駛。
讓一輛車以這種方式行駛是一項令人印象深刻的壯舉。但它也有點令人不安,因為並不完全清楚汽車的決定是如何做出的。來自車輛感測器的資訊直接進入一個巨大的人工神經元網路,該網路處理資料,然後提供操作方向盤、剎車和其他系統所需的命令。其結果似乎與你所期望的人類司機的反應一致。
但是,如果有一天它做出一些出乎意料的事情——比如撞上了一棵樹,或者在綠燈前停止不動呢?按照現在的情況,可能很難找出它這樣做的原因。該系統是如此複雜,甚至設計它的工程師也難以分離出任何單一行為的原因。而且你也不能向它提問:沒有辦法來設計一個系統,使它總是能夠解釋為什麼它做那些事。
除非我們找到方法,讓深度學習等技術對其創造者更容易理解,對使用者更負責任。否則,將很難預測何時可能出現失敗——而失敗是不可避免的。
麻省理工學院研究機器學習應用的教授托米·賈科拉說:“這是一個已經凸顯意義的問題,而且在未來它將變得更有意義。無論是投資決策、醫療決策,還是可能的軍事決策,你都不希望僅僅依靠‘黑盒子’方法。”
所以,理解,還是不理解,絕非可以輕易得出結論,因為我們投入的賭注太太了。
正如人類行為的許多方面也無法詳細解釋一樣,也許人工智慧也不可能解釋它所做的一切。或許這就是智力性質的一個特點:它只有一部分被暴露在理性解釋之下。而另外一些是本能的,或潛意識的,或不可捉摸的。
如果是這樣,那麼在某個階段,我們可能不得不簡單地相信人工智慧的判斷(這是溫伯格所主張的),或者乾脆不使用人工智慧。相信或者不使用,這種判斷將不得不納入社會智慧。
正如社會建立在預期行為的契約之上,我們將需要設計和使用人工智慧系統來尊重和適應我們的社會規範。如果我們要創造機器人坦克和其他殺人機器,重要的是它們的決策必須與我們的道德判斷相一致。
哲學家丹尼爾·丹尼特對可解釋性持很審慎的態度。他說:“如果我們要使用這些機器並依賴它們,那麼讓我們儘可能堅定地掌握它們是如何和為什麼給我們答案的。但是,由於可能沒有完美的答案,我們應該對人工智慧的解釋持謹慎態度,就像人類對彼此的解釋一樣——無論機器看起來多麼聰明。而如果它不能比我們更好地解釋它在做什麼,那麼就不要相信它。”
我的看法是,要想達至人工智慧誘人的前景,至少需要完成三件事情:第一,開啟黑盒子,讓AI能夠解釋自己所做的事情;第二,發現和減輕訓練資料及演算法中的偏見;第三,為人工智慧系統賦予倫理價值。
機器學習的興起是人類歷史上最重大的變革之一,越來越多的機器學習模型將成為我們的知識庫,就像現在的圖書館和人類的頭腦一樣。
然而,機器學習模型裡沒有知識,這將意味著我們需要重新思考知識的性質和用途,甚至重新思考作為能夠了解自己世界的生物,我們到底是誰。在這些方面,溫伯格的思考給我們帶來了更多探詢的可能性,儘管遠不是全部的答案。
(戴維·溫伯格:《混沌:技術、複雜性和網際網路的未來》,中信出版集團2021年12月第一版)