我們處在人工智慧的時代,我們需要知道科技是如何影響我們的社會和我們的生活?我們真正需要注意些什麼?讓我們從大家都已經習以為常的事情入手,從內容推薦 APP開始說起吧。
我們來分析一下,一款內容推薦APP是怎麼運作的。首先有一個內容池,也就是有內容創作者在寫文章或者發影片,然後機器就把這些內容進行一個特徵提取,提取特徵之後儲存到一個指定的地方(這個地方叫模型)。同時,環境也會被特徵提取進入模型。什麼是環境呢?比如:你用的是什麼樣的手機、今天的天氣、你現在所處的城市位置。每一個使用者都有一個獨特的畫像,諸如年齡、職業,甚至可以推測出你是高收入階層還是低收入階層,這些都是使用者的特徵。
上邊說到的所有資訊都會被儲存到模型當中,模型經過計算,將這個內容池當中的部分內容推薦給使用者看,無論是商品,還是文章、影片等等。你看到這些內容之後,就會做出一些反應,比如點選、點贊、分享、收藏、評論、看得多少、多看一會、少看一會等等。
使用者做出的反應會與APP廠商希望的使用者行為有一定偏差。什麼叫廠商希望的行為呢?簡單說就是,廠商希望你一直用這個APP,永遠不下線。而事實顯然不是這樣,有的使用者喜歡,有的使用者未必就喜歡。也就是說,模型一開始推給你的,是你喜歡的,你一直不離開;是你不喜歡的,你就划過去。一旦你划走了之後,機器就記住了。你沒有看這些內容,可能不是你感興趣的,這個時候,偏差就又送到了模型裡去,模型依據使用者的行為調整推送,直至你一直沉迷於小影片當中無法自拔,這就是內容推薦的一個基本原理。
這裡實際上用到了一個所謂的負反饋的機制,就是期望和實際的輸出有一個偏差,然後儘可能地來調整引數,使得偏差縮小,這個模型就會越來越好。這個偏差會透過負反饋不斷地縮小。這對於模型來說肯定是好事,它會越來越靠近APP廠商的期望。但是,對於使用者來說,未必是一件好事:對於使用者來說,會導致一個問題,那就是正反饋。
正反饋又是什麼呢?使用者喜歡看,使用者越想看,這裡就越有;這裡越有,使用者也就越想看;使用者越想看這裡也就越有。由於廠商是希望使用者一直看的,而這樣的一個閉環系統就會隨著廠商的期望,就會導致使用者真的是最後一直看下去,這就是為什麼我們看小影片的時候無法自拔,就是因為機器的目標就是讓你一直看下去,它給你的資訊就是你喜歡的;你越喜歡,它越給你喜歡的。人就在這個圈子當中轉來轉去,成了一個封閉的小圈子,人就會變得偏執,變得單調,變得沒有趣味,這就是現在人工智慧時代我們要避免的一個問題。
我們怎麼走出這個圈子呢?這裡筆者給出一個非常善意的建言:讓自己成為一個更加審慎的批判性思考者,學會怎樣正確地評估證據,考慮地更全面,從而得出自己的結論。實際上,這就是人工智慧時代很多人需要擁有的能力,也是我們需要在日常生活中不斷學習和培養的一個能力。
最後,筆者以一個真實的案例作為本文的結尾。幾年前美國大選,兩位總統候選人互掐,後期一個內幕被披露。有一家公司開發了一款小軟體,在網際網路上招募了很多志願者,目的是做一項心理測試,類似於一個性格方面的問卷調查,參與者可以得到一個5美元的紅包。他們透過所做的心理測試來判斷參與者的性格是軟弱一點還是強勢一點,還是屬於比較淡定冷靜的人,或者是屬於一點就著的烈火烹油型。接著,他們就把所有參與測試者的畫像畫出來了。
這麼多人的畫像有了之後,在競選的時候就給所有的人定向推薦內容:淡定的人,推薦適合他們口味的廣告;非常急躁的人,推薦競選對手的醜聞,讓使用者一點就著,醜聞越勁爆越好。
言歸正傳,重複忠告:人工智慧時代,需要我們每一個人都具備批判性思維,成為一個獨立批判性思考者。當然,這並不是一個非常容易就能獲得的能力,需要我們在工作和生活中不斷地學習,不斷地積累,不斷地提升。