9月27日,由瑪娜資料基金會主辦的“促進人工智慧演算法性別平等”報告發佈會暨政策研討會在上海舉行,聯合國婦女署駐華辦公室高階專案官員馬雷軍、上海市浦東新區婦女聯合會副主席國雲丹、瑪娜資料基金會秘書長張唯、瑪娜資料基金會課題組專家負責人周旅軍、專家況琨,以及小米集團科技委員會技術向善議題召集人朱汐、信也集團首席演算法科學家王春平、Thought Works(中國)資料智慧團隊解決方案架構師任添石等各界嘉賓出席了本次會議,共同探討如何促進人工智慧演算法中的性別平等。
作為金融科技企業信也科技集團的代表,也是在人工智慧領域取得優秀成就的女性從業者,王春平博士在會上闡述了其對於人工智慧在研究、應用中對於資料倫理、性別平等的觀點與建議。
人工智慧時代加速,促進性別平等即發展大前提
人工智慧自1956年被提出以來,短短60餘年的時間中,這項科學技術的飛速發展給人類社會帶來了不小的變化。人工智慧演算法是以數學方式或計算機程式碼表達的意見,由演算法模型和資料輸入決定著預測的後果。
隨著人工智慧時代的加速到來,人類將生活在一個演算法無所不在的世界,隨著演算法決策開始介入並主導人類社會事務,演算法對人類的生活和未來都將產生不可估量的影響。基於此,由演算法偏見可能帶來的倫理風險也開始引起人們重視。單就性別角度而言,由於目前人工智慧領域目前仍處於男性主導的狀況,使得人工智慧演算法在日常應用中不自覺就容易出現 “性別歧視“的爭議。
據當日釋出的《促進人工智慧演算法性別平等》報告(後文簡稱《報告》)介紹,目前人工智慧演算法的諸多應用場景中均存在一定的性別歧視現象。以人工智慧開放平臺為例,一張“端著水果籃的男性”圖片被AI人臉識別平臺檢測為“女性”,單獨截出頭像卻能夠被檢測為“男性”。在就業場景中,2018年亞馬遜公司的自動招聘演算法傾向於給關鍵詞含“女”字的簡歷打低分,降低了女性工作申請成功率,最後棄用了該招聘演算法。
信也科技首席科學家王春平表示:“人工智慧演算法的基礎是資料,但在實際生活中因為種種原因,沉澱下來的很多資料分佈是有偏的,從而可能將社會中的一些偏見滲透進演算法中。作為人工智慧演算法的女性從業者,我認為需要透過多種方式去消除這些偏見。”
消除偏見與歧視,資料演算法從業者新課題
2019年,國家新一代人工智慧治理專業委員會發布《新一代人工智慧治理原則——發展負責任的人工智慧》,提出了人工智慧治理的框架和行動指南,明確提出要在資料獲取、演算法設計、技術開發、產品研發和應用過程中消除偏見和歧視。該委員會近日又釋出了《新一代人工智慧倫理規範》,第十三條特別強調避免偏見歧視,在資料採集和演算法開發中,加強倫理審查,充分考慮差異化訴求,避免可能存在的資料與演算法偏見,努力實現人工智慧系統的普惠性、公平性和非歧視性。
“演算法中存在性別歧視問題,主要源於訓練AI的資料集反映了人類社會存在的性別偏見,而演算法工程師對這一問題缺乏意識,未將解決性別偏見納入開發需求,從而使得演算法放大了性別歧視。“瑪娜資料基金會課題組專家況坤錶示。
據《報告》中專題社會調研的資料顯示,58%的人工智慧演算法從業者不知道演算法當中存在的性別偏見問題,73%的從業者不知道存在專門針對女性的惡意演算法。從業者對演算法性別平等的意識及能力亟需提升。
王春平博士表示,“對於在人工智慧演算法中儘可能地促進性別平等,我們認為首先需要從研發者的意識與環境培養開始。比如在信也科技集團內部,我們有很多公司政策都在保證並促進不同性別員工得到平等的機會。比如說我們會有比較完善針對人工智慧領域或數字化應用相關的培訓課程,這些課程包含了業務場景、演算法學習、工程化落地,會開放給所有職位的員工,並且會盡可能地幫助公司內部對於人工智慧演算法有興趣的員工參與一些實驗性的創新專案,為其提供平等的崗位機會。我們認為保障女性員工獲得公平的職業機會,為演算法開發團隊營造沒有明顯兩性區分的環境,並有意識消除演算法工程師們的性別偏見,對於人工智慧演算法在應用中儘可能實現性別平等是有益的。”
商業與倫理的平衡,價值觀在前的人工智慧演算法未來
人工智慧演算法獨特的執行邏輯導致人們社會生活的結構性場景發生了重大變化,加劇了決策者與相對人之間的“數字鴻溝”,人工智慧演算法獨特的執行邏輯正在深刻地改變著以往的生產方式和生活方式,並與人的行為形成了支配關係。這也表示,人們的行為可以藉助於資料演算法來預測甚至被改變。
對於企業來說,人工智慧演算法的準確為商業行為的執行提供了準確的預判,但同時演算法發展帶來的倫理問題、性別歧視問題同樣也是企業需要考慮的問題。
王春平博士認為,目前為止,人工智慧演算法在應用中反映的依然是相關性,在開發過程中考慮的因素與得到的決策結果之間,很大程度上只是相關。在很多應用裡,性別可能是被引入的一個帶有相關性的干擾項,如何排除偏見,公平地看待不同的性別,但是又不會影響到最終的商業判斷準確性,具有不小挑戰。目前這個問題已經引起了重視,有很多從不同角度試圖解決這個問題的嘗試,比如基於因果推理理論,尋找與期望預測結果擁有直接因果關係的因素;透過創新性地構造特徵表徵空間,抑制某些帶有偏見的因素,比如由於性別帶來差異。
“雖然很多時候,基於商業行為,我們很難判定部分情況下演算法在偏好與偏見之間的界限,但是在演算法的創新開發過程中,作為人工智慧演算法工程師如果擁有正確的價值觀,就能儘可能提前審視並察覺歧視偏見的存在,很好地利用對於演算法的不斷更新去調整它帶來的問題,這是我們作為演算法開發者的使命與責任,也是人工智慧演算法發展的重要前提。” 王春平如是說到。
信也科技作為國內領先的金融科技企業之一,一直致力於推進科技應用與社會發展的互相融合與發展,尤其是在人工智慧領域,信也科技透過在開發過程中納入社會性別多元化視角,盡己所能為促進演算法中的性別平等而努力。作為企業,信也科技致力推動在內部技術開發中的客觀認識和理性反思,從而更好地促進科技發展。未來,信也科技將繼續透過技術的不斷創新,以確立正確價值觀,助力促進人工智慧時代的性別平等。