中新經緯3月24日電 (薛宇飛)近日,由中國人民大學高瓴人工智慧學院、智慧社會治理跨學科交叉平臺和基於大資料文科綜合訓練國家級虛擬模擬實驗教學中心聯合主辦的演算法公平性與內容生態建設研討會在線上舉行。中國人民大學高瓴人工智慧學院執行院長文繼榮教授指出,演算法公平性是堅持演算法向善和可持續發展的核心理念,解決演算法的公平性問題需要讓演算法設計過程有“溫度”,研究有“溫度”的人工智慧有助於為社會提供有“溫度”的服務,促進社會和諧發展。
“進入人工智慧時代,我們生活在與智慧演算法共存的新世界裡,智慧演算法是一把雙刃劍,如果能被有效利用,它可以成為有‘溫度’的助手,但如果未利用好,演算法可能會成為‘對手’,所以,研究演算法公平性的重要性日益凸顯。”他說,隨著智慧演算法在人們工作生活中的廣泛應用,折射出了公平性問題,比如大資料殺熟等現象日益凸顯,社會不同個體或者團體在資源佔有、分配和使用中存在不公平現象,影響個體滿意度和對演算法的信任度,從而可能產生廣泛的社會影響。
文繼榮稱,中國人民大學高瓴人工智慧學院提出的口號是“做有溫度的人工智慧”。如果演算法設計過程中沒有考慮“溫度”,會使得演算法冷冰冰的,有點不近人情,進而無法更好地服務社會。
“在未來,人工智慧應用,比如智慧體、自動駕駛,會越來越多的出現在人們的生活中,這些智慧應用甚至在很多方面可能超越人的能力。我們研究人工智慧的專家、學者和技術人員如果沒有‘溫度’,研究出來的人工智慧體甚至可能會損害人類利益,儘管它是無意的。”他稱,在有關指導性原則的引導下,學術界和產業界正著力推動公平機器學習理論、技術及應用發展,在推薦模型層面取得高準確率等指標已經不是唯一的追求。
文繼榮進一步指出,從技術、經濟發展、法律法規、社會價值等角度深入研究演算法公平性問題的前沿解決方案和可行技術路線,是促進演算法向善和可持續性發展的核心要素。(中新經緯APP)