人工智慧在醫療領域的應用已經不新奇。例如在醫學影像方面(深度閱讀:AI醫學影像如何減少誤判)。然而一項新的研究表明,人工智慧程式在檢查醫學影象以尋找癌症證據時,可能會被駭客和網路攻擊所欺騙。研究人員證明,透過計算機程式在乳房X光片新增或刪除癌症證據,這些變化欺騙了人工智慧工具和人類放射學家,影響最終診斷結果。
這可能會導致錯誤的診斷。一個幫助篩查乳腺X光片的人工智慧程式可能會在確實有癌症跡象的時候說掃描是健康的,或者在病人實際上沒有癌症的時候錯誤地說他們確實有癌症。目前還不知道在現實世界中是否發生過這樣的駭客行為,但這項新研究建議醫療機構需要為此做好準備。
越來越多的駭客透過網路攻擊醫院和醫療保健機構。大多數情況下,這些攻擊會竊取患者資料(這些資料在黑市上很有價值),或者鎖定某個組織的計算機系統,勒索贖金。這兩種型別的襲擊都可能會擾亂醫院的操作,使醫護人員更難提供良好的護理,從而對患者造成傷害。
但專家們也越來越擔心,駭客行為有可能會對人們的健康造成更直接的傷害。例如,安全研究人員已經證明,駭客可以遠端侵入聯網的胰島素泵,並提供危險劑量的藥物(這在以前還只是影視作品中的情節)。
能夠改變醫學影象並影響診斷的駭客也屬於這一類。在發表在《自然通訊》(Nature Communications)雜誌上的一項關於乳房X光片的新研究中,匹茲堡大學(University of Pittsburgh)的一個研究團隊設計了一個計算機程式,可以讓原本沒有癌症跡象X光掃描看起來像癌細胞,這會讓有癌變的X光片看起來沒有癌變的跡象。然後,他們將篡改過的影象輸入一個專門識別乳腺癌跡象的人工智慧程式,並讓五名人類放射學家判斷這些影象的真偽。
大約70%被操縱的圖片欺騙了程式——也就是說,人工智慧錯誤地說,有癌症跡象的圖片是沒有癌症的,而沒有癌症的圖片卻有癌症的證據。至於放射科醫生,有些人比其他人更擅長髮現被操縱的影象。他們識別假照片的準確率範圍很大,從29%到71%不等。
其他研究也表明,對醫學影象的網路攻擊可能導致錯誤的診斷。2019年,一組網路安全研究人員表明,駭客可以從CT掃描中新增或刪除肺癌證據。這些變化也欺騙了人類放射學家和人工智慧程式。
目前還沒有發生過公開的駭客事件。但駭客想要操縱乳房X光檢查或肺癌掃描的原因有幾個。駭客可能會對某個特定的病人感興趣,比如某個政治人物,或者他們可能想要改變自己的掃描結果,以便從保險公司那裡得到理賠。當然駭客也可能隨機操縱影象,直到醫院支付贖金才停止對其進行篡改攻擊。
不管是什麼原因,像這樣的演示表明,醫療保健機構和設計人工智慧模型的人應該意識到,駭客是有可能改變醫療影像的。在訓練模型時,應該向他們展示經過處理的影象,教他們識別假影象。放射科醫生可能也需要接受識別假影象的培訓。
這項研究旨在能讓人們思考醫療人工智慧模型的安全性,以及可以做些什麼來抵禦潛在的攻擊。當然如果基於區塊鏈技術,安全性會大大提高。