儲層計算已經是科學家可以使用的最先進、最強大的人工智慧型別之一,現在一項新的方法在某些任務上可以其速度提高一百萬倍。
儲層計算已經是科學家可以使用的最先進、最強大的人工智慧型別之一——現在一項新的方法在某些任務上可以其速度提高一百萬倍。
在解決最複雜的計算挑戰時,這是一個令人興奮的發展,從預測天氣到模擬透過特定空間的流體流動等複雜的計算都用得著。
這些問題正是開發這種資源密集型計算所要解決的問題;現在,最新的創新將使它變得更加有用。這項新研究背後的團隊稱其為下一代儲層計算。
俄亥俄州立大學的物理學家 Daniel Gauthier 說: “與儲層計算目前所能做的相比,我們可以在很短的時間內使用更少的計算機資源來執行非常複雜的資訊處理任務。”
“而且儲層計算已經是對以前可能的顯著改進。”
儲層計算建立在神經網路(基於活體大腦運作方式的機器學習系統)的思想之上,經過訓練可以在大量資料中發現模式。例如,向神經網路展示一千張狗的圖片,它在下次出現時識別狗應該非常準確。
儲層計算帶來的額外能力的細節是非常技術性的。從本質上講,該過程將資訊傳送到一個“儲層”,在那裡資料點以各種方式連結。然後將資訊從儲層中傳送出來,進行分析,然後反饋給學習過程。
這在某些方面使整個過程更快,並且更適應學習序列。但它也嚴重依賴隨機處理,這意味著儲層內部發生的事情並不十分清楚。用工程術語來說,它是一個“黑匣子”——它通常有效,但沒有人真正知道如何或為什麼。
透過剛剛發表的新研究,可以透過消除隨機化來提高儲層計算機的效率。使用數學分析來確定儲層計算機的哪些部分實際上對其工作至關重要,哪些不是。擺脫那些冗餘位加快了處理時間。
最終結果之一是需要更少的“熱身”期:這就是向神經網路提供訓練資料的地方,為它應該做的任務做準備。研究團隊在這裡進行了重大改進。
“對於我們的下一代儲層計算,幾乎不需要熱身時間,” Gauthier 說。
“目前,科學家必須輸入 1,000 或 10,000 個或更多資料點來預熱。這就是丟失的所有資料,實際工作不需要。我們只需要輸入一兩個或三個資料點.”
使用新系統在標準臺式計算機上不到一秒鐘就完成了一項特別困難的預測任務。使用當前的儲層計算技術,即使在超級計算機上,同樣的任務也需要更長的時間。
根據資料,新系統證明自己的速度提高了 33 到 163 倍。然而,當任務目標轉移到優先考慮準確性時,更新後的模型快了 100 萬倍。
這只是這種超高效神經網路型別的開始,其背後的研究人員希望在未來將其與更具挑戰性的任務進行對抗。
“最讓人興奮的是,這個下一代儲層計算的需要是什麼已經很不錯了,並使其顯著更有效,”戈捷說。
該研究已發表在《自然通訊》上。