用活人腦細胞造AI系統!語音識別已成功,可無監督學習

由真實人腦細胞構建的“迷你大腦”和微電極組成的AI系統,已經能夠進行語音識別——

從數百個聲音片段中準確認出某個特定人的聲音的那種。

最近,一項頗爲前沿的類腦研究登上了Nature子刊。

這個特別的AI系統甚至可以進行無監督學習:

研究人員只是一遍遍播放音頻片段,不提供任何形式的反饋來告訴系統答對還是錯。

最終,該系統在兩天的訓練之後,準確率直接從最初的51%升到了78%。

這,究竟是怎麼實現的?

類器官神經網絡來了

發明該系統的主要目的,是解決硅芯片的高能耗等問題。

一般來說,這個問題的解題思路都是靠類腦計算。

但這種思想下設計的“傳統”類腦芯片大多數都是直接基於數字電子原理,完全模仿大腦功能的能力着實有限。

在此,該研究直接用上了一個叫做“類器官”的東西:

它指的是能夠在實驗室中利用人的幹細胞培養出的微型器官,包含其代表器官的一些關鍵特性。

具體而言,研究人員將活體腦細胞組成的腦類器官(形狀類似小團球)和高密度微電極陣列進行連接,構建出一個叫做“Brainoware”的系統。

微電極在Brainoware中的作用一是向類器官發送電信號,達到傳送信息到“腦”中的目的;二是檢測大腦神經細胞的放電響應,然後交給外部設備進行讀取和解析。

這樣的系統可以表現出類似神經網絡的功能,並可以進行無監督學習。

將它連接到特定硬件,就可以被訓練於語音識別。

具體任務中,研究人員將8個人說日語元音的240個音頻片段轉換爲信號序列,然後發送給系統,讓它識別出某個人的聲音。

最開始,Brainoware的準確度只有30%-40%。

但經過兩天的訓練之後,它就可以78%的準確率識別出特定說話者。

作者在此強調,所謂的訓練只是重複音頻片段,不給予任何反饋,也就是所謂的無監督學習。

不過,需要注意的是,目前Brainoware只能識別誰在講話,但聽不懂任何講話內容。

而在該實驗之後,研究人員試着用一種藥物來阻斷腦類器官中神經細胞之間形成新的連接。

結果發現,這樣操作之後,系統的準確率就不會有任何改善了。

作者解釋,這說明Brainoware的學習能力取決於神經可塑性。

未來的計算機會是由大腦組成的嗎?

今年三月份,該團隊其實就是已經用該系統來嘗試預測Hénon圖了(數學領域中一種可表現出混沌行爲的動力系統)。

結果Brainoware也是在無監督學習了4天之後(每天代表一個訓練週期),被發現它能夠比沒有長短期記憶單元的人工神經網絡預測得更準。

相比之下,後者可是經過了至少50個訓練週期。

而再往前一點,澳大利亞一家科研團隊則試圖教“盤中大腦”打乒乓球遊戲,結果它5分鐘內就學會了,速度比AI還快17倍。

那麼未來,計算機會由大腦組成嗎?

還不好說。

如本文作者介紹,他們這個研究目前屬於概念驗證,後面還有很多問題要解決:

例如,Brainoware系統的性能還能提高,但最重要的問題是類器官只能存活一到兩個月。

並且,Brainoware本身雖然不需要太多功耗,但維持它運轉的外部設備的功耗水平並不低。

諸如一系列等等問題。

總的來說,有科學家預測,真正的通用生物計算系統可能需要幾十年的時間才能創建。

但不管怎麼樣,它的研究對我們進一步理解人腦的學習奧秘等問題都有幫助。

參考鏈接:[1]https://www.nature.com/articles/s41928-023-01069-w[2]https://www.newscientist.com/article/2407768-ai-made-from-living-human-brain-cells-performs-speech-recognition/[3]https://www.genengnews.com/topics/artificial-intelligence/brainoware-organoid-neural-networks-inspire-brain-ai-hardware/