NBC報導,根據一篇2022年11月發表的論文,由新加坡國立大學、香港中文大學和史丹佛大學共同組成的研究團隊,已經能夠透過核磁共振造影(fMRI)以及AI的功能,將腦電波藉由AI模型解碼,而形成圖像。
也就是說,往後透過機器就能讀到人類大腦的視覺資訊。
這項研究中,會先讓參與者看1000多張照片——例如,一輛紅色消防車、一座灰色建築、一隻長頸鹿在吃樹葉——接著,核磁共振所記錄到的大腦信號會被輸入進AI模型,讓某些大腦的腦波信號和圖像產生關聯。
經過這些信號轉換及訓練成像之後,同一位參與者接下來看到新的照片時,會先由核磁共振偵測到腦波,再透過AI模型形成最接近的對應圖像。
測試成果顯示,AI形成之圖像與原始圖像的顏色、形狀、意涵等等相對應之下,能呈現近84%相符合的結果。
Our work on fMRI-based vision decoding using deep learning has been featured by NBC nightly news. A great team work @ZijiaoC Jack from HK and Tiange from Stanford. https://t.co/38T0MUc9GM
這項測試目前仍需要依據每個參與者的大腦,進行約20小時的模型訓練,才能成功從核磁共振數據推估出接近的圖像。但研究團隊表示,或許在十年以內,這項技術便能夠普及使用在任何地方的任何人身上。
「這項技術或許能夠幫助障礙者恢復他們所看到的,以及他們所想的。」此研究團隊中的一員——新加坡國立大學的博士生陳子驕說,而在理想情況下,「人類甚至不必用手機進行溝通,只要用『想』的就能達到這個目的。」
生成的圖像仍可能因每個人對於現實的認知差異而有所不同,「就像當你看到草原,也許我會想到山,你會想到花,其他人會想到河流。」香港中文大學副教授趙海倫(Helen Zhao)這麼說。
但此差異也可能來自於AI模型的演算結果,即使輸入同一組指令給AI,也可能會產出不同的圖像成果。
雖然這項研究中的受試者並不多,但其透過非侵入式腦波偵測踏出了解碼人類大腦所受視覺刺激的一大步。
過去十年來,有許多研究投入於將人類的大腦活動以科技進行解碼,也已有不少AI研究針對人類的神經系統發想應用。例如,Meta試圖利用AI人工智能從人的大腦活動中解碼「聲音」,而德州大學奧斯汀分校(University of Texas at Austin)則是試圖解碼「語言」。
加州大學伯克利分校(University of California, Berkeley)的科學家格蘭特(Jack Gallant)提到,這些科技不僅取決於AI人工智能的模型優劣,也必須考量到大腦成像設備的發展,以及研究可獲得的數據多寡。
這項研究是由誰進行的?
由新加坡國立大學、香港中文大學和史丹佛大學共同組成的研究團隊,已經能夠透過核磁共振造影(fMRI)以及AI的功能,將腦電波藉由AI模型解碼,而形成圖像。
也就是說,往後透過機器就能讀到人類大腦的視覺資訊。