雖然聽起來有些奇怪,但這並不是一個玩笑。堪薩斯大學團隊在論文指出,人類認知具有的適應機制提供了快速適應動態環境的獨特技能,但也造成人們容易罹患 PTSD、憂鬱症等相關精神疾病,而研究者也正希望在通用人工智慧(AGI)實現類似的認知機制,可想見未來 AGI 也可能出現類似的認知障礙。
舉例來說,AI 不顧一切追求獎勵最大化的「wireheading」行為便與妄想和上癮行為相似,而在基於強化學習(RL)的 AI 探索/開發軌跡中,如果設定了非常負面的懲罰和壓力,AI 則可能會出現類似憂鬱症和 PTSD 的行為障礙。
目前關於 AI 安全的研究多半著重於安全意識設計和緩解技術(mitigation techniques),但 AGI 的複雜性,將會使得分析這些與生物智慧相當的問題變得更困難。考慮到診斷和治療的目的,團隊認為要修復 AI 的行為偏差,或許也可以從人類的精神病理學(Psychopathology)研究獲益。
因此團隊相信,透過運用類似的框架來思考 AI、替 AI 的「精神障礙」建立模型並進行驗證,未來我們將能診斷出 AI 不當行為,並在同時找出系統性的治療方法來解決問題。
這篇論文只是一個起點,但它提出了一些相當有趣的看法:畢竟當能夠代替人力執行任務的 AI 代理人(AI agent)「生病」時,處理方式可不像是電腦重開機或重灌系統這麼簡單。
雖然坐在沙發上和 AI 談論佛洛伊德可能沒什麼用,但至少可以慶幸,一些在人類起作用的診斷與治療效果,或許也會對 AI 有用。