轉眼2023年又快到了年底,如果要各位小隊員選一個代表今年的字,你會選哪一個呢?
近日,英國劍橋詞典(Cambridge Dictionary)公布2023年度代表字為「Hallucinate」(產生幻覺),反應出自ChatGPT的橫空出世後,AI技術從遙不可及的科技研發,變成了每個人日常生活中的應用。
因為AI熱潮,而新增註解的字彙
每年的年底,都是回顧的時候,當各家公司紛紛盤點今年目標是否達成之時,世界權威字典也開始了「年度關鍵字」的選拔。既去年牛津英語辭典(Oxford English Dictionary)、韋氏辭典(Merriam-Webster Dictionary)、柯林斯字典(Collins Dictionary)、劍橋詞典,分別選出:我就爛的哥布林模式(Goblin mode)、操縱心理的煤氣燈效應(Gaslighting)、持續危機(Permacrisis)以及全壘打(Homer)後,劍橋詞典也公布了今年年度代表字「Hallucinate」(產生幻覺)。
Hallucinate原義為「似乎看到、聽到、感覺到或聞到」一些不存在的東西,通常是因為健康狀況或服用藥物導致的幻覺。如今,由於今年的AI熱潮,Hallucinate多了一個額外含義:「因AI出現幻覺,而產生的錯誤虛假訊息。」劍橋詞典出版經理尼科爾斯(Wendalyn Nichols)表示:
「AI會令人產生幻覺,這一事實提醒我們,人類仍然需要運用批判性思考,來使用這些工具。」
AI並非萬能,但沒有AI萬萬不能
自ChatGPT的出現後,原本人們常說的「去問google」,轉為凡事先問ChatGPT。ChatGPT是一種基於大量語言文本的生成式語言模型,使用了許多數據,通過訓練模型來理解和生成人類類似的文本回應。也因如此,AI模型得到的結果的準確性取決於接受的數據的數量和品質,導致有心人士可以藉由濫用模型,來散布虛假消息。
即便一篇發表在《PLOS Digital Health》期刊的研究論文指出,ChatGPT能夠通過以困難著稱的美國執業醫師資格考試(USMLE),但過去也曾有一家美國律師事務所使用ChatGPT進行法律研究,導致虛構的案例在法庭上被引用。
假消息?早在你還沒出生之前就有了啦
此外,劍橋詞典今年新增的約6000個字詞及定義中,也包括與AI有關的prompt engineer(提示工程師/AI溝通師),large language model(大型語言模型)及GenAI(生成式AI)。
劍橋大學(University of Cambridge)人工智慧倫理學者亨利(Henry Shevlin)說道:
「『Hallucinate』一詞被廣泛使用來指稱ChatGPT 等所犯的系統錯誤,展示了我們對待和擬人化人工智慧的思考方式。然而,不準確或誤導性資訊長期以來一直存在於我們身邊,無論是謠言、宣傳還是『假新聞』的形式。」