【現(xiàn)象】
使用人工智能大模型時(shí),,不少人或許都遇到過類似問題:它們有時(shí)會捏造細(xì)節(jié),,甚至“一本正經(jīng)地胡說八道”,。比如,,讓它推薦書,,給出的卻是一堆壓根不存在的書名,;人物身份張冠李戴,,還能給出一些并不準(zhǔn)確的鏈接……這些現(xiàn)象都可以歸為AI幻覺,。
【點(diǎn)評】
所謂AI幻覺,,可以通俗地理解為AI也會像人產(chǎn)生心理幻覺一樣,,遇到不熟悉或超出“知識儲備”的問題時(shí),編造一些并不存在的細(xì)節(jié),,生成與事實(shí)相悖的答案,。一項(xiàng)調(diào)研顯示,對于“公眾認(rèn)為使用AI應(yīng)用過程中有哪些突出問題”,,反饋?zhàn)疃嗟氖恰皟?nèi)容不準(zhǔn)確,,或含虛假信息”,占比高達(dá)42.2%,。
AI幻覺從何而來,?可能得從源頭尋找答案。
大模型的工作原理,,是基于概率生成內(nèi)容,。給它上半句,它就根據(jù)自己“學(xué)”過的海量知識,,“算出”下半句該說什么,。比如,當(dāng)用戶輸入“今天天氣非?!?,它大概率會接“不錯(cuò)”“熱”“潮濕”等答案,而不會出現(xiàn)“甜”,。同時(shí),,大模型又不是簡單地儲存所有事實(shí),,而會像人腦記東西那樣,進(jìn)行大量壓縮和泛化——也就是“抓概要,、找規(guī)律”,。因此,當(dāng)“喂給”大模型的訓(xùn)練數(shù)據(jù)包含虛假信息時(shí),,它就會產(chǎn)生“幻覺”,、給出錯(cuò)誤答案。
有報(bào)告顯示,,我國生成式人工智能產(chǎn)品用戶規(guī)模達(dá)2.49億人,。用戶規(guī)模快速增長,,AI幻覺潛藏的風(fēng)險(xiǎn)也隨之增加,。比如,如果一些看似合理卻與現(xiàn)實(shí)相去甚遠(yuǎn)的內(nèi)容被AI反復(fù)學(xué)習(xí),,會形成“數(shù)據(jù)污染—算法吸收—再污染”的惡性循環(huán),。有效防范由此帶來的虛假信息泛濫,已成為不容回避的課題,。
不過也有觀點(diǎn)認(rèn)為,,AI幻覺可被視作一種“發(fā)散思維”和“想象力”,。理論上,,如果把訓(xùn)練一個(gè)大模型看作信息“壓縮”的過程,那么大模型經(jīng)過推理,、輸出答案就是一個(gè)信息“解壓”的過程,。這種處理信息的方式,可能會出現(xiàn)謬誤,,也可能觸發(fā)新的創(chuàng)造,。對發(fā)展尚未定型的新事物,要保持開放心態(tài),,辯證看待其利與弊,,在有效防范弊端的同時(shí),給予足夠空間使之朝好的方向成長,。
短時(shí)間內(nèi),,AI幻覺問題難以被解決。各方都在努力降低其負(fù)面影響,,相關(guān)部門也加大了對違規(guī)AI產(chǎn)品的處置力度,,推動(dòng)生成合成內(nèi)容標(biāo)識加速落地。一些大模型廠商在積極行動(dòng),,比如文心大模型利用檢索到的信息來指導(dǎo)文本或答案的生成,,提高了內(nèi)容的質(zhì)量和準(zhǔn)確性,;通義大模型加強(qiáng)訓(xùn)練語料管理,通過“紅藍(lán)對抗”機(jī)制提升對虛假信息的識別能力,。對廣大用戶而言,,則要加快提升AI素養(yǎng),學(xué)會“智慧”地運(yùn)用“智慧工具”,,既借助大模型破除思維定式,、啟發(fā)創(chuàng)新思路,又提高自身有效獲取,、理解,、評估和使用信息的能力。
人類塑造工具,,工具也影響人類生活,。應(yīng)對AI幻覺等問題挑戰(zhàn)的過程,既促使人們思考改進(jìn)工作方法,,也為AI不斷進(jìn)化提供了源動(dòng)力,。激發(fā)新技術(shù)的正向價(jià)值,讓AI更好融入生產(chǎn)生活,、賦能千行百業(yè),,我們邁向智慧時(shí)代之路才能走得更加穩(wěn)當(dāng)、更加順暢,。