壓力是影響人類認(rèn)知表現(xiàn)的重要因素,但它對(duì)大語(yǔ)言模型(LLMs)性能的影響尚未被充分研究。近期,中國(guó)科學(xué)院自動(dòng)化研究所曾毅研究員領(lǐng)導(dǎo)的人工智能安全與超級(jí)對(duì)齊北京市重點(diǎn)實(shí)驗(yàn)室和類腦認(rèn)知智能團(tuán)隊(duì)聯(lián)合進(jìn)行了相關(guān)開(kāi)創(chuàng)性研究。結(jié)果顯示,給人工智能適當(dāng)壓力能使其更好解決問(wèn)題。
過(guò)高壓力會(huì)導(dǎo)致大語(yǔ)言模型性能下降
研究探索了大語(yǔ)言模型是否會(huì)像人類一樣對(duì)不同程度的壓力做出反應(yīng),以及它們的表現(xiàn)是否會(huì)在不同壓力誘導(dǎo)提示下波動(dòng)。
研究的第一作者申國(guó)斌表示,研究表明,大語(yǔ)言模型表現(xiàn)出與人類認(rèn)知非常相似的壓力反應(yīng)模式。中等水平的壓力實(shí)際上可以增強(qiáng)模型在某些任務(wù)上的表現(xiàn),而過(guò)高的壓力則會(huì)導(dǎo)致性能下降。這種現(xiàn)象與心理學(xué)中廣為人知的耶克斯-多德森法則高度一致,這令人驚訝,因?yàn)榇笳Z(yǔ)言模型并沒(méi)有被專門(mén)設(shè)計(jì)來(lái)模擬這種人類特性。
論文的通訊作者曾毅研究員說(shuō):“研究為我們理解大語(yǔ)言模型的認(rèn)知過(guò)程提供了新視角。我們也許不能說(shuō)大語(yǔ)言模型在機(jī)制上涌現(xiàn)出害怕壓力,很可能是大語(yǔ)言模型在訓(xùn)練過(guò)程中從人類數(shù)據(jù)里學(xué)習(xí)到了壓力和解決問(wèn)題效率之間的映射關(guān)系。然而,這種映射關(guān)系給大語(yǔ)言模型的問(wèn)題求解既可能帶來(lái)益處,適當(dāng)壓力可提升解決問(wèn)題的能力,也可能帶來(lái)風(fēng)險(xiǎn),沒(méi)有或者過(guò)激壓力造成問(wèn)題求解能力下降。”
他表示,這些發(fā)現(xiàn)不僅在理論上有價(jià)值,也為如何優(yōu)化AI系統(tǒng)在不同壓力環(huán)境下的表現(xiàn)提供了實(shí)用指導(dǎo)。例如,在需要情緒智能的應(yīng)用中可能需要中等壓力水平,而在需要減少偏見(jiàn)的場(chǎng)景中則應(yīng)避免高壓力環(huán)境。
這項(xiàng)研究的實(shí)際應(yīng)用貢獻(xiàn)在于,為設(shè)計(jì)能在現(xiàn)實(shí)世界高壓環(huán)境中保持性能的AI系統(tǒng)提供指導(dǎo),特別是在客戶服務(wù)、醫(yī)療保健和緊急響應(yīng)等壓力普遍存在的場(chǎng)景。此外,在人機(jī)交互優(yōu)化方面,提供了基于壓力水平優(yōu)化人機(jī)交互的方法,可以據(jù)此研制更自然、更有效的AI助手。
人工智能安全與超級(jí)對(duì)齊北京市重點(diǎn)實(shí)驗(yàn)室成立
中關(guān)村論壇期間,北京市成立人工智能安全治理協(xié)同創(chuàng)新矩陣。人工智能安全與超級(jí)對(duì)齊北京市重點(diǎn)實(shí)驗(yàn)室作為矩陣成員實(shí)驗(yàn)室首次正式對(duì)外公開(kāi),其由中國(guó)科學(xué)院自動(dòng)化研究所牽頭,北京大學(xué)、北京師范大學(xué)參與共建。
作為北京市科技創(chuàng)新體系的重要組成部分,新組建的人工智能安全與超級(jí)對(duì)齊北京市重點(diǎn)實(shí)驗(yàn)室,主要圍繞前沿人工智能技術(shù)帶來(lái)的安全風(fēng)險(xiǎn)及治理需求,重點(diǎn)突破人工智能安全與超級(jí)對(duì)齊技術(shù),探索人工智能系統(tǒng)安全可控方案,實(shí)現(xiàn)對(duì)前沿人工智能模型和超級(jí)智能的有效監(jiān)督指導(dǎo)和風(fēng)險(xiǎn)控制,并在前沿人工智能模型上開(kāi)展示范應(yīng)用。
超級(jí)對(duì)齊作為當(dāng)前人工智能安全的最前沿方向,旨在研究如何確保未來(lái)智慧超越人類的人工智能系統(tǒng)(即超級(jí)智能)仍能夠與人類尋求價(jià)值對(duì)齊與和諧共生。隨著人工智能大模型能力進(jìn)一步發(fā)展到通用智能和超級(jí)智能,其能力強(qiáng)大到超過(guò)人類能夠有效監(jiān)管的程度時(shí),如何還能確保其安全可控將是亟待求解的問(wèn)題。目前,相關(guān)領(lǐng)域仍處于早期科學(xué)探索階段,系統(tǒng)性的風(fēng)險(xiǎn)分析和應(yīng)對(duì)方案極為缺乏。
在此背景下,實(shí)驗(yàn)室匯聚了來(lái)自中國(guó)科學(xué)院自動(dòng)化研究所、北京大學(xué)、北京師范大學(xué)的科研人員共計(jì)50余人,組成了人工智能、認(rèn)知心理學(xué)、腦科學(xué)、倫理安全與治理、系統(tǒng)科學(xué)的交叉學(xué)科研究團(tuán)隊(duì)。實(shí)驗(yàn)室將通過(guò)聯(lián)合攻關(guān),瞄準(zhǔn)人工智能安全與超級(jí)對(duì)齊領(lǐng)域關(guān)鍵科學(xué)問(wèn)題與實(shí)踐,重塑和優(yōu)化現(xiàn)有人工智能安全和超級(jí)對(duì)齊的科學(xué)與技術(shù)格局,構(gòu)建讓人工智能和超級(jí)智能安全可控的“北京方案”。
實(shí)驗(yàn)室由中國(guó)科學(xué)院自動(dòng)化研究所研究員、聯(lián)合國(guó)人工智能高層顧問(wèn)機(jī)構(gòu)專家曾毅擔(dān)任主任。
新京報(bào)記者 張璐
編輯 劉夢(mèng)婕 校對(duì) 楊利