3月26日,一場(chǎng)關(guān)乎AI未來(lái)的全球?qū)υ?,在博鰲亞洲論壇的現(xiàn)場(chǎng)激烈交鋒。官方圖
DeepSeek的橫空出世,吸引了全球的目光聚焦于中國(guó)。隨著AI技術(shù)的“狂飆式”發(fā)展,與之相伴的安全問(wèn)題也引起市場(chǎng)廣泛擔(dān)憂。3月26日,一場(chǎng)關(guān)乎AI未來(lái)的全球?qū)υ?,在博鰲亞洲論壇的現(xiàn)場(chǎng)激烈交鋒。
針對(duì)通過(guò)標(biāo)準(zhǔn)能否解決人工智能的安全性問(wèn)題,與會(huì)嘉賓給出了不同的見(jiàn)解, vivo首席安全官魯京輝表示,安全性問(wèn)題不能簡(jiǎn)單地通過(guò)制定法律或規(guī)則來(lái)解決,而是需要形成共識(shí),但光有共識(shí)還不夠,因?yàn)檫@還涉及地緣政治、全球化等問(wèn)題。
中國(guó)科學(xué)院自動(dòng)化研究所研究員、聯(lián)合國(guó)人工智能高層顧問(wèn)機(jī)構(gòu)專家曾毅也表達(dá)了類似的觀點(diǎn)。他認(rèn)為,由于很多安全和風(fēng)險(xiǎn)問(wèn)題是不可預(yù)知的,對(duì)于不可預(yù)知的部分我們需要一直保持警惕。
中國(guó)工程院院士、清華大學(xué)智能產(chǎn)業(yè)研究院(AIR)院長(zhǎng)張亞勤則認(rèn)為,從可控性和可信度方面,技術(shù)是可以解決信息安全的。“對(duì)于風(fēng)險(xiǎn),我們需要定義一些紅線和邊界,因?yàn)榧夹g(shù)不斷發(fā)展,有了邊界之后我們是可以解決的,如果完全沒(méi)有邊界,只談一些大的原則,談一些具體方案是比較困難的?!?/p>
張亞勤:DeepSeek是近兩年來(lái)人工智能領(lǐng)域最大的創(chuàng)新
“今年以前,我們沒(méi)有想到會(huì)發(fā)生這么大的變化,AI已經(jīng)走向AI Agent(智能體)階段。”張亞勤坦言,DeepSeek是近兩年來(lái)人工智能領(lǐng)域最大的、系統(tǒng)性、規(guī)模性的創(chuàng)新,也是中國(guó)對(duì)全球的重要貢獻(xiàn)。
張亞勤表示,AI已從信息智能走向無(wú)人駕駛、機(jī)器人等物理智能,也走向人腦接口、生物體大模型等生物智能。他認(rèn)為,無(wú)人駕駛是具身智能最大的應(yīng)用,也是第一個(gè)能夠真正落地的方向,而人形機(jī)器人還需要更長(zhǎng)時(shí)間。
談及AI Agent廣泛應(yīng)用后的風(fēng)險(xiǎn)時(shí),張亞勤指出,相關(guān)安全風(fēng)險(xiǎn)至少要增加一倍?!爸悄荏w是很好的技術(shù),能夠自我規(guī)劃、學(xué)習(xí)、試錯(cuò)并達(dá)到目的,是非常好的工具,但在其運(yùn)行過(guò)程中,中間路徑不可控?!半m然智能算法并非完全的黑盒子,但很多運(yùn)行機(jī)理我們并不清楚?!?/p>
張亞勤表示,風(fēng)險(xiǎn)主要表現(xiàn)為兩大方面,一種是可控風(fēng)險(xiǎn),一種是被壞人所利用的風(fēng)險(xiǎn)?!傲硗?,我們用智能體的時(shí)候需要設(shè)置一些紅線,比如智能體不能自我復(fù)制。確實(shí)能力越大,帶來(lái)的風(fēng)險(xiǎn)越高,特別是AI從信息智能到物理智能再到生物智能,風(fēng)險(xiǎn)會(huì)增加很多倍?!?/p>
曾毅:人工智能的發(fā)展和安全不是相互掣肘的關(guān)系
伴隨著人工智能的發(fā)展,業(yè)內(nèi)對(duì)其創(chuàng)新與治理的態(tài)度經(jīng)歷了顯著轉(zhuǎn)變。在去年的博鰲亞洲論壇上,業(yè)內(nèi)更多聚焦人工智能的發(fā)展前景及趨勢(shì),今年論壇將目光瞄準(zhǔn)了更深層次的問(wèn)題,人工智能的應(yīng)用與治理。
“去年全世界的科學(xué)家對(duì)于如何構(gòu)建安全護(hù)欄是不知道答案的。彼時(shí),多位全球?qū)W者自愿簽署叫停人工智能6個(gè)月的發(fā)展倡議。但是經(jīng)過(guò)了半年多一年的探索,我們已經(jīng)有了初步答案,人工智能的發(fā)展應(yīng)用和安全之間的關(guān)系不是相互掣肘的關(guān)系?!痹惚硎?。
曾毅認(rèn)為,人工智能、大模型能力的提高并不代表安全能力就好。他表示,現(xiàn)在很多人工智能大模型,包括國(guó)內(nèi)的人工智能大模型,在認(rèn)知問(wèn)題求解能力上與GPT系列在同一水平上,但在倫理框架上還有提升空間。
“今年倫理安全應(yīng)該作為人工智能大模型發(fā)展的基因,應(yīng)該作為第一性原理,不可刪除,不可違背,同時(shí)做到穩(wěn)健發(fā)展。”曾毅表示。
“不要讓人工智能完全代替人的決策,一定要讓決策權(quán)利在人類手中,這是當(dāng)代人工智能應(yīng)用時(shí)我們必須注意的問(wèn)題?!痹銖?qiáng)調(diào)。
江小涓:過(guò)去多年AI治理方面的進(jìn)展有限
“前面兩位科學(xué)家都比較樂(lè)觀地表達(dá)了人工智能由于技術(shù)的發(fā)展,它的安全問(wèn)題可能會(huì)有比較好的解決,我一方面同意這個(gè)判斷,但是另一方面我認(rèn)為技術(shù)發(fā)展會(huì)帶來(lái)新的問(wèn)題?!敝袊?guó)社會(huì)科學(xué)院大學(xué)教授、國(guó)務(wù)院原副秘書(shū)長(zhǎng)江小涓表示。
江小涓表示,過(guò)去多年AI治理方面的進(jìn)展有限。“從十年前阿西洛馬人工智能原則提出一直到現(xiàn)在,這個(gè)原則已經(jīng)討論十年了,一個(gè)月前巴黎AI峰會(huì)依舊是繼承了過(guò)去喊的這些原則。這些原則落地非常有限,如何落地、如何實(shí)踐是最大的挑戰(zhàn)?!?/p>
從經(jīng)濟(jì)學(xué)家角度來(lái)看,江小涓表示,技術(shù)是不是可以接受主要關(guān)注兩個(gè)標(biāo)準(zhǔn),第一,能不能帶來(lái)生產(chǎn)力的提高,使其創(chuàng)造更多的財(cái)富。第二,(技術(shù))發(fā)展的結(jié)果能不能被比較公平地分享。“從這兩個(gè)原則來(lái)講,AI的發(fā)展肯定是提高勞動(dòng)生產(chǎn)率了,但第二個(gè)問(wèn)題是不是能夠比較好地被社會(huì)所有成員分享,從經(jīng)濟(jì)學(xué)角度上體現(xiàn)為就業(yè)是不是充分?分配是不是公平?如果這兩個(gè)問(wèn)題不能解決的話,我們有什么替代政策?”
江小涓認(rèn)為,(AI對(duì))就業(yè)的沖擊必定會(huì)出現(xiàn)。“我們應(yīng)該有新的社會(huì)保障政策來(lái)執(zhí)行它,而不是一再重復(fù)那些不能落地的原則?!?/p>
新京報(bào)貝殼財(cái)經(jīng)記者 胡萌 編輯 王進(jìn)雨 校對(duì) 柳寶慶