中新網(wǎng) 3月26日電 中國發(fā)展高層論壇2024年年會于2024年3月24-25日舉行。3月24日下午舉行了“人工智能發(fā)展與治理專題研討會”,清華大學(xué)智能產(chǎn)業(yè)研究院院長、中國工程院院士張亞勤在“小組討論二”環(huán)節(jié)的發(fā)言中表示:各國要在全球智能領(lǐng)域共同合作,將人工智能紅線作為社會風(fēng)險共同應(yīng)對。
張亞勤簡要總結(jié)了人工智能大模型的發(fā)展趨勢,一是多模態(tài)、多尺度、跨模態(tài)的新智能;二是未來五年要在整個架構(gòu)上有大的突破,追隨尺度定律(Scaling Law),但未必是transformer模型結(jié)構(gòu);三是智能逐漸向“人工智能手機(jī)”“人工智能PC”邊緣側(cè)延伸;四是可以實現(xiàn)定義任務(wù)、規(guī)劃路徑、自我升級、自我編碼等的自主智能;五是信息式智能逐漸走向物理世界;六是大模型與生物體連結(jié)的生物智能。
張亞勤認(rèn)為,未來五年隨著各大領(lǐng)域大規(guī)模應(yīng)用人工智能技術(shù),將帶來三方面風(fēng)險,包括:信息世界的風(fēng)險,包含錯誤、虛假信息的風(fēng)險;已經(jīng)出現(xiàn)的大模型幻覺問題,隨著信息智能大規(guī)模應(yīng)用延伸至物理智能、生物智能時,風(fēng)險也會規(guī)?;?;大模型與經(jīng)濟(jì)體系、金融體系、軍事系統(tǒng)、電力網(wǎng)絡(luò)相連接的風(fēng)險。
如何防范這些風(fēng)險問題,張亞勤提出五個長期建議。
一是像標(biāo)識廣告一樣,對人工智能生產(chǎn)的數(shù)字人等智能體進(jìn)行標(biāo)識。
二是設(shè)立映射和注冊機(jī)制。明確機(jī)器人作為從屬體,必須映射到主體,這個主體可以是人或公司等法定實體,如果機(jī)器人出現(xiàn)問題,就可以追溯主體責(zé)任。
三是建立分級監(jiān)管體制機(jī)制。對應(yīng)用在物理世界、生物系統(tǒng)等不同領(lǐng)域的大模型,分級監(jiān)管。
四是加大對大模型風(fēng)險研究的投入,呼吁政府、科學(xué)家、技術(shù)從業(yè)者和企業(yè)家共同參與,一邊發(fā)展,一邊治理。
五是制定人工智能發(fā)展的紅線。目前北京人工智能國際安全對話已經(jīng)達(dá)成了《北京AI安全國際共識》,提出人工智能發(fā)展的紅線。各國要在全球智能領(lǐng)域共同合作,將人工智能紅線作為社會風(fēng)險共同應(yīng)對。