久热国产手机免费视频,日韩精品无码按摩精油,狠狠狠的在啪线香蕉27194,亚洲色精品vr一区二区

清華大學智能產業研究院院長張亞勤:將人工智能紅線作為社會風險共同應對

張亞勤認為,未來五年隨著各大領域大規模應用人工智能技術,將帶來三方面風險,包括:信息世界的風險,包含錯誤、虛假信息的風險;已經出現的大模型幻覺問題,隨著信息智能大規模應用延伸至物理智能、生物智能時,風險也會規模化;大模型與經濟體系、金融體系、軍事系統、電力網絡相連接的風險。

清華大學智能產業研究院院長張亞勤:將人工智能紅線作為社會風險共同應對

來源:中國新聞網 2024-03-26 13:29
  • weixin
  • weibo
  • qqzone
分享到微信

中新網 3月26日電 中國發展高層論壇2024年年會于2024年3月24-25日舉行。3月24日下午舉行了“人工智能發展與治理專題研討會”,清華大學智能產業研究院院長、中國工程院院士張亞勤在“小組討論二”環節的發言中表示:各國要在全球智能領域共同合作,將人工智能紅線作為社會風險共同應對。

張亞勤簡要總結了人工智能大模型的發展趨勢,一是多模態、多尺度、跨模態的新智能;二是未來五年要在整個架構上有大的突破,追隨尺度定律(Scaling Law),但未必是transformer模型結構;三是智能逐漸向“人工智能手機”“人工智能PC”邊緣側延伸;四是可以實現定義任務、規劃路徑、自我升級、自我編碼等的自主智能;五是信息式智能逐漸走向物理世界;六是大模型與生物體連結的生物智能。

張亞勤認為,未來五年隨著各大領域大規模應用人工智能技術,將帶來三方面風險,包括:信息世界的風險,包含錯誤、虛假信息的風險;已經出現的大模型幻覺問題,隨著信息智能大規模應用延伸至物理智能、生物智能時,風險也會規模化;大模型與經濟體系、金融體系、軍事系統、電力網絡相連接的風險。

如何防范這些風險問題,張亞勤提出五個長期建議。

一是像標識廣告一樣,對人工智能生產的數字人等智能體進行標識。

二是設立映射和注冊機制。明確機器人作為從屬體,必須映射到主體,這個主體可以是人或公司等法定實體,如果機器人出現問題,就可以追溯主體責任。

三是建立分級監管體制機制。對應用在物理世界、生物系統等不同領域的大模型,分級監管。

四是加大對大模型風險研究的投入,呼吁政府、科學家、技術從業者和企業家共同參與,一邊發展,一邊治理。

五是制定人工智能發展的紅線。目前北京人工智能國際安全對話已經達成了《北京AI安全國際共識》,提出人工智能發展的紅線。各國要在全球智能領域共同合作,將人工智能紅線作為社會風險共同應對。

【責任編輯:曹靜】
中國日報網版權說明:凡注明來源為“中國日報網:XXX(署名)”,除與中國日報網簽署內容授權協議的網站外,其他任何網站或單位未經允許禁止轉載、使用,違者必究。如需使用,請與010-84883777聯系;凡本網注明“來源:XXX(非中國日報網)”的作品,均轉載自其它媒體,目的在于傳播更多信息,其他媒體如需轉載,請與稿件來源方聯系,如產生任何問題與本網無關。
版權保護:本網登載的內容(包括文字、圖片、多媒體資訊等)版權屬中國日報網(中報國際文化傳媒(北京)有限公司)獨家所有使用。 未經中國日報網事先協議授權,禁止轉載使用。給中國日報網提意見:rx@chinadaily.com.cn
C財經客戶端 掃碼下載
Chinadaily-cn 中文網微信