6月9日-6月10日,“2023北京智源大會”在京舉行。
此次大會邀請到了全球范圍內(nèi)超過200位人工智能領(lǐng)域的頂尖專家,不僅圖靈獎得主就有Geoffrey Hinton、Yann LeCun、Joseph Sifakis和姚期智四位,還有張鈸、鄭南寧、謝曉亮、張宏江、張亞勤等多位院士,以及加州大學(xué)伯克利分校人工智能系統(tǒng)中心創(chuàng)始人Stuart Russell、麻省理工學(xué)院未來生命研究所創(chuàng)始人Max Tegmark以及備受關(guān)注的OpenAI聯(lián)合創(chuàng)始人兼首席執(zhí)行官Sam Altman等嘉賓,他們以國際視角探討了通用人工智能發(fā)展所面臨的機遇與挑戰(zhàn)。
記者孫冰攝
全球頂級AI專家共話通用人工智能發(fā)展的機遇與挑戰(zhàn)
“我們距離AGI(ArtificialGeneral Intelligence,通用人工智能)時代還有多遠很難預(yù)測,仍然需要不斷地研究才能得到結(jié)論,并且這條路不會一帆風順。但在未來的10年內(nèi),我們可能會擁有超強的AI系統(tǒng)。”
6月10日,OpenAI聯(lián)合創(chuàng)始人兼CEO薩姆·奧特曼(Sam Altman)以視頻連線的方式現(xiàn)身2023北京智源大會的“AI安全與對齊”專題論壇,并發(fā)表演講,這是奧特曼在中國的演講首秀。隨后,他還回答了智源研究院理事長張宏江的一系列提問。
當天的論壇聚焦于“AI安全與對齊(Alignment)”,著重討論如何確保愈發(fā)強大的通用人工智能系統(tǒng)安全可控,并符合人類意圖和價值觀。
智源研究院理事長張宏江
“如何使AI系統(tǒng)成為一個有益和安全的助手,這對應(yīng)的是如何訓(xùn)練模型,使其在沒有安全威脅的前提下發(fā)揮積極作用。不過,隨著AGI時代的接近,其帶來的潛在影響和問題將呈指數(shù)級增長,所以,我們需要通過主動應(yīng)對AGI帶來的潛在挑戰(zhàn),將未來發(fā)生災(zāi)難性后果的風險降至最低。”奧特曼表示。
奧特曼強調(diào),隨著越來越強大的人工智能系統(tǒng)的出現(xiàn),全球合作變得前所未有地重要。“當然,全球合作始終是困難的,但我認為這種機遇和威脅能夠讓世界走到一起,我們可以共同為AI系統(tǒng)制定一個框架和安全標準。”他說。
奧特曼還引用了中國《道德經(jīng)》中的名句:“千里之行,始于足下”。他建議,目前最有建設(shè)性的第一步是國際科技界先展開合作,推動和增加AGI安全技術(shù)進展的透明度,鼓勵發(fā)現(xiàn)緊急問題的研究人員與更多人共享研究成果。
“悟道3.0”系列大模型發(fā)布并全面開源,打造“大模型進化流水線”
除了全球頂級專家共話AI,在此次大會上,智源研究院也展示了其在大模型領(lǐng)域的最新研究成果。實際上,智源研究院作為國內(nèi)最早進行大模型研究的科研機構(gòu)之一,自2020年10月啟動大模型研發(fā)工作,發(fā)展至今已實現(xiàn)了多項領(lǐng)先成就。
Sam Altam發(fā)推感謝智源大會的邀請
繼2021年悟道大模型項目連創(chuàng)“中國首個+世界最大”紀錄之后,智源研究院在此次大會上正式發(fā)布了全面開源的“悟道3.0”系列大模型及算法,同時,也報告了在高精度生命模擬和有機大分子建模方面的最新進展。
據(jù)介紹,智源“悟道3.0”帶來一系列領(lǐng)先成果:“悟道·天鷹”(Aquila)語言大模型系列、天秤(FlagEval)開源大模型評測體系與開放平臺,“悟道 · 視界”視覺大模型系列,以及一系列多模態(tài)模型成果。
此外,為推動大模型在產(chǎn)業(yè)落地和技術(shù)創(chuàng)新,智源研究院還發(fā)布了“開源商用許可語言大模型系列+開放評測平臺”兩大成果。
“智源希望打造出一條‘大模型進化流水線’,持續(xù)迭代并持續(xù)開源開放。”智源研究院副院長、總工程師林詠華表示。
智源研究院院長黃鐵軍在接受包括《中國經(jīng)濟周刊》在內(nèi)的媒體采訪時表示,大模型需要具備三個條件:一是規(guī)模要大,參數(shù)達百億規(guī)模以上;二是涌現(xiàn)性,能夠產(chǎn)生預(yù)料之外的新能力;三是通用性,不限于專門問題或領(lǐng)域,能夠處理多種不同的任務(wù)。
智源研究院院長黃鐵軍
“但從技術(shù)的判斷來說,現(xiàn)在大模型的‘大’遠遠沒有達到天花板,未來,模型規(guī)模的放大和智能水平的提高一定會繼續(xù)發(fā)生。”黃鐵軍說。
而對于各方熱議的人工智能的安全和倫理問題,黃鐵軍表示,隨著人工智能大模型出現(xiàn)了“涌現(xiàn)”能力,其不可預(yù)知性確實帶來了巨大的挑戰(zhàn)。
智源研究院總工程師林詠華發(fā)布智源最新成果
“以前核武器、化學(xué)武器的系統(tǒng)挑戰(zhàn)也很大,但仍是可預(yù)測的。那么,預(yù)料之外的東西就管不了?我并不這樣認為,因為人也是不可預(yù)測的,每個人都可能靈感一閃,冒出很多新想法。既然AI是智能系統(tǒng),人和動物也是智能系統(tǒng),所以可以把人類社會的道德倫理、社會歸制、法律規(guī)則等,作為借鑒用于探索AI的管理。”黃鐵軍表示。
據(jù)悉,作為國際性人工智能高端專業(yè)交流活動,由智源研究院主辦的智源大會已經(jīng)連續(xù)舉辦了五屆。在過去的四年間,先后有500余位以圖靈獎得主為代表的頂尖AI專家在這里激揚思想,數(shù)萬名專業(yè)人士注冊參會,覆蓋30多個國家和地區(qū)。