智能科學大會集合全球頂尖科學家與資深專家,超速探討如何構建全球AI監管體係
?
人工智能(AI)為人類社會按下了加速鍵。新研究、上节新技術、拍办新產品,新闻方方麵麵都在飛速更新。科学然而,发展假如AI發展過快,超速人類跟不上節拍怎麽辦?人类
昨天舉行的2024年世界頂尖科學家論壇智能科學大會上,國內外專家學者圍繞“為人類永續發展製定科學的上节AI治理框架”發表真知灼見。其中有一種聲音格外令人警醒,拍办那就是新闻:人類把人工智能帶到這個已知的世界,但決不能讓人工智能把人類引向無法掌控的科学未知世界,否則後果不堪設想。发展
構建AI驅動的科研基礎設施
學術研究的深入,將人工智能不斷推向新的高度,而層出不窮的人工智能工具,也正推動科學研究不斷邁上新台階。
中國科學院院士、北京科學智能研究院院長、北京大學國際機器學習研究中心主任鄂維南指出,在傳統科學研究中,理論建模與模擬的一大難處在於“維數災難”,即在高維度數據空間中,數據分析和處理將異常艱難。而今,深度學習技術提供了解決辦法。比如,研究人員可以對包含數十億個原子的係統進行具有量子力學精度的分子動力學模擬。這項成果讓鄂維南在2020年榮獲素有“超算界諾貝爾獎”之稱的美國計算機協會ACM戈登貝爾獎。
鄂維南表示,科研所需的三大基本方法或資源是理論、實驗和科學文獻。人工智能的興起,在這三方麵引起了天翻地覆的改變,科學研究的方式也隨之迭代。大語言模型和AI數據庫的出現使研究人員能夠更高效、更智慧地運用現成的知識;分子動力學、量子多體、密度泛函理論等重要理論工具的背後,是基於AI的算法;而智能化的下一代實驗設備將大幅提升數據收集的效率和精度。
鄂維南說,我們正在經曆一場科研範式變革,基於人工智能的一係列工具將顛覆傳統科研模式。為此,我們需要準備好“AI驅動的基礎設施”,需要將“作坊式”的科研模式切換到“安卓式”,即開發一些大平台,以平台為基礎,針對具體問題搭建應用,並針對具體的應用場景構建垂直整合的團隊。
科研領域的範式變革正在不斷轉化為成果。本屆智能科學大會圍繞智能科學前沿應用領域首次推出“科技創新卓越案例研討”,探討數字化與AI公司及機構的創新案例。
會上,賽諾菲高級副總裁、臨床科學與運營全球負責人萊昂內爾·巴斯克萊斯介紹,AI已經在疾病生物學、藥物研發、臨床試驗等各環節開始賦能。比如公司將AI與自動化結合,加速小分子藥物的發現;開發mRNA大語言模型CodonBERT,以千萬mRNA序列為訓練數據,用於mRNA疫苗候選的表達預測;開發生成式AI係統,用於生成臨床研究報告,大幅提升效率,縮短藥品研發周期。
英矽智能也帶來了名為PreciousGPT的大語言模型。公司創始人兼首席執行官亞曆克斯·紮沃隆科夫表示,這款模型可用於產生對生物係統有一定影響的化合物、模擬臨床研究、生成合成患者、對組學實驗的結果作注釋,以及將化合物特性類推到新領域。
算法設計不能一味“爭強”
人工智能引領的這場輻射全社會、影響各行業的變革,也引起了不少專家學者的警惕。
2007年圖靈獎得主、國際嵌入式係統研究中心Verimag實驗室名譽研究主任、南方科技大學斯發基斯可信自主係統研究院院長約瑟夫·斯發基斯,談到了AI係統的風險評估與管控。他認為,人工智能的風險有兩種:技術風險與人為風險。前者包括算法需求的不完整性、算法設計的缺陷,以及算法部署時可能麵臨的外部環境威脅。後者又細分為兩種,客戶或投資方對AI係統提出的目標或需求可能不合法或不道德,用戶也可能將係統用於歪門邪道。
對此,斯發基斯主張,應針對算法設計者和使用者的人為風險以及算法設計部署階段的技術風險,分別製定相應對策。
他認為,人類尚不可以對人工智能報以百分百的信任,因為除了技術特性外,AI係統還具有“主觀特性”,所以需要向人類價值觀對齊,具備公平性、可靠性、安全性、隱私性、包容性、透明性等特征。然而,由於目前並沒有針對此類特性的嚴格認證方法,所以難以全麵嚴謹地評估AI風險。
2024頂科協獎“智能科學或數學獎”得主、康奈爾大學計算機科學和信息科學講席教授喬恩·克萊因伯格指出,當前人工智能發展存在三個風險點:一是人類自身的排外偏見會導致算法與生俱來的偏見,進而引發人類社會的一係列混亂。
二是受到經濟激勵的影響,人們在設計算法時容易陷入“單作”的狀態。這個概念借用自農業。假如一片農田為了經濟效益而隻種植一種作物,那麽隻需一種病原體就能消滅一整片農田。同樣的,“單作”算法也會“引火上身”,讓惡意軟件更加有的放矢。當外在條件或宏觀環境發生變化時,“單作”算法還可能觸發多米諾骨牌效應,引起連鎖性災難。
三是人類在麵對超越人類的AI係統時,認知上的落後會帶來麻煩。在和此類AI係統開展合作時,控製權往往不在人類自己手裏。但假如人工智能突然把控製權交了出來,那麽人類就可能犯下嚴重錯誤,因為AI知道該怎麽做,而人類未必。
所以克萊因伯格認為,在設計時既要追求算法的強大,也要注意,萬一到了不得不由人類掌控局麵的時候,事態不能發展到失控的地步。
特別聲明:本文轉載僅僅是出於傳播信息的需要,並不意味著代表本網站觀點或證實其內容的真實性;如其他媒體、網站或個人從本網站轉載使用,須保留本網站注明的“來源”,並自負版權等法律責任;作者如果不希望被轉載或者聯係轉載稿費等事宜,請與我們接洽。