針對目前市場上沸沸揚揚的大模型價格戰,在6月5日舉行的2024北京網絡安全大會期間,有專家指出,訓練大模型很費錢,任何說花很少一點錢就能做的,性能上肯定打了折扣。在大會上,很多院士還討論了AI安全以及算力網絡該如何更好地建設問題。
談訓練:少花錢的性能會打折扣
“任何說花很少一點錢就能訓練大模型的,肯定是里面做了很多簡化,性能會打折扣。”中國工程院院士、鵬城實驗室主任、北京大學博雅講席教授高文在大會上談到大模型訓練成本問題。
高文稱,訓練模型很花錢,我們自己算了一下,2000億參數的模型大約要花5億元,如果是萬億模型,肯定要接近10億元,或者更多才能訓練好一個模型。
近一段時間,不少大模型平臺紛紛宣布對面向企業市場的API(應用程序編程接口)價格下調,動輒下調90%以上,甚至直接宣布免費。不少企業解釋原因稱,使用了更好的手段把成本降下來。
高文稱,現在國外有一個流派,叫做規模法則,要想做一個好的模型,機器的規模要夠大,數據的規模也要大,只有規模到了才能做出好模型,所以現在要想訓練一個好的模型,這是非常費錢的。
不過在大模型的大小上,中國新一代人工智能發展戰略研究院執行院長龔克稱,“腦的規模、神經元的規模確實不能小,但是不是一直大就可以比人更聰明呢?也不是,如非洲大象,他們的腦子比人腦還發達,但并不比人聰明,說明光靠大也不能解決所有問題。”
談安全:協調推進發展和治理,不要妖化AI
隨著AI的發展,其安全越發引起重視。中國工程院院士、同濟大學講席教授蔣昌俊在大會上表示,安全性是不可忽視的,目前的現狀是被動式攻擊、孤立式安防。如何改變?必須通過一體化算網體系,以及專業化、多模態化和大規模形式,形成安全有效的算力方式。
龔克認為,從現在的實踐來看,如果大家真正使用AI,風險并不是來自于技術太強,而是技術并不夠強,存在自己各方面的技術瓶頸,從而引發很多社會焦慮。
“人工智能必須大力發展,不發展是最大的不安全;對于人工智能風險要實事求是具體分析,協調推進發展和治理,不要妖化和神化人工智能;人工智能和網絡安全本身是密切相關的,應該全力推動人工智能和網絡安全的融合創新。”龔克稱。
在具體實際操作層面,高文表示,在安全方面,有些用戶希望他們的數據是別人看不見的,我們專門做了一個技術,使得數據可用不可見,只有數據應用者能看得見自己的數據,其他人都看不見,但可以用,在訓練的時候就可以做到相對比較安全。
談算力:數據價值還沒完全顯現出來
大模型的發展離不開算力。蔣昌俊表示,目前算力專用定價體系尚未建立,算力服務企業各自為戰,算力數據相對比較孤立。要解決這些問題,要通過算力網絡的一些新型需求來拓展它的業務。
據了解,目前國內數據交易中心有十幾家。蔣昌俊認為,目前來看,數據交易效果還不是很好,因為沒有經過算力的加工,數據的價值沒有完全顯現出來。
蔣昌俊支招,算網運營可以采取一些市場行為,為各行各業提供服務,這才形成了我們算力優配的價值所在,“未來算網重點將從建設逐步轉向調度應用。”
中國信息通信研究院院長余曉暉此前發文指出,算力開始賦能千行百業離不開多方合力。需要各級政府以及基礎電信運營商、第三方數據中心服務商、互聯網企業等各類經營主體在算力基礎設施建設運營中發揮各自優勢,互促互補、形成合力。(記者 吳濤)