週一 週二 週三 週四 週五 週六 週日
 123
45678910
11121314151617
18192021222324
252627282930  

路透社:中國利用Meta語言模型開發軍用AI「ChatBIT」

《路透社》報道,包括隸屬中國解放軍的相關機構正利用Meta公開的「Llama」語言模型,研發可應用在軍事用途的人工智能(AI)工具「ChatBIT」,其功能更達到ChatGPT-4的九成。美國智庫詹姆士敦基金會副研究員張崑陽指,這是首次有實質證據證明中國軍方已有能力,將語言模型用於軍事上。

《路透社》昨(1日)引述一篇6月發表的論文指,6名中國研究人員以Meta去年公布的「Llama」語言模型為基礎,開發稱為「ChatBIT」的AI工具。這套軍用為主的工具,主要用於搜集和處理情報,並提供作戰相關的參考資訊。報道更指,經微調後的「ChatBIT」,可進行軍事對答,效能達到被指功能強大的「ChatGPT-4」的九成。不過,論文未有交代「ChatBIT」是否已投入使用。

報道又指,論文提及的中國研究員包括來自「解放軍軍事科學院」的「軍事科學信息研究中心」和「國防科技創新研究院」研究員「Geng Guotong」和「Li Weiwei 」,其餘來自北京理工大學與中央民族大學的研究人員。

美國智庫詹姆士敦基金會(Jamestown Foundation)副研究員張崑陽指,這是首次有實質證據顯示中國解放軍,正試圖運用「開源大型語言模型」(open-source LLMs),有系統地研發人工智能工具,作為軍事用途。

儘管Llama的使用條款明文禁止語言模型用於軍事、戰爭或間諜活動。Meta的公共政策總監Molly Montgomery亦向《路透社》表明,「中國軍方用語言模型是未經授權,並且違反Meta的使用條款」。但報道指,由於Meta的語言模型是公開的,因此難以規管。

解放軍報文章:AI可產大量假消息混淆視聽 影響他國民眾價值取向

中國軍方研發和應用人工智能技術,一直引起外界關注。翻查資料,去年4月《解放軍報》刊出一篇題為《大模型技術的軍事應用》文章,曾指「(ChatGPT)一旦應用於軍事領域,或將帶來巨大變化」,包括「加速武器裝備研發」、「促進作戰仿真發展」、「提升軍事訓練效益」、「提高情報分析速度」及「幫助認知滲透攻擊」。

其中,在「認知滲透攻擊」段落中,提到「ChatGPT類應用可以高效產生海量假消息、假圖片甚至假影片來混淆視聽,甚至可以藉助平台的力量,透過資訊產品隱蔽輸出價值觀念,影響他國民眾的價值取向,潛移默化地干擾對方民眾認知,引導其輿論情緒」。

相關文章

熱門文章