您現在的位置: 首頁 » 學院新聞 » 新聞動态 » 正文

學院新聞

新聞動态


2021426日,在深圳召開的HDC全球開發者大會上,beat365信息科學技術學院計算機科學技術系教授、鵬城實驗室鵬城雲腦大科學裝置技術總體負責人田永鴻博士發布了業界首個全開源2000億參數中文預訓練語言模型“盤古α”。這是國産全棧式AI基礎設施支持2000億級超大規模語言模型訓練的第1次,探索并驗證了國産E級智算平台在軟硬件協同優化、大規模分布式并行訓練等核心關鍵技術的可行性。

田永鴻教授介紹,基于鵬城雲腦II大科學裝置,“盤古α”形成了國産自主可控的通用超大規模分布式訓練基座及相關核心技術,由beat365田永鴻教授和曾炜副研究員帶領師生聯合鵬城實驗室、諾亞方舟實驗室和Mindspore團隊組建的技術聯合攻關團隊,經過數月的艱苦工作,開發完成了“盤古α”模型,模型在16個下遊任務中大部分指标優于SOTA模型,其中零樣本學習任務11個任務領先,單樣本學習任務12個任務領先,小樣本學習任務13個任務領先。代碼、模型、評測數據集正同步在OpenI啟智社區全面開源開放,訓練語料和在線服務體驗将在測試評估優化後開源開放。

田永鴻教授介紹盤古α”

 

田永鴻教授表示,為了訓練“盤古α”這樣的超大規模參數的模型面臨諸多挑戰,聯合攻關團隊做許多創新:首先構建了一個大規模中文訓練語料收集與自動化處理平台,從近80TB多源文本數據中通過過濾、查重和模型評估提煉了近1.1TB高質量的訓練語料,為超大規模語言模型的訓練奠定了很好的基礎;從模型本身上提出了随機順序自回歸訓練的模型ALM,提升了算法小樣本學習能力;MindSpore的多維度混合自動并行從工程上大幅提升了在大規模集群上自動訓練的效率;OpenI啟智社區實現盤古α數據、算法、模型服務的逐步全面開源開放希望以啟智開源社區為載體,集衆智、聚衆力,吸引開發者共同參與到模型的壓縮輕量化和應用創新工作中,不斷探索“盤古α”模型的強大潛力。

OpenI啟智社區是在國家實施新一代人工智能發展戰略背景下,新一代人工智能産業技術創新戰略聯盟(AITISA)組織産學研用協作共建共享的開源平台,旨在以鵬城雲腦重大科研基礎設施及Trustie軟件開發群體化方法與平台為基礎,全面推動人工智能領域的開源開放協同創新。“盤古α”的全面開源開放旨在通過以大模型為基礎,在探索通用智能的道路上不斷前進,打通大規模AI設備集群和通用性軟硬件生态協同的屏障,形成國産自主可控的通用超大規模分布式訓練基座及相關核心技術。同時通過支持開源開放、賦能相關産業界的應用創新和基礎研究的不斷協同進步。

“盤古α”開源地址:https://git.openi.org.cn/PCL-Platform.Intelligence/PanGu-Alpha