10月27日消息,智譜AI于2023中國計算機大會(CNCC)上,推出了全自研的第三代基座大模型ChatGLM3及相關系列產品,這也是智譜AI繼推出千億基座的對話模型ChatGLM和ChatGLM2之后的又一次重大突破。
此次推出的ChatGLM3采用了獨創的多階段增強預訓練方法,使訓練更為充分。評測顯示,在44個中英文公開數據集測試中,ChatGLM3在國內同尺寸模型中排名首位。智譜AI CEO張鵬在現場做了新品發布,并實時演示了最新上線的產品功能。
ChatGLM3全新技術升級 更高性能更低成本
通過更豐富的訓練數據和更優的訓練方案,智譜AI推出的ChatGLM3性能更加強大。與ChatGLM2相比,MMLU提升36%、CEval提升33%、GSM8K提升179% 、BBH提升126%。
同時,ChatGLM3瞄向GPT-4V本次實現了若干全新功能的迭代升級,包括多模態理解能力的CogVLM-看圖識語義,在10余個國際標準圖文評測數據集上取得SOTA;代碼增強模塊Code Interpreter根據用戶需求生成代碼并執行,自動完成數據分析、文件處理等復雜任務;網絡搜索增強WebGLM-接入搜索增強,能自動根據問題在互聯網上查找相關資料并在回答時提供參考相關文獻或文章鏈接。ChatGLM3的語義能力與邏輯能力得到了極大的增強。
ChatGLM3還集成了自研的AgentTuning技術,激活了模型智能體能力,尤其在智能規劃和執行方面,相比于ChatGLM2提升了1000% ;開啟了國產大模型原生支持工具調用、代碼執行、游戲、數據庫操作、知識圖譜搜索與推理、操作系統等復雜場景。
此外,ChatGLM3本次推出可手機部署的端測模型ChatGLM3-1.5B和 ChatGLM3-3B,支持包括vivo、小米、三星在內的多款手機以及車載平臺,甚至支持移動平臺上CPU芯片的推理,速度可達20 tokens/s。精度方面1.5B和3B模型在公開benchmark上與ChatGLM2-6B模型性能接近。
基于最新的高效動態推理和顯存優化技術,ChatGLM3當前的推理框架在相同硬件、模型條件下,相較于目前最佳的開源實現,包括伯克利大學推出的 vLLM 以及Hugging Face TGI的最新版本,推理速度提升了2-3倍,推理成本降低一倍,每千tokens僅0.5分,成本最低。
新一代“智譜清言”上線 國內首推代碼交互能力
在全新升級的ChatGLM3賦能下,生成式AI助手智譜清言已成為國內首個具備代碼交互能力的大模型產品(Code Interpreter)。
“代碼”功能目前已支持圖像處理、數學計算、數據分析等使用場景。以下分別為:
處理數據生成圖表
代碼繪制圖形
上傳SQL代碼分析
隨著WebGLM大模型能力的加入,智譜清言也具有了搜索增強能力,可以幫助用戶整理出相關問題的網上文獻或文章鏈接,并直接給出答案。
此前已發布的CogVLM 模型則提高了智譜清言的中文圖文理解能力,取得了接近GPT-4V的圖片理解能力,它可以回答各種類型的視覺問題,并且可以完成復雜的目標檢測,并打上標簽,完成自動數據標注。
自2022年初,智譜AI推出的GLM系列模型已支持在昇騰、神威超算、海光DCU架構上進行大規模預訓練和推理。截至目前,智譜AI的產品已支持10余種國產硬件生態,包括昇騰、神威超算、海光DCU、海飛科、沐曦曦云、算能科技、天數智芯、寒武紀、摩爾線程、百度昆侖芯、靈汐科技、長城超云等。通過與國產芯片企業的聯合創新,性能不斷優化,將有助于國產原生大模型與國產芯片早日登上國際舞臺。