精品久久久久久国产|成人午夜精品网站在线观看|99久久精品国产高清一区二区|在线观看国产精品麻豆|NACR-076息子を誘惑

智源推出大模型全家桶及全棧開(kāi)源技術(shù)基座新版圖

2024-06-17 09:33:49
來(lái)源:中國高新技術(shù)產(chǎn)業(yè)導報 作者:張偉 評論:0
  本報訊 (記者 張偉)6月14日,第六屆“北京智源大會(huì )”在中關(guān)村展示中心開(kāi)幕。開(kāi)幕式上,智源推出大模型全家桶及全棧開(kāi)源技術(shù)基座新版圖,大模型先鋒集結共探AGI之路。

  一是智源語(yǔ)言大模型。針對大模型訓練算力消耗高的問(wèn)題,智源研究院和中國電信人工智能研究院(TeleAI)基于模型生長(cháng)和損失預測等關(guān)鍵技術(shù),聯(lián)合研發(fā)并推出全球首個(gè)低碳單體稠密萬(wàn)億語(yǔ)言模型 Tele-FLM-1T。該模型與百億級的52B版本,千億級的102B版本共同構成Tele-FLM系列模型。

  Tele-FLM系列模型實(shí)現了低碳生長(cháng),僅以業(yè)界普通訓練方案9%的算力資源,基于112臺A800服務(wù)器,用4個(gè)月完成3個(gè)模型總計2.3Ttokens的訓練,成功訓練出萬(wàn)億稠密模型Tele-FLM-1T。模型訓練全程做到了零調整零重試,算力能效高且模型收斂性和穩定性好。目前,TeleFLM系列模型已經(jīng)全面開(kāi)源了52B版本,核心技術(shù)(生長(cháng)技術(shù)、最優(yōu)超參預測)、訓練細節(loss曲線(xiàn)、最優(yōu)超參、數據配比和Grad Norm等)均開(kāi)源,期望技術(shù)開(kāi)源可以對大模型社區產(chǎn)生有益促進(jìn)。Tele-FLM-1T版本即將開(kāi)源,希望可以為社區訓練萬(wàn)億稠密模型提供一個(gè)優(yōu)秀的初始參數,避免萬(wàn)億模型訓練收斂難等問(wèn)題。

  通用語(yǔ)言向量模型BGE系列方面,針對大模型幻覺(jué)等問(wèn)題,智源研究院自主研發(fā)了通用語(yǔ)義向量模型BGE(BAAI General Embedding)系列,基于檢索增強RAG技術(shù),實(shí)現數據之間精準的語(yǔ)義匹配,支持大模型調用外部知識的調用。自2023年8月起,BGE模型系列先后進(jìn)行了三次迭代,分別在中英文檢索、多語(yǔ)言檢索、精細化檢索三個(gè)任務(wù)中取得了業(yè)內最佳的表現,綜合能力顯著(zhù)優(yōu)于OpenAI、Google、Microsoft、Cohere等機構的同類(lèi)模型。目前,BGE模型系列下載總量位列國產(chǎn)AI模型首位,并被HuggingFace、Langchain、Llama Index等國際主流AI開(kāi)發(fā)框架以及騰訊、華為、阿里、字節、微軟、亞馬遜等主要云服務(wù)提供商集成,對外提供商業(yè)化服務(wù)。

  二是智源多模態(tài)大模型。行業(yè)現有的多模態(tài)大模型多為對于不同任務(wù)而訓練的專(zhuān)用模型,例如Stable Diffusion之于文生圖,Sora之于文生視頻,GPT-4V之于圖生文。每類(lèi)模型都有對應的架構和方法,例如對于視頻生成,行業(yè)普遍參照Sora選擇了DiT架構。但是現有模型的能力多為單一分散的能力組合,而不是原生的統一能力,例如目前Sora還做不到圖像和視頻的理解。

  為了實(shí)現多模態(tài)、統一、端到端的下一代大模型,智源研究院推出了Emu3原生多模態(tài)世界模型。Emu3采用智源自研的多模態(tài)自回歸技術(shù)路徑,在圖像、視頻、文字上聯(lián)合訓練,使模型具備原生多模態(tài)能力,實(shí)現了圖像、視頻、文字的統一輸入和輸出。Emu3從模型訓練開(kāi)始就是為統一的多模態(tài)生成和理解而設計的,目前具備生成高質(zhì)量圖片和視頻、續寫(xiě)視頻、理解物理世界等多模態(tài)能力。簡(jiǎn)單來(lái)說(shuō),Emu3既統一了視頻、圖像、文字,也統一了生成和理解。值得注意的是,Emu3在持續訓練中,經(jīng)過(guò)安全評估之后將逐步開(kāi)源。

  為適應智能端側的應用,智源研究院推出了輕量級圖文多模態(tài)模型系列 Bunny-3B/4B/8B,該模型系列采用靈活架構,可支持多種視覺(jué)編碼器和語(yǔ)言基座模型。多個(gè)榜單的綜合結果表明,Bunny-8B 的多模態(tài)能力可達到 GPT-4o 性能的 87%。目前,Bunny 模型參數、訓練代碼、訓練數據已全部開(kāi)源。

  三是智源具身大模型。智源研究院具身智能創(chuàng )新中心在機器人泛化動(dòng)作執行和智能大小腦決策控制等方面取得了多項世界級突破性成果。

  全球領(lǐng)先真機實(shí)驗成功率突破95% 的泛化抓取技術(shù)ASGrasp:

  在具身智能通用抓取能力方面,針對跨任意形狀和材質(zhì)的泛化難題,智源率先突破95%的真機實(shí)驗成功率,從而實(shí)現了全球領(lǐng)先的商業(yè)級動(dòng)作執行水平。借助這項技術(shù),即使在復雜光線(xiàn)透射、反射的情況下,我們的機器人依然能夠準確感知包括透明、高反光物體的形狀和姿態(tài),并預測出高成功率的抓取位姿。

  分級具身大模型系統之能反思、可隨機應變的鉸接物體操作大模型系統SAGE:在分級具身大模型系統方面,智源研發(fā)了能夠從失敗中重思考、再?lài)L試的鉸接物體操作大模型系統SAGE。該系統有效結合了三維視覺(jué)小模型對空間幾何的精確感知能力和通用圖文大模型的通用物體操作知識,使大模型驅動(dòng)的機器人能夠在任務(wù)執行失敗時(shí)能夠重新思考并再次嘗試新的交互方式,實(shí)現了傳統機器人技術(shù)無(wú)法企及的智能性和魯棒性。

  分級具身大模型系統之全球首個(gè)開(kāi)放指令六自由度拿取放置大模型系統Open6DOR:在分級具身大模型系統方面,智源還研發(fā)了全球首個(gè)能做到開(kāi)放指令控制六自由度物體拿取放置的大模型系統Open6DOR。該系統不僅像谷歌RT系列大模型一樣按照自然語(yǔ)言指令中的要求將物體放到指定位置,還能夠進(jìn)一步對物體的姿態(tài)進(jìn)行精細化控制。該項技術(shù)極大地提高了具身操作大模型的商業(yè)應用范圍和價(jià)值。

  全球首個(gè)端到端基于視頻的多模態(tài)具身導航大模型NaVid:在面向技術(shù)終局的端到端具身大模型層面,智源發(fā)布了全球首個(gè)端到端基于視頻的多模態(tài)具身導航大模型NaVid。該模型可直接將機器人視角的視頻和用戶(hù)的自然語(yǔ)言指令作為輸入,端到端輸出機器人的移動(dòng)控制信號。不同于以往的機器人導航技術(shù),NaVid無(wú)需建圖,也不依賴(lài)于深度信息和里程計信息等其它傳感器信號,而是完全依靠機器人攝像頭采集的單視角RGB視頻流,并在只利用合成導航數據進(jìn)行訓練的情況下,通過(guò)Sim2Real的方式,實(shí)現在真實(shí)世界室內場(chǎng)景甚至是室外場(chǎng)景的zero-shot真機泛化,是一項勇敢而成功的前沿技術(shù)探索工作。

  智能心臟超聲機器人:智源研究院聯(lián)合領(lǐng)視智遠研發(fā)了全球首個(gè)智能心臟超聲機器人,實(shí)現了全球首例真人身上的自主心臟超聲掃查,可解決心臟B超醫生緊缺,診斷準確率不高,標準化欠缺,效率低的難題?;诔曈跋窈蜋C械臂的受力信息,智能心臟超聲機器人可在高速動(dòng)態(tài)環(huán)境下,快速計算,提取心臟特征,實(shí)現了相當于自動(dòng)駕駛L2、 L3 級的智能化水平。臨床驗證結果顯示,準確性上,智能心臟超聲機器人能和高年資醫生保持一致;穩定性上,智能心臟超聲機器人更高;舒適性上,智能超聲機器人的力度可以控制在 4 牛以?xún)?,更舒適;效率上,智能超聲機器人實(shí)驗機可與人類(lèi)醫生持平。

  通用計算機控制框架Cradle:為實(shí)現通用計算機控制,智源研究院提出了通用計算機控制框架Cradle,讓智能體像人一樣看屏幕,通過(guò)鼠標、鍵盤(pán)完成計算機上的所有任務(wù)。Cradle 由信息收集、自我反思、任務(wù)推斷、技能管理、行動(dòng)計劃以及記憶模塊等 6 個(gè)模塊組成,可進(jìn)行 “反思過(guò)去,總結現在,規劃未來(lái)”的強大決策推理。不同于業(yè)界其他方法,Cradle不依賴(lài)任何內部API實(shí)現了通用性。目前,智源研究院與昆侖萬(wàn)維研究院等單位合作,在荒野大鏢客、星露谷物語(yǔ)、城市天際線(xiàn)、當鋪人生4款游戲,以及Chrome、Outlook、飛書(shū)、美圖秀秀以及剪映5種軟件上,對Cradle進(jìn)行了驗證。智能體不僅可以根據提示自主學(xué)習玩游戲,還能對圖片、視頻進(jìn)行有想象力的編輯。

  未來(lái),智源將依托多模態(tài)大模型技術(shù)優(yōu)勢資源,聯(lián)合北大、清華、中科院等高校院所,銀河通用、加速進(jìn)化等產(chǎn)業(yè)鏈上下游企業(yè),建設具身智能創(chuàng )新平臺,重點(diǎn)開(kāi)展數據、模型、場(chǎng)景驗證等研究,打造具身智能創(chuàng )新生態(tài)。

  四是智源生物計算大模型。智源研究院,還探索了生成式人工智能應用于分子生物學(xué)中的應用。智源研究院研發(fā)的全原子生物分子模型OpenComplex 2,是世界領(lǐng)先的大分子結構預測模型,能有效預測蛋白質(zhì)、RNA、DNA、糖類(lèi)、小分子等復合物。在生物分子結構預測領(lǐng)域國際競賽CAMEO(Continous Automated Model EvaluatiOn)中,OpenComplex 連續2年穩居賽道第一,并獲得了CASP(Critical Assessment of Techniques for Protein Structure Prediction)15的RNA自動(dòng)化賽道預測冠軍。

  OpenComplex 2 是基于全原子建模的生命分子基礎模型,科研人員發(fā)現不僅可以預測大分子的穩定結構,還初步具備預測分子多構型以及折疊過(guò)程的能力?;谶@樣的能力,生命科學(xué)家可以進(jìn)一步探索蛋白質(zhì)的生物學(xué)功能。目前,智源已和研究伙伴在多項重要疾病上展開(kāi)了研究,提供成藥性和分子機理研究。未來(lái),基于OpenComplex的能力,有望能夠開(kāi)啟生命科學(xué)研究的新紀元,為進(jìn)一步揭示如HIV病毒、神經(jīng)元等復雜生命機理提供新的可能。

  智源研究院構建了全球首個(gè)實(shí)時(shí)孿生心臟計算模型,可實(shí)現高精度的前提下生物時(shí)間/仿真時(shí)間比小于1,位于國際領(lǐng)先水平。

  實(shí)時(shí)心臟計算模型是虛擬心臟科學(xué)研究的開(kāi)端,是孿生心臟走向臨床應用的基礎?;谶@一模型,智源將創(chuàng )新性地采用物理-數據雙驅動(dòng)模型,融合第一性原理和人工智能方法,從亞細胞級、細胞級、器官級、軀干級仿真出一個(gè)“透明心臟”,且能根據患者的臨床數據,構建出反映患者的個(gè)性化生理病理的孿生心臟,從而進(jìn)行藥物篩選、治療方案優(yōu)化、術(shù)前規劃等臨床應用。

  目前,智源與北醫一院共同成立了“北京大學(xué)第一醫院-北京智源人工智能研究院心臟AI 聯(lián)合研究中心”,正在開(kāi)展基于超聲影像的急性心肌梗死診斷、心衰的病理仿真、腎動(dòng)脈造影等課題,與安貞醫院合作進(jìn)行室速疾病的無(wú)創(chuàng )心外膜標測技術(shù)的前沿研究,與斯高電生理研究院開(kāi)展藥物篩選平臺的開(kāi)發(fā)與應用以及與清華長(cháng)庚醫院和朝陽(yáng)醫院合作開(kāi)展肥厚性心肌病課題。

  為幫助全球開(kāi)發(fā)者一站式啟動(dòng)大模型開(kāi)發(fā)和研究工作,智源研究院推出了面向異構芯片、支持多種框架的大模型全棧開(kāi)源技術(shù)基座FlagOpen 2.0,在1.0的基礎上,進(jìn)一步完善了模型、數據、算法、評測、系統五大版圖布局,旨在打造大模型時(shí)代的 Linux。

  FlagOpen 2.0可支持多種芯片和多種深度學(xué)習框架。目前,開(kāi)源模型全球總下載量超 4755 萬(wàn)次,累計開(kāi)源數據集 57 個(gè),下載量近9萬(wàn)次,開(kāi)源項目代碼下載量超 51 萬(wàn)次。

  支持異構算力集群的大模型“操作系統”FlagOS:為滿(mǎn)足不斷攀升的大模型訓練和推理計算需求,應對大規模AI系統和平臺面臨的集群內或集群間異構計算、高速互聯(lián)、彈性穩定的技術(shù)挑戰,智源研究院推出了面向大模型、支持多種異構算力的智算集群軟件棧 FlagOS。FlagOS融合了智源長(cháng)期深耕的面向多元AI芯片的關(guān)鍵技術(shù),包括異構算力智能調度管理平臺九鼎、支持多元AI異構算力的并行訓推框架FlagScale、支持多種AI芯片架構的高性能算子庫FlagAttention和FlagGems,集群診斷工具FlagDiagnose和AI芯片評測工具FlagPerf。FlagOS如同“操作系統”一樣,集異構算力管理、算力自動(dòng)遷移、并行訓練優(yōu)化、高性能算子于一體。向上支撐大模型訓練、推理、評測等重要任務(wù),向下管理底層異構算力、高速網(wǎng)絡(luò )、分布式存儲。目前,FlagOS已支持了超過(guò)50個(gè)團隊的大模型研發(fā),支持8種芯片,管理超過(guò)4600個(gè)AI加速卡,穩定運行20個(gè)月,SLA超過(guò)99.5%,幫助用戶(hù)實(shí)現高效穩定的集群管理、資源優(yōu)化、大模型研發(fā)。FlagOS的推出將為中國新一代智算中心的建設提供助力,顯著(zhù)提升智算集群的能力水平,加速大模型產(chǎn)業(yè)的發(fā)展。

  首個(gè)千萬(wàn)級高質(zhì)量開(kāi)源指令微調數據集 InfinityInstruct:高質(zhì)量的指令數據是大模型性能的“養料”。智源研究院發(fā)布首個(gè)千萬(wàn)級高質(zhì)量開(kāi)源指令微調數據集開(kāi)源項目,首期發(fā)布經(jīng)過(guò)驗證的300萬(wàn)條中英文指令數據,近期將完成千萬(wàn)條指令數據的開(kāi)源。智源對現有開(kāi)源數據進(jìn)行領(lǐng)域分析,確保合理類(lèi)型分布,對大規模數據進(jìn)行質(zhì)量篩選保留高價(jià)值數據,針對開(kāi)源數據缺乏的領(lǐng)域和任務(wù),進(jìn)行數據增廣,并結合人工標注對數據質(zhì)量進(jìn)行控制,避免合成數據分布偏差。當前開(kāi)源的300萬(wàn)條指令數據集已經(jīng)顯示出超越Mistral、Openhermes等的SFT數據能力。我們期待在提升到千萬(wàn)級數據量級后,基座模型基于該指令微調數據集進(jìn)行訓練,對話(huà)模型能力可達GPT-4 水平。

  全球最大的開(kāi)源中英文多行業(yè)數據集IndustryCorpus:為加速推進(jìn)大模型技術(shù)的產(chǎn)業(yè)應用進(jìn)程,智源研究院構建并開(kāi)源了IndustryCorpus中英文多行業(yè)數據集,包含總計3.4TB預訓練數據集,其中中文1TB,英文2.4TB,覆蓋18類(lèi)行業(yè),分類(lèi)準確率達到80%,未來(lái)計劃增加到30類(lèi)。

  智源通過(guò)構建多行業(yè)數據算子,訓練行業(yè)分類(lèi)和質(zhì)量過(guò)濾模型,實(shí)現高效的高質(zhì)量預訓練數據處理流程,并提出了一套提升精調數據集問(wèn)題復雜度、解答思維鏈和多輪問(wèn)答質(zhì)量篩選的方法,處理預訓練、SFT和RLHF數據。

  為驗證行業(yè)數據集的性能表現,智源訓練了醫療行業(yè)示范模型,對比繼續預訓練前的模型,客觀(guān)性能總體提升了20%,而經(jīng)過(guò)我們制作的醫療SFT數據集和DPO數據集的精調訓練,相對參考答案的主觀(guān)勝率達到82%,5分制多輪對話(huà)能力CMTMedQA評分達到4.45。

  支持多元AI異構算力的并行訓練框架FlagScale實(shí)現首次突破:FlagScale首次在異構集群上實(shí)現不同廠(chǎng)商跨節點(diǎn)RDMA直連和多種并行策略的高效混合訓練,成為業(yè)界首個(gè)在多元異構AI芯片上同時(shí)支持縱向和橫向擴展兩階段增長(cháng)模式的訓練框架。

  FlagScale支持語(yǔ)言及多模態(tài)模型的稠密及稀疏訓練,可實(shí)現1M長(cháng)序列大規模穩定訓練和推理;支持基于國產(chǎn)算力的8x16B千億參數MoE語(yǔ)言大模型1024卡40天以上的穩定訓練,實(shí)現端到端的訓練、微調與推理部署;支持不同架構的多種芯片合池訓練,基于業(yè)界領(lǐng)先的異構并行策略,可達到85%以上的混合訓練性能上界,與同構芯片的模型訓練效果一致;適配8款國內外不同芯片,可在不同集群進(jìn)行規模訓練驗證,實(shí)現Loss逐位與收斂曲線(xiàn)嚴格對齊。

  面向大模型的開(kāi)源Triton算子庫:為更好地支持多元AI芯片統一生態(tài)發(fā)展,智源研究院推出了面向大模型的開(kāi)源Triton算子庫,包括首個(gè)通用算子庫FlagGems和大模型專(zhuān)用算子庫FlagAttention,可基于統一開(kāi)源編程語(yǔ)言,大幅提升算子開(kāi)發(fā)效率,同時(shí),面向多元芯片共享算子庫。

  目前主流語(yǔ)言和多模態(tài)模型需要的127個(gè)算子,通用算子庫FlagGems已覆蓋66個(gè),預計2024年底實(shí)現全覆蓋。大模型專(zhuān)用算子庫FlagAttention,包含6種高頻使用的且緊跟算法前沿的最新Attention類(lèi)算子,為用戶(hù)提供編程范例,可自定義算子。

  應用了專(zhuān)為 pointwise 類(lèi)別的算子設計的自動(dòng)代碼生成技術(shù),用戶(hù)只需通過(guò)簡(jiǎn)潔的計算邏輯描述,即可自動(dòng)生成高效的 Triton 代碼。該技術(shù)目前已經(jīng)應用于31個(gè)pointwise類(lèi)算子,占算子庫整體的47%。同時(shí),基于運行時(shí)優(yōu)化技術(shù),算子運行速度提升70%,保障了算子高性能。

  FlagEval大模型評估全面升級: 打造丈量大模型能力高峰的“尺子”乃是充滿(mǎn)挑戰的科研難題。智源秉持科學(xué)、權威、公正、開(kāi)放原則,不斷推動(dòng)評估工具和方法的迭代優(yōu)化。FlagEval大模型評估自2023年發(fā)布以來(lái),已從主要面向語(yǔ)言模型擴展到視頻、語(yǔ)音、多模態(tài)模型,實(shí)現多領(lǐng)域全覆蓋,采用主觀(guān)客觀(guān)結合以及開(kāi)卷閉卷綜合的考察方式,首次聯(lián)合權威教育部門(mén)開(kāi)展大模型K12學(xué)科測驗,與中國傳媒大學(xué)合作共建文生視頻模型主觀(guān)評價(jià)體系。智源研究院已與全國10余家高校和機構合作共建評測方法與工具,探索基于A(yíng)I的輔助評測模型 FlagJudge,打造面向大模型新能力的有挑戰的評測集,包括與北京大學(xué)共建的HalluDial幻覺(jué)評測集、與北師大共建的CMMU多模態(tài)評測集、多語(yǔ)言跨模態(tài)評測集MG18、復雜代碼評測集TACO以及長(cháng)視頻理解評測MLVU等,其中與北京大學(xué)共建的HalluDial是目前全球規模最大的對話(huà)場(chǎng)景下的幻覺(jué)評測集,有18000多個(gè)輪次對話(huà),和14萬(wàn)多個(gè)回答。

  智源研究院牽頭成立了IEEE大模型評測標準小組P3419,與hugging face社區合作發(fā)布多個(gè)榜單,并將先進(jìn)的評測數據以及裁判模型與新加坡IMDA合作,共同貢獻到AI Verify Foundation,以促進(jìn)在大模型評估方法和工具上的國際合作。

(責任編輯:韓夢(mèng)晨)

版權與免責聲明:
①凡本站注明稿件來(lái)源為:中國高新技術(shù)產(chǎn)業(yè)導報、中國高新網(wǎng)、中高新傳媒的所有文字、圖片和音視頻稿件,版權均屬本網(wǎng)所有,任何媒體、網(wǎng)站或個(gè)人未經(jīng)本網(wǎng)協(xié)議授權不得轉載、鏈接、轉貼或以其他方式復制發(fā)表。已經(jīng)本網(wǎng)授權使用作品的,被授權人應在授權范圍內使用,并注明“來(lái)源:中國高新網(wǎng)、中高新傳媒或者中國高新技術(shù)產(chǎn)業(yè)導報”。違反上述聲明者 ,本網(wǎng)將追究其相關(guān)法律責任。
② 任何單位或個(gè)人認為本網(wǎng)站或本網(wǎng)站鏈接內容可能涉嫌侵犯其合法權益,應該及時(shí)向本網(wǎng)站書(shū)面反饋,并提供身份證明,權屬證明及詳細侵權情況證明,本網(wǎng)站在收到上述文件后,將會(huì )盡快移除被控侵權的內容或鏈接。
③如因作品內容、版權和其他問(wèn)題需要與本網(wǎng)聯(lián)系的,請在該事由發(fā)生之日起30日內進(jìn)行。電話(huà):010-68667266 電子郵件:dbrmt#chih.org (請將“#”換為“@”)
排行
  • 全部/
  • 本月

編輯推薦

?
掃描添加 中國高新技術(shù)產(chǎn)業(yè)導報

(數字報)

掃描添加 中國高新APP客戶(hù)端
掃描添加 導報微信公眾號
精品久久久久久国产|成人午夜精品网站在线观看|99久久精品国产高清一区二区|在线观看国产精品麻豆|NACR-076息子を誘惑