12月16日,小米公司發(fā)布了一款名為XiaomiMiMo-V2-Flash的開源MoE(Mixture of Experts)模型,該模型總參數(shù)量達到309B,活躍參數(shù)量為15B,專為智能體AI設(shè)計,以快速推理效率為核心。小米官方表示,這一模型通過Hybrid注意力架構(gòu)創(chuàng)新及多層MTP推理加速,在多個Agent測評基準上保持全球開源模型Top2的位置。其代碼能力超越所有開源模型,與標(biāo)桿閉源模型Claude4.5Sonnet相媲美,但推理成本僅為后者的2.5%,生成速度提升2倍。
XiaomiMiMo-V2-Flash采用了1:5的GlobalAttention與SlidingWindowAttention(SWA)混合結(jié)構(gòu),窗口大小為128,支持原生32K外擴至256K訓(xùn)練。小米還推出了在線AI聊天服務(wù)XiaomiMiMOStudio,用戶可以在該平臺體驗XiaomiMiMo-V2-Flash模型,并支持深度搜索和聯(lián)網(wǎng)搜索功能。模型的權(quán)重和推理代碼均采用MIT協(xié)議全面開源,API定價為輸入$0.1/Mtokens,輸出$0.3/Mtokens,目前API服務(wù)限時免費。



來源:一電快訊
返回第一電動網(wǎng)首頁 >
以上內(nèi)容由AI創(chuàng)作,如有問題請聯(lián)系admin#d1ev.com(#替換成@)溝通,AI創(chuàng)作內(nèi)容并不代表第一電動網(wǎng)(www.idc61.net)立場。
文中圖片源自互聯(lián)網(wǎng)或AI創(chuàng)作,如有侵權(quán)請聯(lián)系郵件刪除。