6月10日,据小红书技术团队消息,小红书hi lab(Humane Intelligence Lab,人文智能实验室)团队首次开源文本大模型 dots.llm1。据介绍,dots.llm1是一个大规模的Mixture of Experts(MoE)语言模型,在总共1420亿参数中激活140亿参数,dots.llm1在训练11.2T token高质量数据后,达到了可与Qwen2.5-72B相媲美的性能。
小红书首次开源文本大模型dots.llm1
来源:界面新闻
小红书
4.9k
- 小红书Hi Lab团队提出可大幅降低平均思考长度的强化学习训练方式
- 追觅法务部辟谣“对赌失败”:恶意造谣,悬赏征集线索
评论