励志箴言
成功不是将来才有的,而是从决定去做的那一刻起,持续累积而成。
随机文章
- 全球第二款AM5 Zen5掌机!AYANEO 3官宣:也能选Zen4!
- 徐克执导!新《射雕英雄传》官宣定档2025大年初一 肖战饰演郭靖!
- 我国科学家实现金刚石光学信息存储:高密度 高可靠性!
- AM5至少用三代!AMD Zen 6锐龙CPU接口不变:大家不用换主板了!
- 研发投入超1000人:宁德时代全固态电池开始样品验证!
- 闲鱼:00后爱上了“吃复数”存款!
- 史上最强Mate第一时间到手!华为Mate 70将在美团外卖首销!
- 中国一群本科生打破国外垄断 研发出完全自主永磁电机设计工业软件!
- 目标超越ChatGPT!苹果计划2026年发布全新Siri:集成先进大模型 更像真人!
- 真互联网顶流!雷军参观乐道展台:场面堪比追星现场!
腾讯今日宣布推出业界参数规模最大、效果最好的开源MoE大语言模型Hunyuan-Large。
Huanyuan-large模型的总参数量为389B、激活参数为52B、训练token数量为7T、最大上下文长度为256K、词表大小为12.8w。
在技术创新方面,Hunyuan-large通过高质量的合成数据来增强模型训练,弥补了自然数据的不足。
其中,该模型预训练支持处理高达256K的文本序列,大幅提升了长文本上下文的处理能力,能够更高效地完成长文本任务。
据了解,Hunyuan-large在CMMLU、MMLU、CEva1、MATH等多学科综合评测集上表现优异,在中英文自然语言处理、代码生成、数学运算等9大能力维度中全面领先,超越了Llama3.1和Mixtral等一流开源模型。
此外,腾讯还宣布将推出自研的长文评测集“企鹅卷轴(PenguinScrolls)”,以填补行业在真实长文评测集上的空白。
企鹅卷轴基于公开的金融、法律、学术论文等长文本构建,文本长度从1K到128K不等,覆盖深度阅读理解和长文推理任务。