书生・浦语 2.0(InternLM2)大语言模型开源

2024-01-19

1 月 17 日,书生・浦语 2.0(InternLM2)发布会暨书生・浦源大模型挑战赛启动仪式在上海举行。上海人工智能实验室、商汤科技联合香港中文大学和复旦大学共同发布了新一代大语言模型书生・浦语 2.0(InternLM2)。    
这个模型在 2.6 万亿 token 的高质量语料基础上进行训练,包含 7B 和 20B 两种参数规格以及基座、对话等版本,以满足不同复杂应用场景的需求。上海 AI 实验室秉持“以高质量开源赋能创新”的理念,为 InternLM2 提供免费商用授权。
InternLM2 的核心理念在于回归语言建模的本质,通过提高语料质量和信息密度,提升模型基座的语言建模能力。它在数理、代码、对话、创作等方面都有显著进步,合性能达到同量级开源模型的领先水平。它支持 200K token 的上下文,一次性接收并处理约 30 万汉字的输入内容,准确提取关键信息,实现长文本中的精准筛选。
书生・浦语 2.0(InternLM2)大语言模型开源 (https://ic.work/) AI 人工智能 第1张
 
书生・浦语 2.0(InternLM2)大语言模型开源 (https://ic.work/) AI 人工智能 第2张
在评测中,研究人员定义了语言、知识、推理、数学、代码、考试等六个能力维度,并在 55 个主流评测集上对多个同量级模型进行了综合评测。结果显示,InternLM2 的轻量级(7B)及中量级(20B)版本在同量级模型中表现优异。与初代 InternLM 相比,InternLM2 在各项能力上都有显著提升,特别是在推理、数学和代码方面。
书生・浦语 2.0(InternLM2)大语言模型开源 (https://ic.work/) AI 人工智能 第3张
 
书生・浦语 2.0(InternLM2)大语言模型开源 (https://ic.work/) AI 人工智能 第4张

文章推荐

相关推荐