上海AI实验室与商汤科技联合香港中文大学、复旦大学、上海交通大学及清华大学,在2023世界人工智能大会(WAIC 2023)上发布全新升级的“书生通用大模型体系”,包含书生·多模态、书生·浦语、书生·天际三大基础模型,以及首个面向大模型研发与应用的全链条开源体系。目前书生大模型在130多个评测中性能达世界领先或先进水平,基于该模型,上海AI实验室联合团队夺得计算机视觉顶级会议CVPR 2023最佳论文奖(近40年来署名全部为中国学术机构的文章首次获此殊荣)。
书生·多模态大模型
书生·多模态大模型(InternLMM)含200亿参数,使用80亿多模态样本训练,可通过自然语言定义视觉任务,实现开放世界理解、多模态交互和跨模态生成,支持350万语义标签的识别与理解(覆盖开放世界常见类别和概念),在80多种多模态和视觉评测任务中性能领先(超过谷歌、微软、OpenAI等同类模型)。
书生·浦语大模型
书生·浦语(InternLM)是国内首个正式发布的支持8K语境长度的千亿参数级语言大模型,含1040亿参数,基于18000亿token的高质量语料训练,升级后具备五大特点:
1. 语境长度扩展:从2K提升至8K,支持理解长输入、复杂推理及长时间多轮对话;
2. 多语种与结构化增强:支持20多种语言,可通过表格、图表汇总呈现复杂信息;
3. 多维度性能提升:在42个主流评测集上性能明显提升,其中35个评测集性能超越ChatGPT;
4. 数理逻辑进步:数值计算、函数运算、方程求解等能力大幅提高,数学评测集GSM8K性能从62.9升至73.2,2023年高考数学选择题正确率超70%;
5. 安全与对齐增强:通过指令微调(含基于人类反馈的强化学习RLHF),更可靠遵循人类指令,安全性改善。
同时,书生·浦语开源70亿参数轻量级版本InternLM7B,及覆盖数据、预训练、微调、部署、评测五大环节的全链条工具体系:
数据环节:通过OpenDataLab开放30多种模态的5500个公开数据集,自然语言方面含超10000亿token高质量语料;
预训练环节:开源训练框架InternLMTrain,支持8卡到1024卡并行训练,HybridZero技术性能领先;
微调环节:开源全流程微调工具,支持SFT、RLHF,可训练模型进行复杂符号计算和工具调用(通过代码解决数学问题);
部署环节:开源推理工具链LMDeploy,支持十亿到千亿参数模型高效推理,性能超越HuggingFace、Deepspeed、vLLM等框架;
评测环节:上线开放评测平台OpenCompass,含超40个评测集、30万题目,支持全自动分布式评测(保障开源模型性能复现)。
书生·天际大模型
书生·天际是全球首个城市级NeRF实景三维大模型,由上海AI实验室联合香港中文大学、上海市测绘院发布,目前可对100平方公里城市实景进行4K高精度建模,支持全范围高精度实时渲染,及城市级编辑、风格化转换等功能;未来将扩展建模范围与功能,并开源算法、算子和系统。
支持创新与赋能应用
书生大模型凭借通用化能力,已助力多领域智能化进程:
自动驾驶:联合团队研究成果《Planningoriented Autonomous Driving》(以路径规划为导向的自动驾驶)摘取CVPR 2023最佳论文奖,首次提出感知决策一体化的自动驾驶通用大模型UniAD;
智慧医疗:牵头推出全球首个医疗多模态基础模型群“OpenMEDLab浦医”,为医疗领域大模型落地提供基础;
地球科学:全球中期天气预报大模型“风乌”首次实现气象有效预报时间破10天,仅需30秒生成未来10天全球高精度预报结果(效率优于传统模型)。
