背景
首先,随着AI领域的发展,大模型逐渐成为发展通用人工智能的重要途经
![image-20240401211101840](https://i0.wp.com/imgs.run/i/2024/04/02/660bc2fb0c6ef.png?w=640&ssl=1)
而书生·浦语大模型也从2023年开始逐步推动其大模型的开源
![image-20240401211233617](https://i0.wp.com/imgs.run/i/2024/04/02/660bc2fe108dc.png?w=640&ssl=1)
目前最新的书生·浦语2.0版本:
- InternLM2-Base
- InternLM2
- InternLM2-Chat
![image-20240401211340782](https://i0.wp.com/imgs.run/i/2024/04/02/660bc3019d807.png?w=640&ssl=1)
并且通过新一代的数据清洗过滤技术,使得InternLM2相比前一代的InternLM,在大规模高质量验证语料和下游任务中都得到了进一步提高
![image-20240401211513181](https://i0.wp.com/imgs.run/i/2024/04/02/660bc304e901e.png?w=640&ssl=1)
InternLM2主要有以下亮点:
![image-20240401211733543](https://i0.wp.com/imgs.run/i/2024/04/02/660bc3080d051.png?w=640&ssl=1)
接下来,介绍了一个如何选型模型到应用的经典流程
![image-20240401211834493](https://i0.wp.com/imgs.run/i/2024/04/02/660bc30adac1c.png?w=640&ssl=1)
全链路开源体系
书生·浦语也为此开发了一套从数据到应用的开源开放体系
![image-20240401211952125](https://i0.wp.com/imgs.run/i/2024/04/02/660bc30e346e9.png?w=640&ssl=1)
数据方面:
提供了开放的高质量语料数据---书生万卷
![image-20240401212048088](https://i0.wp.com/imgs.run/i/2024/04/02/660bc312b2314.png?w=640&ssl=1)
预训练:
提供了
- 高可扩展
- 性能优化
- 兼容主流模型
- 开箱即用
的预训练体系
![image-20240401212157717](https://i0.wp.com/imgs.run/i/2024/04/02/660bc318b987b.png?w=640&ssl=1)
微调:
也提供了高效微调框架 XTuner
![image-20240401212254607](https://i0.wp.com/imgs.run/i/2024/04/02/660bc31ba483c.png?w=640&ssl=1)
![image-20240401212426548](https://i0.wp.com/imgs.run/i/2024/04/02/660bc320100d9.png?w=640&ssl=1)
评测体系:
于2024年推出了最新的 OpenCompass 2.0司南大模型评测体系
其中包含
- CompassRank: 中立全面的性能榜单
- CompassKit: 大模型评测全栈工具链
- CompassHub :高质量评测基准社区
![image-20240401212505714](https://i0.wp.com/imgs.run/i/2024/04/02/660bc32328aaf.png?w=640&ssl=1)
![image-20240401212713813](https://i0.wp.com/imgs.run/i/2024/04/02/660bc327cc7fa.png?w=640&ssl=1)
![image-20240401212727803](https://i0.wp.com/imgs.run/i/2024/04/02/660bc32c9d5d4.png?w=640&ssl=1)
![image-20240401212813951](https://i0.wp.com/imgs.run/i/2024/04/02/660bc32f72483.png?w=640&ssl=1)
![image-20240401212835642](https://i0.wp.com/imgs.run/i/2024/04/02/660bc33381fac.png?w=640&ssl=1)
同时基于OpenCompass 2.0司南大模型评测体系,对市面上的大模型进行了性能评测
![image-20240401212948936](https://i0.wp.com/imgs.run/i/2024/04/02/660bc337c06bd.png?w=640&ssl=1)
![image-20240401212952976](https://i0.wp.com/imgs.run/i/2024/04/02/660bc33c668bb.png?w=640&ssl=1)
![image-20240401213008411](https://i0.wp.com/imgs.run/i/2024/04/02/660bc33f5f73f.png?w=640&ssl=1)
部署:
推出了LMDeploy ,提供大模型在GPU上部署的全流程解决方案,包括模型轻量化、推理和服务。
![image-20240401213023441](https://i0.wp.com/imgs.run/i/2024/04/02/660bc34222ac7.png?w=640&ssl=1)
智能体:
- 轻量级智能体框架 Lagent
- 多模态智能体工具箱 AgentLego
![image-20240401213121290](https://i0.wp.com/imgs.run/i/2024/04/02/660bc34554e51.png?w=640&ssl=1)
![image-20240401213158486](https://i0.wp.com/imgs.run/i/2024/04/02/660bc34860191.png?w=640&ssl=1)
InternLM2 技术报告笔记
InternLM2 技术报告(EN):下载链接
InternLM2 技术报告(机翻):下载链接
InternLM2的特点:
- 提供不同规模版本的模型
- 具有200k的token长度
- 全面的数据集
- 创新的RLHF技术
InternLM2基于InternEvo训练框架进行训练,InternLM2使用InternEvo训练框架能在上百张显卡训练中,可以达到惊人的53%MFU以上
![image-20240402162505140](https://i0.wp.com/imgs.run/i/2024/04/02/660bc34b26077.png?w=640&ssl=1)
说明InternEvo在多张显卡协同训练时,能够
- 减少通信开销
- 优化协调通信与计算
- 针对长序列训练,自动搜索最优执行计划,以及使用内存管理技术来减少GPU内存碎片
- 通过诊断大模型相关的故障并自动恢复来提高容错性;以及一个为评估任务设计的解耦调度系统,提供及时的模型性能反馈。
Comments NOTHING