Featured image of post 书生·浦语大模型实战营(一):书生·浦语大模型全链路开源体系

书生·浦语大模型实战营(一):书生·浦语大模型全链路开源体系

本文为书生·浦语大模型实战营的课程笔记系列第一节:书生·浦语大模型全链路开源体系

前言

本文为书生·浦语大模型实战营的课程笔记系列第一节,课程地址:https://www.bilibili.com/video/BV1Rc411b7ns/

从专用模型到通用大模型

在过去,人工智能领域的发展一直遵循着一个基本原则:一个模型对应一个场景或者任务。然而,随着技术的进步和需求的增长,这一格局正在发生深刻的变化。如今,我们正迈向一个新的时代,一个模型不再局限于一个场景或任务,而是可以应用于多个场景、多模态的复杂环境中。

书生·浦语大模型发展历程

书生·浦语大模型的发展历程彰显了这一变革的重要性。它从轻量级的7B社区模型,逐步升级到中量级的20B商业模型,再到重量级的123B全场景模型。这一演进不仅仅是在模型规模上的提升,更是对多模态、多场景应用需求的积极响应。

InterLM-20B:全面领先的开源模型

InterLM-20B是一款千亿参数级别的开源模型,其性能在全球范围内处于领先地位。与相近规模的Llama-33B、Llama2-13B以及国内主流的7B、13B开源模型相比,InterLM-20B在不足三分之一的参数量下,却达到了Llama2-70B的水平。

从模型到应用:六个关键步骤

第一步:模型选型

在应用场景中,根据多个大模型的相关维度进行能力比较,并进行模型评测。初步选型后,可确定意向大模型。

第二步:评估业务场景复杂度

  • 业务场景简单: 如果业务场景不太复杂,可以直接将选定的模型应用于场景中。
  • 业务场景复杂: 对于复杂场景,通常直接使用开源模型难以满足需求,需要进一步微调、进行prompt工程等构建工作。

第三步:判断微调策略

  • 全参数微调: 若算力足够,可以进行全参数微调,提高模型性能。
  • 部分参数微调: 如果算力受限,只能进行部分参数微调,固定大部分参数,调整一小部分参数。

第四步:构建智能体

  • 模型与环境交互: 考虑模型与环境的交互,特别是如果需要调用外部API或与已有业务数据库交互,则需要构建智能体。
  • 无环境交互: 如果模型在业务场景中不需要与环境进行交互,可以直接将微调好的模型应用于场景。

第五步:模型评测与应用上线

  • 模型评测: 进行模型评测,确保在实际场景中表现良好。
  • 上线或迭代: 根据评测结果,决定是否上线应用或者继续迭代模型。

第六步:模型部署

考虑软件系统相关性能、安全、功能等方面内容:

  • 资源优化: 考虑如何以更少的资源部署模型。
  • 吞吐量提升: 提升整个应用的吞吐量,确保在生产环境中的性能表现。

这六个步骤构成了从选择模型到应用部署的全链条,确保在实际应用中大模型能够充分发挥作用。

书生-浦语全链条开源开放体系

书生·浦语大模型打破了传统的人工智能应用模式,提出了全链条开源开放体系。这一体系涵盖了从数据到预训练、微调、部署、评测到应用的全过程,为通用人工智能的实现提供了完整的解决方案。数据(书生·万卷)作为起点,经过IntermLM-Train的预训练,使用XTuner进行微调,通过LMDeploy实现部署,通过OpenCompass进行全面评测,最终应用在Lagent构建的多模态智能体中。

这一全链条开源开放体系,为大模型的发展提供了创新性的方法,促使人工智能更好地服务于多样化的现实需求。

数据:覆盖多模态和任务

全链条开源体系以书生-万卷为基础,涵盖了多模态和多任务的数据需求,为模型的学习提供了全面支持。

OpenDataLab:开放数据平台

OpenDataLab作为开放数据平台,不仅包含丰富多样的开放数据,还为大模型的发展提供了数据支持和实验平台。

预训练:并行训练,极致优化

InterLM采用并行训练的方式,通过极致优化实现了高效的预训练,为模型的通用性奠定基础。

微调:XTuner,支持全参数微调,支持Lora等低成本微调

微调阶段使用XTuner工具,支持全参数微调,同时还支持诸如Lora等低成本微调方法,使模型更好地适应各种特定任务。

特性:

  • 增量续训:让基座模型学习新知识,垂直领域
  • 有监督微调:让模型学会理解和遵循各种指令。一般采用全量参数微调和部分参数微调等方法。
  • 多种微调算法:多种微调策略与算法,覆盖各类SFT场景。
  • 适配多种开源生态:支持加载HuggingFace、ModelScope模型或者数据级
  • 自动优化加速:开发者无需关注复杂的显存优化和计算加速细节

部署:LMDeploy,全链路部署,性能领先

LMDeploy提供了全链路部署的解决方案,包括模型轻量化、推理和服务,使得大模型在GPU上的部署更加高效,性能领先。

评测:OpenCompass,全方位评测,性能可以复现,全球领先的大模型开源评测体系

评测阶段使用OpenCompass工具,全方位评测模型性能,保证了评测结果的复现性,成为全球领先的大模型开源评测体系。

特性:

  • 丰富模型支持:开源模型、API模型一站式评测。
  • 分布式高效评测:支持千亿参数模型在海量数据集上分布式评测。
  • 便捷的数据集接口:支持社区用户根据自身需求快速添加自定义数据集。
  • 敏捷的能力迭代:每周更新大模型能力榜单。

应用:Legent、AgentLego 支持多种智能体,支持代码解释器和多种工具

最终,模型的应用在LegentAgentLego等多种智能体中得以体现,支持代码解释器和多种工具,实现了多模态智能体的灵活应用。

特性:

  • 丰富的工具集合,尤其是提供了大量视觉、多模态相关领域的工具。
  • 支持多个主流智能体系统,如LangChain、Transformers Agent、Lagent等。
  • 灵活的多模态工具调用接口,可以轻松支持各类输入输出格式的工具函数
  • 一键式远程工具部署,轻松使用和调试大模型智能体。

相关链接:

Built with Hugo
主题 StackJimmy 设计