InternLM
是一个开源的轻量级训练框架,旨在支持大模型训练而无需大量的依赖。通过单一的代码库,它支持在拥有数千个 GPU
的大型集群上进行预训练,并在单个 GPU
上进行微调,同时实现了卓越的性能优化。在 1024
个 GPU
上训练时,InternLM
可以实现近 90%
的加速效率。
基于 InternLM
训练框架,上海人工智能实验室已经发布了两个开源的预训练模型:InternLM-7B
和 InternLM-20B
。
Lagent
是一个轻量级、开源的基于大语言模型的智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。通过 Lagent
框架可以更好的发挥 InternLM
的全部性能。
浦语·灵笔是基于书生·浦语大语言模型研发的视觉-语言大模型,提供出色的图文理解和创作能力,结合了视觉和语言的先进技术,能够实现图像到文本、文本到图像的双向转换。使用浦语·灵笔大模型可以轻松的创作一篇图文推文,也能够轻松识别一张图片中的物体,并生成对应的文本描述。
InternLM-Chat-7B 智能对话 Demo
1**.1 环境准备**
# 请每次使用 jupyter lab 打开终端时务必先执行 bash 命令进入 bash 中
bash
conda create --name internlm-demo --clone=/root/share/conda_envs/internlm-base
然后使用以下命令激活环境
conda activate internlm-demo
并在环境中安装运行 demo 所需要的依赖。
# 升级pip
python -m pip install --upgrade pip
pip install modelscope==1.9.5
pip install transformers==4.35.2
pip install streamlit==1.24.0
pip install sentencepiece==0.1.99
pip install accelerate==0.24.1
1.2模型下载
方式一