一、计划
现在大模型比较多,平时需要调试对比,就把这些大模型简单一个收集。
不断收集,不断学习
目前,开原模型较多,一些能力弱的,没啥意义
基座模型通常指的是一个通用的、预先训练好的语言模型,如GPT-3.5。这种模型在各种自然语言处理任务中表现出色,可以用作其他更具体任务的基础。对话模型则是专门针对对话系统设计的模型,用于理解和生成对话。这些模型通常会在大规模对话数据上进行预训练,以便更好地理解和生成自然对话。
在实际场景中,通常会使用基座模型进行微调,以适应特定的任务或领域。基座模型已经在大规模的通用语言数据上进行了预训练,因此可以作为一个良好的起点,然后通过微调来使其适应特定的应用场景。
对话模型通常已经在对话数据上进行了预训练,因此在构建对话系统或进行对话相关的任务时,可以使用对话模型进行微调,以使其更好地理解和生成自然对话。
无论是使用基座模型还是对话模型进行微调,都需要根据具体的应用场景和任务需求来选择合适的模型,并进行相应的微调工作
二、模块划分
目前主流大模型汇总
简介:整理开源的中文大语言模型,以规模缩小、可试点化部署、成本降低的模型为主,包括基础模型、垂直领域调整及应用、数据集与等教程。
ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:
本项目开源了中文LLaMA模型和指令精调的Alpaca大模型,以进一步促进大模型在中文NLP社区的开放研究。这些模型在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练,进一步提升了中文基础语义理解能力。同时,中文Alpaca模型进一步使用了中文指令数据进行精调,显著提升了模型对指令的理解和执行能力。
3月6日,零一万物发布并开源了Yi系列中的“理科状元”——Yi-9B。Yi-9B 是目前 Yi 系列模型中代码和数学能力最强的模型,实际参数为 8.8B,默认上下文长度4K tokens,是在 Yi-6B (使用了 3.1T tokens 训练)的基础上,使用了 0.8T tokens 进行继续训练。
藏经阁
在商业知识图谱数据开放基础之上,我们还开放了部分知识图谱技术平台能力,开源了若干知识图谱构建、融合、推理和应用工具,以促进知识图谱技术社区的发展。
TechGPT是“东北大学知识图谱研究组”发布的垂直领域大语言模型。目前在HuggingFace🤗: TechGPT-7Bneukg/TechGPT-7B开源了全量微调的7B版本。
TechGPT主要强化了如下三类任务:
以“知识图谱构建”为核心的关系三元组抽取等各类信息抽取
任务
以“阅读理解”为核心的各类智能问答
任务。
以“文本理解”为核心的关键词生成
等各类序列生成任务。
摘要缩写,标题扩写
以文本或者图像为基础生成3D
ChatYuan-large-v2 大语言模型进行基于知识库的问答
nlp_bert_document-segmentation_chinese-base 语义分割模型对文本进行拆分
text2vec-large-chinese 模型 对文本向量化
faiss进行向量检索
langchain 进行各个模块的组合,并完成基于知识库的问答
项目结构
二、模型下载的常见方法
因为大模型动辄十几GB的大小,因为对于开发人员来说,环境搭好了,模型还要好几个小时。
模型下载的四种方式:
因为国内对该网站不开放,需挂vpn下载,因为外网下载,所以速度依赖于你的外网网速
无需vpn,如果你的网速还行,建议这种方式,首先需要安装modelscope:pip install modelscope
from modelscope.hub.snapshot_download import snapshot_download model_dir = snapshot_download('baichuan-inc/baichuan-7B', cache_dir='./model', revision='master') 如果你网速很好,下载就很快,如果是kb/s,那么大文件下载会失败。
无需vpn,非开发者需手动下载互链高科 (非开发者或者怕麻烦可以直接去网站手动下载)
git clone https://github.com/git-cloner/aliendao cd aliendao pip install -r requirements.txt -i https://pypi.mirrors.ustc.edu.cn/simple --trusted-host=pypi.mirrors.ustc.edu.cn python model_download.py --mirror --repo_id baichuan-inc/Baichuan2-13B-Chat-4bits 让公司的运维测了,aliendao的带宽很慢,即便你的网速很快,速度也非常一般,而且这个网站模型不全。
网速很快,公司运维有测到4M/s,非常推荐用这个网站直接下载
备注:huggingface的镜像网站下载llama2系列模型如何加认证的信息
加 huggingface access token
就可以下载,wget --header="Authorization: Bearer <hf_token>" url
,如果是git clone
,则提示输密码时输入access token
。
原文链接:https://blog.csdn.net/shdabai/article/details/131661634