700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > 生成式大语言模型微调训练快速手册

生成式大语言模型微调训练快速手册

时间:2022-01-14 02:47:06

相关推荐

生成式大语言模型微调训练快速手册

ChatGPT的流行让大语言模型走入了大家的视线,怎么打造自己的大语言模型成为了一个急需解决的问题。

目录

大语言模型的获取方法有以下三种:

目前可以Play 的大语言基础模型列表:

相关项目

大语言模型的获取方法有以下三种:

1. 完全白嫖 (从开放途径获取别人训练微调好的模型)

2. 基于现有基础模型进行指令微调(包括对齐等) (LLaMA, Bloom, OPT)

3. 完全从头开始,从基础大模型到指令微调

基础模型训练与微调相当于一个人的基础教育阶段(小学到大学本科)以及职业强化阶段(研究生阶段)

基础模型训练 阶段决定了大模型的能力天花板,由训练语料、模型架构以及训练方法决定。微调阶段只是让模型以人类可以接受的输入及输出 方式将能力显式呈现出来。

作为业务使用时,根据业务发展进程,会经历从1-3的发展阶段。最终方式将是自训练基础大语言模型再根据业务需要进行微调。

目前可以Play 的大语言基础模型列表:

1.完全白嫖型 chatGLM等

2. 微调型

骆驼项目,支持中文:LC1332/Chinese-alpaca-lora: 骆驼:A Chinese finetuned instruction LLaMA. Developed by 陈启源 @ 华中师范大学 & 李鲁鲁 @ 商汤科技 & 冷子昂 @ 商汤科技 ()

白泽:project-baize/baize-chatbot: Let ChatGPT teach your own chatbot in hours with a single GPU! ()

BELLE:LianjiaTech/BELLE: BELLE: Be Everyone's Large Language model Engine(开源中文对话大模型) ()

Alpaca-lora:

tloen/alpaca-lora: Instruct-tune LLaMA on consumer hardware ()

3. 从头打造:

概念级项目,没有实质内容

lucidrains/PaLM-rlhf-pytorch: Implementation of RLHF (Reinforcement Learning with Human Feedback) on top of the PaLM architecture. Basically ChatGPT but with PaLM ()

**** 重点推荐微软deepspeed chat 项目,完整三阶段训练方式:

DeepSpeed/README.md at master · microsoft/DeepSpeed ()

相关项目

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。