700字范文,内容丰富有趣,生活中的好帮手!
700字范文 > NLP之PTM:自然语言处理领域—预训练大模型时代的各种吊炸天大模型算法概述(Word2Vec

NLP之PTM:自然语言处理领域—预训练大模型时代的各种吊炸天大模型算法概述(Word2Vec

时间:2023-07-16 15:00:59

相关推荐

NLP之PTM:自然语言处理领域—预训练大模型时代的各种吊炸天大模型算法概述(Word2Vec

NLP之PTM:自然语言处理领域—预训练大模型时代的各种吊炸天大模型算法概述(Word2Vec→ELMO→Attention→Transformer→GPT系列/BERT系列等)、关系梳理、模型对比之详细攻略

导读:6月,OpenAI最初提出的GPT-1只是一个12层单向的Transformer,通过预训练+精调的方式进行训练;

但是,10月,Google的BERT一出来,刷新了11项 NLP 任务的 SOTA,将GPT-1很快就踩在脚下。

接着,2月,改进的GPT-2提出了meta-learning,把所有NLP任务的输入输出进行了整合,全部用文字来表示,其生成性能最强,但NLU领域仍不如BERT;

然后,5月,GPT-3改进了BERT的两个缺点,1750亿的参数,使其性能变得吊炸天。

近期,11月,ChatGPT的惊艳表现,标志着对话模型领域又向前跨出了一大步。

自此,大模型江湖厮杀仍在继续……

目录

单个模型逐个概述

Word2Vec模型的概述

NLP:word embedding词嵌入/word2vec词向量方法(一种主流的分布式表示)的简介、使用方法、案例应用之详细攻略

ELMO模型的概述

NLP之ELMO:ELMO模型的概述、结构(预训练过程、推理过程)之详细攻略

Attention的概述

DL之Attention:Attention注意力机制算法的起源与盛行及其在长距离有效的原因、概述(背景/本质/与ED框架关系/模型架构/优缺点/扩展,理解,本质,变种)、案例应用(CV/NLP)之详细攻略

DL之self-attention:self-attention自注意力机制的简介(背景、特点、改进对比、传统对比、关系、应用,适合长距离捕获分析)、计算过程(八大步骤)、案例应用之详细攻略

Transformer的概述

GPT模型的概述—GPT系列(GPT-1/GPT-2/GPT-3)

NLP之GPT-1/GPT-2:GPT-1的概述(简介、原理、意义、结构、创新点、优缺点、数据集)、为何单向Transfo、模型结构、训练过程,GPT-2的概述(大数据、大模型、灵感点)之详细攻略

NLP之GPT-3:NLP领域没有最强,只有更强的模型—GPT-3的简介(本质、核心思想、意义、特点、优缺点、数据集、实际价值,模型强弱体现,开源探讨,GPT系列对比与总结)、安装、使用方法之详细攻略

AIGC:ChatGPT(一个里程碑式的对话聊天机器人)的简介(意义/功能/核心技术等)、使用方法(七类任务)、案例应用(提问基础性/事实性/逻辑性/创造性/开放性的问题以及编程相关)之详细攻略

BERT模型的概述

NLP之BERT:BERT的简介(背景、改进点、创新点、简介、意义、原理、优缺点、总结与评价)、模型结构、训练过程(MLM、NSP任务的概述)之详细攻略

多个模型横向对比

GPT和BERT模型对比及其总结

BERT与Word2Vec→ELMO→GPT之间的转换

ELMO、GPT、BERT—预测中间词的模型结构不同

单个模型逐个概述

Word2Vec模型的概述

NLP:word embedding词嵌入/word2vec词向量方法(一种主流的分布式表示)的简介、使用方法、案例应用之详细攻略

https://yunyaniu./article/details/128262908

ELMO模型的概述

NLP之ELMO:ELMO模型的概述、结构(预训练过程、推理过程)之详细攻略

https://yunyaniu./article/details/128795366

Attention的概述

DL之AttentionAttention注意力机制算法的起源与盛行及其在长距离有效的原因、概述(背景/本质/与ED框架关系/模型架构/优缺点/扩展,理解,本质,变种)、案例应用(CV/NLP)之详细攻略

https://yunyaniu./article/details/83187158

DL之self-attention:self-attention自注意力机制的简介(背景、特点、改进对比、传统对比、关系、应用,适合长距离捕获分析)、计算过程(八大步骤)、案例应用之详细攻略

https://yunyaniu./article/details/100108045

Transformer的概述

更新中……

GPT模型的概述—GPT系列(GPT-1/GPT-2/GPT-3)

NLP之GPT-1/GPT-2:GPT-1的概述(简介、原理、意义、结构、创新点、优缺点、数据集)、为何单向Transfo模型结构、训练过程GPT-2概述(大数据、大模型、灵感点)之详细攻略

https://yunyaniu./article/details/80468713

NLP之GPT-3:NLP领域没有最强,只有更强的模型—GPT-3的简介(本质、核心思想、意义、特点、优缺点、数据集、实际价值,模型强弱体现,开源探讨,GPT系列对比与总结)、安装、使用方法之详细攻略

https://yunyaniu./article/details/107897654

AIGC:ChatGPT(一个里程碑式的对话聊天机器人)的简介(意义/功能/核心技术等)、使用方法(七类任务)、案例应用(提问基础性/事实性/逻辑性/创造性/开放性的问题以及编程相关)之详细攻略

https://yunyaniu./article/details/128229941

BERT模型的概述

NLP之BERT:BERT的简介(背景、改进点、创新点、简介、意义、原理、优缺点、总结与评价)、模型结构、训练过程(MLM、NSP任务的概述)之详细攻略

https://yunyaniu./article/details/104987840

多个模型横向对比

GPT和BERT模型对比及其总结

BERT与Word2Vec→ELMO→GPT之间的转换

BERT综合了ELMO的双向优势与GPT的Transformer的特征提取优势:

>> 如果把ELMO的特征抽取器LSTM,换成Transformer→BERT

>> 如果把GPT预训练阶段,换成双向语言模型→BERT

ELMO、GPT、BERT—预测中间词的模型结构不同

NLP之PTM:自然语言处理领域—预训练大模型时代的各种吊炸天大模型算法概述(Word2Vec→ELMO→Attention→Transfo→GPT系列/BERT系列等) 关系梳理 模型对比之详细攻略

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。