课程亮点

贪心科技

最全的预训练内容

BERT、GPT、BART、T5、DALLE

贪心科技

答疑服务

即时答疑的方式,助教老师会尽快回答大家在学习中遇到的问题

贪心科技

深入的内容

有深度的内容、涵盖目前所能找到的最前沿的内容

贪心科技

专业的授课团队

在本领域有着多年工程和科研经验的导师

贪心科技

对科研、出国也有帮助

为以后做相关课题的科研、以及出国留学有很大帮助

贪心科技

提高创新能力

深入一个领域是技术创新所必须的条件

课程概要

贪心科技

预训练(Pre-training)是目前自然语言处理领域的研究热点,基于预训练方法的各类模型在几乎所有自然语言处理任务上获得了当前最好性能。并且随着计算机硬件性能的提升,预训练方法正在逐渐被应用在各类工业系统上,为各类业务带来了极大的性能提升。帮助大量企业产生了不菲的收益。

贪心科技

你将收获

贪心科技

全面掌握预训练技术、灵活应用在自己工作中

贪心科技

能够了解各类预训练模型的实现方式,并熟练掌握其关键技术与方法

贪心科技

深入理解前沿的预训练技术,有助于为后续的科研打下基础

贪心科技

完成一个课题,有可能成为一个创业项目或者转换成你的科研论文

贪心科技

短期内对一个领域有全面的认识,大大节省学习时间

贪心科技

认识一群拥有同样兴趣的人、相互交流、相互学习

课程大纲

预训练技术

大纲

贪心科技

第一周:预训练模型基础

预训练模型基础
语言模型回顾
N-gram语言模型回顾
Neural语言模型回顾
预训练方法的发展历程
预训练和transfer learning
Pre-BERT时代的transfer learning
word2vec,transfer learning in NER
Post-BERT时代的transfer learning
Pre-train fine-tune范式

第二周:ELmo与BERT

Elmo
Transformer模型回顾
BERT
更强的BERT:RoBERTa
基于Elmo和BERT的NLP下游任务
Huggingface Transformers库介绍
构建基于BERT的情感分类器

第三周:GPT系列模型

GPT
GPT2
GPT3
基于GPT的fine-tuning
基于GPT的Zero-shot learning
基于GPT模型的文本生成实战
基于给定Prompt生成续写文本
Top-k + Top-p 采样

第四周:Transformer-XL与XLNet

处理长文本
Transformer-XL
相对位置编码
Permutation Language Model
Two-stream attention
XLNet
更进阶的预训练任务:MPNet

第五周:其他前沿的预训练模型

考虑知识的预训练模型:ERINE
对话预训练模型:PLATO2, DialoGPT
SpanBERT
MASS,UniLM
BART,T5
实现基于T5的文本分类模型

第六周:低计算量下模型微调和对比学习

低计算量情况下的预训练模型微调
Adapter-based fine-tuning
Prompt-search,P-tuning
基于对比学习的预训练
对比学习目标:Triplet Loss,InfoNCE Loss
SimCSE

第七周:多模态预训练和挑战

多模态预训练模型
DALLE,CogView
CLIP,文澜
预训练模型面临的挑战及其前沿进展
模型并行带来的挑战
对于Transformer的改进:Reformer

论文列表

贪心科技

1、Attention Is All You Need

2、Language Models are Few-Shot Learners

3、BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

4、Deep contextualized word representations

5、XLNet: Generalized Autoregressive Pretraining for Language Understanding

6、BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension

7、RoBERTa: A Robustly Optimized BERT Pretraining Approach

8、CogView: Mastering Text-to-Image Generation via Transformers

9、Improving Language Understanding by Generative Pre-Training

10、Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

11、ALBERT: A Lite BERT for Self-supervised Learning of Language Representations

12、SpanBERT: Improving Pre-training by Representing and Predicting Spans

13、GPT Understands, Too

项目部分

贪心科技

固定项目

贪心科技

基于预训练模型的情感分类

概要:本项目的目的是将预训练模型应用在最常见的NLP任务:文本分类中。在本项目中,我们会引导学员在公开的benchmark数据集上实现自己的情感分类模型,并引导学员尝试不同的预训练模型和表示提取方法。

涉及到的技术:

BERT

文本分类

文本表示学习

适合人群

贪心科技

大学生

理工科相关专业的本科/硕士/博士生,想系统性学习自然语言处理
希望今后从事人工智能相关的工作
希望今后想从事相关研究
贪心科技

在职人士

目前从事IT相关的工作,但今后想从事NLP工作
目前公司项目涉及到以上几个模块的内容、希望深入学习一下
希望能够及时掌握前沿的NLP技术

入学标准

贪心科技

理工科相关专业学生,或者IT从业者

贪心科技

具有良好的Python编程能力、深度学习基础

贪心科技

有一定的机器学习基础

或者成功完成贪心学院以下课程中的任意一门:

中级机器学习

高阶自然语言处理、或者同级别其他课程

课程团队

贪心科技

郑老师

清华大学计算机系

(计算机科学与人工智能研究部)博士后,美国劳伦斯伯克利国家实验室访问学者;美国亚利桑那大学访问学者;主要从事自然语言处理,对话领域的先行研究与商业化;先后在AAAI,NeurIPS,ACM,EMNLP等国际会议及期刊上发表过10篇以上论文

毕业证书

对于成功完成每个模块内容的学员,我们会颁发对应模块的毕业证书(注:必须要达到及格标准)

贪心科技

助教老师课上辅导&课下答疑

闫老师

(周一到周日)

贪心学院高级助教老师
负责过高阶nlp3,4,5,6,7,8,9
高阶机器学习1,2,3,4
中级机器学习等课程答疑
人大硕士,曾经就职于网易,阿里等科技巨头
目前任某国家研究院NLP工程师

常见问题

1、参加本课程有什么要求?

参加本课程需要一定的自然语言处理基础。

2、学完课程能达到什么水平?

能够系统性理解自然语言处理技术、有能力自主设计新的新的模型,并应用在工程中; 或者有能力从事科研相关的工作。

3、课程中的理论和实操比例是怎样的?

课程中会有大量较为深入的技术讲解,由浅入深,理论部分会很充实。 另外,你通过完成课题的方式来完成实战部分。

4、课程支持哪些付费方式?

支付宝、微信、银行卡、公对公打款、paypal付款。

5、加入课程,最后怎样才能拿到证书?

对于证书我们坚持高门槛,只有达到及格线我们才会颁发证书。