本日给大家带来一本《精通Transformer从零开始构建最前辈的NLP模型》本书涵盖了这些自然措辞处理方法。基于HuggingFace社区的Transformer库,我们能够轻松地利用Transformer。本书将循规蹈矩地供应各种自然措辞处理问题的办理方案:从文档择要到问题回答系统。我们将看到,基于Transformer,可以取得最前辈的成果。
读者工具
本书面向深度学习研究职员、自然措辞处理从业职员、机器学习/自然措辞处理教诲者,以及希望开启Transformer体系构造学习之旅的学生群体。为了充分节制本书的内容,哀求读者具有低级水平的机器学习知识,以及良好的Python根本知识。
下载当前版本: 完全PDF书本链接获取,可以关注公Z号:AGI小城免费领取
目录Transformer到底是什么,让ChatGPT如此迷恋?这只变形金刚,到底是只什么怪兽?——用于自然措辞处理(NLP)的神经网络架构
本章简要先容了自然措辞处理的历史,并将传统方法、深度学习模型(如CNIN、RNN 和LSTM) 与Transformer模型进行了比较剖析。
第2章 Transformer的实践操作入门。
本章深入磋商了如何利用Transformer模型,并通过实际例子阐述了分词器和模型,如BERT。
第3章 自编码措辞模型。
本章谈论了如何从零开始在任何给定措辞上演习自编码措辞模型。演习过程将包括模型的预演习和特界说务的演习。
第4章 自回归和其他措辞模型。
本章谈论了自回归措辞模型的理论细节,并勾引读者如何在自己的语料库中对模型进行预演习。读者将学习如何在自己的文本上预演习任何措辞模型(如GPT- 2),并在各种任务(如措辞天生)中利用该模型。
第5章 微调文本分类措辞模型。
在本章中,读者将学习如何配置文本分类的预演习模型,以及如何微调文本分类下贱任务的模型(如情绪剖析或多种别分类)。
第6章 微调标记分类措辞模型。
本章讲述如何微调标记分类任务的措辞模型[如命名实体识别 (NER)、词性标注 (POS)和问题回答 (QA)系统]。
第7章 文本表示。
在本章中,读者将学习文本表示技能以及如何有效地利用Transformer 体系构造,特殊是对付无监督任务,如聚类、语义搜索和主题建模。
第8章 利用高效的Transformer。
本章展示了如何利用提炼、剪枝和量化方法,从预演习模型中 天生高效的模型。然后,读者将得到有关高效稀疏Transformer的知识,如Linformer 和 BigBird,以及如何利用这些模型。
第9章 跨措辞和多措辞建模。
在本章中,读者将学习多措辞和跨语种措辞模型预演习以及单措辞和多措辞预演习之间的差异。本章涉及的其他主题包括因果措辞建模和翻译措辞建模。
第10章 支配 Transformer 模型。
本章将详细先容如何在 CPU/GPU环境中,为基于 Transformer的自然措辞处理办理方案供应做事。本章还将描述如何利用 TensorFlow 扩展 (TFX) 支配机器学习系统。
第11 章 把稳力可视化与实验跟踪。
本章涵盖两个不同的技能观点:把稳力可视化与实验跟踪。 我们将利用诸如exBERT 和 BertViz之类的繁芜工具进行实验练习。
下载当前版本: 完全PDF书本链接获取,可以关注公Z号:AGI小城免费领取