Transformer正在颠覆AI领域。市面上有这么平台和Transformer模型,哪些 你的需求?
将引领你进入Transformer的世界,将讲述不同模型和平台的优势,指出如何消除模型的缺点和问题。本书将引导你使用Hugging Face从头开始预训练一个RoBERTa模型,包括构建数据集、定义数据整理器以及训练模型等。
本站支持尊重有效期内的版权/著作权,所有的资源均来自于互联网网友分享或网盘资源,一旦发现资源涉及侵权,将立即删除。希望所有用户一同监督并反馈问题,如有侵权请联系站长或发送邮件到ebook666@outlook.com,本站将立马改正
大模型应用解决方案 基于ChatGPT和GPT-4等Transformer架构的自然语言处理
说明:从1-2印次开始换封面,两种封面随机发货。
在不到4 年的时间里,Transformer 模型以其强大的性能和创新的思想,迅速在NLP 社区崭露头角,打破了过去30 年的记录。BERT、T5 和GPT 等模型现在已成为计算机视觉、语音识别、翻译、蛋白质测序、编码等各个领域中新应用的基础构件。因此,斯坦福大学最近提出了“基础模型”这个术语,用于定义基于巨型预训练Transformer 的一系列大型语言模型。所有这些进步都归功于一些简单的想法。
《基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理》可作为所有对Transformer 工作原理感兴趣的人的参考书。作者在理论和实践两方面都做出了出色的工作,详细解释了如何逐步使用Transformer。阅读完本书后,你将能使用这一最先进的技术集合来增强你的深度学习应用能力。本书在详细介绍BERT、RoBERTa、T5 和GPT-3 等流行模型前,先讲述了Transformer 的架构以便为你的学习奠定坚实基础。本书还讲述了如何将Transformer 应用于许多用例,如文本摘要、图像标注、问答、情感分析和假新闻分析等。
如果你对这些主题感兴趣,那么本书绝对是值得一读的。
——Antonio Gulli
Google 工程总监Antonio Gulli
快速部署大模型:LLM策略与实践 基于ChatGPT BERT等大语言模型
本书主要围绕如何充分挖掘、利用大语言模型的潜力,囊括了大语言模型的概念,如何通过提示词更好地利用大语言模型,大语言模型在信息检索、推荐系统、视觉问答等任务中的应用,以及大语言模型的微调、多模态训练、模型生产应用等高阶使用技巧。本书在讲解过程中搭配大量的应用实例以及相关代码,从大语言模型的概念、挖掘大语言模型潜力的方式到大语言模型的高级使用方式,读者能够将概念学习和实践应用同步进行,是相关领域工程技术人员、学术人员以及对大语言模型感兴趣的广大读者的不二之选。
本书的内容编排适合以下群体:
(1) 有一定的编程能力,但对大语言模型没有充分的认知,想通过本书迅速掌握大语言模型的概念,并在相关业务领域(信息检索、对话系统、推荐系统等)实现快速应用。
(2) 大语言模型某个研究领域的资深从业人员,但是想更全面地了解大语言模型在各个领域的研究应用现状,实现对大语言模型从学术研究到生产应用的全方位系统认知。