大规模语言模型:从理论到实践.pdf

大规模语言模型:从理论到实践.pdf_第1页
大规模语言模型:从理论到实践.pdf_第2页
大规模语言模型:从理论到实践.pdf_第3页
大规模语言模型从理论到实践张奇桂韬郑锐⻩萱菁著预览版2023年9月10日·前言2018年Google的研究团队开创性地提出了预训练语言模型BERT[1],该模型在诸多自然语言处理任务中展现了卓越的性能。这激发了大量以预训练语言模型为基础的自然语言处理研究,也引领了自然语言处理领域的预训练范式的兴起。然而,尽管这一变革影响深远,但它并没有改变每个模型只能解决特定问题的基本模式。2020年,OpenAI发布了GPT-3模型,其在文本生成任务上的能力令人印象深刻,并在许多少标注(Few-shot)的自然语言处理任务上取得了优秀的成绩。但是,其性能并未超越专门针对单一任务训练的有监督模型。之后,研究者们陆续提出了针对大语言模型(LargeLanguageModel,LLM)的提示词(Prompt)学习方法,并在各式各样的自然语言处理任务中进行了试验,同时也提出了模型即服务范式(ModelasaService,MaaS)概念。然而,在大部分情况下,这些方法的性能并未明显地超过基于预训练微调范式的模型。所以,这些方法的影响主要还是局限在自然语言处理的研究人员群体中。2022年11月,ChatGPT的问世展示了大语言模型的强大潜能,并迅速引起了广泛关注。Chat-GPT能够有效理解用户需求,并根据上下文提供恰当的回答。它不仅可以进行日常对话,还能够完成复杂任务,如撰写文章、回答问题等。令人惊讶的是,所有这些任务都由一个模型完成。在许多任务上,ChatGPT的性能甚至超过了针对单一任务进行训练的有监督算法。这对于人工智能领域具有重大意义,并对自然语言处理研究产生了深远影响。然而,由于OpenAI并未公开ChatGPT的详细实现细节,整体训练过程包括语言模型、有监督微调、类人对齐等多个方面,这些方面之间还存在大量的关联,这对于研究人员在自然语言处理基础理论和机器学习基础理论上要求很高。此外,大语言模型的参数量非常庞大,与传统的自然语言处理研究范式完全不同。使用大语言模型还需要分布式并行计算的支持,这对自然语言处理算法研究人员又进一步提高了要求。为了使得更多的自然语言处理研究人员和对大语言模型感兴趣的读者能够快速了解大语言模型和理论基础,并开展大语言模型实践,结合之前在自然语言处理领域研究经验,以及分布式系统和并行计算的教学经验,我们在大语言模型实践和理论研究的过程中,历时8个月完成本书。希望这本书能够帮助读者快速入门大语言模型的研究和应用,并解决相关技术挑战。自然语言处理的研究历史可以追溯到1947年,当时第一台通用计算机ENIAC刚刚问世。自然语言处理经历了20世纪50年代末到60年代初的初创期,20世纪70年代到80年代的理性主义时代,20世纪90年代到21世纪初的经验主义时代,以及2006年至今的深度学习时代。自2017年Transformer模型[2]提出并在机器翻译领域取得巨大成功后,自然语言处理进入了爆发式的发ii大规模语言模型:从理论到实践--张奇、桂韬、郑锐、黄萱菁展阶段。2018年,动态词向量ELMo[3]模型开启了语言模型预训练的先河。随后,以GPT[4]和BERT[1]为代表的基于Transformer模型的大规模预训练语言模型相继提出,自然语言处理进入了预训练微调的新时代。2019年,OpenAI发布了拥有15亿参数的GPT-2模型[4],2020年,Google发布了拥有110亿参数的T5模型。同年,OpenAI发布了包含1750亿参数的GPT-3模型[5],从而开启了大语言模型的时代。直到2022年11月,ChatGPT的问世将大语言模型的研究推向了新的高度,引发了大语言模型研究的热潮。尽管大语言模型的发展历程只有不到五年的时间,但其发展速度相当惊人。截至2023年6月,国内外已经发布了超过百种大语言模型。大语言模型的研究融合了自然语言处理、机器学习、分布式计算、并行计算等多个学科领域。其发展历程可以分为基础模型阶段、能力探索阶段和突破发展阶段。基础模型阶段主要集中在2018年至2021年期间,期间发布了一系列代表性的大语言模型,如BERT、GPT、百度ERNIE、华为盘古-α、Palm等。这些模型的发布为大语言模型的研究打下了基础。能力探索阶段主要发生在2019年至2022年期间。由于大语言模型在针对特定任务上微调方面存在一定困难,研究人员开始探索如何在不进行单一任务微调的情况...

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

发表评论取消回复

参与评论可获取积分奖励  
微风舍
实名认证
内容提供者

微风舍,风起于青萍之末,浪成于微澜之间,舍是漏舍,唯吾德馨。

确认删除?
回到顶部