41-大模型(LLMs)LLM生成SFT数据方法面.pdf

41-大模型(LLMs)LLM生成SFT数据方法面.pdf_第1页
41-大模型(LLMs)LLM生成SFT数据方法面.pdf_第2页
41-大模型(LLMs)LLM生成SFT数据方法面.pdf_第3页
大模型(LLMs)LLM生成SFT数据方法面来自:AiGC面试宝典宁静致远2023年12月23日12:23一、SFT数据集如何生成?SFT数据集构建通常有两种方法:人工标注和使用LLM(比如GPT-4)来生成的,人工标注对于构建垂直领域比较合适,可以减少有偏数据,但是成本略高;使用LLM生成,可以在短时间内生成大量数据。SFT数据集构建以及SFT微调Pipeline如下图所示:二、Self-Instruct篇2.1什么是Self-Instruct?Self-Instruct(https://arxiv.org/abs/2212.10560):一个通过预训练语言模型自己引导自己来提高的指令遵循能力的框架。2.2Self-Instruct处理思路?•步骤1:作者从175个种子任务中随机抽取8条自然语言指令作为示例,并提示InstructGPT生成更多的任务指令。•步骤2:作者确定步骤1中生成的指令是否是一个分类任务。如果是,他们要求InstructGPT根据给定的指令为输出生成所有可能的选项,并随机选择特定的输出类别,提示InstructGPT生成相应的“输入”内容。对于不属于分类任务的指令,应该有无数的“输出”选项。作者提出了“输入优先”策略,首先提示InstructGPT根据给定的“指令”生成“输入”,然后根据“指令”和生成的“输入”生成“输出”。•步骤3:基于第2步的结果,作者使用InstructGPT生成相应指令任务的“输入”和“输出”,采用“输出优先”或“输入优先”的策略。•步骤4:作者对生成的指令任务进行了后处理(例如,过滤类似指令,去除输入输出的重复数据),最终得到52K条英文指令扫码加查看更多三、Backtranslation篇3.1什么是Backtranslation?回译在传统的机器学习中是一种数据增强方法,比如从中文翻译成英文,再从英文翻译会中文,这样生成的中文与原来的中文在语义上是一致的,但是文本不同;然而SFT数据生成的回译(https://arxiv.org/abs/2308.06259)则是通过输出来生成指令,具体步骤如下图所示:知识星球

1、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
3、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。

碎片内容

发表评论取消回复

参与评论可获取积分奖励  
微风舍
实名认证
内容提供者

微风舍,风起于青萍之末,浪成于微澜之间,舍是漏舍,唯吾德馨。

确认删除?
回到顶部