大模型(LLMs)训练集面来自:AiGC面试宝典宁静致远2023年12月24日00:331.SFT(有监督微调)的数据集格式?一问一答2.RM(奖励模型)的数据格式?一个问题+一条好回答样例+一条差回答样例3.PPO(强化学习)的数据格式?理论上来说,不需要新增数据。需要提供一些prompt,可以直接用sft阶段的问。另外,需要限制模型不要偏离原模型太远(ptxloss),也可以直接用sft的数据。4.找数据集哪里找?推荐Alpaca-COT,数据集整理的非常全,眼花缭乱。5.微调需要多少条数据?取决于预训练数据和微调任务的数据分布是否一致,分布一致,100条就够,分布差异大就需要多些数据,千条或者万条以上为佳。自己的任务复杂或者下游任务行业比较冷门,如药品名称识别任务,则需要较多监督数据。还有微调大模型时,一遍是记不住的。100条的微调数据,epochs=20才能稳定拟合任务要求。6.有哪些大模型的训练集?预训练数据集togethercomputer/RedPajama-Data-1T「红睡衣」开源计划总共包括三部分:预训练数据集RedPajama-Data-1T已开源,包括七个子集,经过预处理后得到的token数量大致可以匹配Meta在原始LLaMA论文中报告的数量,并且数据预处理相关脚本也已开源。完整的RedPajama-Data-1T数据集需要的存储容量为压缩后3TB,解压后5TB。CoT微调数据集:Alpaca-CoT里面包括常用的alpaca,CoT等数据集,有中文的。7.进行领域大模型预训练应用哪些数据集比较好?通过分析发现现有的开源大模型进行预训练的过程中会加入数据、论文等数据。主要是因为这些数据的数据质量较高,领域相关性比较强,知识覆盖率(密度)较大,可以让模型更适应考试。给我•高质量、大规模、高覆盖度的预训练数据集;•在预训练数据集上训练出的基础模型;•指令调优数据集和模型,比基本模型更安全、可靠。扫码加查看更多们自己进行大模型预训练的时候提供了一个参考。同时领域相关的网站内容、新闻内容也是比较重要的数据。8.如何选取和构建大模型微调数据?一般情况下我们数据的分布都是符合一个长尾分布的。主要的几个类别数据占据了90%的数据量,剩下的90%的类别只有10%的数据量。举个栗子:小红书上,query的意图识别里,美食,穿搭,旅游攻略类非常多,但是还有一些同学去搜大模型微调的数据技巧。如果说我们直接采样一批线上的图文文本,直接送给标注的话,会存在一个严重的问题:他们标注的数据大部分都是攻略类,技术类比较少,标了3个月才攒了几千条大模型技术文本,但是攻略类已经成几万了。这样搞肯定是不行的,人力成本方面的消耗是在是太大了,并且模型因为数据平衡的问题也没有特别好主动学习有两个基本原则,在监督训练的时候,注意主动发现数据的两个方面,一个是数据多样性,另外一个是数据的不确定性。这样讲是比较抽象的概念,那我们在大模型实践中如何体现呢?第一,数据的多样性。多样性即为数据的去重,去重这件事的核心是相似度度量,现在的相似度度量方法大家用的比较多的是基于对比学习构造的语义向量这套思路,当然简单的基于词袋或者tfidf的方案也是可以的。有了核心的相似度度量方法后,我们可以使用简单的onepass聚类方法进行过滤,考虑复杂一点的话,我们可以使用带优化目标的聚类:比如K-Center-Greedy算法,其约束条件是在最大化多样性的情况下,使指令数据集最小。另外,如果我们已经有了一批已经去重的人工处理过的高质量数据,那么我们如何寻找与这批数据不一样的数据呢?这里有一个非常简单实用的方案,并且这个方案可以用在很多其他的地方。我们简单地把已有的数据全部当成正样本打上1,然后待筛选的数据全部当成负样本打上0,我们使用deberta等构建二分类模型,并进行K-fold的交叉验证,在交叉验证过程中,选出每一个fold过程中的测试集合里概率接近于0的样本。通过这样的操作,就能把长得与已有数据不一样的数据给选出来了,并且这个过程是半监督的。这套方案也可以用在很多其他地方,比如数据质量选择,只要我们有一批已经确定标签/结果/标注的种子数据,就能通过这样的方法选出与种子数据长得比较像的,长得不像的。第二,数据的不确定性。数据的不确定性主要体现数据的质量筛选上,选...
发表评论取消回复