-
整了个微调模型(其中问是我,答是模型)
然后就发现有人称混乱的情况(问:你觉得C怎么样 答:她还挺不错的(实际上C就是模型自己的角色))
结果是因为system prompt给得太随意(现在你要....)(我没有给她自己的名字和信息)
而且有些有时候对话并不是双人对话
提问的数据有时候并不是对回答者进行提问
而是回答者的附和
(比如通过A、B、C的交流收集对话数据,其中A与B谈论C,我把A作为问,C对此的反应作为答,但实际上B才是原本回答的那个人)
所以提问中的第三人称代词在学习中误认为了别人
(A:你觉得它(C)怎么样? B:good(我把B的话删了) C:其实也不是啦(并保留C的回答作为回答数据))
所以有时候模型在我提及到C(它自己)的时候,会用旁观者视角回答问题
当然也和我的数据集太少,没有精加工有关
总之又得重新整理一下,调一调数据,跑一跑模型
最后发篇blog就结束
-
服务器好tm贵啊,我的钱到底是买《Limelight Lemonade Jam》还是搞个韭菜海外服呢