• Ivan233

    整了个微调模型(其中问是我,答是模型)

    然后就发现有人称混乱的情况(问:你觉得C怎么样 答:她还挺不错的(实际上C就是模型自己的角色))

    结果是因为system prompt给得太随意(现在你要....)(我没有给她自己的名字和信息)

    而且有些有时候对话并不是双人对话

    提问的数据有时候并不是对回答者进行提问

    而是回答者的附和

    (比如通过A、B、C的交流收集对话数据,其中A与B谈论C,我把A作为问,C对此的反应作为答,但实际上B才是原本回答的那个人)

    所以提问中的第三人称代词在学习中误认为了别人

    (A:你觉得它(C)怎么样? B:good(我把B的话删了) C:其实也不是啦(并保留C的回答作为回答数据))

    所以有时候模型在我提及到C(它自己)的时候,会用旁观者视角回答问题

    当然也和我的数据集太少,没有精加工有关

    总之又得重新整理一下,调一调数据,跑一跑模型

    最后发篇blog就结束

  • Ivan233

    服务器好tm贵啊,我的钱到底是买《Limelight Lemonade Jam》还是搞个韭菜海外服呢