研究人员发现,通过仅对人工智能模型的特定区域进行再训练,可以降低成本并最小化遗忘学习任务的风险。当企业微调模型时,可能会导致大型语言模型(LLMs)中某些能力的丧失。这种现象被称为遗忘,当模型不再执行先前训练过的任务时就会发生。加州大学伯克利分校进行了一项研究,强调了战略性再训练的重要性,以保持模型性能同时避免遗忘。通过将再训练的重点放在特定