标签:微调

ECCV 2024|R-Adapter:零样本模型微调新突破,提升鲁棒性与泛化能力

本文介绍了一种名为Robust Adapter(R-Adapter)的新型微调方法,旨在提高零样本模型在下游任务中的泛化能力和效率。R-Adapter通过在预训练模型中集成轻量级...

ECCV’24|Arc2Face:身份条件化的人脸生成基础模型,高一致性高质量的AI人脸艺术风格照生成

Arc2Face是一种创新的人脸合成基础模型,它通过将人脸特征映射到稳定扩散模型(SD)的编码空间,实现了文本编码器到专门定制的人脸编码器的转换。该模型利用A...

首批中文版Llama3模型来了,解释成语、答弱智吧问题

步骤2:撰写详细摘要Meta公司最近推出了一款名为Llama 3的开源大模型,该模型为开源大模型领域树立了新的标杆。然而,Llama 3在对中文的支持方面表现不佳,经...

24GB单卡全量微调Llama 3-8B,仅需添加一行代码

研究人员通常基于预训练的大型语言模型进行微调,以适应特定任务的要求。然而,微调具有一定规模的语言模型需要大量的计算资源,显存容量往往成为主要限制因...

开源大模型可能不香了!您在微调开源大模型的时候,很可能已经泄露了您宝贵的数据!

研究人员通过设计一个“锁”来实现后门在微调期间仅执行一次,并将这一后门设计扩展到Transformers模型中。此外,研究还展示了在更强的黑盒设置中,攻击者可以...