包含标签:微调 的文章
-
低秩自适应(LoRA):创新的预训练模型微调技术
什么是低秩自适应(LoRA) 在当今的人工智能和机器学习领域,模型的规模和复杂性不断增长。这带来了强大的性能,但也伴随着高昂的训练成本和资源需求。低秩自…… -
小型语言模型(SLMs):高效替代方案与微调技术探索
小型语言模型(Small Language Models, SLMs)是大型语言模型(Large Language Models, LLMs)的紧凑高效版本,通常拥有少于100亿个参数。它们旨在降低计算成……