包含标签:LoRA 的文章
-
参数高效微调:深度学习中应对预训练模型微调挑战的关键方法
什么是参数高效微调 在当今的深度学习和自然语言处理(NLP)领域,预训练模型已经变得极为重要。这些模型在大规模数据集上进行训练,学到了丰富的语言模式和语…… -
低秩自适应(LoRA):创新的预训练模型微调技术
什么是低秩自适应(LoRA) 在当今的人工智能和机器学习领域,模型的规模和复杂性不断增长。这带来了强大的性能,但也伴随着高昂的训练成本和资源需求。低秩自…… -
小型语言模型(SLMs):高效替代方案与微调技术探索
小型语言模型(Small Language Models, SLMs)是大型语言模型(Large Language Models, LLMs)的紧凑高效版本,通常拥有少于100亿个参数。它们旨在降低计算成……