LoRA

来自通约智库
江南仁讨论 | 贡献2023年11月9日 (四) 00:02的版本 (创建页面,内容为“{{4}} LoRA是一种大语言模型训练方法,可以理解为stable diffusion(SD)模型的一种插件。它利用少量数据训练出一种画风/IP/人物...”)
(差异) ←上一版本 | 最后版本 (差异) | 下一版本→ (差异)
跳转至: 导航搜索

LoRA是一种大语言模型训练方法,可以理解为stable diffusion(SD)模型的一种插件。它利用少量数据训练出一种画风/IP/人物,实现定制化需求。和hyper-network、controlNet一样,LoRA也是在不修改SD模型的前提下实现的。
LoRA最初应用于NLP领域,用于微调GPT-3等模型(也就是ChatGPT的前生)。由于GPT参数量超过千亿,训练成本太高,因此LoRA采用了一个办法,仅训练低秩矩阵(low rank matrics),使用时将LoRA模型的参数注入(inject)SD模型,从而改变SD模型的生成风格,或者为SD模型添加新的人物/IP。