面试 LoRA 被问懵?B 矩阵初始化为 0 的原因,大多数人拿目标来回答
面试 LoRA 被问懵?B 矩阵初始化为 0 的原因,大多数人拿目标来回答最近面试大模型方向的候选人,一个关于LoRA的基础问题,暴露了很多技术学习者的共性盲区——只记结论,不问本质。我问:“LoRA里B矩阵初始化为0的原因和作用是什么?”候选人秒答:“为了训练前不改变预训练权重。”作
