我们假设在Resnet101后面加上一个全连接层,然后我们锁住前面Resnet的参数,不参加梯度更新,然后只更新最后一个全连接层的参数。当全连接层的loss足够小的时候,再释放所有的参数一起训练。这样Resnet的参数也会微微调整,这就是finetune;
迁移学习transfer learning与微调fineTune的区别?一看就懂 - 知乎
fine-tuning:利用已有模型训练其他数据集 - 知乎
https://zhuanlan.zhihu.com/p/22624331