版权声明:本文为博主原创文章,引用时请附上链接。 https://blog.csdn.net/abc13526222160/article/details/89320108 </div>
<link rel="stylesheet" href="https://csdnimg.cn/release/phoenix/template/css/ck_htmledit_views-cd6c485e8b.css">
<div id="content_views" class="markdown_views prism-dracula">
<!-- flowchart 箭头图标 勿删 -->
<svg xmlns="http://www.w3.org/2000/svg" style="display: none;">
<path stroke-linecap="round" d="M5,0 0,2.5 5,5z" id="raphael-marker-block" style="-webkit-tap-highlight-color: rgba(0, 0, 0, 0);"></path>
</svg>
<p></p><div class="toc"><h3><a name="t0"></a>文章目录</h3><ul><ul><ul><li><a href="#_1" rel="nofollow" target="_self">一、什么是预训练和微调?</a></li><li><a href="#_7" rel="nofollow" target="_self">二、预训练和微调的作用</a></li></ul></ul></ul></div><p></p>
一、什么是预训练和微调?
- 预训练( p r e − t r a i n i n g / t r a i n e d p r e − t r a i n i n g / t r a i n e d p r e − t r a i n i n g / t r a i n e d pre−training/trainedpre−training/trained pre-training/trained pre−training/trainedpre−training/trainedpre−training/trainedInception 等模型都提供了自己的训练参数,以便人们可以拿来微调。这样既节省了时间和计算资源,又能很快的达到较好的效果。
</div>
<link href="https://csdnimg.cn/release/phoenix/mdeditor/markdown_views-e44c3c0e64.css" rel="stylesheet">
</div>