迁移学习是机器学习中比较火的一块领域,使用迁移学习可以减少模型的训练数据量,加快训练速度等优点。在学术界和工业界都有很好的应用。迁移学习首先广泛用于图像处理中,近些年才应用到 NLP 领域。也是 NLP 领域中比较新的内容,从 18 年开始 Google、OpenAI、Fastai 都有相应的研究论文。这代表了未来的一个趋势与方向。
本场 Chat 主要围绕 BERT 的原理与使用,首先针对 BERT 模型进行深入剖析,然后从原理到实践逐步进行讲解,最后对 UMLFIT 进行拓展阅读。从解决 TextClassification 这个经典的 NLP 问题为视角,对比分析两者的区别。学习本 Chat 可以拓展读者视野,锻炼读者的代码能力,探讨 NLP 领域最前沿的研究方向。
本场 Chat 内容如下:
- 了解 BERT 模型结构;
- 了解 Base-Attention 原理;
- 深入剖析 Self-Attention;
- 揭开 Transformer 的奥秘;
- BERT 案例展示;
- UMLFIT 与 BERT 解决 TextClassification 的差异。
本 Chat 适合有深度学习经验或者对深度学习有兴趣的读者阅读。
阅读全文: http://gitbook.cn/gitchat/activity/5c6a744fff00d04d11dd9d43
您还可以下载 CSDN 旗下精品原创内容社区 GitChat App ,阅读更多 GitChat 专享技术内容哦。