IsGaoMingZhu ?
码龄5年
求更新 关注
提问 私信
  • 博客:413
    413
    总访问量
  • 1
    原创
  • 3
    粉丝
  • 56
    关注
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:上海市
加入CSDN时间: 2020-01-05
博客简介:

weixin_46148311的博客

查看详细资料
个人成就
  • 获得10次点赞
  • 内容获得0次评论
  • 获得3次收藏
  • 博客总排名706,498名
  • 原力等级
    原力等级
    0
    原力分
    12
    本月获得
    0
创作历程
  • 1篇
    2024年
成就勋章

TA关注的专栏 2

TA关注的收藏夹 0

TA关注的社区 3

TA参与的活动 0

创作活动更多

『技术文档』写作方法征文挑战赛

在技术的浩瀚海洋中,一份优秀的技术文档宛如精准的航海图。它是知识传承的载体,是团队协作的桥梁,更是产品成功的幕后英雄。然而,打造这样一份出色的技术文档并非易事。你是否在为如何清晰阐释复杂技术而苦恼?是否纠结于文档结构与内容的完美融合?无论你是技术大神还是初涉此领域的新手,都欢迎分享你的宝贵经验、独到见解与创新方法,为技术传播之路点亮明灯!

50人参与 去参加
  • 最近
  • 文章
  • 专栏
  • 代码仓
  • 资源
  • 收藏
  • 关注/订阅/互动
更多
  • 最近

  • 文章

  • 专栏

  • 代码仓

  • 资源

  • 收藏

  • 关注/订阅/互动

  • 社区

  • 帖子

  • 问答

  • 课程

  • 视频

搜索 取消

Google官网Bert模型加载方式

如这个模型的架构是BertForMaskedLM,因此用BERT在别的任务上的model类来调用该预训练模型时,要么出现有些参数用不到的情况(如用于MLM任务的预测头),要么出现有些参数没有、需要随机初始化的情况(如用于分类任务的预测头)。如果您不想训练它,您可以寻找具有适合您任务的具有预训练头部的 bert 模型。这是应该发生的事情。1、在C:\Users\admin\convert_bert_original_tf_checkpoint_to_pytorch.py里修改Bert模型的各配置文件的地址。
原创
发布博客 2024.06.18 ·
413 阅读 ·
10 点赞 ·
0 评论 ·
3 收藏