Numb<1>
码龄4年
求更新 关注
提问 私信
  • 博客:6,420
    6,420
    总访问量
  • 5
    原创
  • 96
    粉丝
  • 104
    关注
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:新加坡
加入CSDN时间: 2020-12-02
博客简介:

weixin_53173585的博客

查看详细资料
个人成就
  • 获得143次点赞
  • 内容获得3次评论
  • 获得125次收藏
  • 博客总排名1,165,324名
  • 原力等级
    原力等级
    1
    原力分
    89
    本月获得
    2
创作历程
  • 3篇
    2024年
  • 2篇
    2022年
成就勋章

TA关注的专栏 0

TA关注的收藏夹 0

TA关注的社区 1

TA参与的活动 0

创作活动更多

『技术文档』写作方法征文挑战赛

在技术的浩瀚海洋中,一份优秀的技术文档宛如精准的航海图。它是知识传承的载体,是团队协作的桥梁,更是产品成功的幕后英雄。然而,打造这样一份出色的技术文档并非易事。你是否在为如何清晰阐释复杂技术而苦恼?是否纠结于文档结构与内容的完美融合?无论你是技术大神还是初涉此领域的新手,都欢迎分享你的宝贵经验、独到见解与创新方法,为技术传播之路点亮明灯!

50人参与 去参加
  • 最近
  • 文章
  • 专栏
  • 代码仓
  • 资源
  • 收藏
  • 关注/订阅/互动
更多
  • 最近

  • 文章

  • 专栏

  • 代码仓

  • 资源

  • 收藏

  • 关注/订阅/互动

  • 社区

  • 帖子

  • 问答

  • 课程

  • 视频

搜索 取消

pytorch实现BERT

BERT是基于transformer架构的双向编码器表示,这个名称具有两个关键点,首先是基于transformer架构的编码器,其次是双向编码器。第一点类似于生成式预训练模型(GPT),只不过GPT是基于transformer架构的decoder,而BERT是基于transformer架构的encoder。至于第二点双向编码器也可以相对于GPT进行理解,GPT采用的是顺序预测,即根据之前的K个字符去预测当前字符,而BERT则同时考虑一个字符的上下文信息,即通过每个字符两个方向的序列对当前字符进行预测。
原创
发布博客 2024.06.17 ·
2032 阅读 ·
47 点赞 ·
0 评论 ·
45 收藏

pytorch 实现 GPT

条件概率P(A|B)和P(B|A)之间存在一定关系,P(A|B)= P(AB)/ P(B)同理 P(B|A)= P(AB)/ P(A)
原创
发布博客 2024.06.13 ·
1887 阅读 ·
51 点赞 ·
1 评论 ·
37 收藏

pytorch 实现 transformer

基于transformer架构实现中文日期向英文日期的转变。即Chinese time order [yy/mm/dd] ---- English time order [dd/M/yyyy]。for example (日期:2031/4/26): 31/04/26 --- 26/Apr/2031。
原创
发布博客 2024.06.12 ·
2041 阅读 ·
45 点赞 ·
2 评论 ·
42 收藏

SCUDB Homework2 Project1

SCUDB HomeWork2 Project1
原创
发布博客 2022.11.21 ·
202 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

SCUDB HomeWork1

SCUDB Homework1
原创
发布博客 2022.10.23 ·
223 阅读 ·
0 点赞 ·
1 评论 ·
0 收藏