张寂黯
码龄7年
关注
提问 私信
  • 博客:3,402
    3,402
    总访问量
  • 5
    原创
  • 1,497,200
    排名
  • 0
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:河北省
  • 加入CSDN时间: 2018-03-26
博客简介:

张寂黯的博客

查看详细资料
个人成就
  • 获得2次点赞
  • 内容获得0次评论
  • 获得2次收藏
创作历程
  • 1篇
    2022年
  • 3篇
    2021年
  • 1篇
    2019年
成就勋章
TA的专栏
  • AIpaperSummary
    3篇
  • 机器学习中的数学
  • 深度学习
    1篇
  • 机器学习算法
兴趣领域 设置
  • 人工智能
    opencv语音识别计算机视觉机器学习深度学习神经网络自然语言处理tensorflowpytorch图像处理nlp数据分析
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

安装自己gitlab服务器

搭建私有gitlab服务器
原创
发布博客 2022.04.03 ·
174 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

sentence-BERT

论文阅读笔记
原创
发布博客 2021.12.22 ·
1060 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

使用Seq2Seq做统计机器翻译

TitleLearning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation地址:https://arxiv.org/pdf/1406.1078.pdf使用循环神经网络的解码编码结构做统计机器翻译Abstract本文提出了一种神经网络模型——解码编码结构的循环神经网络。编码部分负责处理固定长度序列的向量表示,解码部分处理另一个序列的表示.这个模型使用“最大化target序列概率
原创
发布博客 2021.06.16 ·
179 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

FastText:Bag of Tricks for Efficient Text Classification

FastText:Bag of Tricks for Efficient Text Classification摘要简而言之,FastText快而准,标准多核CPU就能满足很多文本分类需求,是一个不错的baseline。介绍深度学习模型在文本分类任务上的表现不错,但训练和测试速度令人堪忧,在大数据集上使用受限。传统线性模型依赖特征质量,而且在大数据集上(样本普遍不均衡)表现不佳。为了解决线性模型这个问题,作者提出了解决方案——FastText模型结构FastText模型结构和Word2vec
原创
发布博客 2021.04.21 ·
207 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

神经元之间的运算

神经元之间的运算如图输入层三个神经元隐含层四个神经元输出层两个神经元从上图中不难看出上层神经元到下层神经元的变化,取决于内积时的权重矩阵假设只有一个样本 样本纵向排列3 * 1 加权求和W.T * X输入层X 3 * 1 权重W 3 * 4隐含层Y 4 * 1 权重W 4 * 2输出层Z 2 * 1如果是n个样本 单个样本纵向排列出入层X 3 * n 权重W 3...
原创
发布博客 2019.11.10 ·
1688 阅读 ·
1 点赞 ·
0 评论 ·
3 收藏