马尔科夫司机
码龄18年
关注
提问 私信
  • 博客:95,111
    动态:131
    95,242
    总访问量
  • 40
    原创
  • 1,378,414
    排名
  • 1,753
    粉丝
  • 41
    铁粉

个人简介:看文章就看文章,看什么简介。

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:广东省
  • 加入CSDN时间: 2007-05-12
博客简介:

marlinlm的博客

查看详细资料
个人成就
  • 获得45次点赞
  • 内容获得24次评论
  • 获得151次收藏
  • 代码片获得1,967次分享
创作历程
  • 16篇
    2023年
  • 4篇
    2022年
  • 11篇
    2021年
  • 8篇
    2020年
  • 1篇
    2018年
成就勋章
TA的专栏
  • nlp
    13篇
  • nginx
    2篇
  • kubernetes
    9篇
  • java编程
    4篇
  • 存储
    7篇
  • java锁机制详解系列文章
  • Cassandra数据同步到redis缓存实战
    4篇
  • shell
  • python编程
    1篇
  • 管理
    1篇
兴趣领域 设置
  • 数据结构与算法
    动态规划启发式算法逻辑回归
  • 人工智能
    自然语言处理nlp
创作活动更多

如何做好一份技术文档?

无论你是技术大神还是初涉此领域的新手,都欢迎分享你的宝贵经验、独到见解与创新方法,为技术传播之路点亮明灯!

356人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

基于LSTM encoder-decoder模型实现英文转中文的翻译机器

介绍了如何构建一个基于pytorch lstm的机器翻译模型。
原创
发布博客 2023.10.26 ·
1975 阅读 ·
5 点赞 ·
1 评论 ·
16 收藏

死磕元婴大神Sepp Hochreiter的论文lstm。逐条分析公式并配多图帮助理解。

手搓GPT系列之 - 通过理解LSTM的反向传播过程,理解LSTM解决梯度消失的原理 - 逐条解释LSTM创始论文全部推导公式,配超多图帮助理解(下篇)
发布动态 2023.07.04

众所周知,学霸们有一种高冷叫做解题的时候省略中间步骤,还有一种欠扁叫不看到最后一句话根本不知道他前边在说啥。那篇lstm原文谁看了都想上去给高冷大学霸哥磕几个。小弟不知道熬了多少夜薅下了多少头发,才写完下边的文章。分上中下三篇力图把被学霸省略的步骤写出来,还配图帮助理解,希望以我个人的一小撮头发,帮大家挽留住千千万万的头发。欢迎大家点赞收藏加关注三连走一波,也算是对我那些逝去头发的一种告慰。

通过理解LSTM的反向传播过程,理解LSTM解决梯度消失的原理 - 逐条解释LSTM创始论文全部推导公式,配超多图帮助理解
发布动态 2023.07.04

手搓GPT系列之 - 通过理解LSTM的反向传播过程,理解LSTM解决梯度消失的原理 - 逐条解释LSTM创始论文全部推导公式,配超多图帮助理解(下篇)

本文继续就Sepp Hochreiter 1997年的开山大作 Long Short-term Memory 中APPENDIX A.1和A.2所载的数学推导过程进行详细解读。希望可以帮助大家理解了这个推导过程,进而能顺利理解为什么那几个门的设置可以解决RNN里的梯度消失和梯度爆炸的问题。中篇介绍了各个权重的误差更新算法。本篇将继续说明梯度信息在LSTM的记忆单元中经过一定的时间步之后如何变化,并由此证明LSTM可实现CEC(Constant Error Carousel)。本篇为整个文章最关键一篇。
原创
发布博客 2023.07.03 ·
2580 阅读 ·
5 点赞 ·
4 评论 ·
3 收藏

手搓GPT系列之 - 通过理解LSTM的反向传播过程,理解LSTM解决梯度消失的原理 - 逐条解释LSTM创始论文全部推导公式,配超多图帮助理解(中篇)

本文承接上篇,继续就Sepp Hochreiter 1997年的开山大作 Long Short-term Memory 中APPENDIX A.1和A.2所载的数学推导过程进行详细解读。希望可以帮助大家理解了这个推导过程,进而能顺利理解为什么那几个门的设置可以解决RNN里的梯度消失和梯度爆炸的问题。
原创
发布博客 2023.06.27 ·
2687 阅读 ·
4 点赞 ·
6 评论 ·
4 收藏

关闭nginx容器之后,再次启动,原来宿主机映射的端口失效的问题解决

最近用containerd在部署nginx的时候,发生了一个比较诡异的问题,当笔者通过nerdctl stop把原来的nginx容器关闭,然后再通过nerdctl run启动一个新的nginx容器的时候,把原来的宿主机端口映射到这个新容器上,但新启动的容器却无法通过映射的端口收到任何请求,而且新容器启动顺利,没有任何报错。这个问题的原因十分隐蔽,而且一开始让人无从下手。本文介绍了这个问题的解决办法,为被该问题困扰的同学提供一个脱困的思路。
原创
发布博客 2023.06.10 ·
1502 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

使用nginx提供https端点,实现不修改浏览器地址(不触发重定向)转发网络流量,附生成自签ssl证书最简单的方法(2个命令)

近日笔者需要实现一个网络流量转发的需求。要求很简单:将浏览器的请求转发到一个指定的域名,需要提供一个https端口并且把http端口转发到https端口。由于笔者对nginx的认知有限,因此磕磕绊绊研究了一阵,将结果写出来,以供其他有类似需求的同学参考对照。
原创
发布博客 2023.06.10 ·
2028 阅读 ·
1 点赞 ·
0 评论 ·
6 收藏

k8s + containerd下,容器启动时报错 failed to create shim task, incompatible CNI versions 问题解决

详实介绍在containerd环境中运行容器遇到错误Incompatible CNI versions。错误消息incompatible CNI versions; config is \"1.0.0\", plugin supports [\"0.1.0\" \"0.2.0\" \"0.3.0\" \"0.3.1\" \"0.4.0\"]时的解决办法。帮助遇到相同问题的读者解决此类问题。
原创
发布博客 2023.06.10 ·
1466 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

手搓GPT系列之 - 通过理解LSTM的反向传播过程,理解LSTM解决梯度消失的原理 - 逐条解释LSTM创始论文全部推导公式,配超多图帮助理解(上篇)

说起RNN和LSTM,就绕不过Sepp Hochreiter 1997年的开山大作 Long Short-term Memory。奈何这篇文章写的实在是太劝退,网上很多介绍LSTM的文章都对这个模型反向传播的部分避重就轻,更少见(反正我没找到)有人解析APPENDIX A.1和A.2所写的详细推导过程。笔者向来做事讲究个从心,这次不知道哪根弦打错竟然头铁硬刚这个推导过程。本文逐条参照原论文中的公式,记录整个推导过程的思路和笔者的理解,并配上超多图帮助理解。
原创
发布博客 2023.05.14 ·
990 阅读 ·
3 点赞 ·
3 评论 ·
8 收藏

手搓GPT系列之 - chatgpt + langchain 实现一个书本解读机器人

本文将给大家介绍一款基于大模型的应用框架:langchain。langchain集成了做一个基于大模型应用所需的一切。熟悉java web应用的同学们应该十分熟悉spring boot框架,我们可以说langchain 就是大语言模型应用方面的spring boot。本文将为大语言模型应用的开发者们提供一个基于langchain的示例项目,便于大家进一步提升prompt engineering的效能。
原创
发布博客 2023.05.01 ·
6670 阅读 ·
5 点赞 ·
0 评论 ·
16 收藏

手搓GPT系列之 - RNN网络模型与隐马尔科夫链(HMC)模型的表达力(expressivity)关系

RNN模型和HMC模型,都是适合处理时间序列的模型。这两者在结构上具有一定的相似性。笔者在学习这两个模型的时候,对他们之间的关系非常感兴趣,但是却一度十分困惑:它们之间是否存在可互相表示的关系?哪一个的通用性更强?答案其实大家心里都有了吧,只是缺了一个严格的证明。本文将为机器学习算法领域的爱好者证明一个大家都知道的事情:可以用经典RNN网络模型来表达隐马尔科夫链模型。
原创
发布博客 2023.04.23 ·
648 阅读 ·
1 点赞 ·
0 评论 ·
3 收藏

手搓GPT系列之 - 后向传播,计算图,目标函数

本问将介绍神经网络中后向传播的机制和基本原理。详细解析在后向传播过程中,计算图的生成,以及如何在计算图中应用链式规则实现自动求导的机制,并介绍了价值函数(又称损失函数)在后向传播过程中的作用。适合初步了解神经网络基本概念的同学进一步理解神经网络参数优化的过程。
原创
发布博客 2023.04.15 ·
346 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

手搓GPT系列之 - Logistic Regression模型,Softmax模型的损失函数与CrossEntropyLoss的关系

笔者在学习各种分类模型和损失函数的时候发现了一个问题,类似于Logistic Regression模型和Softmax模型,目标函数都是根据最大似然公式推出来的,但是在使用pytorch进行编码的时候,却发现根本就没有提供softmax之类的损失函数,而提供了CrossEntropyLoss,MSELoss之类的。本文将介绍我们在学习LR模型和Softmax模型的时候接触到的目标函数,与实际应用中的经常用到的CrossEntropyLoss函数之间的关系。
原创
发布博客 2023.04.15 ·
924 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

手搓GPT系列之 - 神经网络模型基础知识,教你5分钟实现一个手写体识别神经网络

​2023年了nlp还存不存在我不知道,数学家的思想真的有意思。介绍了线性回归分类器和softmax分类器,并证明了softmax分类器是由线性回归分类器并联而成的。本文将介绍以LR模型为基础的另一个分类器:神经网络。我们将介绍神经网络模型中的一些核心概念和训练过程,并介绍神经网络模型与LR模型及softmax模型的关系。可以帮助机器学习领域的初学者对神经网络模型建立一个基本的认知。
原创
发布博客 2023.04.11 ·
961 阅读 ·
0 点赞 ·
0 评论 ·
8 收藏

手搓GPT系列之 - 线性回归与softmax分类器,从理论到实战

NLP还存不存在我不知道,但数学之美一直都在。线性回归是机器学习中非常重要的一个砖块,我们将介绍线性回归和softmax分类器的数学原理及其内在关联。既是对自己学习成果的一种记录,如果能够对别人有所帮助那真是让人开心。
原创
发布博客 2023.04.05 ·
819 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

手搓GPT系列之 - 如何理解logit函数

如何理解logit公式?为什么叫这个名字呢?有些人说logit公式就是神经网络中未经过连接函数(一般为sigmoid函数)处理过的函数。这些说法也不错,不过还没到点上,我们在这里说明一下为什么这个公式叫logit公式。
原创
发布博客 2023.04.04 ·
953 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

手搓GPT系列之:单词向量(Word Vectors)的基本原理

前面一篇文章介绍了通过gensim操作单词向量的demo,有兴趣的同学可以移步这里。这一篇将给大家介绍该算法背后的原理。
原创
发布博客 2023.03.20 ·
1330 阅读 ·
1 点赞 ·
1 评论 ·
10 收藏

glove 6B word2vec txt

发布资源 2023.03.19 ·
zip

手搓GPT系列之:单词向量(word vector)初体验

单词向量,指的是把每个单词表示为一个高维的实数向量(通常为100维到300维之间)。这些向量用来对词义(word meaning)进行建模。我们可以通过对比不同单词之间单词向量的距离,来表示这些单词在训练语料中的关系。
原创
发布博客 2023.03.19 ·
510 阅读 ·
1 点赞 ·
0 评论 ·
1 收藏

Resilience4j系列 - 使用Resilience4j-circuitbreaker优雅实现服务降级

通过实战的方式,逐步介绍在springboot项目中集成resilience4j-circuitbreaker的详细步骤。
原创
发布博客 2022.01.29 ·
3619 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏
加载更多