- 博客(7)
- 资源 (20)
- 收藏
- 关注
原创 正则表达式--图像化形式,
最近看了一篇关于正则表达式的学习笔记,觉得讲的非常好,更有图形化的神器相助,想不学会都难,所以想转给大家看看。话说不是开发为啥要学正则表达式这种看似很晦涩的东西呢,因为现在很多搜索的场景都是支持正则表达式的,学会了正则表达式就有如一把利剑在手。本文较长,建议抽40分钟完整的时间一次读完再慢慢消化。以下是正文(为了适应难度,做了稍许调整)1.什么是正则表达式正则表达式,又称正规表示式...
2018-12-27 16:58:24 1763
转载 PageRank算法原理与Python实现
PageRank算法原理与Python实现 参考.PageRank算法--从原理到实现 零. PageRank算法简介PageRank算法,即网页排名算法,由Google创始人Larry Page在斯坦福上学的时候提出来的。该算法用于对网页进行排名,排名高的网页表示该网页被访问的概率高。该算法的主要思想有两点:a. 如果多个网页指向某个网页A,则网页A的排名较高。...
2018-12-19 12:01:26 5150 3
转载 python标准库----itertools
python标准库系列教程(一)——itertools01声明functools, itertools, operator是Python标准库为我们提供的支持函数式编程的三大模块,合理的使用这三个模块,我们可以写出更加简洁可读的Pythonic代码,本次的系列文章将介绍并使用这些python自带的标准模块,系列文章分篇连载,此为第一篇,有兴趣的小伙伴后面记得关注学习哦! 高效的...
2018-12-18 15:33:47 1834
转载 注意力机制(Attention Mechanism)在自然语言处理中的应用
注意力机制(Attention Mechanism)在自然语言处理中的应用 近年来,深度学习的研究越来越深入,在各个领域也都获得了不少突破性的进展。基于注意力(attention)机制的神经网络成为了最近神经网络研究的一个热点,本人最近也学习了一些基于attention机制的神经网络在自然语言处理(NLP)领域的论文,现在来对attention在NLP中的应用进行一个总结,和大家一起分享...
2018-12-16 22:26:12 701
转载 NLP中的self-attention【自-注意力】机制
随着注意力机制的深入研究,各式各样的attention被研究者们提出。在2017年6月google机器翻译团队在arXiv上放出的《Attention is all you need》论文受到了大家广泛关注,自注意力(self-attention)机制开始成为神经网络attention的研究热点,在各个任务上也取得了不错的效果。本人就这篇论文中的self-attention以及一些相关工作进行了学...
2018-12-16 22:19:39 4444 1
原创 卷积神经网络和Word Embeddings 在中文分词领域的应用
Convolutional Neural Network withWord Embeddings for Chinese Word Segmentation近年来,许多基于特征的神经模型已被应用于CWS。虽然已经有很好的表现了,但是都有两大缺点:第一,分词模型很大程度需要依赖人工设计bigram特征,不能自动捕获n-gram特征。第二,分词模型不能最大程度上使用完整的字信息。基于第一个缺...
2018-12-12 19:15:27 1454
转载 python re.compile()和findall()
compile(pattern[,flags] ) 根据包含正则表达式的字符串创建模式对象。>>>help(re.compile)compile(pattern, flags=0) Compile a regular expression pattern, returning a pattern object.通过help可以看到compile方法的介绍,返回...
2018-12-06 14:27:24 8230
面向社会计算的网络表示学习_论文.zip
2020-04-03
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人