![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
python
文章平均质量分 82
罗小丰同学
思想的碰撞,让我们更加接近真理!
欢迎小伙伴共同前行:245176275/robbebluecp@gmail.com
展开
-
redis + json = rejson
redis是目前使用最广泛的缓存数据库,没有之一,并且不接受反驳(手动滑稽)redis官方版支持大五种结构:key-value、list、set、zset、hash这一集,我们主要讨论hash,以python为例。在redis里面,我们可以这么存数据:hset:{name: xiaoluo}是吧,但是在绝大多数情况,比如后台的restful接口,可能会是这样的:{"d...原创 2020-03-03 23:14:00 · 2754 阅读 · 0 评论 -
关于胶囊网络(Capsule Net)的个人理解
最近在跟踪keras的contri版的更新时,发现了冒出了一个Capsule层。于是我百度+谷歌一顿操作猛如虎,才发现在很早之前,胶囊网络的概念就提出了。但是限于胶囊网络的performance并不是在各个数据集都是碾压的情况,并且其计算量偏大,训练时间偏长,所以并没有被广泛的运用和替换。但是在官方给出的测试结果来看,其实效果还是挺不错的。以上是原论文(https://ar...原创 2019-12-13 16:04:08 · 9852 阅读 · 4 评论 -
图像处理——pdf表格处理
最近一直在处理金融方面的数据,其中比较难搞定的是财务报表里面的表格数据。很多非常有用的信息全部浓缩在表格里面,比如如下:这个算是比较规整的、行列整齐的表格。下面的就稍微难一些些:于是,研究了几天,做出了一版基本可用的单元格切割方案。脚本见:https://github.com/yfyvan/table_crop基本思路如下:(1)横竖线定位用的是卷积 ...原创 2019-09-26 11:13:12 · 769 阅读 · 0 评论 -
keras-bert 分类实战,代码重构
久仰bert大名,终于痛下杀手对bert做一个从肉体到精神上的深入探究和了解在参观了https://github.com/google-research/bert和https://github.com/CyberZHG/keras-bert后,我也决定重写一份keras版本的keras-bert(https://github.com/yfyvan/keras-bert-core),毕竟,是吧...原创 2019-08-15 17:18:58 · 2501 阅读 · 5 评论 -
一问带你看懂循环神经网络小黑匣内部结构——LSTM
今天给大家分享分享循环神经网络(以LSTM为研究对象)的内部计算逻辑,本次博客从keras源码,并结合一位博主的博客对其进行详细剖析。博客:https://www.cnblogs.com/wangduo/p/6773601.html?utm_source=itdadao&utm_medium=referral,这是一篇非常经典且详细的博客,大家一定要抽时间去过一遍,并仔细思考。探讨之前,假...原创 2019-04-12 16:09:21 · 2534 阅读 · 2 评论 -
词句相似度计算——余弦相似度
余弦相似度,是一种通过判断两个向量的夹角来判断其相似性的数学方法。举个栗子:A:中国工商银行北京分部北京支行B:中国招商银行广西分部桂林支行我们用“余弦相似度”的办法来判断这两个句子的相似性1、分词!第一步要做的肯定是分词,把一个句子分成一组一组的散词,分词一般我们会用现成的语料库,比如结巴分词是吧,传说中的最好用的中文分词模块包。如果不是专业性特别强的方向,足矣,如果是专...原创 2019-04-11 17:44:22 · 5927 阅读 · 2 评论 -
深入理解 Embedding层的本质
继上文https://blog.csdn.net/weixin_42078618/article/details/82999906探讨了embedding层的降维效果,时隔一个月,分享一下嵌入层在NPL领域的巨大作用。 本文的发表建立在了解文本转向量(如one-hot)的用法的前提上。 首先,继续假设我们有一句话,叫“公主很漂亮”,如果我们使用one-hot编码,可能得到的编码如下...原创 2018-11-26 18:58:43 · 13483 阅读 · 23 评论 -
Logistic Regression原理探讨
原创 2018-11-08 11:38:04 · 246 阅读 · 0 评论 -
浅析卷积神经网络为何能够进行特征提取
CNN在分类领域,有着惊人的效果。我们今天来聊聊为何CNN能有这么大的能力。在此之前,我们先了解两个数学概念,特征值和特征向量。这里先放3个传送门:https://blog.csdn.net/hjq376247328/article/details/80640544https://blog.csdn.net/woainishifu/article/details/76418176...原创 2018-11-09 16:56:01 · 38331 阅读 · 7 评论 -
深度学习中 Embedding层两大作用的个人理解
前一个月接触到一个概念,Embedding层。今天跟大家分享一下个人心得。 首先,我们有一个one-hot编码的概念。 假设,我们中文,一共只有10个字。。。只是假设啊,那么我们用0-9就可以表示完比如,这十个字就是“我从哪里来,要到何处去”其分别对应“0-9”,如下:我 从 哪 里 来 要 到 何 处 去0 1 2 3 4 ...原创 2018-10-10 17:45:33 · 44080 阅读 · 69 评论 -
python37 dataclass分享与思考
在python37版本中,引入了一个新的装饰器,@dataclass对于官方的介绍,譬如一键生成__init__, repr等魔法函数就不先讨论了,直接告诉大家这个东西怎么玩首先,常规类定义和调用方法class Test: className = 'Test' def __init__(self, name, age): self.name ...原创 2018-10-12 12:17:33 · 1252 阅读 · 0 评论 -
CNN中 全局池化和全连接层的相对讨论
一般情况下,在全连接层之前,我们会把池化的feature map进行flatten,比如200个3x3,会拉成1800x1的列向量,而后如果设置了50个神经元,则系统会生成50个1x1800的矩阵跟你的feature map进行矩阵乘法运算——>>> 50 x (1x1800x1800x1) ——>>> 变成一个50个元素的列向量最后如果你要分成10类,...原创 2018-10-11 23:32:50 · 2466 阅读 · 0 评论 -
卷积神经网络-BN、Dropout、leaky_relu (tensorflow)
神经网络是一种比较难以理解的结构,关于神经网络的各种层次的说明解释,大家请移步百度、google本次的分享会从人类视觉角度、生物角度谈一谈神经网络中的一些优化算法。 首先,计算机领域设计出来的算法、模型和数据结构,都可以理解为一种建模操作(这是一种解释方式)。比如:决策树,可以理解为把数据结构仿造树枝树干的结构进行设计的,以树为模型;SVM,可以理解为把数据堆从多维的角度,进行高维分类...原创 2018-09-04 16:53:32 · 8286 阅读 · 1 评论 -
技术分享-python-sklearn-决策树
决策树是一个很神奇的东西,原理上,只要你这棵树足够大,足够复杂,其准确度可以媲美神经网络。当然,此时过拟合的可能性也非常高了。原理性的东西不多聊了,直接切题。本次技术分享贴主要跟大家分享一下如何在python的sklearn中使用决策树进行数据的训练和预测。(1)首先,大家自行安装sklearn包,此处假设大家都已经有这个包了,我们先导入相关包# tree是建树用的模块,datase...原创 2018-08-27 18:45:08 · 601 阅读 · 0 评论 -
技术分享-Redis(2)
import redis# 如果没有设置密码,怎不需要输入passwordcon = redis.Redis(host='localhost', port=6379, db=0, password='321')"""(1)---键值对操作"""# 设置键值# 无则添加con.set(name='myname', value='dahei', ex=10, nx=True)# 有...原创 2018-07-03 19:41:44 · 189 阅读 · 0 评论 -
所见所闻-排序算法题(快排)
一道快排题Q:对一个已知长度的数组或列表,找出第k大的值。要求时间复杂度<=Nlog2N。PS:作为一名一直使用并将长期使用python的程序猿而言,在不考虑时间复杂度和空间复杂度的情况下,第一反应应该是sorted排个序,然后取第k-1个值即可。天真!!!这么简单还是题吗!!!你以为坑只是时间复杂度?!?一、切题 平均时间复杂度在Nlog2N级别的算法,应该有如下几个:快排、...原创 2018-06-17 18:09:46 · 210 阅读 · 0 评论