计算机基础
飞龙在天max
这个作者很懒,什么都没留下…
展开
-
py 编码
5.编码这里主要针对 py2 来说。关于编码的问题我很早就注意到了,当时处理一段文本,发现这里面有很多这样的字符:\\xe5\\xb0\\x8f\\xe7\\xb1\\xb3\\xe6\\x89\\x8b\\xe6\\x9c\\xba \x91\xb8这是什么莫名其妙的东西,当时了解到这是非英文文本被 ascii (py2 默认编码) 编码处理后的结果,没错就是乱码,但是没有深入了解它,今天终于知道这是 十六进制字节码,这种字节码用 \ 进行转义,但是从 txt 读取之后就自动变成了 \\ 取消转原创 2021-02-10 19:50:29 · 700 阅读 · 0 评论 -
我认得embdedding
概述就是降维!我们训练一个具有单个隐藏层的简单神经网络,想要的是这些隐藏层的权重,这些权重实际上就是word vectors.trick:Subsample: 减少训练的词。Negative sample: 使每个训练样本只能更新很少的一部分模型权重,加快训练。简介https://machinelearningmastery.com/what-are-word-embeddings/https://www.zhihu.com/question/32275069词嵌入是自然语言处理(N原创 2020-12-01 20:08:53 · 426 阅读 · 0 评论 -
DOC: Deep Open Classification of Text Documents
老师问的问题1D CNN 卷积如何做?这里 Loss 函数如何做?这个 Loss 函数就是把该类作为正类,其他所有的都是负类。 I 是指示函数,p(yj=li)=Sigmoid(dj,i)p(y_{j}=l_{i}) = Sigmoid(d_{j,i})p(yj=li)=Sigmoid(dj,i) 第j 个文档,d的第i维输出。DOC: Deep Open Classification of Text Documents这篇文章目标:制造一个 m+1 分类器,保证训练集中 m原创 2020-12-01 20:07:33 · 698 阅读 · 0 评论