深度学习
女神对面的waltsmith
以前的博客都丢了,所以呢,咋整,突然又想重新捡起一些知识,还要学习一些新知识,好多大佬都说,活到老学到老,学不死就往死里学。。。综上还是要学习的。写个博客也好哈,记录一下自己的学习历程。写的好坏暂且不说,学习记录为主,跟其他博友多学习才好啊,啊啊啊啊学啊啊啊无涯啊,哪里有舟啊,学海全靠游啊。。。
展开
-
jetson nano/TX1安装opencv3.4.x无法找到archiconda3下的python3和PYTHON3_LIBRARIES
目录一、错误详情二、原因分析2.1 无法找到archiconda3下的python32.2 无法找到archiconda3下的PYTHON3_LIBRARIES;三、解决方法3.1 无法找到archiconda3下的python33.2 无法找到archiconda3下的PYTHON3_LIBRARIES;参考文献一、错误详情环境: Jetson nano/TX1 Ubuntu18错误信息...原创 2019-12-18 11:26:58 · 1526 阅读 · 1 评论 -
机器学习中的编码:Index编码、OneHot编码和Multiple编码及其对比
文章目录一、 Index编码二、 OneHot编码独热编码优缺点什么情况下(不)用独热编码?什么情况下(不)需要归一化?三、 Multiple编码如何使用Multiple编码呢?四、 编码比较参考文献一、 Index编码用来对离散的类型特征进行编码,如,不连续的数值、文本,将离散的特征转换成连续的数值型变量。基于索引的编码可以起到数据归一化的作用,如,id为1和10000,当id作为LR的特征...原创 2019-11-18 16:46:51 · 5893 阅读 · 2 评论 -
关键词提取--技术原理概览
新闻关键词提取–技术调研一、TF-IDFTF > Term FrequencyTF = 某个词在文章中出现的次数“词频”标准化-1TF=某个词在文章中出现的次数文章的总词数TF = \frac {某个词在文章中出现的次数}{文章的总词数}“词频”标准化-2TF=某个词在文章中出现的次数Max{文章中词的出现次数}TF = \frac {某个词原创 2019-07-18 13:30:50 · 1604 阅读 · 0 评论