机器学习
Zero_to_zero1234
Be objective
展开
-
使用vscode远程连接docker容器
vscode远程链接docker转载 2022-06-23 16:41:45 · 1248 阅读 · 0 评论 -
简述无偏估计和有偏估计
参考自苏神博客:《简述无偏估计和有偏估计 》[Blog post]. Retrieved from https://kexue.fm/archives/6747作者从熟悉的方差介绍,引入无偏和有偏估计的概念原创 2020-07-28 21:04:03 · 3088 阅读 · 0 评论 -
VAE全面理解
【学习笔记】生成模型——变分自编码器原创 2020-06-04 15:59:07 · 831 阅读 · 0 评论 -
极简使用gensim训练词向量
由于想要一个较小的词向量语言模型来做简单的文本分类(BERT模型太大),找了很多也没找到合适的,所以使用gensim训练 word2vec 模型,如果涉及词向量的简单使用时,而不参与模型训练,可以使用gensim库来提供计算比使用embedding层更加快捷,因为模型内部有查询优化,所以速度很快一、选取训练语料库https://github.com/brightmart/nlp_chinese...原创 2020-03-31 12:15:10 · 1461 阅读 · 2 评论 -
一文详解高斯混合模型原理
一文详解高斯混合模型原理(转载自:https://www.ituring.com.cn/article/497545)什么是高斯混合模型(Gaussian Mixture Model)高斯混合模型(Gaussian Mixture Model)通常简称GMM,是一种业界广泛使用的聚类算法,该方法使用了高斯分布作为参数模型,并使用了期望最大(Expectation Maximization,简称...转载 2020-02-11 19:12:28 · 6248 阅读 · 2 评论 -
线性回归 & 逻辑回归
推荐阅读:知乎文:浅析机器学习:线性回归 & 逻辑回归CSDN博客:线性回归与逻辑回归关键点:1、线性回归的核心构建:损失函数->优化策略->过拟合策略(这个深究可以是一个很大领域的内容)2、逻辑回归和线性回归的区别和损失函数的来源线性回归:线性回归和逻辑回归逻辑回归的损失函数...转载 2020-01-19 20:55:43 · 155 阅读 · 0 评论 -
吴恩达Machine Learning Yearning阅读记录(1)开发集、测试集和评估指标的重要性
1、数据量和模型选择2、开发集和测试集(开发集和测试集应该服从同一分布)3、优化指标和满意度指标这一点很重要,有时候我们关注的往往有多个指标,而指标之间又相互制约,所以需要固定下一个指标或者确定一个有效范围,在此特定情况下不断优化,不断迭代!4、通过开发集和度量指标,加速迭代这一点是以上和核心,即 训练前优先确定固定的优质测试集和度量指标经常遇到的一个问题是测试集可能也暂时不...原创 2019-10-31 10:06:13 · 207 阅读 · 0 评论 -
神经网络 和 NLP —— 结构化输出预测
转载文章: https://blog.csdn.net/lipengcn/article/details/85014199转载 2019-05-17 17:00:54 · 409 阅读 · 0 评论 -
Word2Vec原理之层次Softmax算法(转)
Word2Vec原理之层次Softmax算法:http://qiancy.com/2016/08/17/word2vec-hierarchical-softmax/另外,添加一个交叉熵损失函数内容:https://blog.csdn.net/red_stone1/article/details/80735068...转载 2019-05-16 21:47:02 · 1481 阅读 · 0 评论 -
国外最顶级的人工智能网站资源
1、大牛Jason Brownlee : https://machinelearningmastery.com/blog/2、AI趋势: https://www.aitrends.com/3、OPENAI https://openai.com/blog/4、Chatbot https://chatbotslife.com/5、麻省理工学院新闻: http://news.mit.edu/to...原创 2019-05-16 18:24:02 · 11382 阅读 · 0 评论 -
深度学习调参和数据增强
深度学习中关于模型训练的一些小技巧:一、数据平衡性对模型的影响训练数据的均衡性,对模型的收敛速度和训练效果都会有较大影响。拿分类问题来说,如果是二分类或者三分类,如果某一类数据特别少很容易导致模型训练收敛慢,而且模型真正的表达能力不强,准确率可能很高,但是 f1 值不高,就是各类数据的准确率不是都很高,在少量数据的类方面,预测能力较弱,但是可能由于数据少的原因,导致问题被遮掩所以,解决方法可...原创 2019-05-07 17:51:45 · 805 阅读 · 0 评论 -
PCA主成分分析与SVD奇异值分解与LSI、SVM
关于PCA、SVD、SVM、LSI之间的神秘联系,推荐几篇精文,看懂后,好好琢磨可以打通很多方面知识,关于线性代数和概率论和算法的深层关系,话不多说,如下:(一)PCA的数学原理:http://blog.codinglabs.org/articles/pca-tutorial.html(来自 CodingLabs)(二)机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用ht...转载 2019-01-08 09:29:09 · 728 阅读 · 0 评论 -
python 将字典存储为文件
pickle methodsave a python object into a .plk fileimport pickledef save_obj(obj, name ): with open('obj/'+ name + '.pkl', 'wb') as f: pickle.dump(obj, f, pickle.HIGHEST_PROTOCOL)def ...原创 2019-03-22 18:28:23 · 14202 阅读 · 0 评论 -
设置keras学习率调整
Keras提供两种学习率适应方法,可通过回调函数实现。LearningRateSchedulerkeras.callbacks.LearningRateScheduler(schedule)该回调函数是学习率调度器.参数schedule:函数,该函数以epoch号为参数(从0算起的整数),返回一个新学习率(浮点数)代码import keras.backend as Kfrom...转载 2019-04-02 15:15:51 · 7357 阅读 · 0 评论 -
keras训练模型和保存模型
keras搬砖系列-keras保存最好的模型keras.callbacks是一个好东西。keras.callbacks在model.fit中发挥的作用为:from keras.callbacks import Tensorboard......tensorboard = Tensorboard(log_dir='log(就是你想存事件的文件夹)')callback_lists = [t...转载 2019-04-02 18:03:49 · 2595 阅读 · 1 评论 -
在anaconda环境下,安装tensorflow
安装环境:Centos7,anaconda3,python3.6方式一:(1) 建立一个 conda 计算环境名字叫tensorflow:conda create -n tensorflow python=3.6一定要指定python版本,否则安装失败。(2)激活tensorflow环境,然后使用其中的 pip 安装 TensorFlow。当使用easy_install使用–ignor...原创 2019-04-08 20:55:41 · 330 阅读 · 0 评论 -
Keras—embedding嵌入层的使用
转载自:https://blog.csdn.net/qq_33472765/article/details/86561245最近在工作中进行了NLP的内容,使用的还是Keras中embedding的词嵌入来做的。Keras中embedding层做一下介绍。中文文档地址:https://keras.io/zh/layers/embeddings/参数如下:其中参数重点有input_dim...转载 2019-04-16 18:52:04 · 2540 阅读 · 0 评论 -
tensorflow的回调函数Callbacks
参考:https://keras-cn.readthedocs.io/en/latest/other/callbacks/转载 2019-04-22 17:58:44 · 2526 阅读 · 0 评论 -
LDA深入精讲(强力推荐)
声明:本文转载自July的CSDN博客,仅作为知识记录所用,原文链接:http://blog.csdn.net/v_july_v/article/details/412095150 前言    印象中,最开始听说“LDA”这个名词,是缘于rickjin在2013年3月写的一个LDA科普系列,叫LDA数学八卦,我当时一直想看来着,记得还打印过一次,但不知是因为这篇...转载 2018-12-14 10:33:31 · 458 阅读 · 0 评论