机器学习
忧郁一休
算法初学者
展开
-
李宏毅--Machine Learning and having it deep and structured
国立台湾大学电机工程学系助理教授–李宏毅 研究领域:机器学习、深度学习、语义理解、语音辨识 个人主页 课程名称:Machine Learning and having it deep and structured有PPT(pdf版本),有授课视频,可在线学习,也可下载观看。原创 2016-12-26 14:53:26 · 10921 阅读 · 1 评论 -
李弘毅--Machine Learning
课程地址:Machine Learning这是国立台湾大学李弘毅教授在2016年秋季学期讲授的机器学习课程。 课程地址里面包含课件(英文制作)和视频(中文讲授)。课程涉及回归、梯度下降、分类、深度学习、反向传播、卷积神经网络、半监督学习、非监督学习、迁移学习、支持向量机、结构化学习、强化学习等知识点。该课程对经典的算法原理和最新的研究成果都有涉及,是一门非常好的机器学习公开课,配套的作业设计的也非原创 2017-01-17 18:14:09 · 2028 阅读 · 1 评论 -
李弘毅机器学习路线图
机器学习的目标就是求一个从输入到输出的函数(Function)回归(regression):它的输出是一个数值分类(classification) 二分类(binary classification) 例子:垃圾邮件分类(spam filtering)多分类(multi-class classification) 例子:文档分类(document classification)回归和分原创 2017-01-19 20:28:04 · 1807 阅读 · 0 评论 -
机器学习笔试题目
1、常见的生成式模型和判别式模型有哪些? 生成式模型:HMM、朴素贝叶斯 判别式模型:SVM、最大熵模型、神经网络、决策树、条件随机场2、EM算法的基本概念和应用场景? EM算法是在概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐藏变量(Latent Variable)。假设我们估计知道A和B两个参数,在开始状态下两者都是未知的,并且知道了A的信息就可以原创 2017-05-18 22:22:16 · 13505 阅读 · 0 评论 -
kaggle房价预测/Ridge/RandomForest/cross_validation
kaggle房价预测比赛官方地址实验平台:Windows10 64位 + sublime text 3 + anaconda 2 64位(Python2) + numpy + pandas + matplotlib + sklearnStep 0:引入相关的包# coding:utf-8# 注意读取文件时,Windows系统的\\和Linux系统的/的区别import numpy as npim原创 2017-06-02 09:59:07 · 6427 阅读 · 1 评论 -
Ubuntu16.04安装XGBoost简明教程
一、pip方式(未测试,看好多博主推荐的极简安装方式) 打开终端,输入:sudo pip install xgboost二、git方式(官网给的,亲测可以~)1、打开终端,用git指令克隆GitHub上的xgboost代码仓库,注意recursive参数的使用:git clone --recursive https://github.com/dmlc/xgboost2、建立共享库(此过程需要一点时原创 2017-06-02 11:02:50 · 3949 阅读 · 0 评论 -
Kaggle房价预测进阶版/bagging/boosting/AdaBoost/XGBoost
所谓进阶篇,无非是从模型的角度考虑,用了bagging、boosting(AdaBoost)、XGBoost三个牛X的模型,或者说是模型框架。 前期的数据处理阶段,即step1/2/3和 kaggle房价预测/Ridge/RandomForest/cross_validation 里面的step1/2/3没有任何不同。所以,我这里从step4开始写:Step 4: 建立模型 把数据集分回 训原创 2017-06-02 10:39:10 · 8220 阅读 · 2 评论