去向前方的博客

No pain,No gain。

Python报错:The truth value of an array with more than one element is ambiguous

前言 程序员的一生就是和bug作战的一生,为了方便后来人以及自己的偶尔复习,特此写下本篇,记录自己的错误。 目录 文章目录前言目录正文解决方案 正文 在使用python的时候,总是会遇到一些奇特的错误,在调用numpy包后,会经常遇到这个错误: DeprecationWarning: ...

2019-04-18 20:26:13

阅读数 53

评论数 0

吴恩达 ML作业提交:Grader sent no response

目录 文章目录目录前言正文解决方案 前言 最近在补习吴恩达machinelearning 的课程,上完了课,肯定是要做作业的,做作业没有问题,但在提交作业时遇到了问题,记录如下,方便后来人。 正文 错误提示: **! Submission failed: 错误使用 submitWithConfig...

2019-03-31 14:12:07

阅读数 86

评论数 0

Kaggle问题总结1

目录 文章目录目录前言账号验证ie失败电话号码验证API数据下载 前言 Kaggle是一个国际级的数据科学比赛网站,上面有很多相应的数据比赛可以参加。 但是参加这个比赛不容易,账号注册,验证等等都会遇到很多问题,本文对作者参加比赛过程中遇到的问题进行一个小小的总结,希望能帮助到后来的各位。 账号验...

2019-03-19 12:31:03

阅读数 53

评论数 0

机器学习:分类器介绍

目录 [@TOC] 一 softmax 简介 计算loss时,预测值要与真实值分布在相同的数据区间内,例如真实值在[0,1]区间内,那么神经网络的预测值最好也要在相同的区间(0,1)内;这样在计算loss是才会有较好的效果。 在做二分类时,可在网络的输出层使用激活函数sigmoid(),将...

2019-03-18 19:50:54

阅读数 32

评论数 0

机器学习笔记GBDT(一):原理

目录 文章目录目录前言1. GBDT概述2. GBDT的负梯度拟合3. GBDT回归算法1) 初始化弱学习器2) 对于迭代轮数t=1,2,...,T有:3) 得到强学习器f(x)的表达式:4. GBDT分类算法4.1 二元GBDT分类算法4.2 多元GBDT分类算法5. GBDT常用损失函数6. ...

2019-03-18 16:02:44

阅读数 337

评论数 0

深度之眼课程打卡-python入门06

目录 文章目录目录前言简单演示显示多个图像指定轴的名称同时绘制多条曲线多条曲线之曲线说明多个figure,并加上特殊点注释tick能见度设置散点图条形图contour等高线图image图片显示3D数据图Subplot多合一显示分格显示gridspeceasy to define structur...

2019-03-14 11:36:55

阅读数 116

评论数 2

深度之眼课程打卡-python入门05

目录 文章目录目录前言内容一、数据结构介绍1、Series的创建2、DataFrame的创建二、数据索引index1、通过索引值或索引标签获取数据2、自动化对齐三、利用pandas查询数据四、统计分析五、类似于SQL的操作六、缺失值处理 前言 为了增加实战经验,选择了开通深度之眼vip,先试...

2019-03-12 21:06:56

阅读数 136

评论数 0

深度之眼课程打卡-python入门04

目录 文章目录目录前言内容数组的创建一维数组的创建二维数组的创建特殊数组有关数组的属性和函数数组的方法数组元素的获取二维数组元素的获取:布尔索引统计函数与线性代数运算线性代数运算随机数生成正态分布直方图使用二项分布进行赌博 前言 为了增加实战经验,选择了开通深度之眼vip,先试试水,效果好的话,推...

2019-03-11 20:21:36

阅读数 96

评论数 0

深度之眼课程打卡-统计学习方法01

目录 文章目录目录前言绪论作业打卡L1和L2范式ROC曲线一 roc曲线二 如何画roc曲线三 为什么使用Roc和Auc评价分类器补充 混淆矩阵参考 前言 为了增加实战经验,选择了开通深度之眼vip,先试试水,效果好的话,推荐给大家。 绪论 统计学习方法主要是讲李航博士统计学习方法那本书,一开始主...

2019-03-08 18:01:56

阅读数 37

评论数 0

深度之眼课程打卡-python入门01

目录 文章目录目录前言内容安装anaconda的可以参考这个实验jupyter 前言 为了增加实战经验,选择了开通深度之眼vip,先试试水,效果好的话,推荐给大家。 内容 · 安装anaconda · 实验jupyter · 安装pycharm 安装anaconda的可以参考这个 ...

2019-03-06 16:18:33

阅读数 157

评论数 0

杂文

正式上班一周,感觉体验还不错。 要专心学技术,解决问题,出成果了

2019-02-28 19:13:39

阅读数 105

评论数 0

数据科学学习课件:实用数据挖掘与人工智能

#目录 文章目录介绍OC] 介绍 课程讲解方法 1行业类 2流派演进方法 为了搞笑利用时间,采取第三种项目为核心的办法 成为驯服AI的超级人类 本章目标: 熟悉Jupynotebook 安装anaconda jupynotebook 1好好上网 2mendeley 3github 统计基础 #1....

2019-02-28 19:10:47

阅读数 39

评论数 0

自然语言处理笔记11-哈工大 关毅

目录 文章目录目录前言一篇论文的诞生(1)一篇论文的诞生(2)一片论文的诞生(3) 前言 硕士生涯结束,开始专心做一件自己觉得有用的工具,先做工程,后搞理论。 自然语言处理是一个非常难的问题,同时是人工智能皇冠上的明珠。 接下来会记录一系列自然语言处理的笔记,来自于哈工大老师关毅。 一篇论文的诞生...

2019-02-14 22:04:11

阅读数 35

评论数 0

自然语言处理笔记10-哈工大 关毅

目录 文章目录目录前言基于认知科学原理的相似模型(五)基于认知科学原理的相似模型(六)面向旅游领域的问答系统实验 前言 硕士生涯结束,开始专心做一件自己觉得有用的工具,先做工程,后搞理论。 自然语言处理是一个非常难的问题,同时是人工智能皇冠上的明珠。 接下来会记录一系列自然语言处理的笔记,来自于哈...

2019-02-14 15:23:35

阅读数 53

评论数 0

自然语言处理笔记9-哈工大 关毅

目录 文章目录目录前言课堂总结(一)课堂总结(二)课堂总结(三)课堂总结(四) 前言 硕士生涯结束,开始专心做一件自己觉得有用的工具,先做工程,后搞理论。 自然语言处理是一个非常难的问题,同时是人工智能皇冠上的明珠。 接下来会记录一系列自然语言处理的笔记,来自于哈工大老师关毅。 课堂总结(一) 问...

2019-01-14 16:25:54

阅读数 342

评论数 0

自然语言处理笔记8-哈工大 关毅

目录 文章目录目录前言问答系统基础一问答系统基础二问答系统术语问答系统基础三问答系统基础四问答系统基础五 前言 硕士生涯结束,开始专心做一件自己觉得有用的工具,先做工程,后搞理论。 自然语言处理是一个非常难的问题,同时是人工智能皇冠上的明珠。 接下来会记录一系列自然语言处理的笔记,来自于哈工大老师...

2019-01-14 11:36:18

阅读数 76

评论数 0

自然语言处理笔记7-哈工大 关毅

目录 文章目录目录前言句法分析技术1句法分析技术2句法分析技术3句法分析技术4 前言 硕士生涯结束,开始专心做一件自己觉得有用的工具,先做工程,后搞理论。 自然语言处理是一个非常难的问题,同时是人工智能皇冠上的明珠。 接下来会记录一系列自然语言处理的笔记,来自于哈工大老师关毅。 句法分析技术1 基...

2019-01-13 11:02:38

阅读数 111

评论数 0

自然语言处理笔记6-哈工大 关毅

目录 文章目录目录前言Markov模型1Markov模型2Markov 模型3Markov模型4Markov模型(5) 前言 硕士生涯结束,开始专心做一件自己觉得有用的工具,先做工程,后搞理论。 自然语言处理是一个非常难的问题,同时是人工智能皇冠上的明珠。 接下来会记录一系列自然语言处理的笔记,来...

2019-01-11 21:50:34

阅读数 79

评论数 0

自然语言处理笔记5-哈工大 关毅

目录 文章目录目录前言n-gram语言模型(一)n-gram语言模型(二)n-gram语言模型(三)n-gram语言模型(四)n-gram语言模型(五)n-gram语言模型(六)n-gram语言模型(七) 前言 硕士生涯结束,开始专心做一件自己觉得有用的工具,先做工程,后搞理论。 自然语言处理是一...

2019-01-04 19:25:25

阅读数 59

评论数 0

自然语言处理笔记4-哈工大 关毅

目录 文章目录目录前言汉语语料库的多级加工(1)汉语语料库的多级加工(2)汉语语料库的多级加工(3)汉语语料库的多级加工(4)汉语语料库的多级加工(5)汉语语料库的多级加工(6)汉语语料库的多级加工(7) 前言 硕士生涯结束,开始专心做一件自己觉得有用的工具,先做工程,后搞理论。 自然语言处理是一...

2018-12-14 19:53:07

阅读数 136

评论数 0

提示
确定要删除当前文章?
取消 删除
关闭
关闭