机器智能
我们将在这里分享机器智能相关的内容
明日江郎
技术立身
展开
-
技.艺.道:器-python一站式平台Jupyter(丘比特)入门
一、简述Jupyter Notebook是一个开源Web应用程序,允许您创建和共享包含实时代码,方程式,可视化效果和叙述文本的文档。用途包括:数据清理和转换,数值模拟,统计模型,数据可视化,机器学习等。二、为什么使用jupyter在没有它的时代,我们进行数据分析时,我们需要这样做。使用文档编辑器进行问题分析及逻辑梳理。 使用python命令行或idea进行数据处理。 使用R或MATLAB进行可视化。 通过截图将分析及实现过程整理到一个文档中,作文分析报告。而使用Jupyter是这样的原创 2020-05-11 17:37:34 · 2111 阅读 · 0 评论 -
数据挖掘的标准方法CRISP-DM
一.数据挖掘的起源事实上,数据挖掘并不是近几年才出现的技术。只是近年来,随着传感器技术,和以RFID,NFC,3g,4g,WiFi,蓝牙,ZigBee等为代表的无线通讯技术的飞速发展,各行各业每分每秒都在源源不断产生着数据。几乎所有的人类行为,都可以在数据中找到或深或浅痕迹。因此,人们很自然的想到,通过数据了解自己,也通过数据了解对手,更通过数据了解环境和周围的人。兵法有云,"知己知彼,百原创 2017-07-24 18:30:17 · 839 阅读 · 0 评论 -
TensorFlow入门-10.经典损失函数-原理介绍
引言:“函数”不陌生,小时候我们曾经学过,函数表达的是一个对应关系。这种表述是相对宽泛的,也是相对准确的。宽泛是指客观来说这种表述对于数学也好,对于编程也好都是适用的。准确指的是,我主观上觉得它准确。“损失”就比较生活了,比如钱包被偷了,里面有五块钱现金,一张没有钱没来得及注销的银行卡,一包价值五毛钱的面巾纸及一张女朋友的照片。那么我们评估一下损失,发现这次损失了二十万零五块五,因为女朋友的照...原创 2020-02-25 22:17:44 · 299 阅读 · 0 评论 -
TensorFlow入门-09.感知机与多层网络
感知机:单层神经网络,没有隐藏层。问题:不能解决异或问题。多层网络:具有解决异或问题的能力。多层网络解决问题的原理:深层神经网络实际上有组合特征提取的功能。这个特性对于解决不易提取特征向量的问题(比如图像识别、语音识别等)有很大的帮助。这也是深度学习在这些问题上更容易取得突破性进展的原因。注意:以下两个样例的激活函数均为非线性函数未加入隐藏层的神经网络的分类效果: ...原创 2018-11-27 16:46:47 · 462 阅读 · 2 评论 -
TensorFlow入门-08.激活函数
1.激活函数作用:激活函数的作用是实现线性函数的去线性原理:将神经网络最后一层隐藏层的输出都经过一个非线性函数,那么整个神经网络就是一个非线性函数了。用法:特征矩阵*权重矩阵+偏置矩阵数学定义:TensorFlow实现:a = tf.nn.relu(tf.matmul(x, x1) + biases1)y = tf.nn.relu(tf.matmul(a, x2) ...原创 2018-11-27 16:02:28 · 139 阅读 · 0 评论 -
LaTeX公式编辑器(CSDN公式)使用入门
使用说明1.上标的表示:a^{x}上标内容为带有符号的字符串:a^{上标内容},即需要加大括号上标内容为不带有符号的字符串(或单个字符):a^上标内容,即不加大括号样例:y=a^{(1)}W^{(2)}===》2.下标的表示:w_{i}样例: y=w_i*x_i+b===》3.累加符号:\sum_{i}\sum_{累加起始值}^{累加次数...原创 2018-11-16 16:00:38 · 2895 阅读 · 0 评论 -
TensorFlow入门-07.深度学习与深层神经网络
0.深度学习的定义(维基百科):一类通过多层非线性变换对高复杂性数据建模算法的合集。1.深度学习与深层神经网络的关系:因为深层神经网络时实现“多层非线性变换”最常用的一种方法,所以在实际中基本上可以认为深度学习就是深层神经网络的代名词。2.深度学习的两个重要特性: |- 多层: |- 非线性:3.线性模型的定义:在线性模型中,模型的输出为输入的加权和。假...原创 2018-11-16 15:27:03 · 215 阅读 · 0 评论 -
TensorFlow入门-06.一个完整的神经网络样例程序
训练集:模拟数据集解决的问题:二分类问题样例代码:# 1.导入模块import tensorflow as tf# NumPy是一个科学计算的工具包,这里通过NumPy工具包生成模拟数据集from numpy.random import RandomState# 2.定义神经网络的参数w1 = tf.Variable(tf.random_normal((2, 3), st...原创 2018-11-14 17:40:38 · 422 阅读 · 0 评论 -
TensorFlow入门-05.用TensorFlow训练神经网络模型
1.placeholder机制作用:解决多次迭代中,计算图过大的问题。 |- 如果不使用placeholder机制,多次迭代中,多个特征向量,对应多个计算图。计算图利用率低。 |- 使用placeholder机制,多次迭代中,多个特征向量,对应一个计算图。计算图利用率高。特点: |- 是一种张量,因此它的类型可以在声明的时候指定,一旦声明就不可改变; ...原创 2018-11-14 16:38:57 · 193 阅读 · 0 评论 -
深度学习启蒙-02
0.TensorFlow的两个主要依赖包:Protocol Buffer、Bazel。1.序列化:将结构化的数据持久化或者进行网络传输时,需要进行序列化。2.Protocol Buffer:谷歌开发的处理结构化数据的工具。 |- 类比:类似 XML、JSON。原始数据:name:张三id:12345email:zhangsan@abc.comXML:&...原创 2018-11-08 15:33:10 · 143 阅读 · 0 评论 -
TensorFlow入门-04.TensorFlow变量与神经网络参数
0.TensorFlow中的变量 |- 函数介绍: |- tf.Variable:TensorFlow中的变量声明函数 |- tf.random_normal: |- TensorFlow中的随机数(正态分布)矩阵生成函数 |- 例子:tf.random_normal([行数, 列数], stddev...原创 2018-11-13 16:01:23 · 186 阅读 · 0 评论 -
TensorFlow入门-03.前向传播算法简述
0.前言:这里以最简单的全连接神经网络为例,讲解前向传播算法。1.神经元:构成一个神经网络的最小单元。 |- 神经元的输入:有多个输入,可以是整个神经网络的输入,也可以是上层神经元的输出。 |- 神经元的输出:一个神经元只有一个输出。一个最简单的神经元结构的输出就是所有输入的加权和,而不同输入的权重就是神经元的参数。 |- 神经网络的优化:指优化神经元...原创 2018-11-12 00:41:21 · 269 阅读 · 0 评论 -
TensorFlow入门-02.神经网络的主要功能及计算流程
0 基础实体:一个实际问题中的具体对象,如一个零件,一个茶杯,一本书等。特征向量(feature vector):所有用于描述实体的数字的组合就是一个实体的特征向量。对应一个空间(1维到n维)中的点。特征提取:获取实体的特征向量的过程。1 TensorFlow游乐场链接:http://playground.tensorflow.org功能:通过网页可视化的训练简单的神经网络...原创 2018-11-10 18:36:23 · 209 阅读 · 0 评论 -
深度学习启蒙-01
0.神经网络技术的起始年份:神经网络技术可以追溯到1943年。1.神经网络模型如何工作: |-提取特征值 |-输入特征值 |-计算加权和 |-阈值函数 |-输出结果2.模型运行中的问题:权重选的好,才算好的模型。可是人工设置并调试权重,麻烦且低效。后来Frank教授于1958年提出了感知机用来解决这个问题。3.感知机的作用:让计...原创 2018-11-07 17:45:09 · 189 阅读 · 0 评论 -
TensorFlow入门-01
0.TensorFlow的基础模型: |- 计算模型:计算图 |- 数据模型:张量 |- 运行模型:会话1.计算模型——计算图: 1.1 计算图的概念计算图,又称为“张量流图”(TensorFlow的字面意思就是“张量流”)。用来描述张量(在TensorFlow中作为一种基本数据结构,可以简单的理解为多维数组)之间通过计算相互转化的过程。所以TensorF...原创 2018-11-09 17:54:11 · 198 阅读 · 0 评论