关闭

Python自定义:粒子群优化算法

#!usr/bin/env python #-*- coding:utf-8 _*- """ @author:fonttian @file: 粒子群优化算法.py @time: 2017/10/15 """# References from : http://blog.csdn.net/kunshanyuz/article/details/63683145import numpy as np im...
阅读(174) 评论(0)

实战_2017中国数学建模大赛_B题_第二题

简介原问题是给出一个定价策略,证明其相较于原来定价策略的优点.那么首先我们第一题第二问得到了一个 价格-完成率 函数,此时我们需要的是给出一个新的定价函数,并利用遗传算法得到最佳参数.思路 编码–>我们需要编码的是定价函数的参数 评价函数—->将编码输入的定价函数得到价格,然后将价格输入之前得到的 价格-完成率 函数得到完成率 求解的目标应当是最大化完成率 为了控制成本需要对价格进行一定的限制,避免...
阅读(266) 评论(1)

Deap: python中的遗传算法工具箱

Overview 程序概览官方文档:http://deap.readthedocs.io/en/master/index.html 1. Types : 选择你要解决的问题类型,确定要求解的问题个数,最大值还是最小值 2. Initialization : 初始化基因编码位数,初始值,等基本信息 3. Operators : 操作,设计evaluate函数,在工具箱中注册参数信息:交叉,变异,...
阅读(249) 评论(0)

sklearn中的Pipline(流水线学习器)

简介管道机制实现了对全部步骤的流式化封装和管理(streaming workflows with pipelines)。管道机制(也有人翻译为流水线学习器?这样翻译可能更有利于后面内容的理解)在机器学习算法中得以应用的根源在于,参数集在新数据集(比如测试集)上的重复使用。使用管道机制可以大幅度减少代码量.总的来说这是一个非常实用而有趣的方法注意:管道机制更像是编程技巧的创新,而非算法的创新。 通...
阅读(260) 评论(0)

4.2 Tensorflow笔记:池化函数

池化卷积神经网络的结构其中,input为输入,conv为卷积层,由卷积核构成,pool为池层,由池化函数构成最后是全连接层与输出层,其负责对卷积层提取的特征进行处理以获得我们需要的结果池化函数的意义池化层的输入一般来源于上一个卷积层,主要作用是提供了很强的鲁棒性(例如max-pooling是取一小块区域中的最大值,此时若此区域中的其他值略有变化,或者图像稍有平移,pooling后的结果仍不变),并且...
阅读(685) 评论(0)

机器学习常见算法汇总

原文地址:http://www.ctocio.com/hotnews/15919.html 偶然看到的一篇文章,这篇文章写的很清晰,所以转载一下,补充自己的知识库,以下为正文 机器学习无疑是当前数据分析领域的一个热点内容。很多人在平时的工作中都或多或少会用到机器学习的算法。这里IT经理网为您总结一下常见的机器学习算法,以供您在工作和学习中参考。 机器学习的算法很多。很多时候困惑人...
阅读(541) 评论(0)

神经网络为什么要归一化

作者:梁小h 转载自 http://nnetinfo.com/nninfo/showText.jsp?id=37 ========================这里是分割线============================ 1.数值问题。        无容置疑,归一化的确可以避免一些不必要的数值问题。输入变量的数量级未致于会引起数值问题吧,但其实要引起也...
阅读(1183) 评论(0)

梯度下降与delta法则

delta法则 尽管当训练样例线性可分时,感知器法则可以成功地找到一个权向量,但如果样例不是线性可分时它将不能收敛。 因此,人们设计了另一个训练法则来克服这个不足,称为 delta 法则(delta rule)。如果训练样本不是线性可分的,那么 delta 法则会收敛到目标概念的最佳 近似。  delta 法则的关键思想是使用梯度下降(gradient descent)来搜索可能权向...
阅读(1151) 评论(0)

一文弄懂神经网络中的反向传播法

最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总是会遇到一些问题,或者看到大篇的公式觉得好像很难就退缩了,其实不难,就是一个链式求导法则反复用。如果...
阅读(1154) 评论(0)

朴素贝叶斯分类器(Navie Bayesian Classifier)中的几个要点(一)

关键字: 拉普拉斯修正(Laplacian correction) 懒惰学习(lazy leanring) 对数似然(log-likelihood) 拉普拉斯修正(Laplacian correction)朴素贝叶斯分类器的训练: 基于训练集D 来估计类先验概率P(y) 基于训练集D 为每个属性估计条件概率P(x|y) 因此当在某个训练集中,样本的一条特征值 EV 出现概率为 0 时,则会使计算的先...
阅读(1476) 评论(0)

OpenCV官方文档 理解k - means聚类

理解k - means聚类 目标 在这一章中,我们将了解k - means聚类的概念,它是如何工作等。 理论 我们将这个处理是常用的一个例子。 t恤尺寸问题 考虑一个公司要发布一个新模型的t恤。 显然他们将不得不制造模型满足人们各种尺寸的大小不同。 所以公司的数据甚至€™身高和体重,并把它们放到图,如下: 公司无法为所有的尺寸制作衣服。 相反,他们把人分为...
阅读(1304) 评论(0)

统计学习方法第四章朴素贝叶斯法-李航

第4章 朴素贝叶斯法 朴素贝叶斯 (naive Bayes) 法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入x,利用贝叶斯定理求出后验概率最大的输出Y。 4.1 朴素贝叶斯法的学习与分类 基本方法 朴素贝叶斯法通过训练数据集学习X和Y的联合概率分布 P(X,Y)。...
阅读(1315) 评论(0)
    个人资料
    • 访问:253309次
    • 积分:3071
    • 等级:
    • 排名:第11967名
    • 原创:93篇
    • 转载:20篇
    • 译文:2篇
    • 评论:35条
    博客专栏
    最新评论