ai
陈君豪
在无尾熊的世界里,有尾巴的就是王
展开
-
Dijkstra Floyd RRT A* D* LPA* D*-Lite 算法比较
代码请参考guyueju的代码本文用的代号:min_cost: 距离起始点的路径长度(代价)U: 待处理的节点, 也会用 openListS: 已处理的节点, 也会用 closeList从U放到S的节点就是本次要处理的节点current_pointparent 父节点best_path 最优路径goal 目标start_point 起始点current_point 当前处理的node,也会用X代替near_points 表示处理的node的临近节点, 也会用Y代替ch..原创 2022-02-22 23:38:57 · 2664 阅读 · 0 评论 -
4自由度机械臂正逆解公式推导与代码实现
视频链接:代码原创 2021-12-24 09:17:36 · 17356 阅读 · 20 评论 -
信息熵,相对熵,交叉熵
原创 2021-10-04 14:42:08 · 120 阅读 · 0 评论 -
tensorflow 常用的几个接口范例
from tensorflow import kerasfrom tensorflow.keras import layersimport tensorflow as tf# 图像分类model = keras.Sequential([ layers.Flatten(input_shape=[28, 28]), layers.Dense(128, activation='relu'), layers.Dense(10, activation='softmax')]).原创 2020-07-23 12:35:08 · 394 阅读 · 0 评论 -
softmax的公式推导
1 定义2. 将多项式化成指数族模型的一般形式3. 推导公式原创 2020-06-27 19:09:23 · 607 阅读 · 0 评论 -
CART回归树的原理及python实现的demo
回归树其实就是把相邻的几个点(不纯度较小的点,一般用mse计算) 视为一个区间,所以参数里包括 最小不纯度 min_impurity_decrease, 例如以下的点, 只分成2 类, 大于6.5的就返回右边三个点的平均值8.913 ,小于6.5的返回6.237决策树张这个样:tree = { x : {'<=6.5': 6.236666666666667, '>6.5': 8.912500000000001} }如果调整了min_impurity_de...原创 2020-05-15 21:09:15 · 493 阅读 · 0 评论 -
基尼指数和经验熵的关系
经验熵用麦克劳林一阶展开就是基尼指数, 用泰勒展开式在x=1的地方做1阶展开,可以得到相同的结果原创 2020-05-06 20:24:14 · 656 阅读 · 0 评论 -
SVM公式推导
1. 首先要知道把一个带约束项的求极值问题转换成拉格朗日对偶问题的方法2. 推导SVM的目标函数,最终转换成拉格朗日对偶问题L(w,b,e,alpha,beta)3. 求解不带约束的最优解,将L(w,b,e,alpha,beta) 转成只有一个参数L(alpha)4. L(alpha)的alpha其实是一个向量,所以要用SMO将其改造成W(alpha2)的形式, 并推导...原创 2020-05-06 20:13:40 · 517 阅读 · 0 评论 -
泰勒展开式的推导和证明(带皮亚诺余项)
原创 2020-05-01 01:11:10 · 20988 阅读 · 0 评论 -
支持向量机SVM (SMO) 的可视化 demo
做了一个demo可以动态显示支持向量机的更新状态, 其中蓝色的线是skleran算出来的结果, 红色的线是自己算出来的, 一般迭代 5-10次就和sklearn的 (蓝色的线) 高度重合了, 正确率不到100% 是数据本身的问题,没法用线性划分到100%正确比较了网上几个版本, 一直达不到理想的效果, 后来发现是b一直大幅跳跃 , 便做了一点修改, 首先alpha2是遍历所有的点, 遇到需...原创 2020-04-28 14:23:26 · 1467 阅读 · 1 评论 -
用SVM预测股票涨跌 - 免费分享全套代码
突然看到几篇用SVM预测股票涨跌的博客, 照着跑了一下发现正确率很高78.85%, 盈利次数和亏损次数的比值 也是不得了啊然后发现这些文章的涨跌是当日对昨日的涨跌,也就是在盘中预测今天收盘是涨还是跌value = pd.Series(df_CB['close']-df_CB['close'].shift(1),\ index=df_CB.in...原创 2020-04-22 23:09:15 · 3057 阅读 · 1 评论 -
隐马尔可夫模型 demo
统计学习方法第10章.红球白球的案例import numpy as npdef prepareData(): A=np.array([[0.5,0.2,0.3], [0.3,0.5,0.2], [0.2,0.3,0.5] ]) B = np.array([[0.5, ...原创 2020-03-18 22:32:23 · 982 阅读 · 0 评论 -
EM算法公式推导 (三硬币模型)
1. 因为有隐变量, 无法直接推导极大似然函数L(theta)2. 利用琴生不等式推导B 函数, 将问题从极大化似然函数变成极大化 B函数3. 将问题从极大化B函数变成极大化 Q函数4. 将Q函数整理成pi, p, q的函数5. 对pi偏微分,取得更新后的pi6. 对p偏微分,取得更新后的p7. 对q偏微分,取得更新后的q8. 整理程序步...原创 2020-03-16 17:42:38 · 1886 阅读 · 4 评论 -
EM算法初始值设定的影响 (三硬币模型)
先自定义pi,p,q的值,随机生成实验结果,将实验结果带入EM算法估计pi,p,q的值代码:import numpy as npdef prepareData(pi,p,q): sampleNum=1000 z_array=np.random.binomial(1,pi,sampleNum) p_array=np.random.binomial(1,p,np....原创 2020-03-16 12:40:58 · 1568 阅读 · 0 评论 -
adaboost 预测马病的几率,最大auc取法, 测试集准确率82.09%
1. 以机器学习中的horseColicTraining 为训练样本, horseColicTest为测试样本2. 实践中当训练次数大的时候会过拟合, 以最大训练次数40次, 取最大的auc的次数为最佳训练次数,3. 每次训练都会计算auc并绘图, 迭代40次后, 依照最大auc的次数重新训练,得到3个弱分类器,此时 auc 0.5264.进行测试, 测试集错误率17.91%最终r...原创 2020-03-15 14:03:29 · 1282 阅读 · 1 评论 -
用信息增益比构建决策树,实现李航统计学习方法第五章案例
李航<统计学习方法>第五章案例 5.3决策树的生成 Page77书中给的答案用python实现的并打印生成的决策树代码import numpy as npimport pandas as pdclass Node(): def __init__(self,node_id ,content=None,complete_featrue...原创 2020-02-10 12:34:42 · 1176 阅读 · 0 评论