- 博客(53)
- 收藏
- 关注
原创 常见三种编码方式
最近复习一些书,记录一下。在特征工程中,数据集经常会出现分类变量,这时候的分类变量可能是字符型,通常不能直接用于训练模型,这时需要对分类变量进行编码,用编码后的结果代入训练模型。这里介绍三种常见的编码方式,直接编数字没有放进来。这三种分别是 one-hot 编码、虚拟编码、效果编码。
2023-05-02 16:24:57
1636
1
原创 网格搜索参数优化(以 diabetes 数据集为例)
在机器学习过程中通常情况不能一次就得到最优的模型,往往需要多次调整模型的参数才能得到较好的结果。
2023-04-24 19:11:12
954
原创 有手就行——基础XGBoost实战以 iris 数据集为例
对于很多只是小小使用机器学习,而不是深入了解的人来说,了解各种原理可能是十分痛苦的,所以这里就以 XGBoost 为例,从导入数据到最后预测都用简单代码求解。
2023-04-23 12:59:26
1069
原创 matlab智能算法之模拟退火算法
本文包括:模拟退火算法基础介绍,模拟退火求解的四个例子:n元函数、二元函数、tsp旅行商问题、共享单车问题;有手敲的模拟退火算法,也有用matlab中的simulannealbnd函数进行求解。
2022-12-02 22:59:46
4143
4
原创 朱长江《偏微分方程简明教程》答案第三章部分
偏微分方程简明教程答案第三章 分离变量法习题3.23.2.1第三章 分离变量法习题3.23.2.11、求弦振动方程utt−a2uxx=0,0<x<l,t>0u_{tt}-a^2u_{xx}=0,\quad 0 < x <l,\quad t>0utt−a2uxx=0,0<x<l,t>0满足以下定解条件的解:(1){u∣t=0=sin32lπx,ut∣t=0=sin52lπx,0≤x≤l,u∣x=0=ux∣x=l=0,t≥0;(1)\lef
2022-05-30 10:38:10
1790
原创 朱长江《偏微分方程简明教程》答案第一章部分
偏微分方程简明教程第一章习题1.1第一章习题1.11、指出下列方程的阶,并判断它是线性的还是非线性的。如果是线性的,说明它还是其次的:(1)ut−(uxx+uyy)+1=0;(2)ut−uxx+xu=0;(3)ut−uxxt+uux=0;(4)ux2+uuy=0;(5)utt−uxx+t2+x2=0;(6)ux+eyuy=0;(7)ut+uxxxx+1+u=0;(8)ux(1+ux2)−12+uy(1+uy2)−12=0;(9)∂4u∂x4+2∂4u∂x2∂y2+∂4u∂y4=0;(10)∂3u∂x
2022-05-02 09:39:30
5437
4
原创 推荐系统介绍
推荐系统近几年互联网信息量呈现几何式增长,用户容易很迷失在海量信息中。虽然可以使用层次分类(分类目录)或者是搜索引擎等方法解决这类信息过载问题,但是层次分类需要手工对信息进行分类,并随着数据量增加层级逐渐增多,不便于用户浏览;而搜索引擎需要用户自己输入关键词,自行选择结果,这要求用户已明确知道要查找的内容,并且具有核心词的抽象能力,如果对结果不满意需要调整关键词重新搜索。推荐系统根据用户的浏览记录、社交网络等信息进行个性化的计算,发现用户的兴趣,并应用推荐算法最终达到“千人千面”个性化推荐的效果。我们
2022-04-04 10:33:03
1382
原创 【高维数据降维】拉普拉斯特征映射LE
高维数据降维之拉普拉斯特征映射 LE高维数据降维是指采用某种映射方法,降低随机变量的数量,例如将数据点从高维空间映射到低维空间中,从而实现维度减少。降维分为:特征选择 和 特征提取特征选择:是从含有冗余信息以及噪声信息的数据中找出主要变量;特征提取:是去掉原来的数据,生成新的变量,可以寻找数据内部的本质结构特征。降维的过程是通过对输入的原始数据特征进行学习,得到一个映射函数,实现将输入样本映射后到低维空间中之后,原始数据特征并没有明显的损失,通常情况下新空间的维度要小于原空间的维度。目前大部分降维
2022-04-03 08:04:08
1187
原创 【高维数据降维】局部线性嵌入LLE
高维数据降维之局部线性嵌入 LLE高维数据降维是指采用某种映射方法,降低随机变量的数量,例如将数据点从高维空间映射到低维空间中,从而实现维度减少。降维分为:特征选择 和 特征提取特征选择:是从含有冗余信息以及噪声信息的数据中找出主要变量;特征提取:是去掉原来的数据,生成新的变量,可以寻找数据内部的本质结构特征。降维的过程是通过对输入的原始数据特征进行学习,得到一个映射函数,实现将输入样本映射后到低维空间中之后,原始数据特征并没有明显的损失,通常情况下新空间的维度要小于原空间的维度。目前大部分降维算
2022-04-02 10:19:01
932
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人