- 博客(12)
- 收藏
- 关注
原创 kunqixuexishiyan6
累加求和,explained_variance_ratio_,它代表降维后的各主成分的方差值占总方差值的比例,这个比例越大,则越是重要的主成分。x = mnist['data'].T #这个一定要转置一下,因为这里面的行列是反的!y = mnist['label'].T.flatten() #将数据展开。# 交叉验证,用随机森林模型的准确率来判断降维的好坏。# 画出累计方差贡献率曲线,找最佳降维后维度的范围。# 降维后维度的学习曲线,继续缩小最佳维度的范围。# 细化学习曲线,找出降维后的最佳维度。
2024-05-22 14:07:11 290
原创 坤气学习实验五
若用data[:,1]去取第二列数据,便会报错, # 因为根本不存在也找不到第二列。# np.nonzero(ClustDist[:, 0].A == cent)[0],返回一个m维numpy数组,一# 个点如果属于第cent簇,则为True,否则为False;DistList = [distEclud(dataset[i, :], cents[jk,:]) for jk in range(k)] # 离哪一类# 最近,里面有k个数据。# 循环迭代,得到最近的聚类中心。# 当k取2是,聚类的结果。
2024-05-17 15:25:16 881
原创 kunqixuexi4
data = pd.read_csv('./housing_price.csv',sep = ',',encoding = 'utf-8') #加载数据。plt.rcParams['font.sans-serif'] = 'SimHei'#设置字体为SimHei显示中文。# 调用线性回归模型,训练数据,依据模型预测房价,并显示,红色点为预测值,蓝色的点为原始值。print('回归方程为:\n','y=',coef[0],'*x0+',plt.rc('font', size=14)#设置图中字号大小。
2024-05-09 17:48:45 386
原创 实验三坤气学习
plt.plot(hidden_nodes, train_err[:, 1], label="logistic激活(训练误差)", linestyle='-.', linewidth=0.5)plt.plot(hidden_nodes, train_err[:, 0], label="relu激活(训练误差)", linestyle='-', linewidth=0.5)data = pd.read_table('邮政编码数据.txt', sep=' ', header=None)
2024-04-19 21:16:44 311 1
原创 机器学习代码实验二
titanic_data["Age"] = titanic_data["Age"].fillna(titanic_data["Age"].mean()) # 以整体年龄的平均数填充缺失值年龄。titanic_data.drop(["Name", "Ticket", "Cabin"], inplace=True, axis=1) # 删除缺失值过多的列与和预测的y没有关系的列。# 分析数据之间的关系((船舱等级)对是否生存的影响)# 分析数据之间的关系(Sex(性别)对生存的影响)# 加载数据,并显示。
2024-03-31 20:43:04 437 1
原创 train.csv
PassengerId,Survived,Pclass,Name,Sex,Age,SibSp,Parch,Ticket,Fare,Cabin,Embarked1,0,3,"Braund, Mr. Owen Harris",male,22,1,0,A/5 21171,7.25,,S2,1,1,"Cumings, Mrs. John Bradley (Florence Briggs Thayer)",female,38,1,0,PC 17599,71.2833,C85,C3,1,3,"Heikkinen,
2024-03-26 15:48:07 1579
原创 jiqixuexidaimashiyan2
data.drop(["Name","Ticket","Cabin"], inplace = True, axis = 1) #删除缺失值过多的列与和预测的y没有关系的列。data["Age"] = data["Age"].fillna(data["Age"].mean()) #以整体年龄的平均数填充缺失值年龄。data["Sex"] = (data["Sex"]== "male").astype("int") #进行强制转换。#分析数据之间的关系(Sex(性别)对生存的影响)# 加载数据,并显示。
2024-03-21 17:58:33 264 1
原创 机器学习实验一代码2
distance = math.sqrt((expected_data[0] - point[0]) ** 2 + (expected_data[1] - point[1]) ** 2) # 计算欧氏距离。KNN_algorithm(food_data, packet_data, elc_data, expected_data, k) # 调用K-近邻算法进行预测。print(food_data, packet_data, elc_data) # 打印三类数据。
2024-03-19 21:22:43 402 1
原创 机器学习KNN算法用K-近邻算法预测商品价格:假设有零食、包、电器三类商品,商品分别有价格、评价两类属性,数据分别存在3个不同的txt中。现有一个商品,价格为10,评价为10,建立KNN模型
读取数据,定义函数,读取三类数据,每一类数据生成一个二维列表。food_file=u"./零食.txt"print ("该类别为零食")print ("该类别为电器")pack_file=u"./包.txt"elc_file=u"./电器.txt"print ("该类别为包")# 读取电器数据文件。
2024-03-19 15:59:08 818
原创 人工 智能导论实验4python代码
处理~(@x)p(x) 变为(#x)~p(x)#####################################if orign[ind].isalpha():#(@x)p(x,y)这种情况。# 处理~(p%q) 变为(~p^~q)###################################### 第1种情况:前面有全称量词 (@x)((#y)p(x,y))变为(@x)p(x,f(x))# 第2种情况:前面没有全称量词 (#y)p(x,y)变为p(x,A)ind=ind+2#指向')'
2023-12-29 21:04:55 316
原创 人工智能导论实验5python代码
0 and(common==k)):#检查之前的交集是否在字典键里。common = frozenset(i.intersection(j))#保存交集。plausibility[i] = round(plausibility[i],4) #保留4位小数。belief[i] = round(belief[i],4) #保留4位小数。if {''}==i and {''}==j:#''之间的交集。plausibility[i] = 0 #初始化为0。#使用超集过滤具有相同信任值和合理性的元素。
2023-12-29 18:38:13 353
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人