墨轩子卿
码龄5年
关注
提问 私信
  • 博客:6,473
    社区:3
    动态:17
    6,493
    总访问量
  • 14
    原创
  • 904,605
    排名
  • 4
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:上海市
  • 加入CSDN时间: 2020-01-04
博客简介:

qq_46141221的博客

查看详细资料
个人成就
  • 获得8次点赞
  • 内容获得1次评论
  • 获得24次收藏
创作历程
  • 14篇
    2021年
成就勋章
TA的专栏
  • 深度学习
    1篇
  • 机器学习
    12篇
  • IP网络搭建
    1篇
兴趣领域 设置
  • 人工智能
    机器学习深度学习图像处理
创作活动更多

HarmonyOS开发者社区有奖征文来啦!

用文字记录下您与HarmonyOS的故事。参与活动,还有机会赢奖,快来加入我们吧!

0人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

来csdn两年多了都,我还是个技术小白,接下来也要准备考研了,想研究算法没有学历不行呐。

发布动态 2022.01.11

使用pytorch搭建卷积神经网络

使用pytorch构建卷积神经网络基于吴恩达老师的深度学习作业,老师所用的是tensorflow,而且版本较老,因为近期接触的是pytorch,打算自己通过pytorch来搭建。Dataset:class CNNTrainDataSet(Dataset): def __init__(self, data_file, transform=None, target_transform=None): self.transform = transform self.
原创
发布博客 2021.11.30 ·
1809 阅读 ·
2 点赞 ·
0 评论 ·
11 收藏

diagnostic -- 修正

Maching learning diagnostic概念:​ A test that you can run to gain insight whta is/isn’t working with a learning algorithm,and gain guidance as to how best to improve its performance评估假设:将一组数据分为训练集和测试集,一般以7:3 当数据是有规则时,我们最好使用随机函数,没有规则时,只需要按顺序分割即可。接下来我们使用
原创
发布博客 2021.11.10 ·
191 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

backpropagation

反向传播算法利用反向传播识别手写数字:概念,载入数据等重复的过程请参考文章:neural network,本文章只记录代码实现过程数据初始化:input_layer_size = 400hidden_layer_size = 25num_labels = 10# loading and visualizing datadata = sio.loadmat('ex4data1.mat')X = data['X']y = data['y']m = X.shape[0]Y = np.ze
原创
发布博客 2021.11.09 ·
772 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

One Vs All

One VS All 目的:​ 训练一个一对多的模型,本次实验主要是训练出一个识别(0~9)十个数字的模型加载数据:# 初始化数据input_layer_size = 400num_labels = 10# 加载数据print('Loading and Visualizing data')data = io.loadmat('ex3data1.mat')X = data["X"]y = data["y"]m = np.size(X, 0)可视化数据:def display
原创
发布博客 2021.11.06 ·
895 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

regularization-修正

正则化概念:​ 在某种应用场景之下,可能一个结果会有许多影响参数,比如综合评价一个学生的标准,就有一堆的条件,此时会出现过拟合和欠拟合两种情况。​ 欠拟合:程序对某一个参数偏置严重,甚至只以这个参数为标准。​ 过拟合:对每一个参数都进行贴合,即使有些参数它其实是无关紧要的(看起来很重要,实际参与运算很小的),这样就会导致函数的复杂度大大提高。​ 而解决欠拟合和过拟合的方式就是正则化。我们通过引入惩罚项来进行正则化,这是原损失函数cost=12m∑(hθ(xi)−yi)2cost = \f
原创
发布博客 2021.11.04 ·
110 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Logistic Regression-修正

Logistic Regression——二分类概念:​ 分类算法是一种典型的监督学习算法,数据标签为离散值,比如{0,1},而我们所要做的任务就是通过数据集的训练,让算法能够预测下一组数据为另外一个值的概率。步骤:​ 前面的gradient descent 介绍了我们的一般方法,我们继续以此步骤完成我们的二分类算法。​ 在此之前,我们需要将数据集进行分类,例如:有和没有等等对立的元素用{0,1}来表征,这里就需要引入阈值函数,sigmoidf(x)=11+e−xf(x) = \frac
原创
发布博客 2021.11.03 ·
224 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

gradient descent修正

线性回归算法主要目的:​ 通过线性回归算法,根据已知的数据集进行训练得出一条较吻合的曲线。相关概念:​ 回归曲线:可以直观呈现出数据集相关的关系,并可以进行预测。​ 梯度下降法:​ cost function: 回归算法是一种监督学习算法,会有响应的数据与预测数据进行比对,损失函数就是一种预测数据与实际数据偏差的表征。实验步骤:1:根据数据集画出对应的图# Part two plottingdef plotData(x, y): plt.plot(x, y, 'rx', ms='
原创
发布博客 2021.11.02 ·
199 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

svm 初入

svm优化函数:​ 对于线性回归的损失函数,我们有:Cost(hθ(x),y)=yilog(hθ(xi))−(1−yi)(1−log(1−hθ(xi)))Cost(h_\theta(x),y) = y^{i}log(h_\theta(x^{i})) - (1-y^{i})(1-log(1-h_\theta(x^{i})))Cost(hθ​(x),y)=yilog(hθ​(xi))−(1−yi)(1−log(1−hθ​(xi)))当y=1时,我们有:Cost(hθ(x),y)=log(11+e
原创
发布博客 2021.08.13 ·
212 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

diagnostic

Maching learning diagnostic概念:​ A test that you can run to gain insight whta is/isn’t working with a learning algorithm,and gain guidance as to how best to improve its performance评估假设:将一组数据分为训练集和测试集,一般以7:3 当数据是有规则时,我们最好使用随机函数,没有规则时,只需要按顺序分割即可。接下来我们使用
原创
发布博客 2021.08.05 ·
248 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

regularization

正则化概念:​ 在某种应用场景之下,可能一个结果会有许多影响参数,比如综合评价一个学生的标准,就有一堆的条件,此时会出现过拟合和欠拟合两种情况。​ 欠拟合:程序对某一个参数偏置严重,甚至只以这个参数为标准。​ 过拟合:对每一个参数都进行贴合,即使有些参数它其实是无关紧要的(看起来很重要,实际参与运算很小的),这样就会导致函数的复杂度大大提高。​ 而解决欠拟合和过拟合的方式就是正则化。我们通过引入惩罚项来进行正则化,这是原损失函数cost=12m∑(hθ(xi)−yi)2cost = \f
原创
发布博客 2021.08.03 ·
89 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

neural network

neural network概念;​ 神经网络是一种人工智能思想方法,从人脑的角度来学习如何智能化。模型:​ 我们把第一部分叫作输入层,第二部分叫作隐藏层,第三部分叫作输出层每一条一直到底的线都是一个运算过程我们可以得出如下:a1(2)=g(θ10(1)x0+θ11(1)x1+θ12(1)x2+θ13(1)x3)a2(2)=g(θ20(1)x0+θ21(1)x1+θ22(1)x2+θ23(1)x3)a3(2)=g(θ30(1)x0+θ31(1)x1+θ32(1)x2+θ33(1)x3)h
原创
发布博客 2021.07.30 ·
522 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Logistic Regression

Logistic Regression——二分类概念:​ 分类算法是一种典型的监督学习算法,数据标签为离散值,比如{0,1},而我们所要做的任务就是通过数据集的训练,让算法能够预测下一组数据为另外一个值的概率。步骤:​ 前面的gradient descent 介绍了我们的一般方法,我们继续以此步骤完成我们的二分类算法。​ 在此之前,我们需要将数据集进行分类,例如:有和没有等等对立的元素用{0,1}来表征,这里就需要引入阈值函数,sigmoidf(x)=11+e−xf(x) = \frac
原创
发布博客 2021.07.05 ·
137 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

DHCP及ACL实验

DHCP及ACL实验工具:ensp,virtualbox网络拓扑如下:任务:通过DHCP为三台主机分配地址实现互相ping通通过ACL控制PC1无法访问服务器,PC2 与PC3可以实现:首先保证pc机开启了DHCP一定要记得点应用!一定要记得点应用!一定要记得点应用!开始配置交换机进入视图模式system-view ​ 开启DHCPdhcp enable ​ 创建vlan 100 200 300 400 ,分别将pc1 pc2 pc3 serv
原创
发布博客 2021.06.04 ·
892 阅读 ·
3 点赞 ·
0 评论 ·
10 收藏

机器学习——gradient descent

机器学习——梯度下降法线性回归算法主要目的:​ 通过线性回归算法,根据已知的数据集进行训练得出一条较吻合的曲线。相关概念:​ 回归曲线:可以直观呈现出数据集相关的关系,并可以进行预测。​ 梯度下降法:​ cost function: 回归算法是一种监督学习算法,会有响应的数据与预测数据进行比对,损失函数就是一种预测数据与实际数据偏差的表征。实验步骤:1:根据数据集画出对应的图2:求出它的近似曲线:​ 根据图片可以看出这是一个线性函数:我们可以先假设它为h(x)=θ0+θ1xh(x
原创
发布博客 2021.06.03 ·
173 阅读 ·
1 点赞 ·
1 评论 ·
0 收藏
加载更多