自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(82)
  • 收藏
  • 关注

原创 论文写作课程总结

不需要从头写,最好找想投的期刊的已录用论文的源文件及其提供的模板文件。每种期刊都会提供一个或多个格式文件。我们只需要对Latex源文件进行少量改变,就可以获得不同的版面。摘要的10句话应该包含以下内容:问题及其重要性、已有工作(描述该问题的流行解决方案)、已有工作局限(可不写)、本文工作(以 In this paper 开始,是题目的扩展)、本文方法的3个技术/步骤/方面/优势/贡献、实验设置(给出数据的领域、来源、数量)、实验结果以及提升(该论文的意义)。

2023-12-19 17:40:42 72

原创 Day 85:网络构建 (代码抄写)

【代码】Day 85:网络构建 (代码抄写)

2023-09-06 14:18:48 85

原创 Day 84:网络结构与参数

【代码】Day 84:网络结构与参数。

2023-08-27 22:21:46 181

原创 Day 82:数学操作

【代码】Day 82:数学操作。

2023-08-24 09:46:53 55

原创 Day 81:数据集读取与存储

【代码】Day 81:数据集读取与存储。

2023-08-23 23:53:54 79

原创 深度学习之用PyTorch实现逻辑回归

0.2 本章内容为自主学习总结内容,若有错误欢迎指正!注:输出结果为类别是1的概率。

2023-08-09 11:24:12 1665

原创 Day 76:通用BP神经网络 (3. 综合测试)

【代码】Day 76:通用BP神经网络 (3. 综合测试)

2023-08-09 10:39:30 115

原创 Day 75:通用BP神经网络 (2. 单层实现)

【代码】Day 75:通用BP神经网络 (2. 单层实现)

2023-08-07 12:21:52 131

原创 Day 74:通用BP神经网络 (1. 集中管理激活函数)

【代码】Day 74:通用BP神经网络 (1. 集中管理激活函数)

2023-08-06 14:51:19 158

原创 Day 72-73 固定激活函数的BP神经网络 (1. 网络结构理解 2. 训练与测试过程理解)

【代码】Day 72 固定激活函数的BP神经网络 (1. 网络结构理解)

2023-08-05 23:14:33 198

原创 Day 71 BP神经网络基础类 (数据读取与基本结构)

【代码】Day 71 BP神经网络基础类 (数据读取与基本结构)

2023-08-03 12:15:57 64

原创 7.24-7.30 周报

4 再次学习FWI-InversionNet培训内容。1 BP神经网络java代码(Day 71-76)3 学习不同优化器的原理及区别。1 矩阵分解(原理及代码)2 继续学习深度学习知识。2 学习深度学习知识。

2023-08-01 12:29:51 160

原创 深度学习之用PyTorch实现线性回归

代码中model.parameters()函数保存的是Weights和Bais参数的值。但是对于其他网络(非线性)来说这个函数可以用吗,里面也是保存的w和b吗?

2023-08-01 12:27:59 995

原创 深度学习之反向传播

通过输入相应的x和权重w(可能涉及bais偏置量)从而得到结果z,再通过loss计算出z与真实值之间的差距。在这个过程中,我们会计算z对x和z对w的偏导数。3.1 不使用激活函数时,表达式不断进行线性变换,无论有多少层网络,最终表达式都会变成y=wx+b的形式。即1层网络和n层网络没有任何区别,每层增加的权重则没有意义。用最后的loss函数对z求偏导数,再与前馈运算得出的偏导数进行链式法则,从而得出loss函数对x的偏导和对w的偏导。通过前馈和BP的结果,再进行梯度下降优化,最终找到最优w值。

2023-08-01 09:49:36 658

原创 Day 69-70:矩阵分解

【代码】Day 69-70:矩阵分解。

2023-07-28 23:47:04 136

原创 深度学习之梯度下降算法

0.2 本章内容为自主学习总结内容,若有错误欢迎指正!

2023-07-26 11:14:53 1061

原创 Day 66-68 主动学习之ALEC

【代码】Day 66-68 主动学习之ALEC。

2023-07-25 22:58:13 153

原创 7.17-7.23周报

3.学习深度学习(梯度下降、反向传播等)1.java代码 Day60-65。1.java代码 Day65-71。2.学习PyTorch基础知识。2.继续学习PyTorch内容。3.学习神经网络基础知识。

2023-07-25 22:42:15 137

原创 Day 65: 集成学习之 AdaBoosting (3. 集成器)

【代码】Day 65: 集成学习之 AdaBoosting (3. 集成器)

2023-07-23 09:16:36 308

原创 Day 64:集成学习之 AdaBoosting (2. 树桩分类器)

【代码】Day 64:集成学习之 AdaBoosting (2. 树桩分类器)

2023-07-22 22:22:28 203

原创 7.10-7.16周报

3.学习“DL-FWI 7.16”会议内容并进一步理解FWI。2.安装PyTorch并学习基础知识;1.java代码 Day60-65。2.学习PyTorch基础知识。3.继续学习神经网络基础知识。1.参加FWI培训学习;

2023-07-20 22:17:29 123

原创 Day 63 : 集成学习之 AdaBoosting (1. 带权数据集)

63.1 AdaBoosting基本算法:先从初始训练集训练一个弱学习器,在根据弱学习器的表现对训练样本进行权重调整,经过若干轮之后,将得到一组分类器,将数据输入这组分类器后会得到一个综合且准确的的分类结果。“三个臭皮匠,顶个诸葛亮”,多个这样的弱分类器相互补充,最后会变成一个强分类器。63.3 结果(部分)

2023-07-20 10:07:43 99

原创 Day 61-62 决策树(ID3)

【代码】Day 61-62 决策树(ID3)

2023-07-19 14:32:18 539

原创 Day 60 小结

8.M-distance算法原理:根据平均分来计算两个用户(或项目)之间的距离,与预测用户(或项目)平均值的差值达到一定阈值或者选取差值最小的k个值对应的用户(或项目),再回到原数据中求得的均值即为该预测值的输出值。3.knn算法原理:当预测一个新样本时,将新样本与所有点进行距离计算,再排序选择与新样本距离最近的k个训练样本(如果是二分类问题,k一般为奇数),根据这k个样本中出现频率最高的类别即是该新样本的所属类别。1.惰性学习(消极学习):在训练数据集的时候不会创建目标函数,只是简单将训练样本存储。

2023-07-17 11:20:57 212

原创 DL-FWI:数据(第二次培训作业)

【代码】DL-FWI:数据(第二次培训作业)

2023-07-08 09:58:33 222 1

原创 DL-FWI:简述(总结反演培训第一次课内容)

正演问题一般认为是单解的,即一个速度模型只能生成一个地震数据。通过可控震源与接收器得到的反射信号所绘制出的地震数据推测地下真实结构的问题就称之为全波形反演。因为这个图的每个像素点其实表示的是波在这个介质中传播的速度。左右是相关的重要架构产出的时代。道在物理意义上的解释:任意一个地震检波器在。道在计算机中的解释:地震图像中的任意一个纵向的向量。而嵌入的手段就强调在空间中提供重要的信息参与训练。在网络设计中,大多是CNN的编。3.FWI的端到端深度学习解释。指的是根据地下介质的物性参数,

2023-07-07 12:08:57 347 1

原创 Day 58-59 Naive Bayes算法

【代码】Day 58-59 Naive Bayes算法。

2023-07-03 11:06:24 113

原创 Day 57 kMeans聚类

获得虚拟中心后, 换成与其最近的点作为实际中心, 再聚类。代码(更新clustering函数,

2023-06-26 12:07:48 57

原创 Day 56 kMeans 聚类

【代码】Day 56 kMeans 聚类。

2023-06-24 10:25:59 542

原创 Day 55 基于 M-distance 的推荐

【代码】Day 55 基于 M-distance 的推荐。

2023-06-23 22:41:23 51

原创 Day 54 基于 M-distance 的推荐

【代码】Day 54 基于 M-distance 的推荐。

2023-06-22 15:48:22 47

原创 Day 53 kNN分类器

53.1增加 weightedVoting() 方法, 距离越短话语权越大. 支持两种以上的加权方式.53.2实现 leave-one-out 测试。

2023-06-14 21:33:35 40

原创 Day 52 kNN分类器

52.2 增加 setDistanceMeasure() 方法。52.3 增加 setNumNeighors() 方法。52.1 重新实现 computeNearests。

2023-06-13 22:55:42 42

原创 Day 51 kNN分类器

computeNearests() 函数里选择最小的7个值,是否可以不用两个循环,而直接使用一次循环用tempDistance[]记录距离然后排序选前7呢?

2023-06-09 12:14:58 52

原创 Day 50 小结

希尔排序: ①通过增量将序列分成若干子序列,②将若干子序列进行插入排序,再通过减小增量循环①②步直至增量为1即排好序。选择排序:在未排好序的序列中找出最小或者最大值,将其与第一个或最后一个元素交换,n-1趟后即可获得排好的序列。快速排序:基于分治思想,选择基准元素通过一趟排序将序列分成独立两部分,再进行选择、划分直至只有一个元素。冒泡排序:比较相邻两元素的大小,一次排序可定一个元素最终位置,当元素不再交换时则已排好序。可用于有序或无序数据;归并排序:将两个有序的序列归并成一个有序的序列,直至形成最终序列。

2023-05-23 22:05:30 409

原创 Day 49 归并排序

49.3 里面的两重循环总共只有O(n)。这里是分成了若干个小组。归并两个有序小组的时候,用了三个并列的循环。涉及分组后尾巴的各种情况,所以需要相应的 if 语句。49.1 log n轮,每轮O(n) 次拷贝。因此时间复杂度为O(nlogn)。空间复杂度为O(n)。只需要一行辅助空间。49.2 全都是在拷贝引用,而不是数据本身。这是 Java 的特性。

2023-05-21 17:54:02 53

原创 Day 48 堆排序

48.3 调整堆的时间复杂度为O(log n),所以总体时间复杂度只有O(nlogn)。48.1 堆排序可能是排序算法中最难的,用到了二叉树。48.4 空间复杂度只有O(1)。48.2 建初始堆比较费劲。

2023-05-20 10:33:06 41

原创 Day 47 选择排序

47.2 与插入排序不同,先做最麻烦的,要进行 n − 1次比较才能获得最小的数据。数据一旦被选择并确定位置,就不再改变。47.4 只需要两个额外的空间来存放最小数据的引用与下标,因此空间复杂度为O(1)。47.3 其时间复杂度为O(n^2)。47.1 一个基础算法。

2023-05-19 19:10:54 35

原创 Day 46 快速排序

46.5 (data[tempRight].key >= tempPivot) 不能写成 >,否则出现两个相同 key 时可能出错。46.4 判断条件 && (tempLeft < tempRight) 不能少。46.1 平均时间复杂度为O(nlogn),但最坏情况还是O(n^2)。46.2 Pivot 应该选 (该子序列的) 最后一个元素。46.3 递归算法,每次只能确定 pivot 的位置。

2023-05-18 11:41:03 41

原创 Day 45 冒泡排序

45.3 如果某一趟没有交换,就表示数据已经有序 (早熟,premature),可以提前结束了。45.1 每次确定当前最大值,也就是确定一个位置的数据。45.2 仅交换相邻数据。

2023-05-17 14:39:21 35

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除