自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 资源 (1)
  • 问答 (2)
  • 收藏
  • 关注

原创 工具使用记录--No Machine

我们发现远程连接效果比较好的软件是no machine这一软件。本文提供了下载链接,设置开机自启动以及一个踩坑记录。

2024-01-24 08:23:08 553

原创 操作系统实验2:Threading Matrix Multiply

Experiment ObjectExperiment ContentIn this assignment you have to write a version of matrix multiply that uses threads to divide up the work necessary to compute the product of two matrices. There are several ways to improve the performance using thread

2022-04-27 19:47:59 1190 1

原创 操作系统实验1:进程相关操作(英文版)

Experiment1:Operation on PrecessStudent: 61520711 Xu ZihangDate: 2022/4/17Experiment objectLearn how to create, work with and manipulate processes in Linux.Experiment contentTask1Write a CPU bound C program and a I/O bound C program (e.g. use a num

2022-04-18 09:56:27 1760

原创 数学小记——基于梯度的优化方法

基于梯度的优化方法0.概述1.什么是优化,以及优化的目标2.为什么用梯度进行优化0.概述在吴恩达网课第一课第二周的内容中,学习了经典的梯度下降法。总感觉有些云里雾里,最近看了“花书”,里面也提到了一些相关内容,于是在这里进行整理,希望能稍微加深一点理解。1.什么是优化,以及优化的目标优化,就是改变自变量的值(这个自变量一般是x),让目标函数f的取值达到最大/最小。当优化的目的是把目标函数最小化时,也可以称为代价函数/损失函数/误差函数。名字有好几个,但意义是一样的。最优解记为x∗x^*x∗,例如

2022-02-04 06:11:17 421

原创 吴恩达深度学习笔记——第一课第四周

深层神经网络深层神经网络概述前向传播和反向传播(Forward and backward propagation)前向传播反向传播搭建神经网络块超参数深层神经网络概述之前介绍的神经网络只有一个隐藏层,下面是一个四层神经网络的示意图第一层(第一个隐藏层)有5个神经元,第二层也是5个,第三层是3个用符号表示,n[0]=3,n[1]=5,n[2]=5,n[3]=3,n[4]=1n^{[0]}=3,n^{[1]}=5,n^{[2]}=5,n^{[3]}=3,n^{[4]}=1n[0]=3,n[1]=5,n

2022-01-27 20:27:20 2456

原创 Pytorch笔记——Tensor

TensorTensors基础基本定义Tensors与Storages数据类型一些创建Tensor的方法相关操作基本运算改变大小从Tensor中取数据的方法与NumPy交互保存与加载TensorGPU加速Tensors基础基本定义张量(Tensors)是pytorch中一种特殊的数据结构,类似于NumPy中的ndarrays,此外,Tensors可以用GPU进行计算在高中和线性代数基本内容的学习中,我们对于标量(Scalar),向量(Vector),矩阵(Matrix)等有了比较深的认识。而张量,个

2022-01-23 15:22:33 2290

原创 吴恩达深度学习笔记(二)——第一课第三周

神经网络的表示概述在神经网络中,其基本单元还是那些不同之处在于层数更多,组合的方式更加复杂。分析只有一个隐藏层的网络隐藏层的数值在训练集中是看不到的。输入值X也能用a[0]a^{[0]}a[0]表示,作为第1层的激活值隐藏层(第1层)产生的值是a[1]a^{[1]}a[1],里面的每一个元素可以写成a1[1],a2[1]...a^{[1]}_1,a^{[1]}_2...a1[1]​,a2[1]​...输入层作为第0层...

2022-01-20 16:24:59 506

原创 吴恩达深度学习笔记(一)——第一课第二周

课堂笔记深度学习概论什么是神经网络用神经网络进行监督学习深度学习概论什么是神经网络上图的单神经元就完成了下图中函数的计算。下图的函数又被称为ReLU(修正线性单元)函数复杂的神经网络也是由这些简单的单神经元构成。实现后,要得到结果,只需要输入即可。x那一列是输入,y是输出,中间是隐藏单元,由神经网络自己定义用神经网络进行监督学习领域所用的神经网络房产预测等领域标准架构 Standarded NN计算机视觉卷积神经网络 CNN音频,文字翻译(一维序列问题

2022-01-16 16:09:01 567

原创 数字设计和计算机体系结构(二)

二值逻辑通常用1代表逻辑真,用0代表逻辑假(这是正逻辑)用0代表逻辑真,1代表逻辑假(负逻辑)1和0为逻辑常量不具备数的性质,仅仅表示两个逻辑状态非逻辑转换成逻辑函数L=f(A)=AˉL=f(A) = \bar{A}L=f(A)=Aˉ与逻辑逻辑函数:L=A×BL=A \times BL=A×B(与乘法的规则差不多)A×0=0A\times0=0 A×0=0或逻辑逻辑函数:L=A+BL=A+BL=A+B!!注意!1+1=11+1 = 11+1=1(1是指事件发生)逻辑运

2021-11-08 20:00:24 319

原创 C++笔记——函数

函数

2020-12-29 15:01:48 318

Logistic_regression.zip

Logistic_regression.zip

2022-01-16

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除