自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 Linux 目录结构及文件基本操作

Linux 的目录与 Windows 的目录的区别,或许对于一般操作上的感受来说没有多大不同,但从它们的实现机制来说是完全不同的。以往的 Windows 一直是以存储介质为主,主要通过盘符(C 盘、D 盘……)及分区来实现文件管理,目录在这种情况下就显得不是那么重要,除系统文件之外的用户文件放在任何地方也没有多大关系。所以通常 Windows 在使用一段时间后,磁盘上面的文件目录会显得杂乱无章(少数善于整理的用户除外)。

2024-09-24 19:49:31 562

原创 Linux命令先导

你有没有遇到过这种情况,当你在 Linux 命令行中无意输入了一个不知道的命令,或者错误地使用了一个命令,导致在终端里出现了你无法预料的情况,比如,屏幕上只有光标在闪烁却无法继续输入命令,或者不停地输出一大堆你不想要的结果。你想要立即停止并恢复到你可控的状态,那该怎么办呢?这时候你就可以使用Ctrl+c键来强行终止当前程序(你可以放心它并不会使终端退出)。[Ctrl+c]Ctrl+d 键盘输入结束或退出终端Ctrl+s 暂停当前程序,暂停后按下任意键恢复运行。

2024-09-23 19:13:18 392

原创 leetcode刷题 无重复字符的最长字串(3)

给定一个字符串 s ,请你找出其中不含有重复字符的最长子串的长度。

2024-09-13 20:56:06 225

原创 leetclode刷题 两数相加(2)

给你两个的链表,表示两个非负的整数。它们每位数字都是按照的方式存储的,并且每个节点只能存储数字。请你将两个数相加,并以相同形式返回一个表示和的链表。你可以假设除了数字 0 之外,这两个数都不会以 0 开头。

2024-09-11 14:35:16 281

原创 leetcode刷题(python)最长公共前缀(14)

编写一个函数来查找字符串数组中的最长公共前缀。如果不存在公共前缀,返回空字符串" "。

2024-09-11 14:24:50 173

原创 classification(李宏毅机器学习课程笔记7)

如果同时在左上角大的loss开始训练,希望可以走到左下角小的loss,那么交叉熵在左上角有斜率可以更好的训练优化,使用交叉熵可以简化优化的过程。classification还要经过一个处理:softmax,他的主要功能就是把y中的任何数值移动到0-1之间。有两个计算e的方法,但是cross-entropy更常用,很多时候是和softmax绑在一起的。先把所有算出来的y全部取e,再除以所有取e的y的和,即为sofemax后的y。原本是接近一个数,,现在是接近一个向量并且分为几个class。

2024-08-23 09:53:21 102

原创 batch and momentum(李宏毅机器学习课程笔记6)

两个极端情况,一个是batch为全部,另一个是1,看上去batch大的需要计算的时间长但是稳定,另外一个小的时间短但是不稳定。1和1000也不会差太多,但是如果太大就不行了。实际上总的太说大的batch相对花的时间比较短。但是过大的batch还会导致,训练的效果变差,原因就是输入的训练资料太多了,优化失败了。但是还有一个平行计算的问题。那么大的batch就不一定时间比较长。加上momentum之后:要根据gradient和上一步的方向合起来运算。一般的算出gradient然后反方向更新,然后重复。

2024-08-20 22:39:41 140

原创 学习率(李宏毅机器学习课程笔记5)

训练是非常难的,学习率太大只会在两侧震荡,loss掉不下去。而设置的比较小loss可以掉下去但是达不到最低点。所以所有参数公用一个学习率限制太大了,应该每个参数一个学习率。训练卡住的原因不只是因为critical point,图中loss几乎不动的时候,gradient的值也没有变得非常小。他只是单纯卡住了,loss没法下降了。这样的话就可以根据每个参数gradient的不同改变学习率。可以采用让学习率随时间的变小而变小的办法,这样就可以从左图的状态变成右边的。可以自主设置a,也就是计算出来的g的重要性。

2024-08-19 21:40:58 207

原创 优化失败——梯度等于0时候的异常(李宏毅机器学习课程笔记4)

因为H是一个矩阵,所以有相应的特征值,如果H的特征值是全正的,那它就是local minina,如果是全负的,那它就是local maxima,如果有正有负就是saddle point。按照上面的步骤,分别求一阶微分和二阶微分,算出矩阵H后,在求出其相应的特征值,就可以判断是否是saddle point。结果是一正一负,那中心点就是saddle point。并且当处于critial point时,绿色的一项为0,可以通过红色的一项判断当前点的状态。算出特征向量,根据特征向量的方向,就是L减小的方向。

2024-08-16 21:22:53 135

原创 机器学习任务攻略(李宏毅机器学习课程笔记3)

先训练一个简单的,浅的模型,看它的loss的程度,如果复杂的模型的loss还达不到简单的的模型的loss那就是优化的问题。因为模型的弹性很大,在没有经过训练资料训练的地方,可能会有freestyle,再把测试集放进去之后就会有很大的loss。出现model bias的原因:模型太简单,可以让loss变低的函数不在model变低的范围内。model里面描述了,可以使loss最小的,但是因为局部最低点,没找出来。解决办法:重新设计你的model,增加更多的特征,增加更多层和神经元。一.loss大的原因。

2024-08-15 21:55:16 120

原创 深度学习基本概念(李宏毅机器学习课程笔记2)

跟笔记一的方法一样,将所有未知的超参数带入,在和label准确值求e,最后相加除以数据量总数N即为loss。红色的就是优化后的model,它可以由一个常数+好多个linear model组成。会先将N随机分成好多个batch,再将一个batch看成一份资料,计算出一个。分别求微分,再组合成向量g,跨度后的向量即为原来的。可以用relu函数代替sigmoid来写出函数。由n个蓝色的sigmoid相加再加上一个常数。代表所有未知的超参数组成的一个大的向量。,之后引入下一个batch,以此类推。

2024-08-14 22:19:50 201

原创 机器学习基本概念(李宏毅老师机器学习课程笔记1)

1.随便选择一个w,根据Loss的函数(自己设置的)求出在w那一点的斜率,如果斜率是负的就增加w,是正的就减少w(增加或者减少的度:1斜率大(小)就增加大(小)2.学习率(自己设置的,也就是超参数hyperparameters),重复步骤然后找出使L最小的w.通过对任务的理解加深,增加model的天数得出不同的model,算出不同的loss,可以看出随着天数的增加loss的值没有显著变化(linear model)跟上述步骤一样,先随机选择w和b,计算斜率,然后决定移动方向,重复步骤最后找到最好的w和b。

2024-08-13 21:44:41 167

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除