自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(62)
  • 收藏
  • 关注

原创 nlp课设 - 基于BERT 的情感分类

自注意力多头自注意力Transformer (双向)

2024-05-08 19:44:18 937

原创 机器学习和深度学习-- 李宏毅(笔记与个人理解)Day22

由于是文字接龙,所以无法考虑右边的 info。怀疑begin那里没有做 Norm是bug。仔细讲讲Residual 的过程?

2024-04-24 14:45:14 395

原创 Day 6 商品搜索

Day 6 商品搜索这里会总结构建项目过程中遇到的问题、主要流程,以及一些个人思考!!学习方法:1 github源码 + 文档 + 官网2 内容复现 ,实际操作项目源码同步更新到github 欢迎大家star~ 后期会更新并上传前端项目搜索相关实体在ES中存储的商品实体类与数据库中的商品实体类不同,且商品的搜索条件和搜索结果都有相应的实体类。Q: 为什么这两种实体类不同?//todo/** * 在ES中存储的商品实体类 */@Document(indexName = "goo

2024-04-24 14:25:38 375

原创 Day 5 广告管理

在用户访问网站首页时,需要查询网站的所有启用广告。而电商网站用户访问量大,大量用户每次访问首页都从数据库查询广告非常浪费资源,我们可以使用Redis缓存技术优化用户对于广告的查询。访问http://www.bootsshopping.com/user/category/all,测试查询所有广告。// todo 这里有一个小问题, 前端访问的时候即使开了代理,依然可以正确拿到数据。这里会总结构建项目过程中遇到的问题,主要流程,以及一些个人思考!访问前端项目 http://localhost:8081/

2024-04-24 14:21:42 863

原创 docker单机安装Higress(踩坑+解决)

Higress希望通过内置Waf模块,使得用户的请求链接只经过Higress就可以同时完成Waf防护、流量分发、微服务治理,既可以降低链路RT,也可以降低网关的运维复杂度。命令来搜索并删除这些文件:这条命令会在整个系统中搜索文件或文件夹名包含“higress”的所有项,并将其删除。Standalone 模式没有大规模生产使用过,目前主要用于本地部署测试的场景,如果生产部署更建议。这条命令会强制删除所有的Docker容器,无论其运行状态如何。这条命令会删除所有的Docker镜像。遇到了无法访问的问题。

2024-04-24 14:15:49 969 1

原创 安装RocketMQ(踩坑+解决方案)

使用rz命令上传RocketMQ压缩文件。访问RocketMQ可视化面板。安装RocketMQ可视化面板。解压RocketMQ。启动RocketMQ。成功点开添加主题功能。

2024-04-24 14:12:31 464

原创 Day4 商品管理

这里多bb一嘴哈, 因为昨天晚上电脑开虚拟机卡爆了,强制重启,导致文件有损坏;详情见偏好设置,未保存文档;(好像还有一个是历史文档的东东, 之前那个旧版本没有, 直接找楠妮儿 要到了她的正版序列号,nice!在考虑后期是不是可以把这个图床配置一下改到我的oss 阿里云的图床上面;这里注意一下商品的信息一般不能删除,涉及到用户的订单,将无法查找到对应的商品信息;邪门了 就只有这一个玩意不能多次查看, 而且是一点完别的本来嫩点的也不能点了。md 我真出现了 之前的图片出现在不同的mysql 的不同的数据中。

2024-04-22 14:19:18 468

原创 typora的基本使用方法

这是一份秘籍。

2024-04-22 13:48:15 796

原创 机器学习和深度学习 -- 李宏毅(笔记与个人理解)Day 23

由于self - attention 一般都是在big model 的一部分,所以,一般不会对模型造成决定性的影响, 只有当model 的输入较长的时候, 例如图中: 图片处理 : 256 * 256 的输入,self-attention 就会得到一个 256 * 256 的平方的 矩阵;// todo 这是因为自注意力机制的目的是计算序列中每个元素对于序列中每个其他元素的注意力得分,所以我们需要一个 N×N 的矩阵来表示这些得分。和你做函数的代换法的时候 用 u 代表变量 x 的行为没什么两样啦。

2024-04-22 01:33:46 2080

原创 牛x之路 - Day1

之前的一些东西都在pdf上记得笔记, 没有在这个上面展示一遍,只好学到相关内容的时候再提叙啦;所以其实再写这个小记的时候,我已经看了一半的书,但是不要紧,前面大多比较简单;学习方法就是:emmm ipad 上面看书加计算;然后 笔记本上进行讲解(有一些公式太麻烦,就直接粘贴了嘿嘿)不做流水线的鸭子,做农村下笨鸡蛋的鸡。

2024-04-20 21:02:12 909

原创 牛x之路 Day 0

给自己的一段话:hello 轩总,花名 bootscoder?哈哈 ~在你看到这段话的时候意味着你已经把考研当成了从现在到12月30号的最重要的事情了,其他的除了生老病死都要靠后了, 意味着你要丢失掉所有的玩耍的时间,也不能打游戏,看电影和刷b站的好看小姐姐;不能去西藏长安旅游,也不能去你一直都很想去的野营地露营了;遇到很不开心的事情也不能停下来悲伤,很生气和郁闷的事情也来不及反复去想这个世界为什么总是让人不如意;也没办法幻想自己要是能中个五百万的彩票巴拉巴拉的了;

2024-04-20 17:11:17 608

原创 机器学习和深度学习-- 李宏毅(笔记于个人理解)Day 21

假如我们现在有一个需要读完全部句子才能解的问题, 那么red window 就需要变得是最大的(最长的句子);其实这里大家有没有想过,这个玩意儿就是个卷积网络CNN,所谓的window 就是卷积核。hand - crafted (s to s 的规则使得不会超过位置信息)这里感觉不到数学的巧妙,只是感到了工程的流水线的简洁和高效。比较接近的话,那么我们就说这a1 和a2 比较像。你也可以不做softmax(Relu 也行)b1 --b4 是同时产生的。学完自适应 再回来看看。

2024-04-19 19:10:32 739

原创 关于ResNet的假说

最核心的思想就是 恒等映射吧。

2024-04-19 17:49:11 387

原创 隐马尔可夫模型(HMM)硬啃西瓜书

好好好 势函数的概念真尼玛抽象–> 可以简单理解为一种考虑了相邻团的依赖的团的概率分布,然后后面那个Z 就是归一化,保证了这些势函数(自己定义出来的抽象玩意儿)之间的和等于1;后面团的概念和离散数学里的一个玩意儿挺像的;多读两遍吧应该是能读懂的,小伙子加油;(上面那个应该是*号 因为fine的定义就是这张关联的依赖)如果我们尝试把A’∪B’当作样本空间的一个划分的话确实会得到上面的式子;条件独立:有了某个条件A就B独立(原来独不独立不知道哈,也不关心)另外,这玩意儿读起来是真的爽啊!然后三个基本问题:;

2024-04-19 16:27:45 478

原创 Day3 权限管理

提供的访问权限。,保存和可能的特定于请求的安全信息。,以特定于Spring Security的方式代表校长。,以反映授予主体的应用程序范围的权限。,提供从应用程序的DAO或其他安全数据源构建Authentication对象所需的信息。,在基于String的用户名(或证书ID等)中传递时创建。既然您已经了解了这些重复使用的组件,那么让我们仔细看看身份验证过程。

2024-04-18 16:20:37 925

原创 机器学习与深度学习 --李宏毅(笔记与个人理解)Day 20

层级LSTM(Hierarchical LSTM)模型通过构建不同层级的LSTM结构来处理文本数据,其中每个层级对应文本的不同组成部分(如词、句子和段落)。这种层级模型能在不同层次上捕捉文本的组合性,如单词间、句子间的关系,从而在重构时保持文本的语义、句法和篇章的连贯性。使用LSTM做句法解析时,如果输入句子有语法错误,如缺少括号,这种错误通常不会直接影响LSTM模型的解析过程,因为LSTM并不是基于规则的解析器,而是基于学习的模型。在实际的学习(training)过程中是如何工作的?

2024-04-17 18:50:56 1675

原创 机器学习和深度学习 -- 李宏毅(笔记与个人理解)Day19

和RNN比较起来, 强化了对整体序列的记忆;并且可以 认为的通过lable 训练出需要记忆的重点序列。需要注意的一点是 forget gate 的取值 ,应该交 remember gate 会好一些。是普通的network 也是两次激活函数吗?来吧 ,整个LSTM 最重要的ppt ,走动这个ppt 你就懂了LSTM的工作原理。这样应该可以,但是如果是一个很长的段落呢?图中的+ 代表我的输入;好吧导致我停更新两天的DL,我去如坐针毡啊。正常的输入和三个控制门讯号的输入。考量时间顺序的那个kaggle!

2024-04-17 14:53:24 863

原创 Day 2 正式coding之基础模块的搭建

使用Nacos时,我们需要使用Dubbo进行服务调用,此时我们需要构建一个通用模块,在通用模块中存放服务接口。除了服务接口,我们还会存放一些实体类、工具类等通用功能,每个模块都会引用通用模块。管理员端API模块并不能查询数据,它只是服务的消费者,需要连接服务的生产者才能查询到数据。异常信息从服务端传入消费端时,Dubbo会默认封装异常,绕过我们的全局异常处理器,所以在通用模块禁用Dubbo异常封装,在Dubbo这样的分布式服务框架中,如果默认关闭了对象序列化,就会影响异常信息从服务端传到消费端的能力。

2024-04-16 21:28:24 170

原创 Day1 项目开发技术架构和虚拟机安装

在 Nacos 中,注册中心是一个用来存储和发现服务地址的关键组件,它允许服务提供者注册自己的地址和元数据,服务消费者可以查询这些信息以便进行远程调用。Dubbo 与 Nacos 的结合允许 Dubbo 用户使用 Nacos 作为其注册中心,利用 Nacos 的服务发现和配置管理功能,增强服务的可用性和灵活性。tmd 没想到安装这linux 的gui 被迫创建了一个用户,还重新选择了区域时间啥的,我这次就选了chinese 没想到还是英文界面,奇怪,以后有问题再看吧。请注意 请注意 请注意!

2024-04-16 21:06:03 53

原创 安装LInux和网络配置 保姆级教程

tmd 没想到安装这linux 的gui 被迫创建了一个用户,还重新选择了区域时间啥的,我这次就选了chinese 没想到还是英文界面,奇怪,以后有问题再看吧。这里我选择带一个gui 的界面(在这一步之前可以选择一下那个时区,改为中国上海)之后会有一个感叹号,点进去点出来即可,相当于确定分配20个g的磁盘存储。这里我不进行其他用户的创建了就, 仅创建root用户(密码设置为 root)tmd 破案了 是我连接的 小愿望的问题md;完成后 点击虚拟机配置,为虚拟机配置上你的ios 即可。

2024-04-15 21:44:04 592

原创 idea-java项目挂载到GIthub教程

md 这里被拒了密码确认了一下 GitHub,成功了。

2024-04-15 21:37:48 491

原创 机器学习和深度学习 --李宏毅(笔记与个人理解)Day 18

这样也能理解为什么老师认为max pooling 可以用来解,因为随着参数的变化,max的值一定会有变化,则可以进行梯度;这张图我自己又加了一些笔记, 这里说的 是全连接的工作原理;因为单纯的cNN无法做到scaling(放大)and rotation(转),所以我们引入;好了,基本学会了,就是数字图像处理学的那点东西,就是乘一个变换矩阵就好了。固定了两个参数, 有点focus 的味道, 因为无法做旋转嘛智能做缩放。ok 以上说的三点就是它的特性了,应该没有哪一个是不懂的吧~详情请参照 《数字图像处理》

2024-04-14 13:42:59 534

原创 机器学习和深度学习--李宏毅(笔记与个人理解)Day15

霍夫丁不等式(Hoeffding’s Inequality)是概率论中的一个重要结果,它提供了一种评估独立随机变量之和与其期望值偏差的概率的方法。具体地,如果有一组独立的随机变量,每个随机变量的取值范围都是有限的,那么这些随机变量之和的实际观察值与其期望值的偏差超过某个界限的概率是非常小的。根据霍夫丁不等式,如果在足够大的训练集上,算法的误差已经非常小,那么我们有很强的信心认为,在未知的测试集上,算法的误差也会控制在一个很小的范围内。连续的时候 用VC-dimention 来算模型的 复杂程度。

2024-04-14 12:27:25 589

原创 机器学习和深度学习--李宏毅 (笔记与个人理解)Day 16

这里说dl 会提供一个足够大的模型, 来使得Dall loss 足够小,但是从这里没有看出来deepLearning 更好呀,这不是还是需要一个big training data 嘛。同样的function 参数较少 – 以为着较少的over fitting and less training data。最近在减重, 昨天跑了个一公里,然后今天上午又打了个篮球,真是老胳膊老腿了,运动完给我困得不行。Review 见前面的笔记。

2024-04-14 12:17:22 256

原创 机器学习和深度学习--李宏毅(笔记与个人理解)Day17

那么我们自然而然的认为这个厚度为64的feature map 叠起来的厚吐司 也是一个64channel 的图像;迭代为原始图像,那么下一次进行卷积的时候我们就需要64个厚度为64的fitter,也就是下面的两个64 的不同含义~ ok,打完收工。就拿上面的图片举例子,extremely case 我们取一维向量来表示(铺开),这样就会丢失一些空间的信息,例如绿色的格子和蓝色的某个格子其实是垂直的,仅仅相差一个垂直距离,但是展开为一根棍就很难找到这种关联。Flatten 拉直。

2024-04-13 20:59:38 1410 1

原创 nacos 安装保姆级教程

调整了一下datasource 的配置位置(放在唯一有字儿的地方) 解决了。这是一个典型的 Spring 框架的依赖注入问题。的初始化失败,原因是没有设置数据源(DataSource)修改为支持远程连接 使用% 替换 local。bean 的过程中,这个 bean 依赖于。nacos 自带sql生成12张表结构。查看nacos为什么启动失败。文中提到的压缩包见博客资料。具体到底层,问题出在。

2024-04-13 16:43:48 449

原创 机器学习和深度学习 -- 李宏毅(笔记与个人理解)Day 13

如果只用当前的梯度值来更新学习率,那么任何较大的梯度值都可能会导致很大的学习率变化,这可能会使得学习过程不稳定。通过使用所有过去梯度的平方的平均值,我们可以使学习率的变化更加平滑,因为这个值不会因为个别极端的梯度值而发生剧烈波动。woc 我发现这两个是差不多的思想啊,你把上面那个正则化的东西用Gradient做出来。时候的学习率,但是由图我们可以知道有时候同一个参数我们也希望起有变化率的不同取值。好吧完全不一样,但是我又不知道这个会不会对于我的……以及这个式子和之前讲的那个正则化是不是一样的呢?

2024-04-12 19:38:28 495

原创 机器学习和深度学习-- 李宏毅(笔记与个人理解)Day 14

当使用非线性激活函数(如Sigmoid或Tanh)时,在输入值非常大或非常小的情况下,这些激活函数的梯度会接近于零。因此,如果在MSE损失函数的情况下,预测值与目标值之间的差异很大,经过激活函数的反向传播会产生非常小的梯度。但是Cross Entropy 两个差距很大的时候整体乘积并不会无限大 — 因为本质上描述的是两个概率分布的差异。哦 今天刚学的 ,KL散度 ,看来cross-entropy 和KL散度是等价的咯~ 我感觉我的直觉没错。这里MSE离得很远的时候会梯度消失,致使训练变得困难;

2024-04-12 19:34:59 545

原创 机器学习和深度学习--李宏毅(笔记与个人理解)Day11-12

换句话说,如果我们发现了一个负特征值λ 和相应的特征向量u,我们可以通过沿着 u 的方向更新 θ 来降低损失函数的值。引入高维空间的观点,解决local minima的问题:我们很少遇到local minima;例如,如果你有100个batch,那么在完成一个epoch后,每个参数会被更新100次。知道学到这里想到什么嘛……和对应的特征值 λ定义为满足下列关系的向量和标量:Hu=λu。这里举了两个极端的例子,也是我们常见的学习方法:取极限看效果。有没有感觉这种思想还挺常见的,用来做局部最小值的优化的。

2024-04-11 20:27:02 2144

原创 机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10

这节课总体听下来比较轻松,二倍速一路刷过去了,看看明天的课还会不会这么轻松吧哈哈,期待,今天实操了一下线性回归的东西 还不错有意思~为什么over fitting 留到下下周哦~~ 期待。

2024-04-10 21:42:36 381

原创 机器学习实训 Day1(线性回归练习)

随机初始数据​fi1∑n​yi​−w0​w1​xi​))2对loss 求w0 和w1 的偏微分,解方程组可得w1​n∑​xi​2−∑​xi​2n∑​xi​yi​−∑​xi​∑​yi​​w0​n∑​xi​2−∑​xi​2∑​xi​2∑​yi​−∑​xi​∑​xi​yi​​​。

2024-04-10 20:20:50 1269

原创 jupyter 重新下载与安装教程

要卸载 Jupyter,首先需要确定你是通过哪种方式安装的。由于你提到不确定是通过conda还是本地的 Python 安装的,我们可以分别检查并尝试卸载。这里选择你所有的jupyter 相关的包。

2024-04-10 17:36:16 594

原创 机器学习和深度学习--李宏毅(笔记与个人理解)Day9

(这里又想到学c的时候学到的 哈夫曼树,细节上还是有很大不同,由于它用到了树的结构,并不能完全灵活的得到最小编码举例: asdfgh 六个字母,编码出来的最长编码有1001 等,如果直接进行编码 则0 1 10 11 100 101 110,最长仅有3);(Q(x)),那么由于Entropy的定义, 是p(x)分布下的最小长度的编码,就不可能出现比这个编码更小的数,所以交叉熵越小,说明我们越接近p(x)分布下的最小长度的编码。(也就解释了,机器学习分类算法中,我们总是最小化交叉熵的之前的疑问)

2024-04-10 09:14:32 877 1

原创 机器学习和深度学习-- 李宏毅(笔记与个人理解)Day8

大于1 的点在我们这个模型里被认为是不应该存在的,超过了我的值域(ps:刚刚小憩了半个小时,真管用哇,本来想不通的东西困得不行还头疼,一下子想清楚啦哈哈)今天上了一整天的课, 本来实在是更新不动了,但是看到《剑来》更新了,想一想这本书里面一直强调的成功的feature – 心性,嗯心性坚毅就好!xdm 绷不住了,学到这里的时候图书馆的朗读亭里有小姐姐唱歌了 爱的回归线 哈哈哈哈哈哈哈哈哈哈哈(那个朗读亭隔音不好,很多同学以为那个地方可以隔音),唱的还挺好听的;g(x) 是自己学出来的一个function;

2024-04-07 20:56:45 708

原创 软件工程基础---学习笔记(1-5)

软件工程软件工程我是在暑假结束后开始的,软件工程比较简单,推荐大家直接看MOOC电子科技大学的PPT,课程就不要看了,大概一周就能看完,把里面的课后题一定也要刷一刷。然后就是整理软工的画图总结,第二轮软工也可以像我那样整理一个记忆手册,方便后期背诵,我看到过别人整理的,个人认为短期内背诵这么多简答题,最后先搞一个万能的套话框架,然后每次回答问题都用这个框架回答,复试也特别有效,不至于无话可说。例如:什么是软件测试?你就可以说软件测试是什么,目的是什么,为什么出现软件测试,软件测试有哪些等等。

2024-04-06 18:24:48 664

原创 机器学习和深度学习--李宏毅 (笔记与个人理解)Day7

个人感觉这里用多项式进行复杂函数的逼近,有一点像泰勒展开(泰勒级数)不同的点在于,这里的w 是彼此无关的,然而泰勒级数的展开式和展开点相关性极强。这里用线性代数的方法可以直接求 ,最速下降法(Gradient Descent)更有普遍性和计算机领域的意义。注意这里的做法看似简单, 但是这种思想却是贯穿机器学习始末的:用简单的抽象的函数来表示我需要解决的问题。注意: 用下标来表示某一个完整的物体的某一个部分,例如:x 表示妙蛙种子;注意:这里用上标来表示一个完整的个体的编号;how smooth?

2024-04-06 15:24:15 859

原创 机器学习和深度学习 -- 李宏毅(笔记与个人理解1-6)

课程内容。

2024-04-05 19:52:27 1432

原创 解决:错误代码 56:Windows 仍在为此设备设置类配置

今天帮女朋友修电脑:wifi选项消失->蓝牙联网不可用->检查后发现 网络适配器都有黄色感叹号的问题->报错代码56。

2024-01-05 21:19:47 5416 1

原创 java String 的三种拼接方法

【代码】java String 的三种拼接方法。

2023-12-21 17:00:25 301 1

原创 MVCC(多版本并发控制)-数据库

MVCC(多版本并发控制)是一种在数据库管理系统中用于实现事务数据一致性的技术。其核心思想是为每个读取的数据库对象(如行记录)提供一个快照版本,从而在不锁定资源的情况下实现并发控制。这使得读操作不会阻塞写操作,反之亦然,从而大大提高了数据库系统的并发性能。

2023-12-21 16:59:35 70

内包含nacos压缩文件,jdk17

内包含nacos压缩文件,jdk17

2024-04-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除