自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(271)
  • 收藏
  • 关注

原创 centos7 的镜像源 问题

原因是镜像源已经不支持了centos7太老了。

2024-07-17 22:00:05 211

原创 vue 常用api

创建的状态只在其顶层是响应式的,对所有深层的对象不会做任何处理,避免了对每一个内部属性做响应式所带来的性能成本,这使得属性的访问变得更快,可提升性能。作用:创建一个浅层响应式对象,只会使对象的最顶层属性变成响应式的,对象内部的嵌套属性则不会变成响应式的。只将对象的顶层属性设置为只读,对象内部的嵌套属性仍然是可变的。特点:对象的顶层属性是响应式的,但嵌套对象的属性不是。特点:只跟踪引用值的变化,不关心值内部的属性变化。返回的对象不再是响应式的,不会触发视图更新。作用:用于获取一个响应式对象的原始对象,

2024-07-11 02:56:07 700 1

原创 vue 插槽 【slot】

数据在组件的自身,但根据数据生成的结构需要组件的使用者来决定。Category 这个标签里面的ul 会传到slot 里面。组件中,但使用数据所遍历出来的结构由。

2024-07-11 02:43:57 402

原创 Vue 数据通信

子 => 父。注意区分好:原生事件、自定义事件。原生事件:事件名是特定的(clickmosueenter等等)事件对象$event: 是包含事件相关信息的对象(pageXpageYtargetkeyCode自定义事件:事件名是任意名称事件对象$event: 是调用emit时所提供的数据,可以是任意类型!!!示例:父组件:<template><h3>父组件</h3><h4 v-show="toy">子给的玩具:{{ toy }}</h4>

2024-07-11 02:33:44 636

原创 vue 搭建 pinia

作用:简单来说(有了一个新的存储数据和方法的空间)中的数据,需要经过处理后再使用时,可以使用。此时开发者工具中已经有了。的实体,每个组件都可以。

2024-07-11 01:32:27 462

原创 vue 路由传参数

作用:控制路由跳转时操作浏览器历史记录的模式。作用:将特定的路径,重新定向到已有路由。浏览器的历史记录有两种写入方式:分别为。参数时,需要提前在规则中占位。的对象写法,必须使用。路由的props配置。

2024-07-11 00:49:26 291

原创 vue 路由

缺点:后期项目上线,需要服务端配合处理路径问题,否则刷新会有。通过点击导航,视觉效果上“消失” 了的路由组件,默认是被。Home.vue 也就是简单的弄了一张图片而已。优点:兼容性更好,因为不需要服务器端处理路径。这一节最重要的,路由组件 index.ts。About.vue 简单的显示主键。一句话说完,就是用来,跳转页面的。作用:可以简化路由跳转及传参)。然后是主页组件:App.vue。components 代码。文件夹,一般组件通常存放在。New.vue 新闻组件。掉的,需要的时候再去。

2024-07-11 00:41:03 538

原创 vue 自定义(hook)--(模块化)

什么是hook?—— 本质是一个函数,把setup函数中使用的进行了封装,类似于vue2.x中的mixin。自定义hook的优势:复用代码, 让setup中的逻辑更清楚易懂。

2024-07-10 17:17:48 189

原创 vue 生命周期

会在合适的时机,调用特定的函数,从而让开发者有机会在特定阶段运行自己的代码,这些特定的函数统称为:生命周期钩子。组件实例在创建时要经历一系列的初始化步骤,在此过程中。,每个阶段都有两个钩子,一前一后。

2024-07-10 17:14:44 238

原创 vue 生命周期

会在合适的时机,调用特定的函数,从而让开发者有机会在特定阶段运行自己的代码,这些特定的函数统称为:生命周期钩子。组件实例在创建时要经历一系列的初始化步骤,在此过程中。,每个阶段都有两个钩子,一前一后。

2024-07-10 16:55:19 199

原创 vue props --限制每个[对象]的格式

【代码】vue props --限制每个[对象]的格式。

2024-07-10 16:53:22 183

原创 Vue 标签的 ref 属性 <h2 ref=“title2“>前端</h2>

作用:用于注册模板引用。用在普通DOM标签上,获取的是DOM节点。用在组件标签上,获取的是组件实例对象。

2024-07-10 16:28:53 285

原创 vue 监视(watch)

点我sum+1

2024-07-10 16:12:33 405

原创 vue 数据类型

作用:根据已有数据计算出新数据。

2024-07-10 15:44:34 389

原创 vue启动setup

修改名字

2024-07-10 15:19:09 158

原创 创建Vue3工程

因为是国外的源,要换一个国内的镜像源。

2024-07-10 15:12:36 892

原创 PyInstaller exe文件报错

可以将spec文件中的console=True改为console=False,再使用pyinstaller main.spec打包生成exe,这样就没有黑窗口。1.当时打包的 有这个文件main.spec 打开它找到hiddenimports ,填上差的包。3,在当前命令行下执行pyinstaller main.spec打包生成exe。2, 删除build和dist。

2024-07-02 19:36:01 230

原创 Nacos作为配置中心-基础配置与分组

Nacos作为配置中心-在微服务里面可以读取在Nacos配置的东西还有分组功能。

2024-06-07 02:59:25 425

原创 Nacos的下载使用

下载地址。

2024-06-07 01:59:38 214

原创 Nacos作为服务注册中心演示

记得也要运行我们建立了3个module,(1) 第一个服务提供者cloudalibaba-provider-payment9001(2) 第二个服务提供者cloudalibaba-provider-payment9002(3) 一个消费者cloudalibaba-consumer-nacos-order83阿里bb做的很好里面自己就有负载均衡然后实现了,一个人消费,两个服务提供者交替的提供服务。

2024-06-07 01:55:35 157

原创 SpringCloud Sleuth 分布式请求链路跟踪

当微服务多了,需要一些东西来 管理和查看一些 微服务和架构.这里就需要用上这个Spring Cloud Sleuth提供了一套完整的服务跟踪的解决方案。

2024-06-04 02:10:29 292

原创 springCloud Stream 消息驱动

它的作用是:因为在很多的消息队列的平台和应用,如果都去学习,和接收很麻烦. 就总结了一个Stream来管理,就方便很多.屏蔽底层消息中间件的差异,降低切换成本,统一消息的编程模型比如说 有两个处理消息队列的 A 和B需要整合的A 和 B 不单独处理A和B。

2024-06-04 01:22:57 239

原创 labelme的使用

听说是要用这个3.6版本的python环境激活虚拟环境下载labelme启动labelme。

2024-05-25 16:15:55 320

原创 边界框转化

在目标检测中,我们通常使用边界框(bounding box)来描述对象的空间位置。边界框是矩形的,由矩形。一种常用的边界框表示方法是。

2024-04-09 20:10:31 233

原创 常用的图像增广方法

左右翻转图像通常不会改变对象的类别。这是最早且最广泛使用的图像增广方法之一。接下来,我们使用transforms模块来创建RandomFlipLeftRight实例,这样就各有50%的几率使图像向左或向右翻转。2. 上下翻转图像3. 图像进行随机裁剪4. 改变颜色。

2024-04-09 19:40:35 304

原创 稠密连接网络(DenseNet)

DenseNet的核心思想是改进网络中特征的传递方式,通过在每个层之间建立直接的连接(即稠密连接),来提高信息流动和梯度传播的效率,从而解决深度神经网络中的梯度消失和梯度爆炸问题。

2024-04-02 12:29:42 296

原创 残差网络(ResNet)

残差网络的核心思想是:每个附加层都应该更容易地包含原始函数作为其元素之一。于是,残差块(residual blocks)便诞生了,这个设计对如何建立深层神经网络产生了深远的影响。即随着网络层数的增加,网络的性能反而不再提升,甚至下降。残差块通过引入“残差学习”(residual learning)来缓解这一问题,使得网络能够更容易地学习到深层特征。残差块的输入不仅传递到卷积层等操作中,还通过一个跳跃连接(也称为快捷连接)直接传递到后面的层。

2024-04-02 11:22:13 310

原创 批量规范化(batch normalization)

一种流行且有效的技术,可持续加速深层网络的收敛速度。批量规范化应用于单个可选层(也可以应用到所有层),其原理如下:在每次训练迭代中,我们首先规范化输入,即通过减去其均值并除以其标准差,其中两者均基于当前小批量处理。接下来,我们应用比例系数和比例偏移。正是由于这个基于批量统计的标准化,才有了批量规范化的名称。在模型训练过程中,批量规范化利用小批量的均值和标准差,不断调整神经网络的中间输出,使整个神经网络各层的中间输出值更加稳定。

2024-04-02 10:21:23 250

原创 GoogLeNet

中间的两条路径在输入上执行1x1卷积减少通道数,从而降低模型的复杂性。第四条路径使用3x3最大汇聚层,然后使用1x1卷积层来改变通道数。这四条路径都使用合适的填充来使输入与输出的高和宽一致,最后我们将每条线路的输出在通道维度上连结,并构成Inception块的输出。GoogLeNet一共使用9个Inception块和全局平均汇聚层的堆叠来生成其估计值。第一个模块类似于AlexNet和LeNet,Inception块的组合从VGG继承,全局平均汇聚层避免了在最后使用全连接层。

2024-04-01 21:12:17 208

原创 网络中的网络(NiN)

NiN的想法是在每个像素位置(针对每个高度和宽度)应用一个全连接层。果我们将权重连接到每个空间位置,我们可以将其视为1x1卷积层,或作为在每个像素位置上独立作用的全连接层。从另一个角度看,即将空间维度中的每个像素视为单个样本,将通道维度视为不同特征。其卷积核的大小为1×1。这种卷积层的主要作用是改变输入特征图的通道数,同时保留空间信息不变。1×1卷积层在网络中通常用于增加或减少通道数、调整网络的深度、以及进行特征融合或分离。

2024-04-01 20:53:53 341

原创 使用块的网络(VGG)

VGG神经网络连接有几个VGG块(在vgg_block函数中定义)。其中有超参数变量conv_arch。该变量指定了每个VGG块里卷积层个数和输出通道数。而一个VGG块与之类似,由一系列卷积层组成,后面再加上用于空间下采样的最大汇聚层。VGG网络可以分为两部分:第一部分主要由卷积层和汇聚层组成,第二部分由全连接层组成。1.带填充以保持分辨率的卷积层;2.非线性激活函数,如ReLU;3.汇聚层,如最大汇聚层。

2024-04-01 19:55:22 274

原创 深度卷积神经网络(AlexNet)

AlexNet由八层组成:五个卷积层、两个全连接隐藏层和一个全连接输出层。AlexNet使用ReLU而不是sigmoid作为其激活函数。# 这里使用一个11*11的更大窗口来捕捉对象。# 同时,步幅为4,以减少输出的高度和宽度。# 另外,输出通道的数目远大于LeNet# 减小卷积窗口,使用填充为2来使得输入与输出的高和宽一致,且增大输出通道数# 使用三个连续的卷积层和较小的卷积窗口。# 除了最后的卷积层,输出通道的数量进一步增加。# 在前两个卷积层之后,汇聚层不用于减少输入的高度和宽度。

2024-04-01 17:13:36 353

原创 神经网络汇聚层

汇聚窗口从输入张量的左上角开始,从左往右、从上往下的在输入张量内滑动。在汇聚窗口到达的每个位置,它计算该窗口中输入子张量的最大值或平均值。计算最大值或平均值是取决于使用了最大汇聚层还是平均汇聚层。可以设定一个任意大小的矩形汇聚窗口,并分别设定填充和步幅的高度和宽。

2024-04-01 16:25:17 393

原创 LeNet卷积神经网络

它是最早发布的卷积神经网络之一网络层的结构:我们对原始模型做了一点小改动,去掉了最后一层的高斯激活。除此之外,这个网络与最初的LeNet-5一致。

2024-04-01 15:39:07 331

原创 多输入多输出通道

由于我们通常使用小卷积核,因此对于任何单个卷积,我们可能只会丢失几个像素。也可以设置上下和左右走的步长分别是什么,设置stride=(3, 4)时,意味着卷积核在输入数据的宽度(横向)上每次移动3个像素,在高度(纵向)上每次移动4个像素。卷积失去了卷积层的特有能力——在高度和宽度维度上,识别相邻元素间相互作用的能力。就是将之前的大的图片,定义一个核函数,然后经过移动并运算将图片变小了.也就是将图像压缩提取整合特征值.在计算互相关时,卷积窗口从输入张量的左上角开始,向下、向右滑动。比如我下面移动两步。

2024-03-31 19:37:50 321

原创 pytorch读写文件

【代码】pytorch读写文件。

2024-03-31 15:37:23 400

原创 pytorch 层和块

'''建立了线性层 输入20,输出256Relu函数激活,线性层 输入256,输出10'''X = torch.rand(2, 20) # 随机2x20的矩阵net(X)一般来说 都要定义# 用模型参数声明层。这里,我们声明两个全连接的层# 调用MLP的父类Module的构造函数来执行必要的初始化。# 在类实例化时也可以指定其他函数参数self.hidden = nn.Linear(20, 256) # 隐藏层self.out = nn.Linear(256, 10) # 输出层。

2024-03-30 21:21:36 552

原创 softmax理解

softmax函数能够将未规范化的预测变换为非负数并且总和为1,同时让模型保持 可导的性质。为了完成这一目标,我们首先对每个未规范化的预测求幂,这样可以确保输出非负。为了确保最终输出的概率值总和为1,我们再让每个求幂后的结果除以它们的总和。

2024-03-28 17:12:56 238

原创 jupyter notebook和jupyter lab 找不到虚拟环境

【代码】jupyter notebook和jupyter lab 找不到虚拟环境。

2024-03-23 14:15:09 292

原创 机器学习_推荐系统

我们从一个例子开始定义推荐系统的问题。

2024-03-20 20:30:03 276

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除