自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

cold的博客

越努力 越幸运

  • 博客(205)
  • 资源 (4)
  • 收藏
  • 关注

原创 解决 Failed to parse remote port from server output【Remote-SSH】【VSCode】

一早起来,发现remote-ssh无法进入服务器容器,本地使用git bash进行ssh可正常连接服务器,基本确定是vscode工具本身的问题。重装本地用户的.vscode相关目录清空,vscode重装均无果,不建议尝试。弹窗信息为,连接日志中出现具体错误信息字眼。

2024-05-25 15:42:15 1448

原创 在阿里云调用通义系列开源大模型API时如何替换你的apikey【我的创作纪念日】【Qwen】

看论文为主,最近有在调研落地的项目,所以文章能更新几篇hh,不太有用的内容也就在自己电脑的txt文档当一段时间的过客就进垃圾桶了,甚至对自己都没用了,也就不想发出来了。过去写得最好的一段代码嘛…没有想到,这里就分享一个好消息吧,Qwen大模型调用降价,有些甚至免费7天,需要的小伙伴可以去。平台上的调用demo和apikey的注入方式是分开的描述的,没有在代码中给出具体的替换方法。以python调用为例,可以这样注入你的apikey。继续分享有意思的东西hhh。最初成为创作者的初心。

2024-05-22 18:17:25 434

原创 基于PyPDF2实现自动化批量PDF文件合并【自动化】【PyPDF2】

手动合并PDF文件是一个繁琐且耗时的过程,特别是当需要合并大量文件时。自动化工具可以迅速完成这一任务,从而节省宝贵的时间,使用可视化工具。仍然无法摆脱全自动,仍需要人为干预去做文件选定,可参考使用以下代码做文件选定、合并,流程全自动化处理。

2024-05-16 16:50:08 193

原创 在prompt使用占位符实现提高信息替换成功率和替换位置准确率【prompt】【LLM】

将question中{%doc3%}替换直接照搬 content的内容,{%doc1%}、{%doc2%}替换为与问题无关的两句话,是真正的替换不是照搬文字。将question中{%doc3%}替换直接照搬 content的内容,{%doc2%}、{%doc1%}替换为与问题无关的两句话,是真正的替换不是照搬文字。造数据集的时候遇到的,llm不能很好的帮你替换,替换的内容不对,或者是替换的位置不对,比如这里就是替换位置不对,只盯着doc2替换,无视你的替换位置的变化。,两者不一致,替换的位置就不能保证了。

2024-05-11 20:30:10 588

原创 解决Milvus官网提供的单机版docker容器无法启动,以及其它容器进程与Milvus容器通信实现方案【Milvus】【pymilvus】【Docker】

具体来说,容器A内的应用程序向宿主机的端口发送请求,而这个端口被容器B监听,间接地完成了容器A、B间的通信。也就是说,容器间的直接通信方案有时候也可以通过间接通信实现。容器和宿主机本身在同一个内网中,本身是可以互相通信的,你能在内网中找到两者的。容器部署,还需要和另一个容器中的程序做通信。,所以也装了,官方文档有介绍,这里过了哈。我的需求是做混合检索单机版可以满足,要走。创建的容器无法启动,可能和我的本地。我这里的间接通信是这样实现的,在。,我的混合检索程序在另一个容器。,是个工具,它需要搭配一个。

2024-04-28 01:06:32 926

原创 怎么通过isinstance(Obj,Class)验证?【isinstance】

序列化保存,再使用原来项目的读取、检索函数,当我完成存储正准备读取的时候,这个成熟的项目的健壮性,拒绝了我的树,这里的拒绝逻辑具体用到了。最近有这样一个项目,这个项目可以用一个成熟的项目的构造树,读取树,再检索的过程,现在有新的需求,另一个逻辑构造同样节点结构的树,的实例的python内置函数,(据说,obj是继承的子类也过,感兴趣可以验证下,我这里的任务是识别为该类实例化的对象)在序列化时保存了模块路径信息,那么即使类名相同,如果模块路径不同,:如果 Tree 类是在不同的模块中定义的,并且。

2024-04-26 13:58:10 275 2

原创 解决在linux中执行tailscale up却不弹出验证网址【Tailscale】【Linux】

说明已经安装成功,并且启动成功了。最近有远程办公需求,需要连接内网服务器,又不太想用todesk,于是找到一个安全免费可用的。你就看到每一个论坛里提到的这个验证网址了,只需要在你的目前设备上点进去就可以帮助。并没有弹出任何登录url的提示,甚至一度想去机房看看究竟。服务器这边做验证,哈哈,不用去机房了。不过期,我这里设置过了,所以再点击就是。记得在web设备管理这里,设置。

2024-04-22 21:10:48 835 1

原创 ablation study

消融实验”(ablation study)通常指的是通过逐步移除系统的一部分来评估该系统的贡献。这种方法旨在理解系统的不同组成部分对整体系统性能的影响(消融实验常用于解释模型的预测能力,帮助理解模型对输入特征的依赖关系。在其他领域,消融实验也可以用于研究系统的稳定性和鲁棒性。结合上图,定义了一个N模型组成的系统,每次移仅除一个model,逐步实现从。这种实验设计常用于机器学习、计算机科学、生物学等领域。移除,评估系统在移除前后的性能损失,就完成了一次消融实验。简单说,控制变量做评估。

2023-11-12 21:42:31 267

原创 重新上手,Docker随笔【Docker】【Linux】

运行5min,环境配置1h,不同机器不同问题,版本冲突问题,各种项目之外问题。这个命令将列出所有的容器,包括运行中的和停止的容器。国内镜像仓库(推荐阿里云,会有详细的根据你仓库定制的登陆,拉取,推送命令,更多的示例代码)镜像,但是与第一个命令不同的是,这个命令在容器启动后会进入容器的交互终端(因为使用了。但是这个命令不会启动容器,它只是创建了一个处于停止状态的容器。默认情况下,如果容器上没有运行任何任务,docker 容器将立即退出。默认情况下,如果容器上没有运行任何任务,docker 容器将立即退出。

2023-10-23 21:57:55 200

原创 华为云云耀云服务器L实例使用教学|手写KNN解决分类回归问题

1)遇到过这样一个问题,sum() 与 np.sum()的区别?为何距离公式使用不同和函数,两者得到的欧氏距离完全不同?曼哈顿距离与切比雪夫结果是一致的?回归预测做的就是将分类取平均得到的结果作为回归结果。定义超参数,选择距离公式进行预测,使用。定义超参数,选择距离公式进行预测,使用。下列代码均在华为云云耀云服务器上运行。这里统一用闵氏距离公式去实现。这里统一用闵氏距离公式去实现。归一化和标准化通常二选一。归一化和标准化通常二选一。

2023-10-09 00:00:00 160

原创 华为云云耀云服务器L实例评测|Huawei Cloud EulerOS 自动化环境部署

将解压缩后的ChromeDriver二进制文件移动到一个系统路径中,以便它可以在任何地方访问。这里将它移到`/usr/local/bin`目录下

2023-10-03 17:53:06 531

原创 LLM-TAP随笔——有监督微调【深度学习】【PyTorch】【LLM】

映射规则是人为制定的,比如,将“太好了”、“好”映射为“正面”标签,将“不好”,“糟糕”映射为“负面”标签,将“一般”映射为“中立”标签。由于模型可接受的最大输入长度有限,随着软提示的参数量增多,实际输入序列的最大长度也会相应减小,影响模型性能。:在自然语言处理中,LLM(Large Language Model,大型语言模型)的上下文窗口指的是模型在处理文本时所考虑的文本片段或单词的范围。= {“太好了”,“好”,“一般”,“不好”,“糟糕”}是衡量指令数据的重要维度,影响有监督微调过程的关键因素。

2023-09-25 21:40:02 590

原创 LLM-TAP随笔——语言模型训练数据【深度学习】【PyTorch】【LLM】

"语料库的似然性"通常是指一个特定文本序列(通常是一段文本或一个句子)在语料库中出现的概率。统计每个相邻字节对的出现频率,合并出现频率最高的字节对,将其作为 新的词元加入词表。构建词元表:覆盖绝大部分的输入词,并避免词表过大所造成的数据稀疏问题。输入词序列全词切分,对照词表按词元从长到短顺序遍历匹配。合成全词时,词元表示失败部分视作未登录词,赋予相同表示。2. 全词切分为词元以及词元合并为全词的方法。将字节视为合并的基本符号。将字节视为合并的基本符号。第一个词元出现的频率。第二个词元出现的频率。

2023-09-25 21:26:10 828

原创 LLM-TAP随笔——大语言模型基础【深度学习】【PyTorch】【LLM】

解码端则负责生成目标语言序列,这一生成过程是自回归的,即对于每一个单词的生成过程,仅有当前单词之前的目标语言序列是可以被观测的,因此这一额外增加的掩码是用来掩盖后续的文本信息,以防模型在训练阶段直接看到后续的文本序列进而无法得到有效地训练。预训练阶段包括了编码器和解码器的部分,用于学习通用表示,而下游任务通常涉及到对编码器和解码器的微调,以适应具体任务。最底层的输入(x1, x2, x3) 表示输入的序列数据,通过嵌入层(可选)将它们进行初步的embedding得到的a1,a2,a3。

2023-09-25 21:12:56 752

原创 循环神经网络——下篇【深度学习】【PyTorch】【d2l】

深度循环神经网络需要大量的调参(如学习率和修剪) 来确保合适的收敛,模型的初始化也需要谨慎。这些额外的信息可以是一些上下文信息,例如输入序列的长度、标点符号和语法结构等。尽管模型产出的困惑度是合理的, 该模型预测未来词元的能力却可能存在严重缺陷。这个架构常用于编码器-解码器架构是一种常用于序列到序列(Seq2Seq)任务的深度学习架构。神经网络机器翻译方法,强调的是端到端的学习。机器翻译的数据集是由源语言和目标语言的文本序列对组成的。并不适合预测未来,它需要上下文,下文(未来)未知逻辑上讲不通的一个结构。

2023-09-18 11:01:36 1177 8

原创 循环神经网络——中篇【深度学习】【PyTorch】【d2l】

在循环神经网络中执行如上计算的层 称为。深度学习框架的高级API对代码进行了更多的优化, 该模型在较短的时间内达到了较低的困惑度。直白理解:不是每个观察都重要,更新门实现关注机制,重置门实现遗忘机制。于是基于循环计算的隐状态神经网络被命名为。隐状态使用的定义与前一个时间步中使用的定义相同, 因此 上式计算是。来衡量,是平均每次可能选项,1为完美,最差为∞。隐状态:(隐藏层数,批量大小,隐藏单元数)用来衡量一个语言模型好坏的标准,可以用。这里是,随即权重预测(效果不好)其中,p为预测概率,

2023-09-18 10:59:08 403

原创 循环神经网络——上篇【深度学习】【PyTorch】【d2l】

若没有足够的历史记录来描述前τ个数据样本。一个简单的解决办法是:如果拥有足够长的序列就丢弃这几项;另一个方法是用零填充序列。序列模型主要用于处理具有时序结构的数据, **时序数据是连续的,**随着时间的推移,如电影评分、电影奖项、电影导演演员等。时光机器数据集中的每个文本行不一定是一个句子或一个段落,还可能是一个单词,因此返回的。对过去的数据建模,使用自身过去数据去预测自身未来数据,称为自回归模型。仅处理为单个列表,而不是使用多词元列表构成的一个列表。为了简化,使用字符(而不是单词)实现文本词元化;

2023-09-18 10:51:35 388 1

原创 卷积神经网络——下篇【深度学习】【PyTorch】【d2l】

首先,定期进行系统和软件的更新,保持操作系统和应用程序在最新版本,以获得更好的性能和安全性。其次,保持电脑的清洁,定期清理灰尘和污垢,确保散热良好,避免过热对硬件的损害。批量规范化应用于单个可选层(也可以应用到所有层),其原理如下:在每次训练迭代中,我们首先规范化输入,即通过减去其均值并除以其标准差,其中两者均基于当前小批量处理。在学习方面,合理规划学习时间,避免长时间的连续使用电脑,适时休息,保护眼睛和身体健康。其中,x∈B,x是一个小批量B的输入,比例系数γ,比例偏移β。,才有了批量规范化的名称。

2023-08-21 20:14:13 954

原创 卷积神经网络——中篇【深度学习】【PyTorch】【d2l】

为什么提出NiN?全连接层是网络里参数比重最高的地方(参数=输入通道\*高\*宽*输出通道\*高\*宽),尤其是卷积后的第一个全连接层。而卷积层参数就小得多。所以用卷积层替代全连接层,参数会更少。

2023-08-21 20:01:20 691

原创 卷积神经网络——上篇【深度学习】【PyTorch】【d2l】

(convolutional neural networks,CNN)是机器学习利用自然图像中一些已知结构的创造性方法,需要更少的参数,在处理图像和其他类型的结构化数据上各类成本,效果,可行性普遍优于全连接层。最大池化,每个窗口最强的模式信号,它针对卷积对空间位置敏感(边缘检测案例),允许输入有一定的偏移。K扩了三倍,所以用小k规模和原来的K相当,因此X 对应扩充前的K,扩充后的小k。一个足够充分的照片数据集,输入,全连接层参数,GPU成本,训练时间是巨大的。每个通道都有一个卷积核,结果为各通道卷积的和。

2023-08-21 19:48:09 869

原创 动手学DL——MLP多层感知机【深度学习】【PyTorch】

加入一个或多个隐藏层+激活函数来克服线性模型的限制, 使其能处理更普遍的函数关系类型,这种架构通常称为*多层感知机*(multilayer perceptron)。

2023-08-08 23:45:00 962

原创 线性神经网络——softmax 回归随笔【深度学习】【PyTorch】【d2l】

softmax 函数与交叉熵损失函数常用于多分类任务中。softmax 函数用于将模型输出转化为概率分布形式,交叉熵损失函数用于衡量模型输出概率分布与真实标签的差异,并通过优化算法来最小化损失函数,从而训练出更准确的分类模型。softmax 函数是一种常用的激活函数,用于将实数向量转换为概率分布向量。真实标签的概率分布是由数据集中的标签信息提供的,通常使用单热编码表示。之间的差异,是分类问题中常用的 loss 函数。中起到重要的作用,并与交叉熵损失函数结合使用。其中,O为小批量的未规范化的预测,

2023-07-23 23:53:18 642

原创 线性神经网路——线性回归随笔【深度学习】【PyTorch】【d2l】

这样得到的是一个NumPy数组,代表散点图中的x轴数据。优化函数没有直接使用损失值,但通过使用损失函数和反向传播计算参数的梯度,并将这些梯度应用于参数更新,间接地优化了模型的损失。来清零参数的梯度,那么参数将会保留上一次迭代计算得到的梯度值,继续沿用该梯度值来求解梯度。labels.detach().numpy() 是一个二维张量labels的分离和转换操作,得到一个NumPy数组,代表散点图中的y轴数据。简单说,就是计算损失值的张量运算不会记录到计算图中,因为没必要,而且不建立计算图,求损失值更快了。

2023-07-23 23:30:00 2415

原创 动手学DL——深度学习预备知识随笔【深度学习】【PyTorch】

当计算标量的梯度时,PyTorch会自动计算并传播梯度,而无需明确传入梯度参数。张量的计算通常会生成计算图。:计算图可以帮助自动计算函数的导数,特别是在深度学习中的反向传播算法中。通过在计算图中计算每个节点的梯度,可以从输出端反向传播梯度到输入端,以便优化模型的参数。中的每个分类变量【不是数值的,比如字符串值】都拆分为多个二进制变量,每个变量表示一种可能的分类。向量|张量相加得到了意外的结果,可以考虑是不是误将不同形状的向量相加了,触发了广播机制。,维度同但形状不同,广播,维度同形状也同,可以执行。

2023-07-23 23:18:22 583

原创 算法练习——力扣随笔【LeetCode】【C++】

在哪定义结构体?有两个位置可写:1)类里面,讲究的话写在private中,这里就不讲究了。} };2)顶部区域int data;} };在哪定义全局变量?1)顶部区域public :return v;} };2)换个方式,传参方式改为引用很多全局变量是可以被替代的,比如希望值被修改并返回到原来作用域,但返回值位置紧张。暴力时,全局变量开大数组还是有点用处的。在哪定义头文件?一般是全面的,多虑了。

2023-07-21 21:35:33 388 1

原创 2023复试——机试随笔【c++】【考研】

新生的小白鼠也如此繁殖。问在第N个月时,活的小白鼠有多少对?对于每组测试数据,你的程序需要向标准输出设备(通常为启动该程序的文本终端)输出一行,其中只有一个整数,即第N个月时活的小白鼠有几对,所有数据前后没有多余的空行,两组数据之间也没有多余的空行。建议用嘴说说,,写代码时间一长脑子一涨,很容易码错,找了半天错误,和正确结果就差一天,不就是2月的问题吗,不就是闰年判断有问题吗?思路二:规律,用9补位,比较大小,利用补位结果排序(结构体排序,便保存了原结果且有序了),若相同比较多出来的位置是真9的优先。

2023-07-18 09:42:06 1516

原创 链表问题——两两交换链表中的关于swap(p,q)的无效性讨论【相邻节点】

到底是p、q节点的内容变了,位置不变【p、q指向发生了变化】,还是内容不变,p、q位置变了【p、q节点位置发生了变化】,自嘲自己一下,交换指针我还是自己手写交换节点位置吧,交换后p、q的指向再换一下,这个思路还是熟悉的。本想着用swap(p,q)直接偷懒,最后更新下p、q前一个结点的指向关系就ok,结果输出和输入一毛一样,原本还在纠结,链表题目的特殊操作,考虑的特例 空表、1、2,为什么要考虑2个节点呢?给定一个链表,两两交换其中相邻的节点,并返回交换后的链表。p、q 交换后到底交换了什么?

2023-07-16 23:45:00 242

原创 链表问题——长整数加法运算题解【双向链表】

假设2个任意长度的整数x、y分别用链表A和B存储,现要求设计一个算法,实现x+y。计算结果存储在链表C中。链表A、B、C可以是单向链表或双向链表,但由于A和B输出时需要从头至尾遍历,而做加法时需要从尾至头遍历,因此推荐使用双向链表存储。链表的每个结点的数据域可以选择以下三种设计方式:(1)链表的每个结点存储长整数的一位(不推荐);(2)链表的每个结点从长整数的低位开始拆分(4位为一组,存到一个结点中,即结点的数据域为不超过9999的非负整数),依次存放在链表的每个结点;

2023-07-08 00:00:00 1135

原创 动手学DL——环境部署随笔【深度学习】【Anaconda】【CUDA】【PyTorch】【jupyter】

在网络环境差时,pytorch 离线安装方法。安装 CUDA,CUDA Toolkit 11.3.0 (April 2021), https://developer.nvidia.com/cuda-toolkit-archive。我认为,深度学习的学习过程中,必须掌握虚拟环境搭建、三大科学计算库、jupyter的使用,再就是有针对性地模型学习,保持对新技术出现的敏锐嗅觉。新环境下包很少,安装科学计算库。

2023-07-06 00:49:40 1713

原创 ML算法——Support Vector Machine随笔【机器学习】

后者更优,决策边界距离数据点越远,越优。1)距离计算通过数学计算,表达这个距离最远。distance(x,b,w)=∣wT∣∣w∣∣(x−x′)∣=1∣∣w∣∣∣wTx+b∣(1)distance(x,b,w) = |\frac{w^T}{||w||}(x-x')| = \frac{1}{||w||}|w^Tx+b| \tag{1} distance(x,b,w)=∣∣∣w∣∣wT​(x−x′)∣=∣∣w∣∣1​∣wTx+b∣(1)2)数据标签定义数据集:(X1,y1)(X2,y2)(X3,y3)...(

2023-06-29 15:22:58 901

原创 ML算法——线代预备知识随笔【机器学习】

的各种矛盾回答搞晕了,奇异值分解的博客很少提到σ的排列问题,浪费了很多时间,最终在周志华的《机器学习》附录中找到了准确描述。矩阵分解的本质是将原本复杂的矩阵分解成对应的几个简单矩阵的乘积的形式。这种情况下,如果我们想通过矩阵分解的形式将原本比较复杂的矩阵问题分解成比较简单的矩阵相乘的形式,会对其进行。其中,U是一个m x m的正交矩阵,Σ 是一个m x n的矩阵,其对角线上的元素称为奇异值,若A可逆,则称A为非奇异方阵,也就说若A不是满秩,则为奇异矩阵。,进而求得特征向量 μ,组成矩阵 V。

2023-06-24 23:34:41 891

原创 ML算法——最优化|凸优化随笔【机器学习】【端午节创作】

重点是梯度下降法,利用一阶导数,而二阶导数涉及到海森矩阵,具有较大的计算量,因此,往往采用梯度下降算法。

2023-06-24 23:15:22 1331

原创 解决:闹钟设置的自定义歌曲响铃时不会播放仅震动【Apple Music】【iOS】

奇怪的是,闹钟响起,仅震动,没有任何铃声。你问chatgpt,他让你检查是否是硬件问题,还有说硬件不支持的离谱回答。自带铃声和震动脑瓜子嗡嗡的,幸好有apple music,在闹钟中可以轻松地选择你放入资料库中的任意一首音乐作为铃声,在资料库中,找到目标音乐,下载【默认下载无损音质,一首歌在40-50MB左右】,问题就出现在了这里,选择“心跳”,或者自定义一个振动模式,按压设置频率。需要,未下载,仅震动。

2023-06-17 23:59:27 1205

原创 迟来的函数传参补充——传引用【引用调用】【c++】

比如实现一个交换两个变量的值,过去确实只会值传递,像是涉及到改变值的操作,都会下意识的去写在main函数中,将结果在传给下一个需要相关值的函数。,前者生成一个源结构的副本,后者链表或者树的时候用的比较多,本文补充到一个类似值传递的函数调用方式,函数定义的传参位置却是地址接收方式,这就是。其实早就在王道见过,只是没注意其中的奥妙,怪就怪我线性表题目爱用数组解决,栈和队列喜欢用结构体内置函数的方式实现,完全用不到引用。稍微讲究一点的用法,往往是定义一个输出函数的传入参数设为常引用,意味着无更改要求。

2023-06-16 16:42:24 809

原创 ML算法——逻辑回归随笔【机器学习】

计算假阳率的方法是,将预测为正例的样本数量除以所有的负例样本数量。在实际应用中,假阳率高的模型可能会导致过多的误判,因此需要尽可能降低模型的假阳率。假阳率主要出现在分类问题中。在评估分类模型的性能时,假阳率是一个重要的指标,特别是在模型应用于关键决策时。例如,在医疗诊断中,高假阳率可能会导致对病人进行不必要的治疗或手术,因此需要尽可能降低模型的假阳率。Logic Regression (LR),逻辑回归的因变量是二分类的,而不是连续的。参照线性回归中的θ,这里的θ也是个向量,涵盖所有提到过的θ分量,θ=

2023-06-11 23:31:15 1440

原创 ML算法——梯度下降随笔【机器学习】

是一种通过已知的观测数据,来近似模拟自变量与因变量之间的关系,并进行模型的修正完善、预测等数据分析任务的过程。具体来说,模型拟合的主要思想是通过收集数据点对,利用近似准则,对各数据点之间的关系进行分析,拟合。在实际图像处理中,我们通常不直接使用函数的全微分来确定梯度方向,而是使用更高效的算法如Sobel、Prewitt、Scharr等来计算图像中每个像素点处的梯度幅值和梯度方向。首先我们先确定前进的方向,也就是梯度的反向,然后走一段距离的步长,也就是α,走完这个段步长,就到达了这个点!不是,甚至完全相反。

2023-06-06 22:49:28 743 1

原创 ML算法——线性回归随笔【机器学习】【六一创作】

利用线性回归方程的最小二乘函数对一个或多个自变量和因变量之间的关系进行建模的方法。将每一个数据的键值的类型从字符串转为日期。(继续完善公式推导、解析解的公式过程)

2023-05-31 00:32:31 821

原创 生命周期 uni-app随笔【uni-app】【vue】【浅谈自学】

另外还可以试试古典乐,学习是有奇效,每当我疲惫不堪难以入睡的时候,也可以试试古典乐,真的不错,那个时候听流行乐是一种煎熬和折磨,对我而言【叠甲】。心理暗示:还可以再看,不必细究,看完整个视频后,哪些是废话讲了纯在吹牛水时间的,哪些是基础过头的,哪些是重点反复提到的,哪些是不理解的点,复看的时候就有重点地补充电子笔记了,在有限的精力中,内容的轻重,都一目了然。就是在担心听不懂,各种细节都在扣,一时半会不能理解的很耽误时间,完全有可能在后面会讲到,时间直接白给,相比之下。对我来说,对于一个完全陌生的内容,

2023-05-30 23:51:38 1159

原创 ML算法——KNN随笔【机器学习】【全国科技工作者日创作】

比如,如果使用随机拆分数据的方式进行验证,因为随机拆分数据的时候存在不随机的情况,所以就会对验证效果产生影响。它是机器学习中唯一一个不需要训练过程的算法,它在训练阶段只是把数据保存下来,训练时间开销为 0,等收到测试样本后进行处理。KNN用于回归问题时,模型从训练数据集中选择离该数据点最近的k个数据点,并且把这些数据的y值取均值,未知点的判断基于已知点的距离,选出最近的K个点,投票选出未知点的最大可能。边界越陡峭,越不稳定,希望得到平滑的边界,理论上,K↑,边界越平滑。是空间中的两个点,i和j表示维度。

2023-05-30 00:15:00 724

原创 uniapp水文【uniapp】

在Vue.js的生态中,小程序、快应用的快速发展使得跨平台开发的需求越来越迫切。然而,Uniapp也存在一些优缺点。其中最大的优点是跨平台开发,它可以大大提高开发效率,并且可以使得同一份代码库在不同的平台上运行。Uniapp作为一种高效的跨平台移动应用开发框架,将会受到越来越多的开发者的青睐。Uniapp是一种跨平台的移动应用开发框架,它允许开发者使用一套代码库,同时生成iOS、Android等多个平台的应用程序。这些应用的成功实践表明,Uniapp不仅可以大大提高开发效率,而且可以提供高质量的应用体验。

2023-05-29 00:00:42 943

MSP430x14x单片机简易计算器设计

附带详细代码注释

2020-12-25

计算机网络第七版谢希仁课后答案8-10章

完整版分成3个pdf,根据需求下载章节,计算机网络第七版谢希仁课后答案1-6、7、8-9章

2020-12-19

计算机网络第七版谢希仁课后答案第7章

完整版分成3个pdf,根据需求下载章节,计算机网络第七版谢希仁课后答案1-6、7、8-9章

2020-12-19

计算机网络第七版谢希仁课后答案1-6章

完整版分成3个pdf,根据需求下载章节,计算机网络第七版谢希仁课后答案1-6、7、8-9章

2020-12-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除