深度学习
文章平均质量分 72
算法之路慢慢兮,吾将上下而求索
这个作者很懒,什么都没留下…
展开
-
20240511大模型开发日记-Qwen1.5-110B-chat cpu版量化和open-webui部署
make完之后,输入python convert.py /allUser/two/demo/model/Qwen1.5-110B-Chat --outfile /allUser/two/demo/model/Qwen1.5-110B-Chat/ggml-model-f16-cpu.gguf --vocab-type bpe --pad-vocab 这个命令。这次为了调试,所以要在本地上也部署一份,在win11上部署要有个Node.js >=20.10和py>=3.11。目前就这样,然后后面再安装。原创 2024-05-11 18:30:54 · 623 阅读 · 0 评论 -
FashionMNIST数据集简要分析---深度学习&机器学习第五天
图像分类数据集—FashionMNIST数据集①简介:fashionmnist数据集中共有10种类别的服饰,分别为:['t-shirt', 'toruser', 'pullover', 'dress', 'coat', 'sandal', 'shirt' ,'sneaker', 'bag', 'ankle boots']部分服饰为:②具体介绍:在该数据集中共有7万张图片,每张图片的形状为:[单通道,长28,宽28],并且每张图片对应一种服饰(一种标签)。其中训练集和测试集的图片是分开的,分别原创 2021-08-02 19:16:28 · 2964 阅读 · 0 评论 -
小批量随机梯度下降法和梯度下降法的再理解---深度学习&机器学习第四天
小批量随机梯度下降法和梯度下降法的再理解理解该篇文章的前提是:看懂上一篇关于讲解梯度下降法的内容和代码。梯度下降法链接:梯度下降法①梯度下降法的再理解:在上一篇文章中,我们提到了在实现梯度下降法的关键步骤中有,损失函数(在这里我们用的是均方损失)。loss(w) = (1 / 2) * (w * xi - yi)^2 其中乘以(1 / 2)是为了求导方便。但是你有没有产生这样的疑惑,当w指定时,不同的xi和yi所产生的loss(w)的图像是不一样的,也就是在w指定是,不同的xi和yi产生原创 2021-07-19 10:01:05 · 406 阅读 · 0 评论 -
机器学习&深度学习第一天 K-邻近算法(KNN)
k-邻近算法关键步骤1.计算已知类别数据集中的点与当前点之间的距离2.按照距离递增次序排序3.选取与当前距离最小的k个点4.确定前k个点所在类别的出现频率5.返回前k个点所出现频率最高的类别作为当前点的预测分类...原创 2021-07-10 10:57:31 · 207 阅读 · 0 评论 -
梯度下降法的理解---深度学习&机器学习第三天
梯度下降法在第二天中我们学习了什么是自动求导,如何自动求导,分别在一维,多维,手算和代码上进行了讲解,看这一篇的前提是了解并掌握了自动求导。自动求导链接:https://blog.csdn.net/cristemw/article/details/118692647?spm=1001.2014.3001.5501...原创 2021-07-18 15:05:27 · 243 阅读 · 0 评论 -
自动求导理解---深度学习&机器学习第二天
在我们学习深度学习的路上,肯定会碰到梯度下降法。而理解梯度下降法的前提是,自动求导。自动求导神经网络的目的是为了逼近某个函数,而这些函数基本上都是多元函数,而对多元函数的求导,我们求的是偏导,比如下面的例子:(我们以线性多元函数为例)①先以一维标量的例子:y = 2 * a + a * b, 求在a=2, b=4 出y对于a 和 b 的偏导,手算过程如下:我们可以看出y是复合函数。所以我们设:y = f1 + f2f1 = 2 * af2 = a * b则:同理得,对b求偏导为:原创 2021-07-13 11:58:30 · 482 阅读 · 0 评论