自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 react前端优质项目---web音乐仿Spotify

【代码】react前端优质项目---web音乐仿Spotify。

2024-03-23 09:34:36 286 2

原创 【nlp自然语言处理实战】案例---FastText模型文本分类

数据集从 THUCNews 上抽取 20 万条新闻标题,文本长度在 20~30 字,总计 10 个类别。每类 2 万条进行分类操作,并基于 PyTorch 完成 FastText 模型处理。FastText模型是脸书开源的一个词向量与文本分类工具。其在2016年开源,典型应用场景是「带监督的文本分类问题」。其可以提供简单而高效的文本分类和表征学习的方法,性能比肩深度学习而且速度更快。FastText模型结合了自然语言处理和机器学习中最成功的理念。

2023-06-14 21:45:24 1453

原创 【GoogleNet】Going deeper with convolutions论文概括、总结

3)图像采样的 patch 大小从图像的 8%到 100%, 选取的长宽比在 3/4 到 4/3 之间,光度扭曲也有利于减少过拟合,还使用随机插值方法结合其他超参数的改变来调整图像大小。在不久的将来会利用类似的方法来进行非均匀深度学习架构的自动构建。1.GoogleNet提出了一个个高效的计算机视觉深度神经网络架构,代号Inception,这是一种新层次的组织方式,在更直接的意义上增加了网络的深度。1)更大的尺寸通常意味着更多的参数,这会使增大的网络更容易过拟合,尤其是在训练集的标注样本有限的情况下。

2023-06-08 19:51:10 97 1

原创 创建metamask钱包并且将其连接到ubuntu22.04上私链

(1)环境要选择metamask,选择之后metamask上会显示已连接。新的RPC URL是公网地址,记得在服务器上把8545端口打开。代表你自己云服务器的内网ip地址(云服务器上查看)chainid与创世块中的chainid相同。(2)前提是你的metamask是在私链上。点击设置中的网络点击添加网络。

2023-05-15 16:35:40 289

原创 Ubuntu22.04搭建以太坊私链

创建新的 EVM 链时,需要在 genesis 文件中指定 ChainId。这个 ChainId 最好不要和现有任何已经在公开运行的 EVM 链的 ChainId 相同,否则可以一个配置失误就误花掉一笔钱。ChainId 是用来防止交易在不同的以太坊同构网络进行交易重放的。主要在交易签名和验证的时候使用;命令修改环境变量,在弹出的记事本中添加以下内容。export GOPATH=/home/cc/GOPATH #GOPATH是工作目录的位置。的时候会判断,主网,测试网使用不同的配置,从而达到网络隔离。

2023-05-15 16:27:48 1222 4

原创 【Resnet】残差神经网络--Deep Residual Learning for Image Recognition论文概括、总结

这个图相当于输出中又加入了一个输入来控制层数增加后梯度消失的问题。1.在AlexNet的基础上,大家知道了增加神经网络的层数很重要。如上图可以看出在更深的网络有更高的测试误差和训练误差。3.ResNet就是为了解决梯度消失问题而提出的。2.更深的网络会遇到问题:梯度爆炸、梯度消失。4.于是引入深度残差学习框架来解决退化问题。

2022-11-19 15:56:32 425

原创 【RCNN】Rich feature hierarchies for accurate object detection and semantic segm--用于精确物体定位和语义分割,论文翻译

过去几年里,在标准PASCAL VOC数据集上,物体检测性能已经趋于稳定。性能最好的方法是复杂的集成系统,通常将多个低级图像特征与高级上下文相结合。在本文中,我们提出了一种简单且可扩展的检测算法,其均值平均精度(mAP)比之前VOC 2012的最佳结果提高了30%以上,达到了53.3%。我们的方法结合了两个关键见解:(1)可以将高容量卷积神经网络(CNNs)应用于自底向上的区域建议,以定位和分割对象;(2)当标记训练数据稀缺时,辅助任务的监督预训练,然后进行特定领域的精细调优,产生显著的性能提升。

2022-11-19 15:34:05 1102

原创 深度学习评估方法--留出法、交叉验证法、自助法

这抽取出的m个样本就是D’,当然D中数据集肯定有部分样本从来没被抽到过,那么没被抽到过的这些数据集就能用作测试集D。训练/测试集的划分要尽可能的保持数据分布的一致性,避免因数据划分过程引入额外的偏差而对最终结果产生影响。留一法:k折交叉检验中数据集D中包含m个样本,k=m,留一法不受划分方式的印象,每一个样本都是一个子集。留出法是直接将数据集D划分为两个互斥的集合,其中一个作为训练集S,另一个作为测试集T。数据集D:1000,训练集:700,测试集:300.训练集~模拟试卷,测试集~正式考试试卷。

2022-10-22 10:02:15 4214

原创 前馈神经网络--前向传播与反向传播计算过程

多层感知机(MLP)是一种前馈神经网络模型。前馈神经网络(feedforward neural network),又称作深度前馈网络多层感知机除了输入输出层,它中间可以有多个隐层,最简单的MLP只含一个隐层,即三层的结构,如下图:(图片来自《动手学深度学习》)

2022-10-22 09:56:24 2894 1

原创 通过VGG16理解池化、卷积、激活函数

卷积的计算公式:若图像为正方形:设图像尺寸为W×W,卷积核尺寸为F×F,步长为S,Padding为P,经过卷积层后输出的图片为N×N:若图像为矩形:设输入图像尺寸为W×H,卷积核的尺寸为F×F,步长为S,图像的深度为C,Padding为P,则卷积后输出图像大小:

2022-10-16 13:17:12 2024

原创 【AlexNet】ImageNet Classification with Deep Convolutional Neural Networks论文翻译

Abstract: We trained a large, deep convolutional neural network to classify the 1.2 million high-resolution images in the ImageNet LSVRC-2010 contest into the 1000 different classes. On the test data, we achieved top-1 and top-5 error rates

2022-10-08 16:03:53 846

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除