自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 跑通YOLOv3分享,基于coco2014数据集

我直接使用的是kaggle平台上面的数据集,没有下载coco2014数据集然后再压缩上传到kaggle上,但是kaggle平台上这个数据集好像有一点点问题,运行test.py的时候会看到找不到某张图片,可能这个数据集缺失了,或者官方的COCO2014数据集已更新,但是运行train.py和detect.py时是没有任何问题的。(大家直接在kaggle上面搜索这个数据集,然后新建一个notebook就可以了)(点击上图中的New Notebook,这个数据集就会自动上传到新建的notebook中。

2024-07-11 20:27:00 1093

原创 基于transformer实现机器翻译<日——中>

SRC_VOCAB_SIZE = len(ja_vocab) # 源语言词汇表大小TGT_VOCAB_SIZE = len(en_vocab) # 目标语言词汇表大小EMB_SIZE = 512 # 词嵌入维度NHEAD = 8 # 头数(Transformer中的注意力头数)FFN_HID_DIM = 512 # 前馈神经网络隐藏层维度BATCH_SIZE = 16 # 批量大小NUM_ENCODER_LAYERS = 3 # 编码器层数。

2024-06-26 20:53:07 1703

原创 基于注意力机制的机器翻译

机器翻译是指将一段文本从一种语言自动翻译到另一种语言。因为一段文本序列在不同语言中的长度不一定相同,所以我们使用机器翻译为例来介绍编码器—解码器和注意力机制的应用。为了演示方便,我们在这里使用一个很小的法语—英语数据集。在这个数据集里,每一行是一对法语句子和它对应的英语句子,中间使用'\t'隔开。使用的数据集:链接: https://pan.baidu.com/s/1EEeGkISIFwZvgsV4lmQXwQ?pwd=w222 提取码: w222。

2024-06-26 14:42:57 836

原创 Kaggle的使用分享

点击导出和导入,将下面的地址复制到URL处:https://azurezeng.github.io/static/HEGoogleRedirect.json。然后点击右边的下载符号,最后点击页面下方的保存即可。随后根据注册界面的提示进行注册,用于注册的邮箱中应该会受到一封邮件。关于进行人机身份验证(有的不显示人机身份验证):下面是解决方法。(没有绑定手机号之前是没有Session options的)完成手机号绑定之后,你创建的notebook的右侧就会出现。(注意:一周只有30小时的GPU免费使用时长)

2024-06-25 18:26:01 1081

原创 安装Pytorch

将这个命令复制下来,然后激活pytorch1环境,activate pytorch1,在pytorch1环境中使用刚刚复制的命令安装pytorch。(Windows——x86_64——11——exe(local))我的电脑是Windows11系统,这个请根据自己电脑系统进行选择。在 二、安装cuda——3.搭建虚拟环境中,搭建了一个名为pytorch1的虚拟环境,现在在这个虚拟环境中安装Pytorch.如果遇到替换默认同意即可。设置——查看高级系统设置——环境变量——系统变量中的Path。

2024-06-25 15:13:41 2150

原创 前馈神经网络实现姓氏分类

感知机存在的问题XOR问题,感知机不能拟合XOR函数,它只能产生线性分割面,这导致人工智能迎来了第一次寒冬。直到1986年,BP反向传播算法的诞生,解决了多层感知机的学习计算问题,使得多层感知机爆火。这里介绍基于多层感知机和卷积神经网络来实现姓氏分类。

2024-06-23 21:13:30 2010

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除