hahahhahahahahah1
码龄5年
关注
提问 私信
  • 博客:47,004
    社区:12
    47,016
    总访问量
  • 134
    原创
  • 21,758
    排名
  • 172
    粉丝
  • 0
    铁粉
  • 学习成就
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:上海市
  • 加入CSDN时间: 2019-07-16
博客简介:

hongyuyahei的博客

查看详细资料
  • 原力等级
    成就
    当前等级
    4
    当前总分
    864
    当月
    22
个人成就
  • 获得217次点赞
  • 内容获得9次评论
  • 获得259次收藏
  • 代码片获得244次分享
创作历程
  • 9篇
    2024年
  • 124篇
    2023年
  • 1篇
    2022年
成就勋章
TA的专栏
  • vqa
    11篇
  • mysql必知必会
    15篇
  • 力扣
    11篇
  • go语言学习
    7篇
  • webserver
    10篇
创作活动更多

HarmonyOS开发者社区有奖征文来啦!

用文字记录下您与HarmonyOS的故事。参与活动,还有机会赢奖,快来加入我们吧!

0人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

手动安装linuxdeployqt

【代码】手动安装linuxdeployqt。
原创
发布博客 前天 14:55 ·
125 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

安装baidubce库

【代码】安装baidubce库。
原创
发布博客 2024.11.11 ·
134 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

包含docker镜像run的python代码前台运行成功,后台运行失败

使用-it选项启动的容器将会保持STDIN打开,允许你向容器发送输入;分配一个伪终端,提供交互式shell环境;-虽然nohup & 可以使你的python脚本在后台运行,但它不能为docker容器提供一个交互式终端。前台运行包含运行如下命令的python代码,可成功运行,***替换为具体镜像。解决方案:删除-it,即可后台正常运行。
原创
发布博客 2024.10.10 ·
166 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

本地csv上传至bos后,文件不完整,行缺失

【代码】本地csv上传至bos后,文件不完整,行缺失。
原创
发布博客 2024.10.10 ·
153 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

连接关闭导致运行的程序挂掉问题解决

【代码】连接关闭导致运行的程序挂掉问题解决。
原创
发布博客 2024.09.04 ·
337 阅读 ·
2 点赞 ·
0 评论 ·
5 收藏

MarianMT进行文本数据增强

书写辅助函数,来翻译给定机器翻译模型。初始化模型,将英语翻译成罗曼语,如下命令查看所有可使用的增强语言。执行数据增强(英语到西班牙语)初始化将法语翻译成英语的模型。
原创
发布博客 2024.06.06 ·
402 阅读 ·
10 点赞 ·
0 评论 ·
1 收藏

MUTAN readme文件(翻译)

这个任务涉及在一个由三元组组成的多模态数据集上以端到端的方式训练模型:1、一张图像,除了原始像素信息之外没有其他信息,2、有关关联图像上视觉内容的问题,3、对问题的简短回答(一个或几个词)。正如您在下面的插图中所看到的,VQA数据集的两个不同的三元组(但相同的图像)被表示出来。模型需要学习丰富的多模态表示,以便能够给出正确的答案。VQA任务仍然是活跃的研究领域。然而,当它被解决时,它可能对改进人机界面(尤其是对于视觉障碍者)非常有用。关于我们方法的简要洞察。
原创
发布博客 2024.02.03 ·
981 阅读 ·
19 点赞 ·
1 评论 ·
26 收藏

学习笔记:对比学习

B站学习视频
原创
发布博客 2024.01.03 ·
535 阅读 ·
7 点赞 ·
0 评论 ·
7 收藏

CLIP学习

DALL-E学习博客CLIP的B站学习视频DALL-E-2学习博客
原创
发布博客 2024.01.03 ·
452 阅读 ·
6 点赞 ·
0 评论 ·
7 收藏

论文笔记:Bilinear Attention Networks

多模态学习中的注意力网络提供了一种选择性地利用给定视觉信息的有效方法。然而,学习每一对多模态输入通道的注意力分布的计算成本是非常昂贵的。为了解决这个问题,共同注意力为每个模态建立了两个独立的注意分布,忽略了多模态输入之间的相互作用。在本文中,我们提出了双线性注意力网络(BAN),它可以找到双线性注意力分布来无缝地利用给定地视觉语言信息。BAN考虑两组输入通道之间的双线性交互,而低秩双线性池化提取每对通道地联合表示。此外,我们提出了一种多模态残差网络的变体,以有效地利用BAN的注意力图。
原创
发布博客 2023.12.18 ·
1843 阅读 ·
24 点赞 ·
0 评论 ·
26 收藏

bottom-up-attention-vqa-master 成功复现!!!

代码地址1、create_dictionary.py建立词典和使用预训练的glove向量(1)create_dictionary()遍历每个question文件取出所关注的question部分,qs遍历qs,对每个问题的文本内容进行分词,并将分词结果添加到字典中,True表示添加新词而非索引#创建词典#词典用于将文本数据中的单词映射到唯一的整数标识符def create_dictionary(dataroot): dictionary = Dictionary()
原创
发布博客 2023.12.16 ·
1749 阅读 ·
20 点赞 ·
2 评论 ·
34 收藏

一些结合实例的代码理解(学习笔记)

【代码】一些结合实例的代码理解(学习笔记)
原创
发布博客 2023.12.15 ·
444 阅读 ·
8 点赞 ·
0 评论 ·
9 收藏

循环神经网络

门的设计可自由选择哪些部分记忆,哪些部分不记忆,连乘消除梯度消失,Ws^(k-1)是导致可能梯度爆炸和梯度消失的主要原因。整个序列的损失函数即将所有时间步的算是函数相加求和。标准神经网络建模不适合带时间序列的任务场景。4、没有办法体现时序上的“前因后果”前后关联强,“前因后果”
原创
发布博客 2023.12.14 ·
524 阅读 ·
7 点赞 ·
0 评论 ·
8 收藏

Transfomer-学习笔记

我们认为,对于较大的dk值,点积的大小会变大,从而将softmax函数推入具有极小梯度的区域(训练就很慢了),为了抵消这个影响,我们将点乘积乘以。该处的mask用于比较“我喜欢你 P”和“S I Iove you . P”之间的关系,被翻译的句子和翻译的结果他们之间的关系。上图中,超过5的部分被截取掉,不足5的部分使用P进行填充,填充的P在注意力机制当中是没有意义的。上图中,1表示batchsize为1,5表示输入的5个单词,4表示每个单词用1*4的向量表示。将单组的QKV拆成多组的QKV。
原创
发布博客 2023.12.05 ·
843 阅读 ·
19 点赞 ·
0 评论 ·
26 收藏

Glove学习笔记

共现矩阵X为对称矩阵,共现次数和权重递减函数的乘积,从而达到距离越远的共现词对权重小,距离越近的共现词对权重大。我们用我们的见解,构建一个新的模型,Glove,全局向量的词表示,因为这个模型捕捉到全局预料的统计信息。窗口大小为2,表示中心词前后大小为2的区域的词语才与中心词有共现关系,窗口之外的词语就不能称之为共现。通过视频中的讲解主要了解共现矩阵及词向量损失函数推导过程及代码的使用!概率之间的比值更能捕捉词语之间的相关和不相关关系。LSA构建的是词语与文档的共现矩阵。
原创
发布博客 2023.11.30 ·
514 阅读 ·
6 点赞 ·
0 评论 ·
9 收藏

学习笔记:Pytorch 搭建自己的Faster-RCNN目标检测平台

Faster-RCNN可以采用多种的主干特征提取网络,常用的有VGG,Resnet,Xception等等。Faster-RCNN对输入进来的图片尺寸没有固定,但一般会把输入进来的图片短边固定成600.Resnet50expansion = 4 #最后一个卷积层输出通道数相对于输入通道数的倍数'''inplanes:输入通道数planes:卷积层输出的通道数stride:卷积的步长,默认为1downsample:是否对输入进行下采样'''#使用1*1卷积核,压缩通道数。
原创
发布博客 2023.11.30 ·
1248 阅读 ·
10 点赞 ·
0 评论 ·
9 收藏

论文笔记:Bottom-Up and Top-Down Attention for Image Captioningand Visual Question Answering

自顶向下和自底向上结合的注意力机制,使注意力能够在物体和其他显著图像区域的水平上进行计算。自底向上的机制(基于)提出图像区域,每个区域都有一个相关的特征向量,而自顶向下的机制确定特征权重。注意力机制上图是:左边:注意力模型在CNN特征上运行,这些特征对应于大小相等的图像区域的统一网格。右边:模型在物体和其他显著图像区域的水平上计算注意力。将非视觉或特定任务环境驱动的注意力机制称为“自顶向下”,将纯视觉前馈注意力机制称为“自底向上”。
原创
发布博客 2023.11.25 ·
1135 阅读 ·
24 点赞 ·
0 评论 ·
28 收藏

小土堆学习视频

正则化加快神经网络训练速度。特定网络结构:Transfomer层线性层Dropout层防止过拟合。
原创
发布博客 2023.11.23 ·
958 阅读 ·
18 点赞 ·
0 评论 ·
16 收藏

mysql 索引

数据库没有索引的情况下,数据分布在硬盘不同的位置上面,读取数据时,摆臂需要前后摆动查找数据,操作非常消耗时间。二叉搜索树的每个结点存储的是**(K,V)结构**,key是col2,value是该key所在行的文件指针(地址)。继续右侧数据,读89到内存,89==89;索引是存储引擎用于快速找到数据记录的一种数据结构,好比一本教科书的目录部分,通过目录中找到对应文章的页码,便可快速定位到需要的文章。在没有索引的情况下,不论是根据主键列或者其他列的值进行查找,由于我们并不能快速的定位到记录所在的页,所以只能。
原创
发布博客 2023.10.28 ·
341 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

146.LRU缓存

【代码】146.LRU缓存。
原创
发布博客 2023.10.16 ·
767 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏
加载更多