自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 报错:import tensorflow报错TypeError:unhashable type:‘list‘

吐槽:我自己的话两种方法都可以解决,今天被这个报错搞破防了很久,嗯。有些人用py3.9也还是会报错,可以尝试换到py3.11。我的python版本是3.7 Tensorflow版本是2.5。报错原因:python和tensorflow的版本不匹配。解决方法1:修改python版本升级到3.9或者更高。

2024-06-04 20:15:45 537

原创 [Django笔记3]数据库之关联对象

本人大二,最近上了课,以学习django为主。首先是觉得对开发有兴趣,另外感觉django的知识比较零碎,所以开创了[Ylxn的Django上课笔记]栏目。所有内容都仅个人学习总结用,毕竟初学会有很多问题,如有错误欢迎指出,感激不尽!接上期。

2024-04-26 22:24:26 594 3

原创 [Django笔记2]模型和表达式

本人大二,最近上了课,以学习django为主。首先是觉得对开发有兴趣,另外感觉django的知识比较零碎,所以开创了[Ylxn的Django上课笔记]栏目。所有内容都仅个人学习总结用,毕竟初学会有很多问题,如有错误欢迎指出,感激不尽!接上期。

2024-04-24 18:56:59 718 2

原创 tensorflow报错: FAILED_PRECONDITION: xxx is not a directory

把项目文件搬到无中文的目录下面,直接运行即可。该代码所在的父文件存在中文。

2024-04-23 21:46:26 422

原创 [Django笔记1期]模型和数据库

本人大二,最近上了Web开发课,以学习django为主。首先是觉得对开发有兴趣,另外感觉django的知识比较零碎,所以开创了[Ylxn的Django上课笔记]栏目。所有内容都仅个人学习总结用,毕竟初学会有很多问题,如有错误欢迎指出,感激不尽!

2024-04-19 23:15:23 398 1

原创 GAT学习小结&torch实现

本博客是图注意力神经网络(Graph Attention Networks)的续写

2023-12-12 16:07:23 194

原创 图神经网络GNN/GCN自学笔记&基础代码实现

跟数据结构里面的图基本一样的,没有别的,就是三大特征:V Vertex(or node)arrtibutes:点 ,比如一个人的身高体重这样的特征E Edge(or link)arrtibutes and directions: 边,比如你正在读小白我的博客,我们的边就是朋友啦hhU Global(or master node)arrtibutes:图, 比如一个学校可以做成图,包含了同学,老师,教学楼本身的属性特征,和他们之间的关系特征总之,;

2023-12-09 18:35:59 664 2

原创 BERT从零学习心得体会

BERT提出了全新的方式:MLM(Masked Language Model)论文原文部分;MLM的提出实现:对于所有的原文本词,15%的的概率随机挑选一些词出来;对于被随机挑选出来的部分:10% 替换成其他部分10%原封不动剩下的80%替换成mask这样就打破了原有的文本信息,在预训练的时候对文本进行重建,训练的额时候让出现的词无限地接近原本地词语,这样一定程度上可以遏制对训练集地敏感性训练方式基于上下文的词,与左右模型不同,MLM目标使表示能够融合上下文,使得预训练更加具有深度。

2023-12-03 13:07:35 294 2

原创 Transformer个人理解&学习小结

对比与传统Self-attention的最大区别就是“掩码”和“多头”:“掩码”:读到那里算哪里,只管前面不管后面(落实到计算输出序列b不是由所有的a计算得到,而是自身和前面部分组成的序列a')“多头”:如果说Self-attention像是一个个体,那么Masked-Multi-head self attention就像是多个个体在一起思考,他们分别考虑不同的事情,例如一句话的时间,地点,人物。然后再把大家的思想结合起来,那么对一句话的理解程度可想而知。

2023-11-28 22:52:16 107 2

原创 从seq2到seq2到self-attention个人理解&学习小结

seq2seq模型是输出长度不确定时采用的模型,常用于机器翻译,文本摘要,阅读理解,语音识别等。可以实现语言之间的转换。我们直到语言转换字数常常不一一对应,一句中文翻译成英文,英文可能比原本中文更长或更短,长度难以确定。举个例子:“欢迎来北京”转换成"Welcome to BeiJing"核心为encoder-decoder结构,思想encoder 负责把输入序列压缩成指定长度的向量(编码)

2023-11-22 11:48:01 108 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除