![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
笔记
梅子呀呀呀
既然无法跳跃,为何不选择自己喜爱的?
展开
-
attention与self-attention机制
Attention 注意力焦点更多专门获取某一区域的注意力资源,以获取更多所需要关注目标的细节信息,而抑制其他无用信息 Encoder-Decoder框架:在<Source,Target>结构中,encoder通过对source的非线性变化转变成语义信息,一般采用CNN结构;decoder根绝语义信息和已生成的历史信息(先前信息的decoder输出)来生成当前时刻信息,采用RNN模型 y1 = f©; y2 = f(c,y1); y3 = f(c, y1,y2) attention模型:传统的原创 2022-02-14 22:09:36 · 950 阅读 · 0 评论 -
python 计算灰度共生矩阵
纹理特征:灰度共生矩阵 纹理特征分为四大类:统计方法(灰度共生矩阵、局部二进制)信号处理方法(小波变换、Gabor变换)模型方法(分形 SAR 自相关)结构方法(数学形态学、句法纹理分析) 灰度共生矩阵就是计算像素i到像素j出现的概率,(注意灰度共生矩阵是有方向的)提供影像灰度方向、间隔、变化幅度与快慢的信息,但不能直接提供区别纹理的特征,因此需要在灰度共生居镇的基础上提取用来定量描述纹理特征的统计属性,haralick提供了14中纹理特征,常用的有均值、方差、标准差、对比度、均质性、相异性等原创 2022-01-20 16:44:02 · 3797 阅读 · 0 评论 -
李宏毅 机器学习machine learning
机器学习相关规定 gpu:推荐入门人员使用Google colab的人员 本文集中比较讲述deeplearning,基本观念可以去去看林轩田老师的机器学习课程,个人认为本课程更多是进阶技术,关注最新的动态模型 -kaggle账号注册 基本概念 机器学习:寻找function?(存在质疑) 回归问题输出是一个数值,分类问题输出的一个选项(比如是正确还是错误) 回归和分类问题只是机构学习structured learning一小部分 步骤:training:function-loss-optimizati原创 2022-01-18 10:43:04 · 384 阅读 · 0 评论 -
tensorflow笔记2(北京大学)
lecture 1 人工智能三个学派:行为主义(基于控制论,如机器人单脚站立)、符号主义(可用公式描述,如专家系统,但是我们人类不仅具有公式可描述的理性思维,还具有感性思维)、连接主义(模拟人类的感性思维) 用计算机仿造神经网络连接关系,具备感性思维:首先准备越多越好的数据对(特征/标签),然后搭建网络结构,然后优化参数 lecture 2 if case语句,根据花冠长和花萼宽进行判断,这就是专家系统,根据公示进行判断。但是,经常专家只需要根据感性的思维,无需要对花进行测量,直接判断花的类型 简易线原创 2022-01-06 23:04:00 · 979 阅读 · 0 评论 -
神经网络与深度学习
机器学习基础 深度学习主要解决贡献度分配问题 机器学习是指从有限的观测数据中学习具有一般性的规律,并利用这些规律对未知数据进行预测的方法,主要步骤:数据预处理(去噪声)-特征提取(SIFT/HGO)-特征转换(升维降维)-预测 表示学习:局部表示(one-hot)和分布表示(embedding) 知识体系: ...原创 2022-01-05 15:21:40 · 154 阅读 · 0 评论 -
CS231a I winter
CS231a I winterLecture 1Lecture2 image classification pipelineLecture3 Loss Functions and optimization Lecture 1 课程安排:CS131/(基础课程),CS231a/(基础视觉:语义分割、目标检测、场景识别、3D,更偏向应用和基础讨论),CS231n/(专门领域,针对性视觉识别,与a有一定重叠),CS224n… 历史简介:。。。 Lecture2 image classification pip原创 2022-01-05 15:21:27 · 687 阅读 · 0 评论 -
standford 106
(本人非计算机专业,对深度学习很感兴趣,现在只是能手写一些基础网络,所以打算将StanFord的课程系统学习一下,顾记下次笔记,感兴趣的就跟我一起学习一下吧) Leature 1 本课程注重学习编程的范式方法,对于语言没有固定的要求 ...原创 2022-01-04 23:39:49 · 492 阅读 · 0 评论