自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 被八斗学院给坑了

八斗学院真是坑。

2023-07-29 06:41:24 1347 11

原创 中文地址解析

-- coding: utf-8 --import torchimport reimport numpy as npfrom collections import defaultdict“”"模型效果测试“”"class Evaluator:def init(self, config, model, logger):self.config = configself.model = modelself.logger = loggerself.valid_data = load_data(

2023-07-11 22:02:29 141

原创 xgboost 详细理解

XGBoost1、目标函数:加法模型-基学习器。

2023-07-03 13:11:35 78

原创 lora & stable diffusion

分层控制来调整风格。

2023-07-03 13:04:50 85

原创 Transformer 面试问题

3.Transformer计算attention的时候为何选择点乘而不是加法?两者计算复杂度和效果上有什么区别?2.Transformer为什么Q和K使用不同的权重矩阵生成,为何不能使用同一个值进行自身的点乘?答案:多头保证了Transformer可以注意到不同子空间的信息,捕捉到更加丰富的特征信息。使用Q/K/V不相同可以保证在不同空间进行投影,增强了表达能力,提高了泛化能力。1、Transformer为何使用多头注意力机制?(为什么不使用一个头)?

2023-07-01 15:46:38 455

原创 图数据库 Neo4j Cypher 与 SQL

1、关键字对比。

2023-06-28 09:05:58 68

原创 LSTM 详细理解

全称 Long Short Term Memory (长短期记忆) 是一种循环神经网络,LSTM可以利用时间序列对输入进行分析。

2023-06-27 13:52:04 413

原创 数据异常检测

1、孤立森林2、 时间序列。

2023-06-26 19:50:39 31

原创 transformers

Multi-Head AttentionScaledDotProductAttention: attn = q*k.T/temperaturetemperature = 64

2023-06-17 13:15:44 48

原创 Transformer&Bert self-attention multi-heads

Self-Attention 层:使用Q,K,V(q_w, k_w, v_w)三个权重矩阵分别对输入X进行linear全连接层。隐藏层hidden_size 为768, num_attention_heads为12,所有attention_head_size 为64, max_length为输入X的长度,为4(假设输入 x = np.array([2450, 15486, 15167, 2110]))。

2023-06-17 06:51:26 101

原创 Dijkstra

【代码】Dijkstra。

2023-05-01 13:28:40 49 1

原创 python 函数随记

不启用 BatchNormalization 和 Dropout,保证BN和dropout不发生变化,pytorch框架会自动把BN和Dropout固定住,不会取平均,而是用训练好的值,不然的话,一旦test的batch_size过小,很容易就会被BN层影响结果。切断一些分支的反向传播,返回一个新的tensor,从当前计算图中分离下来的,但是仍指向原变量的存放位置,不同之处只是requires_grad为false,得到的这个tensor永远不需要计算其梯度,不具有grad。

2023-03-29 09:33:17 73

原创 python 中数组标准化函数StandardScaler

Python中StandardScalerfrom sklearn.preprocessing import StandardScalersc = StandardScaler()x = sc.fit_transform(x)一: 数组x标准化公式为数组,为数组x的平均值,为数组x的标准差,则标准化的公式为:import numpy as npfrom sklearn.preprocessing import StandardScalersc = StandardScaler().

2022-05-22 08:54:15 7182

原创 python归一化函数MinMaxScaler的理解

"""python归一化函数MinMaxScaler的理解class sklearn.preprocessing.MinMaxScaler(feature_range=0, 1, *, copy=True)"""from sklearn.preprocessing import MinMaxScalerimport numpy as npx = np.array([[1., -1., 2.], [2., 0., 0.], [0., 1.,.

2021-05-09 14:23:49 5626

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除