[算法导论] 手写系列—1.attention & 交叉熵 & ID3

这篇博客介绍了如何手写实现self_attention_layer,包括Pytorch版本的注意力机制,详细讲解了交叉熵损失的计算,并对手写ID3决策树的7个关键函数进行了阐述。此外,还探讨了不同决策树算法的特点,如ID3、C4.5、 CART。下集将讨论逻辑回归、多层感知器和优化器。
摘要由CSDN通过智能技术生成

dim=0是列,dim=1是行。

目录

1.  self_attention_layer 

1.1 手写 self_attention_layer (没写反向,之后补充)

1.2 pytorch版本的attention (没写反向,之后补充)

2. 手写交叉熵损失(2元/多元)

2.1 手写

2.2 Pytorch调用 loss

3. 手写ID3 

下集预告:LR,MLP,优化器


1.  self_attention_layer 

注意:

1. q、k维度相同,v维度可以不同(=输出维度)

2. 矩阵乘法np.matmul(m,n)。 矩阵点乘 np.multiply(m, n)。

1.1 手写 self_attention_layer (没写反向,之后补充)

X样本是按列的,所以左乘,然后softmax时也要按列

# 手写版本
import numpy as np
from numpy.random import randn
d = 256
n = 32
x 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

心心喵

喵喵(*^▽^*)

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值