动手学深度学习2.2数据预处理

# import torch
# x=torch.arange(4.0)
# x.requires_grad_(True)
# # x.grad.zero_()
# y=x*x
# u=y.detach()
# z=u*x
# z.sum().backward()
# print(x.grad==u)
#
# x.grad.zero_()
# y.sum().backward()
# print(x.grad==2*x)
#
#
#
# def f(a):
#     b=a*2
#     while b.norm()<1000:
#         b=b*2
#     if b.sum()>0:
#         c=b
#     else:
#         c=100*b
#     return c
#
# a=torch.randn(size=(),requires_grad=True)
# d=f(a)
# d.backward()
# print(a.grad==d/a)#m没搞懂?

import torch
from torch.distributions import multinomial
from d2l import torch as d2l
fair_probs = torch.ones([6]) /6
print(fair_probs)
multinomial.Multinomial(1, fair_probs).sample()
multinomial.Multinomial(10, fair_probs).sample()
counts = multinomial.Multinomial(1000, fair_probs).sample()
print(counts)
counts / 1000 # 相对频率作为估计值

counts = multinomial.Multinomial(10, fair_probs).sample((500,))
cum_counts = counts.cumsum(dim=0)
# estimates = cum_counts / cum_counts.sum(dim=1, keepdims=True)
# d2l.set_figsize((6, 4.5))
# for i in range(6):
#     d2l.plt.plot(estimates[:, i].numpy(),
#     label=("P(die=" + str(i + 1) + ")"))
#     d2l.plt.axhline(y=0.167, color='black', linestyle='dashed')
#     d2l.plt.gca().set_xlabel('Groups of experiments')
#     d2l.plt.gca().set_ylabel('Estimated probability')
#     d2l.plt.legend();
#     d2l.plt.show()
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

菜是菜人是真帅

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值