python中int(true)为什么是1_python中int(073)出来的为什么是59,还有True**5是1

匿名用户

1级

2013-01-05 回答

073在python中默认为八进制数,而int(073)的功能就在于把073这个八进制数转化为59这个十进制数。你可以手工检查一下,0 x 8² + 7 x 8 + 3 x 1 = 56 + 3 = 59。

True和False在python中实际上是有数值的,True的值为1,False的值为0,但是你输出的话还是只能输出True和False,你只有在进行运算的时候才能用1和0这样的数值。这就是python功能强大的地方。你可以算一下True + 1 = 2,False + 1 = 1,False**5 = 0,这样的例子。

追问:

int()一个数,只要第一个是0,python都默认是八进制的吗?还有想问一下,-5%3=1是怎么算的

追答:

没有错,只要int(0xxx)就是默认八进制转十进制,你可以试一下int(0101) = 65,这是八进制转化而不是二进制转化,另外的例子有int(0110) = 72等。

后面的那个我已经回答过你了,在计算机编程中取余的规则是这样的,从负无穷到正无穷(当然编程中是有上界的)搜索这个数,然后在无穷小到这个数之间是否存在一个数能被后面的数整除。

在这里就是在负无穷到-5之间找到一个数能被3整数,最接近于-5的数是-6,所以-5 - (-6) = 1

所以这里 -5 % 3 = 1

追问:

还想请教一下,那-5%-3=-2,5%-3=-1,感觉用你那么想不能解释,谢谢~

追答:

就这个问题,要看一下负数mod取余的规则,因为java和python的规则是不一样的。

规则1:如果a和d是两个自然数,d非零,可以证明存在两个唯一的整数 q 和 r,满足 a = qd + r 且0 ≤ r< d。其中,q 被称为商,r 被称为余数。

规则2:如果a 与d 是整数,d 非零,那么余数 r 满足这样的关系:a = qd + r , q 为整数,且0 ≤ |r| < |d|。

可以看到,这个定义导致了有负数的求余并不是我们想象的那么简单,比如,-1 和 2 都是 (-7) mod 3 正确的结果,因为这两个数都符合定义。这种情况下,对于取模运算,可能有两个数都可以符合要求。我们把 -1 和 2 分别叫做正余数和负余数。通常,当除以d 时,如果正余数为r1,负余数为r2,那么有r1 = r2 + d

其实就这个问题经过很多前辈们的经验得出这样的结论:对于任何同号的两个整数,其取余结果没有争议,所有语言的运算原则都是使商尽可能小。对于异号的两个整数,C++/Java语言的原则是使商尽可能大,很多新型语言和网页计算器,例如这里python的原则是使商尽可能小。

【说了这么多希望能够帮到你啦!】

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
`int_classes`是PyTorch的一个内置枚举类型,用于表示整数量化的不同策略。在SlowFast模型,`int_classes`常常被用于定义网络的量化操作,例如`nn.quantization.DeQuantStub`和`nn.quantization.QuantStub`。 以下是一个使用`int_classes`进行量化的例子代码: ```python import torch.nn as nn import torch.nn.quantized as nnq class MyModel(nn.Module): def __init__(self): super(MyModel, self).__init__() self.quant = nnq.QuantStub() self.dequant = nnq.DeQuantStub() self.conv = nn.Conv2d(3, 16, kernel_size=3, stride=1, padding=1) self.relu = nn.ReLU(inplace=True) def forward(self, x): x = self.quant(x) x = self.conv(x) x = self.relu(x) x = self.dequant(x) return x # 定义量化策略 qconfig = torch.quantization.get_default_qconfig('fbgemm') qconfig.activation = torch.quantization.QuantizationMode.SYMMETRIC qconfig.weight = torch.quantization.QuantizationMode.PER_CHANNEL_SYMMETRIC # 量化模型 model = MyModel() model.qconfig = qconfig torch.quantization.prepare(model, inplace=True) torch.quantization.convert(model, inplace=True) # 使用量化过的模型 input_data = torch.randn(1, 3, 224, 224) output_data = model(input_data) ``` 在这个例子,我们定义了一个`MyModel`类,其包含一个卷积层和一个ReLU激活函数。我们使用`nnq.QuantStub`和`nnq.DeQuantStub`对输入和输出进行量化和反量化,使用`int_classes`来定义量化的策略,例如`SYMMETRIC`和`PER_CHANNEL_SYMMETRIC`。最后,我们使用`torch.quantization.prepare`和`torch.quantization.convert`将模型量化,并使用量化后的模型进行推理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值