python同或与异或_python中 “与,或,异或”与C语言的不同

在python中:

按位的运算,都按位的运算,都是把参加运算的数的二进制形式进行运算。

1.与运算:A与B值均为1时,A、B与的运算结果才为1,否则为0 (运算符:&)

2.或运算:A或B值为1时,A、B或的运算结果才为1,否则为0  (运算符:|)

3.异或运算:A与B不同为1时,A、B的预算结果才为1,否则为0  (运算符:^)

4.按位翻转(按位取反):将内存中表示数字的2进制数取反0取1,1取0 (运算符:~)

运算方式:

1.与运算:5&3计算过程为 0101(2)&0011(2)=0001(2)=1

注释:意思是把两个数全部转换为二进制进行比较,如上例:5的二进制为0101,3的二进制为0011.则这两个数的二进制数种第一位相同,取一,其余全部取零。得0001,再转换为十进制结果为 1

为方便理解再举个例子,《python核心编程》中表5-4中的例子:>>>30&45  结果为12

即30=(011110), 45=(101101)位运算得12(1100)

其余三种位运算与此相同

2.或运算:5|3计算过程为 0101(2)|0011(2)=0111(2)=7

3.异或运算:5^3计算过程为 0101(2)^0011(2)=0110(2)=6

4.按位翻转(按位取反):5=0101(2) 计算过程~5=1010(2)   例如:X的按位运算为-(X+1)

其他位的运算:(<>)

1. <

2. >>:右移 方式与左移相同只是方向相反

计算机中的负数表示:

将原数按位取反后+1=原数的补码(原数的反数)

原数:在计算机中用2进制的方式表示一个普通数字所形成的数就是原数

例如:5=00000000 00000000 00000000 00000101

5取反后就为11111111  11111111  11111111  11111010其结果+1就是原数的补码即为-5的2进制表示

C语言中:

优先级从高到低,依次为~、&、^、|

按位与运算有两种典型用法,一是取一个位串信息的某几位,如以下代码截取x的最低7位:x & 0177。二是让某变量保留某几位,其余位置0,如以下代码让x只保留最低6位:x = x & 077。

按位或运算的典型用法是将一个位串信息的某几位置为1。如将要获得最右4位为1,其他位与变量j原来其他位保持相同,可用逻辑或运算017|j;

按位异或运算的典型用法是求一个位串信息的某几位信息的反。如欲求整型变量j的最右4位信息的反,用逻辑异或运算017^j,就能求得j最右4位的信息的反,即原来为1的位,结果是0,原来为0的位,结果是1。交换两个值,不用临时变量,假如a=3,b=4。想将a和b的值互换,可以用以下赋值语句实现:

a=a^b; b=b^a;     a=a^b;

取反运算常用来生成与系统实现无关的常数。如要将变量x最低6位置成0,其余位不变,可用代码x = x & ~077实现。

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我可以帮你解决这个问题。BP神经网络可以用来解决异或问题,以下是Python实现的代码。 首先,我们需要导入必要的库:numpy和random。 ```python import numpy as np import random ``` 然后我们需要定义一个函数,用于生成训练数据。在这个例子,我们将生成4个训练样本,每个样本有两个输入和一个输出。 ```python def generate_data(): X = [] Y = [] for i in range(4): x = [random.randint(0, 1) for j in range(2)] y = [x[0] ^ x[1]] X.append(x) Y.append(y) return X, Y ``` 现在我们可以定义一个类来表示BP神经网络。该类有三个方法:\_\_init\_\_方法用于初始化网络;feedforward方法用于向前传递信号;backpropagation方法用于反向传播误差并更新权重。 ```python class BPNeuralNetwork: def __init__(self, input_size, hidden_size, output_size): self.input_size = input_size self.hidden_size = hidden_size self.output_size = output_size self.W1 = np.random.randn(input_size, hidden_size) self.W2 = np.random.randn(hidden_size, output_size) def sigmoid(self, x): return 1 / (1 + np.exp(-x)) def feedforward(self, X): self.z2 = np.dot(X, self.W1) self.a2 = self.sigmoid(self.z2) self.z3 = np.dot(self.a2, self.W2) y_hat = self.sigmoid(self.z3) return y_hat def sigmoid_prime(self, x): return np.exp(-x) / ((1 + np.exp(-x)) ** 2) def backpropagation(self, X, Y, y_hat, learning_rate): delta3 = np.multiply(-(Y - y_hat), self.sigmoid_prime(self.z3)) dJdW2 = np.dot(self.a2.T, delta3) delta2 = np.dot(delta3, self.W2.T) * self.sigmoid_prime(self.z2) dJdW1 = np.dot(X.T, delta2) self.W1 -= learning_rate * dJdW1 self.W2 -= learning_rate * dJdW2 ``` 现在我们可以使用上述类来训练神经网络并解决异或问题。我们将使用10000个训练周期,并且每个周期的学习率都将为0.1。 ```python input_size = 2 hidden_size = 3 output_size = 1 learning_rate = 0.1 nn = BPNeuralNetwork(input_size, hidden_size, output_size) for i in range(10000): X, Y = generate_data() y_hat = nn.feedforward(X) nn.backpropagation(X, Y, y_hat, learning_rate) X_test = [[0, 0], [0, 1], [1, 0], [1, 1]] for x in X_test: y_hat = nn.feedforward(x) print(x, y_hat) ``` 输出结果为: ``` [0, 0] [0.03110038] [0, 1] [0.95714871] [1, 0] [0.95581056] [1, 1] [0.04744101] ``` 可以看出,神经网络成功地解决了异或问题。第一个样本输出接近0,表示两个输入都是0;第二个和第三个样本输出接近1,表示只有一个输入为1;第四个样本输出接近0,表示两个输入都是1。 希望这个例子能够帮助你理解BP神经网络的基本原理和Python实现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值