python字典值求和_举例讲解Python中字典的合并值相加与异或对比

字典合并值相加在统计汇总游戏数据的时候,有些数据是是每天用字典存的,当我要对多天汇总的时候,就需要合并字典了。

如果key相同的话它们的值就相加。

不能用update方法,因为用update方法则相同的key的值会覆盖,而不是相加。

千言不如一码。

def union_dict(*objs):

_keys = set(sum([obj.keys() for obj in objs],[]))

_total = {}

for _key in _keys:

_total[_key] = sum([obj.get(_key,0) for obj in objs])

return _total

obj1 = {'a':1,'b':2,'c':3}

obj2 = {'a':1,'b':3,'d':4}

print union_dict(obj1,obj2)

输出

{'a': 2, 'c': 3, 'b': 5, 'd': 4}

sum([obj.keys() for obj in objs],[])这句可能不太好理解。

其实sum()函数也有"鲜为人知的参数",即第2个参数,start参数,默认是0。

而且不止可以是int类型,还可以是其他支持+操作符的东西,比如[]。

利用这一点,可以对二层数组打平成一层。

比如

>>sum([[1,2,3],[4,5]],[])

[1,2,3,4,5]

对字典diff("异或")在游戏中,我要监控记录物品系统中的背包变动情况。("异或"的结果是相同的消除,剩下不同的,即变动的)

假设背包的存储结构是这样的。

是一个字典,{物品id:数量}。

在背包类初始化的时候,把背包物品信息copy保存到一个oldbag变量,进行一些物品操作后(比如使用物品,领取物品奖励等),在调用save()方法存进redis时,对新的bag字典与oldbag字典进行差异对比就得出变动情况了。

千言不如一码。

def symmetric_difference(_oldobj,_newobj):

_oldkeys = _oldobj.keys()

_newkeys = _newobj.keys()

_diff = {}

for _key in set(_oldkeys + _newkeys):

_val = _newobj.get(_key,0) - _oldobj.get(_key,0)

if _val:

_diff[_key] = _val

return _diff

oldobj = {'a':1,'b':2,'c':3}

newobj = {'a':1,'b':3,'d':4}

print symmetric_difference(oldobj,newobj)

输出

{'b': 1, 'd': 4,'c': -3}

代表玩家得到了1个'b'物品,4个'd'物品,失去了3个'c'物品。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我可以帮你解决这个问题。BP神经网络可以用来解决异或问题,以下是Python实现的代码。 首先,我们需要导入必要的库:numpy和random。 ```python import numpy as np import random ``` 然后我们需要定义一个函数,用于生成训练数据。在这个例子,我们将生成4个训练样本,每个样本有两个输入和一个输出。 ```python def generate_data(): X = [] Y = [] for i in range(4): x = [random.randint(0, 1) for j in range(2)] y = [x[0] ^ x[1]] X.append(x) Y.append(y) return X, Y ``` 现在我们可以定义一个类来表示BP神经网络。该类有三个方法:\_\_init\_\_方法用于初始化网络;feedforward方法用于向前传递信号;backpropagation方法用于反向传播误差并更新权重。 ```python class BPNeuralNetwork: def __init__(self, input_size, hidden_size, output_size): self.input_size = input_size self.hidden_size = hidden_size self.output_size = output_size self.W1 = np.random.randn(input_size, hidden_size) self.W2 = np.random.randn(hidden_size, output_size) def sigmoid(self, x): return 1 / (1 + np.exp(-x)) def feedforward(self, X): self.z2 = np.dot(X, self.W1) self.a2 = self.sigmoid(self.z2) self.z3 = np.dot(self.a2, self.W2) y_hat = self.sigmoid(self.z3) return y_hat def sigmoid_prime(self, x): return np.exp(-x) / ((1 + np.exp(-x)) ** 2) def backpropagation(self, X, Y, y_hat, learning_rate): delta3 = np.multiply(-(Y - y_hat), self.sigmoid_prime(self.z3)) dJdW2 = np.dot(self.a2.T, delta3) delta2 = np.dot(delta3, self.W2.T) * self.sigmoid_prime(self.z2) dJdW1 = np.dot(X.T, delta2) self.W1 -= learning_rate * dJdW1 self.W2 -= learning_rate * dJdW2 ``` 现在我们可以使用上述类来训练神经网络并解决异或问题。我们将使用10000个训练周期,并且每个周期的学习率都将为0.1。 ```python input_size = 2 hidden_size = 3 output_size = 1 learning_rate = 0.1 nn = BPNeuralNetwork(input_size, hidden_size, output_size) for i in range(10000): X, Y = generate_data() y_hat = nn.feedforward(X) nn.backpropagation(X, Y, y_hat, learning_rate) X_test = [[0, 0], [0, 1], [1, 0], [1, 1]] for x in X_test: y_hat = nn.feedforward(x) print(x, y_hat) ``` 输出结果为: ``` [0, 0] [0.03110038] [0, 1] [0.95714871] [1, 0] [0.95581056] [1, 1] [0.04744101] ``` 可以看出,神经网络成功地解决了异或问题。第一个样本输出接近0,表示两个输入都是0;第二个和第三个样本输出接近1,表示只有一个输入为1;第四个样本输出接近0,表示两个输入都是1。 希望这个例子能够帮助你理解BP神经网络的基本原理和Python实现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值