(dwz)打开一个页面,再打开另一个页面,input框中出现本该隐藏的内容

一:问题

在打开一个页面中,有几个按钮,可以打开一个新的页面,添加新的数据、或者修改数据。先打开添加页面,再打开修改页面。修改页面本该隐藏的内容,出现在input框中。如图:
这里写图片描述

这里写图片描述

这里写图片描述

二、过程

原本以为是页面中的东西被其他页面篡改了。但看了相应的js文件之后,才发现,是id有冲突。

三、解决方法

在id后面添加 navTab.getCurrentPanel() 。如图:

这里写图片描述


$("#bindingId_show",navTab.getCurrentPanel()).val("");

这个问题,在dwz文档中已经给出来了。我是多转了好几圈,才发现T/\T

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个简单的 GRU 网络的 Python 代码示例,用于序列到序列的预测任务: ```python import numpy as np # 定义激活函数 def sigmoid(x): return 1 / (1 + np.exp(-x)) # 定义 GRU 网络类 class GRUNetwork: def __init__(self, input_size, hidden_size, output_size): self.input_size = input_size self.hidden_size = hidden_size self.output_size = output_size # 初始化权重 self.Wr = np.random.randn(hidden_size, input_size) self.Wz = np.random.randn(hidden_size, input_size) self.W = np.random.randn(hidden_size, input_size) self.Ur = np.random.randn(hidden_size, hidden_size) self.Uz = np.random.randn(hidden_size, hidden_size) self.U = np.random.randn(hidden_size, hidden_size) self.V = np.random.randn(output_size, hidden_size) # 前向传播 def forward(self, x): T = len(x) h = np.zeros((T+1, self.hidden_size)) r = np.zeros((T, self.hidden_size)) z = np.zeros((T, self.hidden_size)) h[0] = np.zeros(self.hidden_size) for t in range(T): r[t] = sigmoid(np.dot(self.Wr, x[t]) + np.dot(self.Ur, h[t])) z[t] = sigmoid(np.dot(self.Wz, x[t]) + np.dot(self.Uz, h[t])) h[t+1] = (1 - z[t]) * h[t] + z[t] * np.tanh(np.dot(self.W, x[t]) + np.dot(self.U, r[t] * h[t])) y = np.dot(self.V, h[1:].T) return y # 训练模型 def train(self, x_train, y_train, learning_rate=0.1, epochs=100): for epoch in range(epochs): for x, y_true in zip(x_train, y_train): # 前向传播 y_pred = self.forward(x) # 反向传播 dV = np.outer(y_pred - y_true, np.sum(h[1:], axis=0)) dh = np.zeros(self.hidden_size) dW = np.zeros((self.hidden_size, self.input_size)) dU = np.zeros((self.hidden_size, self.hidden_size)) dWr = np.zeros((self.hidden_size, self.input_size)) dUr = np.zeros((self.hidden_size, self.hidden_size)) dWz = np.zeros((self.hidden_size, self.input_size)) dUz = np.zeros((self.hidden_size, self.hidden_size)) for t in reversed(range(len(x))): dy = y_pred - y_true dh = np.dot(self.V.T, dy) + dh dz = dh * (np.tanh(np.dot(self.W, x[t]) + np.dot(self.U, r[t] * h[t])) - h[t]) dU = dz * r[t] * h[t] + dU dW = dz * x[t] + dW dr = dz * h[t] * (1 - r[t]) * r[t] dUr = dr * h[t-1] + dUr dWr = dr * x[t] + dWr dh = dz * r[t] + np.dot(self.U.T, dr) dz = dh * (1 - z[t]) * z[t] dUz = dz * h[t-1] + dUz dWz = dz * x[t] + dWz self.V = self.V - learning_rate * dV self.W = self.W - learning_rate * dW self.U = self.U - learning_rate * dU self.Wr = self.Wr - learning_rate * dWr self.Ur = self.Ur - learning_rate * dUr self.Wz = self.Wz - learning_rate * dWz self.Uz = self.Uz - learning_rate * dUz ``` 以上代码是一个基本的 GRU 网络实现。在训练模型时,我们可以使用反向传播来计算权重的梯度,并使用梯度下降来更权重。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值