Intel Neural Compute Stick 2代部署之——Ubuntu 16.04出现:Problem executing scripts APT::Update::Post

在做深度学习 移动端部署时,采用了Intel的神经计算棒2代的产品;

我的是在win7系统上弄了个虚拟机,装的Ubuntu 16.04  x64

其中在模型优化配置 这一步骤的时候,执行如下指令:

cd /opt/intel/computer_vision_sdk/deployment_tools/model_optimizer/install_prerequisites
sudo ./install_prerequisites.sh

终端提示如下错误:

Reading package lists... Done
E: Problem executing scripts APT::Update::Post-Invoke-Success
'if /usr/bin/test -w /var/cache/app-info -a -e /usr/bin/appstreamcli;
 then appstreamcli refresh > /dev/null;
 fi'
E: Sub-process returned an error code

解决方法是:

在终端执行如下指令——

sudo pkill -KILL appstreamcli

wget -P /tmp https://launchpad.net/ubuntu/+archive/primary/+files/appstream_0.9.4-1ubuntu1_amd64.deb https://launchpad.net/ubuntu/+archive/primary/+files/libappstream3_0.9.4-1ubuntu1_amd64.deb

sudo dpkg -i /tmp/appstream_0.9.4-1ubuntu1_amd64.deb /tmp/libappstream3_0.9.4-1ubuntu1_amd64.deb

这样就解决了问题,再次运行模型优化配置指令则不报错。

参考:https://www.jianshu.com/p/c2e5b752c68e

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这是一个类定义的开头,可能表示神经网络的实现。接下来需要定义类的属性和方法。 下面是一个简单的例子,定义了一个具有三层的全连接神经网络,包括输入层、隐藏层和输出层: ``` class NeuralNetwork: def __init__(self, input_size, hidden_size, output_size): self.input_size = input_size self.hidden_size = hidden_size self.output_size = output_size # 初始化网络参数 self.weights1 = np.random.randn(input_size, hidden_size) self.bias1 = np.zeros((1, hidden_size)) self.weights2 = np.random.randn(hidden_size, output_size) self.bias2 = np.zeros((1, output_size)) def forward(self, x): # 前向传播过程 self.z1 = np.dot(x, self.weights1) + self.bias1 self.a1 = np.tanh(self.z1) self.z2 = np.dot(self.a1, self.weights2) + self.bias2 self.a2 = np.sigmoid(self.z2) return self.a2 def backward(self, x, y, learning_rate): # 反向传播过程 delta2 = (self.a2 - y) * self.a2 * (1 - self.a2) d_weights2 = np.dot(self.a1.T, delta2) d_bias2 = np.sum(delta2, axis=0, keepdims=True) delta1 = np.dot(delta2, self.weights2.T) * (1 - np.power(self.a1, 2)) d_weights1 = np.dot(x.T, delta1) d_bias1 = np.sum(delta1, axis=0) # 更新参数 self.weights1 -= learning_rate * d_weights1 self.bias1 -= learning_rate * d_bias1 self.weights2 -= learning_rate * d_weights2 self.bias2 -= learning_rate * d_bias2 ``` 在这个例子中,`__init__`方法初始化了神经网络的输入层、隐藏层和输出层的大小,以及网络的参数,包括权重和偏置。`forward`方法实现了前向传播过程,计算了神经网络的输出结果。`backward`方法实现了反向传播过程,根据误差来更新网络参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值