as 5中raw的配置

AS5里已经没有了/ECT/SYSCONFIG/RAWDEVICES这个文件了,偶找了老半天,原来已经换了配置RAW的方式.如下:

raw 设备映射

raw 设备接口在 红帽企业 Linux 5 里已经被取消了;raw 设备映射现在通过 udev 规则进行配置。要配置 raw 设备映射,可以在 /etc/udev/rules.d/60-raw.rules 里加入以下格式的条目:

设备名称:

ACTION=="add", KERNEL="", RUN+="raw /dev/raw/rawX %N"

主/次号码:

ACTION=="add", ENV{MAJOR}="A", ENV{MINOR}="B", RUN+="raw /dev/raw/rawX %M %m"

用你需要绑定的设备名称替换 (如:/dev/sda1)。"A" 和 "B" 是设备的主/次号码,X 是系统使用的 raw 设备号码。

如果你有一个大的、现有的 /etc/sysconfig/rawdevices 文件,你可以用下面的脚本转换它:

#!/bin/sh

grep -v "^ *#" /etc/sysconfig/rawdevices | grep -v "^$" | while read dev major minor ; do

if [ -z "$minor" ]; then

echo "ACTION=="add", KERNEL=="${major##/dev/}", RUN+="/usr/bin/raw $dev %N""

else

echo "ACTION=="add", ENV{MAJOR}=="$major", ENV{MINOR}=="$minor", RUN+="/usr/bin/raw $dev %M %m""

fi

done

偶还没有试过,有了空再试试.

[@more@]

AS5里已经没有了/ECT/SYSCONFIG/RAWDEVICES这个文件了,偶找了老半天,原来已经换了配置RAW的方式.如下:

raw 设备映射

raw 设备接口在 红帽企业 Linux 5 里已经被取消了;raw 设备映射现在通过 udev 规则进行配置。要配置 raw 设备映射,可以在 /etc/udev/rules.d/60-raw.rules 里加入以下格式的条目:

设备名称:

ACTION=="add", KERNEL="", RUN+="raw /dev/raw/rawX %N"

主/次号码:

ACTION=="add", ENV{MAJOR}="A", ENV{MINOR}="B", RUN+="raw /dev/raw/rawX %M %m"

用你需要绑定的设备名称替换 (如:/dev/sda1)。"A" 和 "B" 是设备的主/次号码,X 是系统使用的 raw 设备号码。

如果你有一个大的、现有的 /etc/sysconfig/rawdevices 文件,你可以用下面的脚本转换它:

#!/bin/sh

grep -v "^ *#" /etc/sysconfig/rawdevices | grep -v "^$" | while read dev major minor ; do

if [ -z "$minor" ]; then

echo "ACTION=="add", KERNEL=="${major##/dev/}", RUN+="/usr/bin/raw $dev %N""

else

echo "ACTION=="add", ENV{MAJOR}=="$major", ENV{MINOR}=="$minor", RUN+="/usr/bin/raw $dev %M %m""

fi

done

偶还没有试过,有了空再试试.

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/195208/viewspace-1000727/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/195208/viewspace-1000727/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Adam优化器是一种常用的随机梯度下降优化算法,其结合了动量法和自适应学习率方法。下面是一份使用Python语言实现Adam优化器的代码示例: ```python import numpy as np class AdamOptimizer: def __init__(self, learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-8): self.learning_rate = learning_rate self.beta1 = beta1 self.beta2 = beta2 self.epsilon = epsilon self.m = None self.v = None self.t = 0 def update(self, params, grads): if self.m is None: self.m, self.v = {}, {} for key, val in params.items(): self.m[key] = np.zeros_like(val) self.v[key] = np.zeros_like(val) self.t += 1 lr_t = self.learning_rate * np.sqrt(1.0 - np.power(self.beta2, self.t)) / (1.0 - np.power(self.beta1, self.t)) for key in params.keys(): # Update biased first moment estimate. self.m[key] = self.beta1 * self.m[key] + (1 - self.beta1) * grads[key] # Update biased second raw moment estimate. self.v[key] = self.beta2 * self.v[key] + (1 - self.beta2) * np.power(grads[key], 2) # Update parameters. params[key] -= lr_t * self.m[key] / (np.sqrt(self.v[key]) + self.epsilon) ``` 在上述代码,我们定义了一个AdamOptimizer类,其包含了初始化函数`__init__()`和参数更新函数`update()`。其,`learning_rate`表示初始学习率,`beta1`和`beta2`分别表示动量的指数衰减率和梯度平方的指数衰减率,`epsilon`为一个很小的常数,避免分母为零。 在参数更新函数,我们首先判断是否已经存在了第一次动量和第二次动量(也就是m和v),如果不存在则初始化为0。接着,我们计算当前的学习率lr_t,并根据公式计算出新的m和v值,并最终根据公式计算出更新后的参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值