pytorch怎么设置模型参数初始值_变频器外接电位器,线该怎么接?参数怎么设置?...

变频器的品牌众多,名称、型号不太一样,但是电位器的接线方法都大同小异,产品说明书上都有图纸说明。

一般变频器各种系列的机型都可以使用电位器来控制频率输出,电位器接线0~10v电压。

首先外部电位器后面有3个端子,分别是1、2、3。

将电位器的3号端子连接在变频器+10V的位置,将电位器的2号端子连接在变频器AVI的位置,将电位器的1号端子连接在变频器ACM的位置。具体接线方法如图所示:

cc79e33290b9339b3d8aa82079033f22.png

接线端子原理图

其中,+10V 是速度设定用电源,是模拟信号的频率设定电源,+10Vdc3mA(可调电阻3~5kΩ),AVI是模拟电压频率指示,电压范围是0 ~ 10VDC,对应到0~最大输出频率,ACM是模拟信号公共端,是模拟信号的共同端子。

005f4494e0859d5a1c94a10f3972b689.png

控制端子位置示意图

55824ec628e569a094ecb998ce06152d.png

连接好之后,开始设置参数,首先设置频率来源,02.00是频率输入来源设定

02.00参数说明

我们现在是用外部电位器,应该选择1,也就是主频率输入由模拟信号0-10V,先进入02.00,然后通过上下箭头,选择1,再按确定键保存,确定好之后,然后返回主界面。

154043ea62581dff2df89eabf93b7292.png

然后设置运转指令来源,02.01是运转指令来源设定

02.01参数说明

我们是在变频器的面板上启动,应该选择0,也就是数字操作器控制,先进入02.01,然后通过上下箭头,选择0,再按确定键保存,确定好之后,然后返回主界面。

3a72bc3c766272d5b50fd9c53afa3156.png

流程总结:

1、将外接电位器的两端分别接变频器的+10V和ACM,将电位器的滑动端接电压输入端AVI。

2、变频器与外接电位器之间的连接线要选用屏蔽线,且要三线均屏蔽的,如果变频器与外接电位器之间距离超过2米,就要考虑屏蔽线的质量,线径不能小。

3、如果变频器与外接电位器之间距离超过10米,那么在保证屏蔽线的质量和线径下,还需要再套铁管。在保证屏蔽线的质量和线径下套铁管,距离可以超过200米,原则是变频器端,线路压降可以忽略,若压降过大,可以用单芯铜线屏蔽代替屏蔽线。

4、变频器的控制如果采用闭环自动控制,必须将工艺参数,如生产过程中的流量、液面、压力、温度等通过变送器、调节器转换为4~20mA的信号,送至变频器的信号输入端,才能达到变频控制的目的。频率的设定可以通过外接频率设定电位器的方法来实现。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch中,设置参数的requires_grad属性为False可以将其标记为不需要梯度计算,从而不会在反向传播过程中更新该参数的梯度值。然而,即使将参数的requires_grad属性设置为False,如果在模型中使用了该参数进行计算,该参数仍然会被更新,因为PyTorch会根据计算图自动推导出需要更新的参数。 例如,假设模型中的某个层使用了一个requires_grad为False的参数进行计算: ``` class MyModel(nn.Module): def __init__(self): super(MyModel, self).__init__() self.fc = nn.Linear(10, 1, bias=False) self.fc.weight.requires_grad = False def forward(self, x): out = self.fc(x) return out ``` 在训练过程中,即使将该参数的requires_grad属性设置为False,该参数仍然会被更新: ``` model = MyModel() optimizer = torch.optim.SGD(model.parameters(), lr=0.1) for i in range(10): x = torch.randn(1, 10) y = torch.randn(1, 1) optimizer.zero_grad() output = model(x) loss = nn.functional.mse_loss(output, y) loss.backward() optimizer.step() print(model.fc.weight) ``` 输出结果为: ``` tensor([[-0.0233, 0.0133, 0.1036, 0.0312, -0.0608, -0.1007, -0.1006, -0.0221, -0.0030, 0.0778]]) ``` 可以看到,虽然将fc层的权重设置为不需要梯度计算,但是该参数仍然被更新了。这是因为在反向传播过程中,PyTorch会根据计算图自动推导出需要更新的参数,而不是根据requires_grad属性来确定需要更新的参数。因此,在模型中使用参数进行计算时,即使将其requires_grad属性设置为False,该参数仍然可能被更新。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值