【ADS学习笔记(三)——Tuning功能】

在对ADS有了简单的了解后,可以开始对ADS的一些功能进行掌握,例如Tuning、Optimize、Yield、Sweep等。本节介绍的功能是Tuning。

Tuning可以让设计师能够更改一个或多个设计参数值,并快速查看对输出的影响,而无需对整个设计进行重新模拟。方便设计师对电路进行优化和参数调整。
首先,设计初始电路(参考第二节)。这是一个典型的滤波器电路。

 显然,滤波特性很不理想。下面进行Tuning。

在菜单栏点击Simulate--Simulation Variables Setup

 弹出参数变量设置框,在Tuning标签页里勾选需要调节的变量L1、L2、L3、C1、C2。同时,可以在该页面选择变量的刻度,linear或log,也可以设置变量的最小值与最大值。修改好后点击OK。

 然后点击工具栏的Tuning快捷按钮。运行仿真,同时弹出数据显示窗口和Tune参数调整窗口。在数据显示窗口我们仍然观察dB(S(1,1))和dB(S(1,2))。

 

而在Tune参数调整窗口,我们可以滑动参数调整滚动条,也可以直接输入修改的元件值。观察数据显示窗口可以发现,dB(S(1,1))和dB(S(1,2))曲线在实时变更。而在该窗口也可以设置变量的最值和刻度。

当我们得到一组较为不错的参数时,点击可记录下此时的数据。

 而点击可以则可以恢复至记录的数据。

 按钮则可以设置需要显示的已记录的数据(虚线)。

 

 

 则是重置为初始数据。

而当我们找到一组满足需求的数据时,点击

就可以直接更新元件值。

通过调整,我们得到最后的数据为: 

比较符合我们的预期。 显然,通过此法,可以大幅减少工作量。

 

 

 

 

 

 

 

 

 

 

  • 11
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
这篇论文主要介绍了一种稀疏结构搜索的方法来有效地调整深度神经网络中的参数,以达到更好的性能和更高的效率。作者将该方法称为Pruning with Neuron Selectivity Ratio (PNSR)。该方法的主要思想是通过对神经元的选择性比率进行剪枝,来寻找最优的网络结构。 具体来说,PNSR方法首先训练一个初始的完整模型,然后通过计算每个神经元的选择性比率来确定哪些神经元可以被剪枝。选择性比率是指在训练过程中神经元被激活的次数与总共经历的迭代次数之比。这个比率越高,说明这个神经元在网络中的作用越大,越不应该被剪枝。根据选择性比率,可以将网络中的神经元分为类:保留、可剪枝和不可剪枝。其中保留的神经元直接保留在模型中,不可剪枝的神经元则不能被剪枝,而可剪枝的神经元则可以被剪枝,并且剪枝后不会影响网络的性能。 接下来,PNSR方法使用一种叫做“剪枝重训练”的策略来进一步优化网络结构。这种策略的基本思想是先剪枝掉一些神经元,然后重新训练网络,使其在剪枝后的结构上取得最佳性能。具体来说,PNSR方法在剪枝后使用一种叫做“结构化剪枝”的方法来调整网络的结构,使得剪枝后的网络结构更加紧凑和简单。然后,PNSR方法使用该结构再次训练网络,直到网络达到最佳性能。 最后,作者在CIFAR-10和ImageNet数据集上对PNSR方法进行了实验。实验结果表明,PNSR方法可以显著减少模型的参数数量,同时保持网络性能不变或稍微下降。这表明,PNSR方法可以有效地提高深度神经网络的效率,并有望在实际应用中得到广泛应用。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值