[SV] function coverage 语法大全

1、covergroup

  我以前的领导告诉我:任何事,要有一种做的方法,还要有一种检查的方法。在验证中,随机是一种高效产生激励以覆盖待测空间的方法,与此同时,我们还需要一种检查待测空间是否真的被覆盖、是否足够覆盖的方法,也就是验证中常说的覆盖率收集。

功能覆盖率不一定用coverage or cover property实现,但SV提供的这两种语法,相当于在EDA软件层搭建了一种专门的轮子,可大大减少验证者的coding工作量,且运行效率更高。

covergroup可被看成一种SV Built-In Class,因为它的语法结构和用法实在是太像class了。covergroup可以(往往)用在class中,这和“covergroup像class”这一说法并不矛盾,因为这和class可以用在class中是一样的。

2、coverpoint

bins

 

 

3、cover_cross

 

 

 

4、options

 

 

 

 

 

 

5、methods

 

6、systemtasks

 

7、coverage computation

8、cover property

以下内容来自:http://testbench.in/CO_17_COVER_PROPERTY.html

Comparison Of Cover Property And Cover Group.
Cover groups can reference data sets where as cover property references a temporal expression.

Cover group can be triggered using .sample method ()
Cover property dont have this option.

Cover group has multiple bins options.
Cover property has only one bin.

Cover group cannot handle complex temporal relationships.
Cover properties can cover complex temporal expressions.

Cover group automatically handles the crosses.
Cover properties cannot do crosses.

Cover group has lot of filtering options.
Cover property has no specific filtering constructs but it can be filtered.

Cover properties cannot be used in classes.
Cover groups can be used in classes. So, cover groups can reference the variables in class.

Cover groups are most useful at a higher level of abstractions where as cover property makes sense to use when we want to work at low level signals.

We can mix cover group and cover property to gain the OO and temporal advantages. Using properties for temporal expressions and trigger the cover group.
 

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于PyTorch的Embedding和LSTM的自动诗实验LSTM (Long Short-Term Memory) 是一种特殊的循环神经网络(RNN)架构,用于处理具有长期依赖关系的序列数据。传统的RNN在处理长序列时往往会遇到梯度消失或梯度爆炸的问题,导致无法有效地捕捉长期依赖。LSTM通过引入门控机制(Gating Mechanism)和记忆单元(Memory Cell)来克服这些问题。 以下是LSTM的基本结构和主要组件: 记忆单元(Memory Cell):记忆单元是LSTM的核心,用于存储长期信息。它像一个传送带一样,在整个链上运行,只有一些小的线性交互。信息很容易地在其上保持不变。 输入门(Input Gate):输入门决定了哪些新的信息会被加入到记忆单元中。它由当前时刻的输入和上一时刻的隐藏状态共同决定。 遗忘门(Forget Gate):遗忘门决定了哪些信息会从记忆单元中被丢弃或遗忘。它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 输出门(Output Gate):输出门决定了哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。同样地,它也由当前时刻的输入和上一时刻的隐藏状态共同决定。 LSTM的计算过程可以大致描述为: 通过遗忘门决定从记忆单元中丢弃哪些信息。 通过输入门决定哪些新的信息会被加入到记忆单元中。 更新记忆单元的状态。 通过输出门决定哪些信息会从记忆单元中输出到当前时刻的隐藏状态中。 由于LSTM能够有效地处理长期依赖关系,它在许多序列建模任务中都取得了很好的效果,如语音识别、文本生成、机器翻译、时序预测等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值