一文看懂target_library和linK_library的区别

target_library与link_library的区别

现在有必要解释target_library和link_library系统变量间的区别。targetlibrary 指定工艺库的名称,其单元对应于设计人员想让DC推断出并最终映射到的库单元。link_library定义其库单元只用于参考的库名称,也就是DC不是使用link_library中的单元进行推断。例如,你可能指定一个标准单元工艺库作target_library,而在link_ library列表中则指定压焊块工艺库名称和所有其他的宏单元(RAM、ROM等)。这就意味着用户将用标准单元库中的单元来综合设计,而同时连接设计中例化的压焊块和宏单元。如果target_ library列表中包括了压焊块库,那么DC可用压焊块来综合核心逻辑。

 

如例3.1所示,link_library 列表中应包含目标库名,这在DC中读取门级网表时是很重要的。如果连接库列表中不包含目标库名,DC就不能连接网表中的已映射的单元,在这种情况下,DC生成表示其不能解析网表中单元的警告。target_library 和link_library系统变量允许设计人员更好地控制单元的映射。这些变量也提供了--种有用的方法将门级网表从一-种工艺重新映射到另一种工艺。在这种情况下,link_library 可包括旧的工艺库名,而target_library 可包含新的工艺库名。可通过dc_shell 中的translate命令来完成重新映射。

 

symbol_library 系统变量是包含工艺库中的单元图形表示的库名称。当使用图形化前端工具DA时,它用于表示这些门电路原理图。符号库以扩展名“sdb"为标识。如果设置文件忽略了这一变量,DA将会使用一个名为“generic.sdb”的通用符号库来生成原理图。通常,所有库厂商提供的工艺库都包含一个相应的符号库。工艺库和符号库间的单元名和引脚名必须准确地匹配。单元中的任何不匹配都可引起DA拒绝符号库中的单元而使用通用库中的单元。

 

例3.1

set target_library [liststd_cells_lib.db]

set link_libraty   [list {*}std_cells.db pad_lib.db]

set symbol_library [liststd_cells_lib.sdb pad_lib.sdb]

  • 7
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Attention 机制是一种用于序列到序列模型的技术,它使得模型可以关注输入序列中与当前输出相关的部分。Bahdanau 和 Luong 是两种常用的 Attention 机制,它们的区别主要在于计算注意力分配时所使用的方法。 Bahdanau Attention Bahdanau Attention 是一种基于内容的注意力机制,它将注意力分配看作是一种给定上下文向量和一组查询向量的加权求和。在 Bahdanau Attention 中,上下文向量是由编码器输出的所有隐藏状态的加权和,而查询向量则是由解码器当前隐藏状态计算得出的。 具体来说,Bahdanau Attention 的计算过程如下: 1. 对于解码器当前隐藏状态 $s_t$,计算一组查询向量 $q_t$。 2. 对于编码器的所有隐藏状态 $h_i$,计算其对应的注意力得分 $e_{ti}$。 3. 将注意力得分 $e_{ti}$ 通过 softmax 函数转化为注意力权重 $a_{ti}$。 4. 将编码器所有隐藏状态 $h_i$ 与注意力权重 $a_{ti}$ 做加权求和,得到当前时间步的上下文向量 $c_t$。 Luong Attention Luong Attention 是一种基于位置的注意力机制,它将注意力分配看作是一种根据解码器当前隐藏状态和编码器所有隐藏状态之间的相似度计算得出的权重分布。在 Luong Attention 中,有三种不同的计算方式:点乘注意力、拼接注意力和缩放点积注意力。 具体来说,Luong Attention 的计算过程如下: 1. 对于解码器当前隐藏状态 $s_t$,计算一组查询向量 $q_t$。 2. 对于编码器的所有隐藏状态 $h_i$,计算其对应的特征向量 $z_i$。 3. 根据解码器当前隐藏状态 $s_t$ 和编码器的所有特征向量 $z_i$,计算相似度得分 $e_{ti}$。 4. 根据相似度得分 $e_{ti}$,使用 softmax 函数计算注意力权重 $a_{ti}$。 5. 将编码器所有隐藏状态 $h_i$ 与注意力权重 $a_{ti}$ 做加权求和,得到当前时间步的上下文向量 $c_t$。 简而言之,Bahdanau Attention 是基于内容的注意力机制,而 Luong Attention 则是基于位置的注意力机制,它们在计算注意力分配时所使用的方法有所不同。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值