有依赖关系,无法用合并。
对于有依赖关系的数据流,可以使得一有输出就执行,提高交叠率,降低了 latency,提高了数据吞吐率。
。数据流优化就是在三个循环之间插入 Channel(可以是 Ping-pong RAM、FIFO 或 Register)。 通过配置数据流间的channel 选择pp RAM 或者FIFO Reg
不能直接进行dataflow的代码形式
Single-producer-consumer
这里 Loop2 和 Loop3 是可以做循环合并优化的,但是不能使用 DATAFLOW 优化,因为 temp1被 Loop2 和 Loop3 都使用了。
个人理解:一个 for输出的channel 只能作为一个的输入,单个扇出单端输入,而不能简单的考虑为wire
对于上述不能 DATAFLOW 的代码,可以稍作改变使之可以使用。
对于修改后的代码,主要就是增加了一个 loop_copy,就是把 temp1 复制两份,分别赋给 temp2 和 temp3。
Q:可以使用下述代码达到吗??
for (int i =0 ;i<N;i++)
{
temp1[i]=din[i]*scale;
temp2[i]=din[i]*scale;
}
Bypassing tasks model
接下来再看看 Bypassing Task 模型。由示例可以看出数据流向,din 通过 loop1 生成temp1,然后 temp1 通过 loop2 生成 temp3;另外 loop1 还生成了 temp2,然后 temp2 直接到 loop3。所以相对于 loop2 而言,temp2 绕开(bypass)了 loop2。这时既不能使用循环合并优化也不能使用 DATAFLOW 优化。
解决方法
在loop2中再打一拍,
改
是如何省资源的呢
channel(Memory) 管理
Vivado HLS 实现 Channel(即 memory)既可以用 ping-pong RAM 也可以用 FIFO,这取决于 producer 和 consumer 对数据的访问方式。
如果参数是标量,指针或者引用,Vivado HLS 就会用 FIFO 来实现。
如果是数组的话,就可能是 ping-pong RAM 也可能是 FIFO,取决于 Vivado HLS 是否能判断出数据流是否按顺序访问。也可以通过 config_dataflow 手动配置使用 ping-pong RAM 还是 FIFO。
如果使用 FIFO 就要注意深度的配置,如果深度有问题的话,协同仿真时就会出错。