本文是LLM系列文章,针对《A Multi-Expert Large Language Model Architecture for Verilog Code Generation》的翻译。
摘要
最近,人们对使用大型语言模型(LLM)生成Verilog代码的兴趣激增。然而,现有的方法在生成的Verilog代码的质量方面是有限的。为了解决这些局限性,本文介绍了一种用于Verilog代码生成的创新的多专家LLM架构(MEV-LLM)。我们的架构独特地集成了多个LLM,每个LLM都使用一个数据集进行了专门的微调,该数据集根据不同的设计复杂性级别进行了分类。它允许更有针对性的学习,直接解决为每个类别生成Verilog代码的细微差别。实验的经验证据突出表明,在生成的Verilog输出中,语法和功能正确的百分比有了显著提高。这些发现强调了我们方法的有效性,有望通过机器学习在自动化硬件设计领域实现飞跃。
1 引言
2 相关工作
3 方法和数据集
4 评估和讨论
5 结论和未来工作
在这项研究中,我们引入了一个新的多专家LLM框架,称为MEV-LLM,以及一个分类数据集,其中每个条目都有丰富的描述。这种新架构的目的是通过引入多专家LLM架构,在所有Verilog分类和复杂性级别上促进增强结果,从而克服先前研究的缺点。评估结果表明,MEV-LLM架构成功实现了其预期效益,在pass@k正在记录度量。我们认为,通过汇编更多样化和全面的数据集以及进一步调查各种复杂程度&#