毕设文献记录

文章目录

ACL 文献记录

[1] Increasing Diversity While Maintaining Accuracy: Text Data Generation with Large Language Models and Human Interventions (Chung et al., ACL 2023)
通过大型语言模型和人工干预生成文本数据,增加多样性同时保持准确性
https://aclanthology.org/2023.acl-long.34

[2]Pruning Pre-trained Language Models Without Fine-Tuning (Jiang et al., ACL 2023)
不经过微调对预训练语言模型进行修剪
https://aclanthology.org/2023.acl-long.35

[3]Fine-tuning Happens in Tiny Subspaces: Exploring Intrinsic Task-specific Subspaces of Pre-trained Language Models (Zhang et al., ACL 2023)
微调发生在微小的子空间中:探索预训练语言模型的固有任务特定子空间
https://aclanthology.org/2023.acl-long.95

[4]In-Context Analogical Reasoning with Pre-Trained Language Models (Hu et al., ACL 2023)
基于预训练语言模型的上下文类比推理
https://aclanthology.org/2023.acl-long.109

[5]Plan-and-Solve Prompting: Improving Zero-Shot Chain-of-Thought Reasoning by Large Language Models (Wang et al., ACL 2023)
计划和解决提示:通过大型语言模型改进0-shot思维链推理
https://aclanthology.org/2023.acl-long.147

[6]Causal-Debias: Unifying Debiasing in Pretrained Language Models and Fine-tuning via Causal Invariant Learning (Zhou et al., ACL 2023)
因果去偏见:通过因果不变学习统一去偏见的预训练语言模型和微调
https://aclanthology.org/2023.acl-long.232

[7]KILM: Knowledge Injection into Encoder-Decoder Language Models (Xu et al., ACL 2023)
KILM: 知识注入到编码器-解码器语言模型中
https://aclanthology.org/2023.acl-long.275

[8]Mixture-of-Domain-Adapters: Decoupling and Injecting Domain Knowledge to Pre-trained Language Models’ Memories (Diao et al., ACL 2023)
领域适配器混合:将领域知识解耦并注入预训练语言模型的记忆
https://aclanthology.org/2023.acl-long.280

预训练语言模型(PLMs)展示了在通用领域理解文本的出色能力,但在特定领域却表现出困难。尽管在大型特定领域语料库上持续进行预训练是有效的,但调整所有参数对于该领域来说是昂贵的。在本文中,我们探讨了是否可以通过仅调整少量参数来有效且高效地调整PLMs。具体来说,我们将Transformer架构的前馈网络(FFNs)分解为两部分:原始预训练的FFNs以保持旧领域知识和我们的新领域特定适配器以并行注入领域特定知识。然后,我们采用了一种混合适配器门,动态地融合来自不同领域适配器的知识。我们提出的Mixture-of-Domain-Adapters(MixDA)采用了一个两阶段适配器调整策略,利用未标记数据和已标记数据来帮助领域适应:i)未标记数据上的领域特定适配器;随后ii)已标记数据上的任务特定适配器。MixDA可以无缝地插入预训练微调范式,我们的实验表明,MixDA在领域内任务(GLUE)、领域外任务(ChemProt、RCT、IMDB、亚马逊)和知识密集型任务(KILT)上取得了卓越的性能。进一步的分析证明了我们方法的可靠性、可扩展性和效率。

[9]Reasoning with Language Model Prompting: A Survey (Qiao et al., ACL 2023)
使用语言模型提示进行推理:一项调查
https://aclanthology.org/2023.acl-long.294

[10]Two-Stage Fine-Tuning for Improved Bias and Variance for Large Pretrained Language Models (Wang et al., ACL 2023)
大型预训练语言模型的改进偏差和方差的两阶段微调
https://aclanthology.org/2023.acl-long.877

[11]LambdaKG: A Library for Pre-trained Language Model-Based Knowledge Graph Embeddings (Xie et al., IJCNLP-AACL 2023)
LambdaKG:基于预训练语言模型的知识图谱嵌入库

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
1. 确定毕设的题目和研究方向。 2. 给予学生一些相关的文献和资料,帮助学生了解研究领域的背景和最新进展。 3. 指导学生进行文献综述,帮助学生掌握该领域的现状和未来方向。 4. 帮助学生制定研究计划和进度表,确保毕设能够按时完成。 5. 提供技术支持和指导,帮助学生解决遇到的问题和困难。 6. 鼓励和引导学生进行实践操作和实验,帮助学生巩固理论知识。 7. 定期检查学生的进度和质量,帮助学生及时发现和解决问题。 8. 给予学生意见和建议,帮助学生改善和完善毕设的内容和质量。 9. 指导学生进行论文写作,帮助学生提高论文的逻辑性和表达能力。 10. 提供学术上的指导,帮助学生发现和解决研究中存在的问题。 11. 鼓励学生参加学术会议和交流活动,帮助学生扩大研究范围和深化认识。 12. 提供实践经验和案例分析,帮助学生更好地理解和应用研究成果。 13. 指导学生进行数据分析和统计,帮助学生掌握数据处理和分析技能。 14. 鼓励学生进行创新性思维和研究,帮助学生提高研究的质量和水平。 15. 对学生的论文进行审阅和修改,帮助学生提高论文的质量和水平。 16. 提供学术期刊和会议论文的写作指南,帮助学生了解学术论文的写作规范。 17. 指导学生进行实验设计和数据采集,确保实验结果的准确性和可靠性。 18. 鼓励学生进行多方位的研究和分析,帮助学生深入了解研究领域。 19. 提供资源和设备支持,帮助学生完成实验和研究任务。 20. 对学生的研究成果进行评估和反馈,帮助学生了解自己的研究水平和发展方向。 21. 提供研究方法和技能的培训,帮助学生提高研究的效率和质量。 22. 指导学生进行文献引用和参考文献的编写,确保论文的学术性和规范性。 23. 鼓励学生进行团队协作和交流,帮助学生提高团队合作和沟通能力。 24. 提供学习资源和课程指导,帮助学生扩大知识面和提高综合素质。 25. 对学生的研究成果进行展示和宣传,帮助学生增强自信和发展前景。 26. 提供职业规划和指导,帮助学生有针对性地制定未来的发展计划。 27. 鼓励学生进行实习和就业,帮助学生实现自我价值和职业追求。 28. 提供心理健康支持和指导,帮助学生保持身心健康和积极心态。 29. 提供社会服务和公益活动的机会,帮助学生发挥社会责任和担当。 30. 对学生进行毕业典礼和颁发毕业证书,祝愿学生在未来的人生道路上取得更大的成就。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

全糖去冰不加料

打赏一块钱💰也是钱

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值