山东大学项目实训——个人纪录(四)

开发团队

DrugLLM开发团队

本周任务

在过去的两周时间里,我们团队的工作重心聚焦于项目的前端开发板块,致力于为项目的整体推进打下坚实的基础。为了确保开发工作的顺利进行与高效实施,团队成员展现出了高度的积极性与自主学习能力,围绕项目具体需求展开了深入而广泛的学习探索。

此期间,我们的学习路径覆盖了两大核心领域:一是深入研读相关领域的前沿学术论文。二是积极借鉴行业经验与最佳实践。通过这种学习方式,团队成员得以快速吸收业界精华,将理论知识与实践经验紧密结合,有效提升了问题解决能力和开发效率。

综上所述,这两周的学习不仅极大地拓宽了团队成员的技术视野,还显著增强了我们应对项目挑战的能力,为接下来的开发工作奠定了扎实的知识与技能基础。随着学习成果的不断转化与应用,我们有理由相信,项目的前端开发部分将在创新与实用中稳步前行,最终呈现出令人满意的成果。

博客学习

1.博客链接:LLM - 基于 Vicuna-13B 参数计算搭建私有 ChatGPT 在线聊天_vicuna-13b-delta-v0 百度网盘-CSDN博客

Vicuna-13B是一个大规模的语言模型,它通过利用深度学习技术,特别是Transformer架构,来理解和生成人类语言。这个模型因其庞大的规模(大约包含130亿个参数)而著名,这样的规模允许它学习到语言中细微复杂的模式,从而在各种自然语言处理任务上展现优越的性能,包括但不限于文本生成、对话系统、问答和语言理解等。

2.博客链接

https://blog.csdn.net/caroline_wendy/article/details/131384199

论文阅读
1.论文链接:

DrugChat: Towards Enabling ChatGPT-Like Capabilities on Drug Molecule Graphs - TechRxiv

文章《DrugChat: Towards Enabling ChatGPT-Like Capabilities on Drug Molecule Graphs》提出了一种创新的系统,旨在将类似ChatGPT的能力应用于药物分子图分析中,以加速药物研发流程。DrugChat系统的核心组成部分包括一个图神经网络(GNN)、一个大型语言模型(LLM)和一个适配器。GNN负责处理输入的分子图,学习并生成图的表示;适配器将GNN产生的图表示转换为LLM可以接受的形式;最后,LLM利用从适配器得到的分子表示及用户的查询来生成回答。整个系统通过端到端训练进行优化,确保了各组件间的协同工作。

2.论文链接:

https://arxiv.org/abs/2403.01528

《Leveraging Biomolecule and Natural Language through Multi-Modal Learning: A Survey》概述了生物分子和自然语言融合学习这一新兴领域的最新进展。文章深入探讨了有效整合生物分子数据与自然语言的直觉和目标,指出这种结合有助于提升理解深度并产生新见解。在技术框架方面,文章讨论了基于GPT的预训练、多流神经网络等机器学习框架,以及涉及网络架构、训练任务和策略的表示学习复杂性。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值