- 博客(8)
- 收藏
- 关注
原创 [WP] The 2nd World AI4S Prize-Logical Reasoning Track: Evaluation of complex reasoning ability
我是刚开始接触LLM,对RAG知识极少,故没有尝试这个技术。总结一下其实就是改了baseline的训练轮数…所以这篇WP也没什么可以和大家分享的,但是期待各位大佬提出新见解。2 使用参数量更大的模型,例如Qwen1.5-32B。我相信使用参数量更大的模型一定会增加acc。[其实竞赛群中的群友透露过了,32B是足以上0.8的]。受限于算力和硬件影响,选择了参数量较小的开源模型Qwen2-7B-Instruct [同baseline]1 排在最前的就是学会docker,然后打包代码提交了…
2024-09-02 20:00:38 286
原创 [WP] DEEPFAKE writeup
phase1的计分板是根据val_data来评估的,而phase2的计分板才是根据test_data来评估的。
2024-09-02 17:30:00 1008
原创 [Datawhale AI 夏令营 & 第二届世界科学智能大赛逻辑推理赛道] 小白初识LLM
我大致查阅了资料,RAG类似在大模型前加入一个向量生成机,目的是将知识库中的信息转换为向量库。在用户提出问题后,将问题过向量生成机,再将得出的向量和向量库中的向量进行距离评估,从而得出一个较好的prompt输入给LLM。baseline中给予的方法,也是现在最流行的方法,即通过api接口来连接在线开源LLM,并解析api的返回数据包,得出LLM的回复,再从回复中提取答案。所谓提示词,即为输入给LLM的prompt。用于LLM模型高速推理的代码框架,易于使用,与huggingface等开源工具可以无缝衔接。
2024-08-02 18:29:18 362
原创 [DEEPFAKE & Datawhale AI 夏令营] TASK3 自我探索,解决问题,冲击高分!
通过代码阅读,感觉是没问题的。等后续训练再说。
2024-07-20 19:32:12 212
原创 [DEEPFAKE & Datawhale AI 夏令营] TASK2 全量训练,火力全开;发现问题,研究问题
非常感谢以下baseline code的分享,对我受益匪浅:如果您觉得有意思,可否点赞收藏关注一下本蒟蒻!谢谢!
2024-07-17 21:23:11 159
原创 [DEEPFAKE & Datawhale AI 夏令营] TASK1 跑通baseline
解决方案:http://t.csdnimg.cn/rMopF。
2024-07-11 18:52:41 237
原创 【解题思路最详细】多重集组合数(dp计数)(优化后状态转移方程的理解)
如果想看优化后状态转移方程的理解,请直接移步到文章最后,文章前半段仅仅在讲解dp计数求多重集组合数的解题思路和方法。
2023-05-22 19:20:27 268
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人