自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 [WP] The 2nd World AI4S Prize-Logical Reasoning Track: Evaluation of complex reasoning ability

我是刚开始接触LLM,对RAG知识极少,故没有尝试这个技术。总结一下其实就是改了baseline的训练轮数…所以这篇WP也没什么可以和大家分享的,但是期待各位大佬提出新见解。2 使用参数量更大的模型,例如Qwen1.5-32B。我相信使用参数量更大的模型一定会增加acc。[其实竞赛群中的群友透露过了,32B是足以上0.8的]。受限于算力和硬件影响,选择了参数量较小的开源模型Qwen2-7B-Instruct [同baseline]1 排在最前的就是学会docker,然后打包代码提交了…

2024-09-02 20:00:38 286

原创 [WP] DEEPFAKE writeup

phase1的计分板是根据val_data来评估的,而phase2的计分板才是根据test_data来评估的。

2024-09-02 17:30:00 1008

原创 [Datawhale AI 夏令营 & 第二届世界科学智能大赛逻辑推理赛道] 小白初识LLM

我大致查阅了资料,RAG类似在大模型前加入一个向量生成机,目的是将知识库中的信息转换为向量库。在用户提出问题后,将问题过向量生成机,再将得出的向量和向量库中的向量进行距离评估,从而得出一个较好的prompt输入给LLM。baseline中给予的方法,也是现在最流行的方法,即通过api接口来连接在线开源LLM,并解析api的返回数据包,得出LLM的回复,再从回复中提取答案。所谓提示词,即为输入给LLM的prompt。用于LLM模型高速推理的代码框架,易于使用,与huggingface等开源工具可以无缝衔接。

2024-08-02 18:29:18 362

原创 [DEEPFAKE & Datawhale AI 夏令营] TASK3 自我探索,解决问题,冲击高分!

通过代码阅读,感觉是没问题的。等后续训练再说。

2024-07-20 19:32:12 212

原创 [DEEPFAKE & Datawhale AI 夏令营] TASK2 全量训练,火力全开;发现问题,研究问题

非常感谢以下baseline code的分享,对我受益匪浅:如果您觉得有意思,可否点赞收藏关注一下本蒟蒻!谢谢!

2024-07-17 21:23:11 159

原创 [DEEPFAKE & Datawhale AI 夏令营] TASK1 跑通baseline

解决方案:http://t.csdnimg.cn/rMopF。

2024-07-11 18:52:41 237

原创 2024春晚 刘谦互动魔术解析[非严谨数学证明]

写得比较急 大家有什么疑问评论区见

2024-02-09 23:27:24 491 2

原创 【解题思路最详细】多重集组合数(dp计数)(优化后状态转移方程的理解)

如果想看优化后状态转移方程的理解,请直接移步到文章最后,文章前半段仅仅在讲解dp计数求多重集组合数的解题思路和方法。

2023-05-22 19:20:27 268

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除