- 博客(1861)
- 资源 (11)
- 收藏
- 关注
原创 Langchain笔记:模型
所以如果是Agent设计(LangGraph,LangChain),那就要用后者。注:conversation这些,在LangChain 里被做成了。要使用的具体模型名称或 ID。
2026-02-01 21:33:44
344
原创 unsloth 笔记:add_new_tokens
模型有可能生成它们(前提是训练数据里学过这些 token 的用法)。为新 token 初始化 embedding(随机 or 其他策略)同步扩展输入 embedding 和输出 embedding (确保新 token 的 embedding 参与训练 (模型扩展 embedding 矩阵。会作为正常词表的一部分参与预测。复制旧 embedding 权重。返回实际新增 token 数量。用,不会自然出现在输出里。,解码时会被直接过滤掉。将 token 加入词表。(非 special)
2025-09-17 18:52:10
692
原创 unsloth 笔记;数据集
从批量样本中取出对话字段。texts = [convo,tokenize = False, # 直接生成字符串,不做 token 化add_generation_prompt = False # 不在最后额外加 Assistant 的起始符'''每条 convo 都是一个 list:tokenizer.apply_chat_template(...)把这轮对话按照 gemma-3 的 chat 格式拼接成文本。
2025-09-06 23:44:05
829
原创 数据处理笔记:gpxpy
GPX(GPS Exchange Format)文件本质上是一个,常用来存储轨迹(track)、航点(waypoint)、路线(route)等数据。
2025-09-05 16:03:27
555
原创 Overpass API 爬取上海中环geometry
以下代码做的事情:用在“上海市”范围内把名字里含“中环”的(以及可能的路线关系)抓下来,并把每段的取回;把所有折线拼成一个文件;
2025-08-18 02:11:08
705
原创 机器学习笔记:集成学习/模型融合
在构建每个决策树时,随机森林不是在选择分割点时考虑所有特征,而是将特征限制为特征的随机子集。随机森林集成在训练数据集的不同引导样本上拟合决策树。随机森林还将对每个数据集的特征(列)进行采样。使用简单的统计数据来组合来自多个模型的预测。软投票:对预测概率进行求均值;硬投票:对预测类别进行投票;
2025-08-04 17:31:52
443
原创 论文略读: Progressive Layered Extraction (PLE): A Novel Multi-Task Learning (MTL) Model for Personalize
此外,PLE 引入了多层次专家与门控网络,采用“逐层分离”的路由策略,从底层专家中逐步提取更深层次知识,并在更高层级中逐步分离任务特定参数。
2025-08-04 17:11:44
387
原创 论文略读:GINGER: Grounded Information Nugget-Based Generation of Responses
SIGIR 2025。
2025-08-01 14:08:42
375
原创 论文略读:Between Underthinking and Overthinking: An Empirical Study of Reasoning Length and correctness
202505 arxiv
2025-07-31 16:38:13
501
原创 论文略读:SentiFormer: Metadata Enhanced Transformer for Image Sentiment Analysis
ICASSP 2025
2025-07-31 15:34:07
517
原创 论文笔记:GTR: A General, Multi-View, and Dynamic Framework for Trajectory Representation Learning
首先从openstreetmap收集道路网络 G 中路段的特征与语义信息例如限速、道路类型和道路长度等信息接下来使用图注意力网络(Graph Attention Network,GAT)将这些特征 Fv 编码为道路嵌入ZR。
2025-07-31 14:41:29
1173
原创 论文略读: R2: A LLM BASED NOVEL-TO-SCREENPLAY GENERATION FRAMEWORK WITH CAUSAL PLOT GRAPHS
202503 arxiv
2025-07-31 05:45:00
623
原创 论文略读:Eeyore: Realistic Depression Simulation via Supervised and Preference Optimization
摘要:本研究提出一种结构化对齐框架,优化大语言模型(LLM)在临床训练中对抑郁患者的模拟能力。通过三个关键步骤:(1)构建3,042条高质量抑郁对话数据;(2)基于心理画像的指令微调;(3)两阶段偏好优化(模型生成偏好数据和专家校准),显著提升了模型模拟抑郁特征的真实性和多样性。相比传统提示工程方法,该框架能更准确地再现患者的主观体验,避免"美化"回答,为心理咨询师培训提供更有效的训练工具。
2025-07-31 01:00:00
354
原创 论文略读:Seeing the Abstract: Translating the Abstract Language for Vision Language Models
首先构建一个抽象-具体配对的多模态数据库,该数据库来源于一个含抽象语言的数据集,并借助图像描述生成模型为其生成具体描述。在同域与跨域的文本到图像检索任务中,ACT 的表现优于经过微调的通用及时尚专用 VLMs,且。此外,ACT 还展现出良好的模型兼容性,可与多种 VLM 配合使用。然后,提取配对描述的主要表示差异,并通过降维方法表征这种差异。首先使用大型语言模型(LLM)将抽象描述重写为更具体的版本。因此,进一步基于之前提取的表示差异对文本表示进行增强。旨在发现抽象与具体描述之间的表示差异。
2025-07-31 01:00:00
556
原创 论文略读:A MULTIMODAL SYMPHONY: INTEGRATING TASTE AND SOUND THROUGH GENERATIVE AI
202503 arxiv
2025-07-25 14:15:00
302
原创 论文略读:Personalized Behavior-Aware Transformer for Multi-Behavior Sequential Recommendation
MM 2024。
2025-07-25 11:16:57
655
原创 论文略读:HeterRec: Heterogeneous Information Transformer for Scalable Sequential Recommendation
同时结合 token 级任务和物品级任务进行联合训练。为进一步增强模型对细粒度模式的捕捉能力,设计了一种。
2025-07-25 10:59:51
624
原创 论文略读:VLMsasGeoGuessr Masters—Exceptional Performance, Hidden Biases, and Privacy Risks
使用 FAIRLOCATOR 对四个 VLM 模型进行了评估:GPT-4o、Gemini-1.5-Pro、LLaMA-3.2-11B-Vision、LLaVA-v1.6-Vicuna-13B。的基准数据集,包含来自 43 个国家 111 个城市的 1200 张图片,图像来源为 Google 街景(Street View)例如,Gemini-1.5-Pro 在发达城市的平均误差距离为 399.12 公里,而在发展中城市则上升至 806.42 公里。从每个大陆选出人口最多的六个国家,并从每个国家选择十个城市。
2025-07-25 08:00:00
435
原创 论文略读:Optimizing Knowledge Integration in Retrieval-Augmented Generation with Self-Selection
接着,我们再向 LLM 输入:原始查询 + LLM 答案及解释 + RAG 答案及解释,让模型从两者中选择更正确的一个。尽管上述框架表现良好,但我们发现 LLM 有时在辨别正确答案时仍会失败,说明其判断能力有限。查询/Token 策略通常基于固定问题集或阈值,信息不完整;然后,使用检索模块获取外部相关文本,输入 LLM 并生成。相关性策略依赖额外验证模块,其准确性决定最终输出质量。生成一个 LLM 答案及其推理过程;基于生成 token 的概率 ,技术,对 LLM 进行微调。——>提出了一种新颖的。
2025-07-25 01:00:00
275
原创 论文略读:iNews: A Multimodal Dataset for Modeling Personalized Affective Responses to News
arxiv 202503
2025-07-24 14:30:00
295
原创 论文笔记:Knowing When to Stop: Dynamic Context Cutoff for Large Language Model
遭遇“中间信息丢失”(lost-in-the-middle)问题 —— 关键内容在长文本中被稀释或淹没。—— 一旦获取到充足的证据,我们就会停止继续处理,并主动忽略冗余细节。“我们是否可以让 LLMs 拥有自我判断是否已获得足够信息的能力,从而。然而,LLMs 即便已经获得足够信息,也仍会处理完整上下文。人类在解决问题时,通常会。,而又不损失准确性?
2025-07-24 14:15:00
301
原创 论文略读:Anticipate & Act : Integrating LLMs and Classical Planning forEfficient Task Execution in Hous
202502 arxiv
2025-07-24 13:30:00
293
原创 论文略读:AIstorian lets AI be a historian: A KG-powered multi-agent systemfor accurate biography genera
202503 arxiv
2025-07-24 13:30:00
1075
原创 论文略读: BMG-Q: Localized Bipartite Match Graph Attention Q-Learning for Ride-Pooling Order Dispatch
这些进展得益于深度学习和**多智能体强化学习(Multi-Agent Reinforcement Learning, MARL)**框架的突破。与**整数线性规划(ILP)**实现最优匹配,强化探索与利用之间的平衡。然而,要真正发挥 MARL 在拼车调度中的潜力,还面临若干挑战。在训练和推理阶段忽略了智能体之间的复杂依赖关系,往往会导致。,这会导致状态空间和动作空间在大规模车队中呈指数级增涨。,而在像拼车这样竞争激烈的场景中,这一问题尤为严重。,强化状态表示,考虑邻居动作对当前决策的影响;
2025-07-24 12:15:00
403
原创 论文略读:NAVIG: Natural Language-guided Analysis with Vision Language Models for Image Geo-localization
灵感源自 GeoGuessr 这款热门游戏,NAVICLUES 收录了来自五位经验丰富的 YouTube 玩家超过 2000 个实例,记录了他们分析图像细节以推断位置的全过程,从而训练视觉语言模型生成类似人类专家的推理过程。借助公开地图和专家指南等工具,我们设计了一套流程,能够深入挖掘图像中的细粒度信息,并检索相关资料以进一步提高准确率。:现有的地理标注数据集在构建过程中缺乏语言推理元素,而基于图像细节构建含有推理的数据集则资源消耗巨大;,一个结合视觉分析与外部知识进行分析推理的框架。
2025-07-24 11:45:00
384
原创 论文略读:Image is All You Need: Towards Efficient and EffectiveLarge Language Model-Based Recommender S
—>为同时解决效率与有效性难题,提出一种新颖方法:使用图像替代冗长文本描述,以图像表达商品,降低 token 占用,同时保留丰富语义信息。利用精心设计的提示词,让 LLM 能通过少量 token 理解图像语义,实现高效捕捉用户偏好。图 1(a) 显示:同一用户的交互序列,在不同表示方式下,输入 token 长度差异显著。——>提供更丰富(更长)表示可提升推荐效果,但不可避免地降低效率。:由于依赖图像,I-LLMRec 对商品描述中的噪声更不敏感。作为参考,COCO 数据集中的正样本图文对相似度为。
2025-07-24 11:15:00
338
原创 论文略读:Keyframe-oriented Vision Token Pruning: Enhancing Efficiencyof Large Vision Language Models on
在这些场景下,每轮对话都处理完整视频 token 序列的做法是极其低效的,尤其考虑到注意力机制的计算复杂度是与 token 序列长度呈二次关系增长的。然而,即使是这些被判定为“次要”的帧中,也可能存在对推理至关重要的 token。:将帧相关性分数转换为帧级别的剪枝率,从而对关键帧保留更多 token,对不重要的帧减少 token;,即从那些“相关性较低”的帧中保留少量关键 token,以保留对高层推理至关重要的语义线索。:一旦某帧的相关性评分低于阈值,该帧就被完全丢弃。,同时保留原始视频的时间与语义结构。
2025-07-24 09:15:00
564
原创 论文略读:Model Merging and Safety Alignment: One Bad Model Spoils the Bunch
EMNLP 2024为了解决这一问题,我们提出了一个简单的两步方法:;
2025-07-24 00:17:12
309
原创 论文笔记:Large Scale GPS Trajectory Generation Using Map Based on Two Stage GAN
最终轨迹生成的时候,流程是这样的第一阶段:输入一个随机向量,输出一个轨迹矩阵Traj_mat(每个网格的停留时间)中间步骤:连接模块 Link Module从Traj_mat中找出一个连接路径(即网格序列)Grid_seq,并确定其起点、终点第二阶段:输入地图图像、起点坐标、终点坐标,输出一条连续的 GPS 点轨迹%5Coplus%5Cell_21%7D%29。
2025-07-24 00:16:58
1360
network embedding lecture slide
2023-01-01
python 实现 cmaes (调用方便)
2022-02-13
ASTGCN(AAAI 2019).pdf
2021-08-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅