自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(1861)
  • 资源 (11)
  • 收藏
  • 关注

原创 Langchain笔记:模型

所以如果是Agent设计(LangGraph,LangChain),那就要用后者。注:conversation这些,在LangChain 里被做成了。要使用的具体模型名称或 ID。

2026-02-01 21:33:44 344

原创 unsloth 笔记:add_new_tokens

模型有可能生成它们(前提是训练数据里学过这些 token 的用法)。为新 token 初始化 embedding(随机 or 其他策略)同步扩展输入 embedding 和输出 embedding (确保新 token 的 embedding 参与训练 (模型扩展 embedding 矩阵。会作为正常词表的一部分参与预测。复制旧 embedding 权重。返回实际新增 token 数量。用,不会自然出现在输出里。,解码时会被直接过滤掉。将 token 加入词表。(非 special)

2025-09-17 18:52:10 692

原创 unsloth 笔记:微调mistral-7b(纯文本数据集)

【代码】unsloth 笔记:微调mistral-7b(纯文本数据集)

2025-09-17 13:19:09 705

原创 h3笔记:polygon

LatLngPoly。

2025-09-14 10:50:14 1475

原创 python笔记:h3

import h3。

2025-09-09 11:53:49 938

原创 unsloth 笔记:从最近的检查点继续微调

【代码】unsloth 笔记:从最近的检查点继续微调。

2025-09-07 17:46:47 413

原创 unsloth 笔记:设置earlyStop

和这个一样。

2025-09-07 17:44:27 979

原创 unsloth 笔记: training的时候进行evaluation

split 数据集是在5.5.3 dataset.map()之后。

2025-09-07 16:01:47 513

原创 unsloth笔记:运行&微调 gemma (对话式训练文本)

包括一个新的,以及之前的模型。其中是仅文本模型,支持文本 + 视觉。

2025-09-07 00:32:59 1263

原创 unsloth 笔记;数据集

从批量样本中取出对话字段。texts = [convo,tokenize = False, # 直接生成字符串,不做 token 化add_generation_prompt = False # 不在最后额外加 Assistant 的起始符'''每条 convo 都是一个 list:tokenizer.apply_chat_template(...)把这轮对话按照 gemma-3 的 chat 格式拼接成文本。

2025-09-06 23:44:05 829

原创 unsloth笔记:基本介绍

更快的速度、更省的内存训练、运行、评估大模型。

2025-09-05 22:54:46 905

原创 数据处理笔记:gpxpy

GPX(GPS Exchange Format)文件本质上是一个,常用来存储轨迹(track)、航点(waypoint)、路线(route)等数据。

2025-09-05 16:03:27 555

原创 数据集笔记:百度地图高德地图坐标互转

【代码】数据集笔记:百度地图高德地图坐标互转。

2025-08-21 00:46:22 753

原创 数据集笔记:剔除不在中环上的点

中的代码是有问题的:不在中环上的点,因为名字里也有中环,也被囊括进来了。

2025-08-18 19:41:30 792

原创 Overpass API 爬取上海中环geometry

以下代码做的事情:用在“上海市”范围内把名字里含“中环”的(以及可能的路线关系)抓下来,并把每段的取回;把所有折线拼成一个文件;

2025-08-18 02:11:08 705

原创 机器学习笔记:集成学习/模型融合

在构建每个决策树时,随机森林不是在选择分割点时考虑所有特征,而是将特征限制为特征的随机子集。随机森林集成在训练数据集的不同引导样本上拟合决策树。随机森林还将对每个数据集的特征(列)进行采样。使用简单的统计数据来组合来自多个模型的预测。软投票:对预测概率进行求均值;硬投票:对预测类别进行投票;

2025-08-04 17:31:52 443

原创 论文略读: Progressive Layered Extraction (PLE): A Novel Multi-Task Learning (MTL) Model for Personalize

此外,PLE 引入了多层次专家与门控网络,采用“逐层分离”的路由策略,从底层专家中逐步提取更深层次知识,并在更高层级中逐步分离任务特定参数。

2025-08-04 17:11:44 387

原创 论文略读:GINGER: Grounded Information Nugget-Based Generation of Responses

SIGIR 2025。

2025-08-01 14:08:42 375

原创 论文略读:Between Underthinking and Overthinking: An Empirical Study of Reasoning Length and correctness

202505 arxiv

2025-07-31 16:38:13 501

原创 论文略读:SentiFormer: Metadata Enhanced Transformer for Image Sentiment Analysis

ICASSP 2025

2025-07-31 15:34:07 517

原创 论文笔记:GTR: A General, Multi-View, and Dynamic Framework for Trajectory Representation Learning

首先从openstreetmap收集道路网络 G 中路段的特征与语义信息例如限速、道路类型和道路长度等信息接下来使用图注意力网络(Graph Attention Network,GAT)将这些特征 Fv​ 编码为道路嵌入ZR​。

2025-07-31 14:41:29 1173

原创 论文略读: R2: A LLM BASED NOVEL-TO-SCREENPLAY GENERATION FRAMEWORK WITH CAUSAL PLOT GRAPHS

202503 arxiv

2025-07-31 05:45:00 623

原创 论文略读:Bypassing Safety Guardrails in LLMs Using Humor

202504 arxiv

2025-07-31 04:15:00 248

原创 论文略读:Eeyore: Realistic Depression Simulation via Supervised and Preference Optimization

摘要:本研究提出一种结构化对齐框架,优化大语言模型(LLM)在临床训练中对抑郁患者的模拟能力。通过三个关键步骤:(1)构建3,042条高质量抑郁对话数据;(2)基于心理画像的指令微调;(3)两阶段偏好优化(模型生成偏好数据和专家校准),显著提升了模型模拟抑郁特征的真实性和多样性。相比传统提示工程方法,该框架能更准确地再现患者的主观体验,避免"美化"回答,为心理咨询师培训提供更有效的训练工具。

2025-07-31 01:00:00 354

原创 论文略读:Seeing the Abstract: Translating the Abstract Language for Vision Language Models

首先构建一个抽象-具体配对的多模态数据库,该数据库来源于一个含抽象语言的数据集,并借助图像描述生成模型为其生成具体描述。在同域与跨域的文本到图像检索任务中,ACT 的表现优于经过微调的通用及时尚专用 VLMs,且。此外,ACT 还展现出良好的模型兼容性,可与多种 VLM 配合使用。然后,提取配对描述的主要表示差异,并通过降维方法表征这种差异。首先使用大型语言模型(LLM)将抽象描述重写为更具体的版本。因此,进一步基于之前提取的表示差异对文本表示进行增强。旨在发现抽象与具体描述之间的表示差异。

2025-07-31 01:00:00 556

原创 论文略读:A MULTIMODAL SYMPHONY: INTEGRATING TASTE AND SOUND THROUGH GENERATIVE AI

202503 arxiv

2025-07-25 14:15:00 302

原创 论文略读:Personalized Behavior-Aware Transformer for Multi-Behavior Sequential Recommendation

MM 2024。

2025-07-25 11:16:57 655

原创 论文略读:HeterRec: Heterogeneous Information Transformer for Scalable Sequential Recommendation

同时结合 token 级任务和物品级任务进行联合训练。为进一步增强模型对细粒度模式的捕捉能力,设计了一种。

2025-07-25 10:59:51 624

原创 论文略读:VLMsasGeoGuessr Masters—Exceptional Performance, Hidden Biases, and Privacy Risks

使用 FAIRLOCATOR 对四个 VLM 模型进行了评估:GPT-4o、Gemini-1.5-Pro、LLaMA-3.2-11B-Vision、LLaVA-v1.6-Vicuna-13B。的基准数据集,包含来自 43 个国家 111 个城市的 1200 张图片,图像来源为 Google 街景(Street View)例如,Gemini-1.5-Pro 在发达城市的平均误差距离为 399.12 公里,而在发展中城市则上升至 806.42 公里。从每个大陆选出人口最多的六个国家,并从每个国家选择十个城市。

2025-07-25 08:00:00 435

原创 论文略读:Optimizing Knowledge Integration in Retrieval-Augmented Generation with Self-Selection

接着,我们再向 LLM 输入:原始查询 + LLM 答案及解释 + RAG 答案及解释,让模型从两者中选择更正确的一个。尽管上述框架表现良好,但我们发现 LLM 有时在辨别正确答案时仍会失败,说明其判断能力有限。查询/Token 策略通常基于固定问题集或阈值,信息不完整;然后,使用检索模块获取外部相关文本,输入 LLM 并生成。相关性策略依赖额外验证模块,其准确性决定最终输出质量。生成一个 LLM 答案及其推理过程;基于生成 token 的概率 ,技术,对 LLM 进行微调。——>提出了一种新颖的。

2025-07-25 01:00:00 275

原创 论文略读:iNews: A Multimodal Dataset for Modeling Personalized Affective Responses to News

arxiv 202503

2025-07-24 14:30:00 295

原创 论文笔记:Knowing When to Stop: Dynamic Context Cutoff for Large Language Model

遭遇“中间信息丢失”(lost-in-the-middle)问题 —— 关键内容在长文本中被稀释或淹没。—— 一旦获取到充足的证据,我们就会停止继续处理,并主动忽略冗余细节。“我们是否可以让 LLMs 拥有自我判断是否已获得足够信息的能力,从而。然而,LLMs 即便已经获得足够信息,也仍会处理完整上下文。人类在解决问题时,通常会。,而又不损失准确性?

2025-07-24 14:15:00 301

原创 论文略读:Anticipate & Act : Integrating LLMs and Classical Planning forEfficient Task Execution in Hous

202502 arxiv

2025-07-24 13:30:00 293

原创 论文略读:AIstorian lets AI be a historian: A KG-powered multi-agent systemfor accurate biography genera

202503 arxiv

2025-07-24 13:30:00 1075

原创 论文略读: BMG-Q: Localized Bipartite Match Graph Attention Q-Learning for Ride-Pooling Order Dispatch

这些进展得益于深度学习和**多智能体强化学习(Multi-Agent Reinforcement Learning, MARL)**框架的突破。与**整数线性规划(ILP)**实现最优匹配,强化探索与利用之间的平衡。然而,要真正发挥 MARL 在拼车调度中的潜力,还面临若干挑战。在训练和推理阶段忽略了智能体之间的复杂依赖关系,往往会导致。,这会导致状态空间和动作空间在大规模车队中呈指数级增涨。,而在像拼车这样竞争激烈的场景中,这一问题尤为严重。,强化状态表示,考虑邻居动作对当前决策的影响;

2025-07-24 12:15:00 403

原创 论文略读:NAVIG: Natural Language-guided Analysis with Vision Language Models for Image Geo-localization

灵感源自 GeoGuessr 这款热门游戏,NAVICLUES 收录了来自五位经验丰富的 YouTube 玩家超过 2000 个实例,记录了他们分析图像细节以推断位置的全过程,从而训练视觉语言模型生成类似人类专家的推理过程。借助公开地图和专家指南等工具,我们设计了一套流程,能够深入挖掘图像中的细粒度信息,并检索相关资料以进一步提高准确率。:现有的地理标注数据集在构建过程中缺乏语言推理元素,而基于图像细节构建含有推理的数据集则资源消耗巨大;,一个结合视觉分析与外部知识进行分析推理的框架。

2025-07-24 11:45:00 384

原创 论文略读:Image is All You Need: Towards Efficient and EffectiveLarge Language Model-Based Recommender S

—>为同时解决效率与有效性难题,提出一种新颖方法:使用图像替代冗长文本描述,以图像表达商品,降低 token 占用,同时保留丰富语义信息。利用精心设计的提示词,让 LLM 能通过少量 token 理解图像语义,实现高效捕捉用户偏好。图 1(a) 显示:同一用户的交互序列,在不同表示方式下,输入 token 长度差异显著。——>提供更丰富(更长)表示可提升推荐效果,但不可避免地降低效率。:由于依赖图像,I-LLMRec 对商品描述中的噪声更不敏感。作为参考,COCO 数据集中的正样本图文对相似度为。

2025-07-24 11:15:00 338

原创 论文略读:Keyframe-oriented Vision Token Pruning: Enhancing Efficiencyof Large Vision Language Models on

在这些场景下,每轮对话都处理完整视频 token 序列的做法是极其低效的,尤其考虑到注意力机制的计算复杂度是与 token 序列长度呈二次关系增长的。然而,即使是这些被判定为“次要”的帧中,也可能存在对推理至关重要的 token。:将帧相关性分数转换为帧级别的剪枝率,从而对关键帧保留更多 token,对不重要的帧减少 token;,即从那些“相关性较低”的帧中保留少量关键 token,以保留对高层推理至关重要的语义线索。:一旦某帧的相关性评分低于阈值,该帧就被完全丢弃。,同时保留原始视频的时间与语义结构。

2025-07-24 09:15:00 564

原创 论文略读:Model Merging and Safety Alignment: One Bad Model Spoils the Bunch

EMNLP 2024为了解决这一问题,我们提出了一个简单的两步方法:;

2025-07-24 00:17:12 309

原创 论文笔记:Large Scale GPS Trajectory Generation Using Map Based on Two Stage GAN

最终轨迹生成的时候,流程是这样的第一阶段:输入一个随机向量,输出一个轨迹矩阵Traj_mat(每个网格的停留时间)中间步骤:连接模块 Link Module从Traj_mat中找出一个连接路径(即网格序列)Grid_seq,并确定其起点、终点第二阶段:输入地图图像、起点坐标、终点坐标,输出一条连续的 GPS 点轨迹%5Coplus%5Cell_21%7D%29。

2025-07-24 00:16:58 1360

data.gov.sg geojson部分项目整理

data.gov.sg geojson部分项目整理

2025-03-05

network embedding lecture slide

Representation Learning on Networks 1) Node embeddings:Map nodes to low dimensional embeddings 2) Graph neural networks:Deep learning architectures for graph structured data 3) Applications

2023-01-01

elements of information theory

elements of information theory

2022-10-21

计算机组成与设计硬件软件接口-课后习题答案

计算机组成与设计硬件软件接口--课后习题答案

2022-10-21

python 实现 cmaes (调用方便)

import barecmaes2 as cma res = cma.fmin( 目标函数名, 结果向量的初始值, cmaes寻找值的标准差, 目标函数的其他参数, 最大更新轮数, 目标函数值【默认越小越好】, 多少轮输出一次中间结果, 多少轮输出进log文件, 多少轮画一张图) 返回的结果是 (xbest, fbest, evalsbest, evals, iterations, xmean,`` `` termination_condition, CMAES_object_instance, data_logger) eg: res = cma.fmin(cma.Fcts.elli, 10 * [0.5], 0.3, verb_disp=100,verb_plot=0)

2022-02-13

newyork.osm.pbf

newyork.osm.pbf

2021-09-24

algorithm design answer

​​Jon kleinberg那本的答案

2021-09-12

ASTGCN(AAAI 2019).pdf

attention based spatial-temporal graph convolutional networks for traffic flow forecasting

2021-08-13

赵鑫_中国人民大学_如何以初学者的身份写好一篇国际学术论文.zip

赵鑫_中国人民大学_如何以初学者的身份写好一篇国际学术论文.zip

2021-08-01

浅谈研究生学位论文选题

浅谈研究生学位论文选题

2021-08-01

Tips for prospective and early-stage PhD students

ICLR 2020

2021-08-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除