论文笔记
文章平均质量分 75
UQI-LIUWJ
这个作者很懒,什么都没留下…
展开
-
论文笔记:GeoFormer: Predicting Human Mobility using GenerativePre-trained Transformer (GPT)
2023 sigspatial humob workshop原创 2024-08-31 22:12:25 · 861 阅读 · 0 评论 -
论文笔记:Estimating future human trajectories from sparse time series data
sigspatial 2023 humob竞赛paper。原创 2024-08-31 20:29:03 · 483 阅读 · 1 评论 -
论文辅助笔记:Cell-Level Trajectory Prediction Using Time-embeddedEncoder-Decoder Network
1 train_task1.py2dataset.py2.1Task1TrainDataset2.2 Task1ValDataset3model.py4val_task1.py原创 2024-08-31 16:45:13 · 273 阅读 · 0 评论 -
论文笔记:GEO-BLEU: Similarity Measure for Geospatial Sequences
—>论文基于 BLEU,提出了GEO-BLEU。原创 2024-08-27 20:48:53 · 552 阅读 · 1 评论 -
论文辅助笔记:Large Language Models are Zero-Shot Next LocationPredictors
trajectory_split暂时略去。原创 2024-08-25 09:00:18 · 307 阅读 · 0 评论 -
论文笔记:Large Language Models are Zero-Shot Next LocationPredictors
下一个地点预测通常定义为根据个体的历史移动轨迹预测其下一个将访问的地点的问题,这些轨迹通常表示为时空轨迹(轨迹)时空点 p = (t, l) 是一个元组,其中 t 表示时间戳,l 表示地理位置。轨迹 P = p1, p2, ..., pn 是个体访问的 n 个时空点的时间有序序列根据 DeepMove的方法筛选轨迹筛选出记录少于 10 条的用户选择了 72 小时的间隔作为区分不同轨迹的阈值任何拥有少于五条轨迹的用户都被排除在分析之外。原创 2024-08-24 16:06:10 · 633 阅读 · 0 评论 -
论文笔记:Human Mobility Prediction Challenge: Next LocationPrediction using Spatiotemporal BERT
在这个挑战中,提供了一个覆盖75天、涵盖10万个个体的主要都市区的流动性数据集。目标区域被细分为500米 × 500米的单元,构成一个200 × 200的网格。个体移动以30分钟间隔和500米的网格单元进行离散化任务1涉及使用80,000个个体的75天流动数据和20,000个目标个体的60天数据来预测剩余的15天流动轨迹任务2要求使用60天的日常活动流动数据、15天的紧急流动数据和22,500个个体的60天日常活动流动数据,为2,500个目标个体预测剩余的15天紧急流动轨迹用户ID。原创 2024-08-17 09:48:46 · 294 阅读 · 2 评论 -
论文笔记:Cell-Level Trajectory Prediction Using Time-embeddedEncoder-Decoder Network
首先将原始收集的轨迹数据分段,形成单元级轨迹。原创 2024-08-17 09:03:16 · 216 阅读 · 2 评论 -
论文笔记:OneBit: Towards Extremely Low-bit Large Language Models
202402 arxiv原创 2024-08-09 22:59:12 · 546 阅读 · 0 评论 -
论文笔记:When LLMs Meet Cunning Questions: A Fallacy Understanding Benchmark for Large Language Models
弱智吧benchmark。原创 2024-07-27 11:51:45 · 322 阅读 · 1 评论 -
论文笔记:SynMob: Creating High-Fidelity Synthetic GPSTrajectory Dataset for Urban Mobility Analysis
SYN-CHENGDU和SYN-XI'AN。原创 2024-07-23 23:27:17 · 719 阅读 · 1 评论 -
论文略读:LoRA Learns Less and Forgets Less
LORA相比于全参数训练,学的少,但忘的也少。原创 2024-07-15 19:58:48 · 374 阅读 · 0 评论 -
论文略读:Who Wrote This? The Key to Zero-Shot LLM-Generated Text Detection Is GECScore
可能有一下几种理论支持。原创 2024-07-15 01:36:06 · 152 阅读 · 0 评论 -
论文略读:Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More?
支持从32k到128k,再到1M个标记的上下文长度。——>能够系统地评估模型性能随上下文长度增加的变化。SQL:理解自然语言查询并从数据库中提取信息。多示例上下文学习:从大量示例中学习并完成任务。视觉检索:根据文本描述找出相关图像或视频。文本检索:从大量文档中找出相关内容。LOFT的一个关键特性是其可扩展性。音频检索:匹配文本与相应音频。RAG:基于检索信息生成答案。原创 2024-07-07 17:09:55 · 1222 阅读 · 2 评论 -
论文略读:Large Language Models Relearn Removed Concepts
永久去除概念以提高模型安全性的挑战。将高级概念重新定位到较早的层。在修剪后迅速恢复性能。原创 2024-07-07 15:00:42 · 621 阅读 · 0 评论 -
论文略读: LLaMA Pro: Progressive LLaMA with Block Expansion
ACL 2024。原创 2024-07-07 14:55:34 · 608 阅读 · 0 评论 -
论文略读:Learning and Forgetting Unsafe Examples in Large Language Models
随着发布给公众的大语言模型(LLMs)数量的增加,迫切需要了解这些模型从第三方定制的微调数据中学习的安全性影响。 论文研究了在包含不安全内容的噪声定制数据上微调的LLMs的行为,这些数据集包含偏见、毒性和有害性 发现虽然对齐的LLMs可以轻松学习这些不安全内容,但当随后在更安全的内容上进行微调时,它们相对于其他示例更容易遗忘这些内容。 受到遗忘差异的启发,作者引入了“ForgetFilter”算法,该算法根据模型对数据的遗忘信号强度过滤不安全的数据。 论文证明ForgetFilter算法确保了在原创 2024-07-06 23:00:49 · 329 阅读 · 0 评论 -
论文辅助笔记:ST-LLM
1 时间嵌入2PFA(Partial Frozen Architecture)3 ST_LLM3.1 初始化3.2 forward原创 2024-07-06 17:29:07 · 277 阅读 · 0 评论 -
论文笔记:MobilityGPT: Enhanced Human MobilityModeling with a GPT mode
1 intro1.1 背景尽管对人类移动轨迹数据集的需求不断增加,但其访问和分发仍面临诸多挑战 首先,这些数据集通常由私人公司或政府机构收集,因此可能因泄露个人敏感生活模式而引发隐私问题 其次,公司拥有的数据集可能会暴露专有商业模式,通常难以用于研究目的 最后,公开可用的数据集通常缺乏多样性或质量,数据点存在空白和固有噪声,显著降低了其实用性 ——>建立既高质量又可用于研究的替代轨迹数据源是必要的1.2目前方法的问题基于GAN和VAE的方法 将数据结构化为表格格式原创 2024-07-01 19:06:00 · 914 阅读 · 7 评论 -
论文笔记: GETNext:Trajectory Flow Map Enhanced Transformer for Next
令表示用户集合,表示 POI(如特定餐馆、酒店等)集合,表示时间戳集合其中 M,N,K 均为正整数。每个 POI p∈P 表示为一个四元组 p=〈lat,lon,cat,freq〉,分别表示纬度、经度、类别和签到频率。cat 是从固定的 POI 类别列表中选取的(例如“火车站”、“酒吧”)。签到是一个三元组,表示用户u 在时间戳t 访问 POI p。由用户u∈U 创建的所有签到活动形成一个签到序列,其中是第 i 个签到记录。将所有用户的签到序列表示为。原创 2024-06-25 09:58:01 · 366 阅读 · 0 评论 -
论文笔记:Spatial-Temporal Interval Aware Sequential POI Recommendation
ICDE 2022。原创 2024-06-23 16:07:22 · 545 阅读 · 0 评论 -
论文略读 Let’s Speak Trajectories: A Vision To Use NLP Models For Trajectory Analysis Tasks
将轨迹任务和NLP任务对齐。原创 2024-06-17 15:39:12 · 159 阅读 · 0 评论 -
论文笔记:ATime-Aware Trajectory Embedding Model for Next-Location Recommendation
仅报告Gowalla数据集的结果,其他两个数据集的观察结果类似。一旦所有嵌入向量都学习完成,我们按以下方式生成下一个位置推荐。原创 2024-06-13 19:54:45 · 1197 阅读 · 0 评论 -
论文笔记:Pre-training Context and Time Aware Location Embeddings from Spatial-TemporalTrajectories for U
AAAI 2021。原创 2024-06-13 16:16:08 · 301 阅读 · 1 评论 -
论文笔记:A survey on next location prediction techniques, applications, and challenges
2022。原创 2024-06-13 14:55:29 · 878 阅读 · 0 评论 -
论文笔记:Frozen Language Model Helps ECG Zero-Shot Learning
2023 MIDL。原创 2024-06-11 14:37:36 · 511 阅读 · 0 评论 -
论文略读:Onthe Expressivity Role of LayerNorm in Transformers’ Attention
ACL 2023。原创 2024-06-10 15:09:05 · 212 阅读 · 0 评论 -
论文笔记/数据集笔记:E-KAR: A Benchmark for Rationalizing Natural Language Analogical Reasoning
ACL 2022。原创 2024-06-10 14:33:57 · 351 阅读 · 0 评论 -
论文笔记:Vision GNN: An Image is Worth Graph of Nodes
首次将图神经网络用于视觉任务,同时能取得很好的效果。原创 2024-05-29 20:32:31 · 557 阅读 · 1 评论 -
论文笔记:PATCHMIXER: A PATCH-MIXING ARCHITECTURE FOR LONG-TERM TIME SERIES FORECASTING
2023 10 arxiv原创 2024-05-29 16:59:51 · 304 阅读 · 1 评论 -
论文笔记:GPT4Rec: Graph Prompt Tuning for Streaming Recommendation
SIGIR 2024。原创 2024-05-25 13:13:12 · 921 阅读 · 0 评论 -
论文笔记:Integrating Large Language Models with Graphical Session-Based Recommendation
基于会话的推荐任务是基于用户历史行为会话构建的,并根据当前用户会话进行预测在此任务中,存在一个项目集 V,其中∣V∣ 为项目的数量,所有项目都是唯一的每个会话S=[v1,v2,...,vn] 由一系列用户的交互组成,其中vt 表示在 S 中时间 t 点击的项目,n 表示会话的长度SBR任务是预测用户在给定会话 S 中最有可能下次点击的项目对于训练过程中的每个给定会话 S,有一个对应的标签 y 作为目标。原创 2024-05-24 22:42:17 · 893 阅读 · 1 评论 -
论文略读:Is ImageNet worth 1 video? Learning strong image encoders from 1 long unlabelled video
使用论文的新方法,单个“步行游”视频显著地成为ImageNet在几个图像和视频下游任务中的强有力的竞争者。iclr 2024 oral reviewer评分 68888。原创 2024-04-15 14:41:44 · 446 阅读 · 0 评论 -
论文略读:OpenGraph: Towards Open Graph Foundation Models
arxiv 2023。原创 2024-04-23 00:00:35 · 410 阅读 · 0 评论 -
论文笔记:PRIVACY ISSUES IN LARGE LANGUAGE MODELS: A SURVEY
Carlini等人[2023a]、Kandpal等人[2022]和Lee等人[2022]都发现,即使在训练集中几乎没有重复时,记忆化仍然会发生。这些影子模型用于估计目标数据集的分布,从而更好地推断目标模型的训练数据。在LLMs的情况下,这些模型可能使用数十亿的参数和数据点构建,这通常是非常昂贵的。:在去重后,攻击者选择概率最高的前k个候选目标,这些目标可能包含敏感的训练数据。然而,训练影子模型可能非常昂贵,特别是对于具有数十亿参数和数据点的大型语言模型。减轻记忆化的最直接和即时的方法是去重训练数据集。原创 2024-05-10 15:14:54 · 774 阅读 · 1 评论 -
论文笔记:DeepMove: Predicting Human Mobility with Attentional Recurrent Networks
WWW 2018。原创 2024-05-06 13:05:03 · 513 阅读 · 0 评论 -
论文辅助笔记:TEMPO 之 dataset.py
将数据进行逆转换,还原到原始尺度。原创 2024-05-02 23:00:21 · 438 阅读 · 0 评论 -
论文辅助笔记:TEMPO之feature.py
""""""原创 2024-05-02 22:37:39 · 838 阅读 · 2 评论 -
论文笔记:Predicting mobile users‘ next location using the semantically enriched geo-embedding model and
Predicting mobile users' next location using the semantically enriched geo-embedding model and the multilayer attention mechanism2023 Computers, Environment and Urban Systems原创 2024-05-01 23:49:30 · 643 阅读 · 2 评论 -
论文辅助笔记:LLM-Mob metric测量
【代码】论文辅助笔记:LLM-Mob metric测量。原创 2024-04-25 14:46:54 · 272 阅读 · 0 评论