自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(1404)
  • 资源 (7)
  • 收藏
  • 关注

原创 网站笔记:huggingface model memory calculator

下表格解释了使用Adam训练的具体细节,包括在不同精度下模型训练过程中各阶段的内存需求。

2024-05-22 22:36:21 71

原创 huggingface笔记: accelerate estimate-memory 命令

模型与之集成的库名称,如 transformers。仅在 Hub 上未存储此信息时需要。

2024-05-22 18:41:45 21

原创 huggingface 笔记:聊天模型

在原来生成的chat的基础上,追加一条消息,并将其传入pipeline。

2024-05-21 22:40:37 107

原创 hugging face笔记:PEFT

r=64,:指定 LoRA 层的缩放因子。:设置在 LoRA 层中使用的 dropout 比率,以避免过拟合。r=64:设置每个 LoRA 层的秩,即低秩矩阵的维度。:指定不在 LoRA 层中使用偏置项。:设定这个 LoRA 配置是为了因果语言模型任务。

2024-05-21 13:18:00 349

原创 huggingface 笔记:查看GPU占用情况

为了打印GPU利用率和使用Trainer进行训练运行的摘要统计信息,定义了两个辅助函数。在我这边的GPU上跑不起来:可能是不同版本的cuda、pytorch导致的(不确定)

2024-05-20 23:22:46 323

原创 机器学习/huggingface笔记:Transformer内存占用刨析 和高效训练

参考内容: Model training anatomy (huggingface.co)

2024-05-20 23:06:09 124

原创 pytorch笔记nn.functional.one_hot & 衍生(有一个padding对应的全零向量)

接收一个包含索引值的 LongTensor,形状为(),并返回一个形状为(, num_classes)的张量,该张量在所有位置都是零,除了在输入张量对应值的索引位置处为1。(int) – 总类别数。如果设置为-1,则类别数将被推断为输入张量中最大类别值加一。num_classes必须比tensor中出现的数字多,否则会报错。

2024-05-19 16:04:21 250

原创 huggingface 笔记:Llama3-8B

【代码】huggingface 笔记:Llama3-8B。

2024-05-19 15:12:40 139

原创 huggingface笔记:使用accelerate加速

绿色的是加上的,红色的是去掉的。

2024-05-16 11:31:52 213

原创 huggingface 笔记 finetune模型

在将预测传递给 compute 之前,需要将 logits 转换为预测。首先数据集需要使用pytorch需要的DataLoader。创建数据集的一个较小子集来进行微调,以减少所需的时间。然后调用 compute 方法计算预测的准确性。然后就是pytorch训练“三件套”【不用设计优化器欸】

2024-05-16 10:31:06 358

原创 huggingface 笔记:AutoTokenizer,AutoClass

AutoClass 是一个快捷方式,它可以自动从模型的名称或路径检索预训练模型的架构。只需要为任务选择适当的 AutoClass 及其关联的预处理类。

2024-05-13 10:12:47 212

原创 huggingface 笔记:pipeline

【代码】huggingface 笔记:pipeline (quick tour教程)

2024-05-13 09:49:51 180

原创 Libcity 笔记:自定义模型

在/libcity/model/trajectory_loc_prediction/,我们复制一份Deepmove.py,得到DM_tst.py,我们不改变其中的机制,只动class name。在config/model/traj_loc_pred/ 添加 DM_tst.json文件,然后就ok了。

2024-05-12 21:34:32 141

原创 libcity笔记: HSTLSTMEncoder

得到的内容如下:

2024-05-11 22:40:29 225

原创 论文笔记:PRIVACY ISSUES IN LARGE LANGUAGE MODELS: A SURVEY

Carlini等人[2023a]、Kandpal等人[2022]和Lee等人[2022]都发现,即使在训练集中几乎没有重复时,记忆化仍然会发生。这些影子模型用于估计目标数据集的分布,从而更好地推断目标模型的训练数据。在LLMs的情况下,这些模型可能使用数十亿的参数和数据点构建,这通常是非常昂贵的。:在去重后,攻击者选择概率最高的前k个候选目标,这些目标可能包含敏感的训练数据。然而,训练影子模型可能非常昂贵,特别是对于具有数十亿参数和数据点的大型语言模型。减轻记忆化的最直接和即时的方法是去重训练数据集。

2024-05-10 15:14:54 688 1

原创 libcity 笔记:添加自定义dataset

那其他需要修改哪些内容,使得这个dataset生效呢。添加文件GeolifeDMDataset.json。

2024-05-09 15:31:28 240

原创 libcity/model/trajectory_loc_prediction/DeepMove.py

如果评估方法是 ,则执行以下步骤: 构建正负样本索引 (): 使用 函数将批次中的目标位置 () 与负样本位置 () 结合。这里,目标位置通过 方法添加一个维度以匹配负样本位置的维度,使其成为 的形状。 选择得分: 使用 方法根据 从得分张量中选择相关的得分。这一步骤的目的是从模型输出的所有可能位置的得分中,仅提取出与正样本和负样本对应的得分。 调用 来计算模型输出得分和批次中的目标标签 () 之间的损失。

2024-05-08 17:13:31 183

原创 libcity笔记:libcity/data/batch.py

1 Batch2 BatchPAD

2024-05-07 18:30:45 152

原创 libcity 笔记:libcity/data/utils.py

1 get_dataset

2024-05-07 10:31:23 138

原创 libcity笔记:详细流程(以DeepMove为例)

从ibcity/model/trajectory_loc_prediction/DeepMove.py 中生成 DeepMove类。首先检查输入的参数是否已经是布尔值类型,如果是,则直接返回该值,无需转换。异常,表示期望一个布尔值。

2024-05-07 10:31:18 348

原创 libcity笔记:libcity/config/config_parser.py/ConfigParser

对应的值,如果键不存在,则返回默认值。

2024-05-07 10:31:13 329

原创 libcity笔记:libcity/utils/utils.py

【代码】libcity笔记:libcity/utils/utils.py。

2024-05-07 10:31:08 143

原创 libcity笔记:libcity/evaluator/traj_loc_pred_evaluator.py

检查配置是否符合评估器的要求,确保评估过程能够顺利执行。

2024-05-07 10:31:00 221

原创 libcity 笔记:libcity/executor/traj_loc_pred_executor.py

根据配置中指定的优化器类型创建并返回一个适合用于模型训练的优化器对象。

2024-05-07 10:08:24 228

原创 Libcity笔记:libcity/data/dataset/trajectory_encoder/standard_trajectory_encoder.py

将传入的时间对象time转换成一个整数,以区分工作日和周末的时间time.hour。

2024-05-06 20:24:38 142 3

原创 论文笔记:DeepMove: Predicting Human Mobility with Attentional Recurrent Networks

WWW 2018。

2024-05-06 13:05:03 424

原创 libcity笔记:添加新模型(以RNN.py为例)

【代码】libcity笔记:添加新模型(以RNN.py为例)

2024-05-06 08:31:04 178 1

原创 Lib city笔记:TrajectoryDataset

所有数据集的基类。

2024-05-05 19:56:32 332

原创 Libcity笔记:原子文件

Libcity中的数据以原子文件的形式存在。

2024-05-05 16:33:48 1047

原创 libcity笔记:参数设置与参数优先级

命令行参数(命令行python run_model.py时导入的)用户定义配置文件(命令行python run_model.py时由config_file导入的)模型所在模块默认参数。

2024-05-05 15:22:10 237 1

原创 libcity 笔记:基本使用方法

一个统一、全面、可扩展的代码库,为交通预测领域提供了一个可靠的实验工具和便捷的开发框架目前支持交通状态预测交通流量预测交通速度预测交通需求预测起点-终点(OD)矩阵预测交通事故预测轨迹下一跳预测到达时间预测路网匹配路网表征学习。

2024-05-05 14:25:25 1147 3

原创 libcity笔记:支持的数据

描述METR_LALOS_LOOPPEMSPEMSD3PEMSD4PEMS_BAYPEMSD7PEMSD7(M)PEMSD8Q_TRAFFICSZ_TAXIM_DENSEROTTERDAM。

2024-05-05 11:34:16 663

原创 libcity 笔记:支持的模型

含有三个作为时间组件的基于长短期记忆内存(LSTM)的模块和作为空间组件的三个用于提取目标站点空间关联的空间矩阵。自适应图卷积循环网络,通过自适应模块增强传统图卷积,并组合成循环神经网络,以捕捉细粒度时空关联。时空多头图注意力机制网络,在图上直接建构卷积的同时,考虑邻居节点的特征和边权,生成新的节点表示。合并残差网络(ResNet),图卷积网络(GCN)和长短期记忆内存(LSTM)降级版的ASTGCN,称为多组件时空图卷积网络,去掉了原模型的时空注意力机制。时空同步图卷积网络(STSGCN)

2024-05-05 01:15:53 1017 3

原创 论文辅助笔记:TimeLLM

1 __init__2 forward3 FlattenHead4 ReprogrammingLayer

2024-05-04 20:10:16 270

原创 论文辅助笔记:Tempo之modules/prompt.py

1 get_prompt_param_cls2 get_prompt_value3 Prompt 类3.1 _init_weights3.2 forward

2024-05-04 11:25:25 556

原创 论文辅助笔记:Tempo之modules/lora.py

enable_lora指定了哪些输出特征使用lora。

2024-05-04 11:18:43 316

原创 论文辅助笔记:Tempo 之 model.py

实例可以像字典一样通过键来获取属性值。实例可以像字典一样通过键来设置属性值。操作符来检查属性是否存在。重载了 Python 的。实例可以像字典一样使用。类实例转换为一个字典。

2024-05-04 10:55:38 435

原创 论文辅助笔记:Temop之modules/utils.py

1 Transpose2 RevIN3 FlattenHead4PoolingHead

2024-05-03 16:52:29 107

原创 pytorch笔记:ModuleDict

nn.Module。

2024-05-03 16:00:32 296

原创 pytorch笔记:ReplicationPad1d

可以是一个整数或一个元组。,那么填充后的序列将是。被复制了两次,右边的。

2024-05-03 15:48:17 341

network embedding lecture slide

Representation Learning on Networks 1) Node embeddings:Map nodes to low dimensional embeddings 2) Graph neural networks:Deep learning architectures for graph structured data 3) Applications

2023-01-01

elements of information theory

elements of information theory

2022-10-21

计算机组成与设计硬件软件接口-课后习题答案

计算机组成与设计硬件软件接口--课后习题答案

2022-10-21

python 实现 cmaes (调用方便)

import barecmaes2 as cma res = cma.fmin( 目标函数名, 结果向量的初始值, cmaes寻找值的标准差, 目标函数的其他参数, 最大更新轮数, 目标函数值【默认越小越好】, 多少轮输出一次中间结果, 多少轮输出进log文件, 多少轮画一张图) 返回的结果是 (xbest, fbest, evalsbest, evals, iterations, xmean,`` `` termination_condition, CMAES_object_instance, data_logger) eg: res = cma.fmin(cma.Fcts.elli, 10 * [0.5], 0.3, verb_disp=100,verb_plot=0)

2022-02-13

newyork.osm.pbf

newyork.osm.pbf

2021-09-24

algorithm design answer

​​Jon kleinberg那本的答案

2021-09-12

ASTGCN(AAAI 2019).pdf

attention based spatial-temporal graph convolutional networks for traffic flow forecasting

2021-08-13

浅谈研究生学位论文选题

浅谈研究生学位论文选题

2021-08-01

赵鑫_中国人民大学_如何以初学者的身份写好一篇国际学术论文.zip

赵鑫_中国人民大学_如何以初学者的身份写好一篇国际学术论文.zip

2021-08-01

Tips for prospective and early-stage PhD students

ICLR 2020

2021-08-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除