NILM论文 ——BERT4NILM

A Bidirectional Transformer Model for Non-Intrusive Load Monitoring

【文献摘要】

Non-intrusive load monitoring (NILM) based energy disaggregation is the decomposition of a system’s energy into the consumption of its individual appliances. Previous work on deep learning NILM algorithms has shown great potential in the field of energy management and smart grids. In this paper, we propose BERT4NILM, an architecture based on bidirectional encoder representations from transformers (BERT) and an improved objective function designed specifically for NILM learning. We adapt the bidirectional transformer architecture to the field of energy disaggregation and follow the pattern of sequence-to-sequence learning. With the improved loss function and masked training, BERT4NILM outperforms state-of-the-art models across various metrics on the two publicly available datasets UK-DALE and REDD.

【参考翻译】

基于非侵入性负载监测(NILM)的能量分解是指将系统的能量分解为其各个设备的消耗量。以往在深度学习NILM算法方面的工作在能源管理和智能电网领域显示出了巨大的潜力。在本文中,我们提出了BERT4NILM,这是一种基于转换器的双向编码器(BERT)表示的架构,以及一个专门为NILM学习设计的改进的目标函数。我们将双向变压器结构适应能量分解领域,并遵循序列到序列的学习的模式。随着损失函数和掩蔽训练的改进,BERT4NILM在两个公开的UK-DALE和REDD数据集上的各种指标上优于最先进的模型。

【模型结构】

  BERT的新语言表示模型,它代表Transformer的双向编码器表示。与最近的其他语言表示模型不同,BERT旨在通过联合调节所有层中的上下文来预先训练深度双向表示。因此,预训练的BERT表示可以通过一个额外的输出层进行微调(fine-tuning),适用于广泛任务的最先进模型的构建,比如问答任务和语言推理,无需针对具体任务做大幅架构修改。
BERT的新语言表示模型,它代表Transformer的双向编码器表示。与最近的其他语言表示模型不同,BERT旨在通过联合调节所有层中的上下文来预先训练深度双向表示。因此,预训练的BERT表示可以通过一个额外的输出层进行微调(fine-tuning),适用于广泛任务的最先进模型的构建,比如问答任务和语言推理,无需针对具体任务做大幅架构修改。

【实验结果】

在这里插入图片描述
在这里插入图片描述
文献下载: http://nilmworkshop.org/2020/proceedings/nilm20-final88.pdf.

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

浪荡子爱自由

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值