【文献摘要】
Non-intrusive load monitoring (NILM) based energy disaggregation is the decomposition of a system’s energy into the consumption of its individual appliances. Previous work on deep learning NILM algorithms has shown great potential in the field of energy management and smart grids. In this paper, we propose BERT4NILM, an architecture based on bidirectional encoder representations from transformers (BERT) and an improved objective function designed specifically for NILM learning. We adapt the bidirectional transformer architecture to the field of energy disaggregation and follow the pattern of sequence-to-sequence learning. With the improved loss function and masked training, BERT4NILM outperforms state-of-the-art models across various metrics on the two publicly available datasets UK-DALE and REDD.
【参考翻译】
基于非侵入性负载监测(NILM)的能量分解是指将系统的能量分解为其各个设备的消耗量。以往在深度学习NILM算法方面的工作在能源管理和智能电网领域显示出了巨大的潜力。在本文中,我们提出了BERT4NILM,这是一种基于转换器的双向编码器(BERT)表示的架构,以及一个专门为NILM学习设计的改进的目标函数。我们将双向变压器结构适应能量分解领域,并遵循序列到序列的学习的模式。随着损失函数和掩蔽训练的改进,BERT4NILM在两个公开的UK-DALE和REDD数据集上的各种指标上优于最先进的模型。
【模型结构】
BERT的新语言表示模型,它代表Transformer的双向编码器表示。与最近的其他语言表示模型不同,BERT旨在通过联合调节所有层中的上下文来预先训练深度双向表示。因此,预训练的BERT表示可以通过一个额外的输出层进行微调(fine-tuning),适用于广泛任务的最先进模型的构建,比如问答任务和语言推理,无需针对具体任务做大幅架构修改。
【实验结果】
文献下载: http://nilmworkshop.org/2020/proceedings/nilm20-final88.pdf.