好久没写文章了,荒废许久,今天重新开始慢慢记录下对这个领域的感想。
偶然间看到一篇总结2021年初到现在大半年脑机接口取到的一些进展,大体上有两方面的发展:
硬件方面有芯片、脑电采集设备和边缘计算方面的进展;由于我是研究脑电信号识别方向的,所以更关注的是算法的发展,也就是多伦多大学提出的一种脑电预训练模型-BENDR,并且在其各种下游任务都取得了比基线更好的结果。
了解深度学习的人应该都对预训练模型不陌生,因为预训练+微调的方式是现在许多领域比如NLP和CV的主流方法。其实,在一开始做脑电的时候,已经很疑惑了,为什么不用预训练模型的方法来做脑电呢,其实问题首先就在没有大规模的脑电数据,而更关键的是脑电数据是生理信号,不同的人或者同一个人不同时间的脑电信号都会有差异,不同设备采集的信号也会有所差异,所以很难能得到一个有效的能作为预训练的脑电大数据集。
所以,实际上训练预训练模型肯定已经有许多研究人员想过要做的工作了,但可能碍于上面种种问题。我了解到,多伦多大学的这项研究,使用的是一个大学提供的公开脑电数据集,这个数据集非常庞大,包含有30000份临床脑电图,解决了数据集不够的问题。但是,其他的问题我很好奇他们是如何解决的,或者说由于数据集过于庞大,这些问题是否已经在大数据中无形被解决掉了?
抱着这样的疑问,学习完文章后续再更。
总之,如果这个方法被证实是可行的,那么脑电领域将迎来又一次的高速发展期,各种下游任务将有更好的提升,在这期间在之前用在NLP和CV的各种魔改方法应该会被用作许多创新点涌出不少良莠不齐的文章吧。
虽然,预训练+微调的方式会让脑电领域迎来更好的发展,但是要谨防出现目前其他领域已经存在的一些问题,就是陷入大数据无法自拔,太过依赖于使用大数据来解决问题,陷入喂数据疯狂训练的境地。