EEGNet 与 CNN 方法
EEGNet(Lawhern et al. 2018, J Neural Eng) 是 EEG BCI 领域最具代表性的深度学习架构。它把 CNN 引入 EEG,用少量参数 + 精心结构设计在多个 BCI 范式上达到 SOTA,成为非侵入式 BCI 深度学习的基线。
一、为什么 EEG 需要特殊 CNN
直接把 Computer Vision 的 ResNet/VGG 搬到 EEG 不行,原因:
- EEG 是 (channels, time) 的 2D 信号,通道维度不具备图像的空间结构
- 电极数少(8–64),数据维度 × 样本量 ≤ 常规 CV 的 1/1000
- 需求:可解释、低延迟、小样本
EEGNet 用三个设计回应这些挑战。
二、EEGNet 架构
Input: (channels C, time T) — e.g. (64, 256)
① Temporal Conv 1D (depthwise on time axis):
F1 filters, kernel = (1, 64) # 学习频率选择器
→ (F1, C, T)
② Depthwise Conv (spatial):
D=2 filters per F1, kernel = (C, 1) # 学习空间滤波器(每个通道独立)
→ (F1*D, 1, T)
③ Separable Conv:
kernel = (1, 16) # 时间尺度特征
→ (F2, 1, T/4)
④ Global average + Dense softmax
核心思想: - 时间卷积学频带 - 深度空间卷积学类 CSP 的空间模式 - 可分离卷积降低参数
总参数 ~2000——比 ResNet 少 10000 倍。
三、关键设计选择
Depthwise Separable
分离时间和空间——参数减少 10×,避免过拟合。
Small receptive field
典型感受野 0.25–1 s,匹配 EEG 事件时标。
BatchNorm + ELU
相对于 ReLU,ELU 在小数据 EEG 上更稳定。
正则化
- Dropout 0.5
- L2 regularization
- 数据增强:时间移位、噪声注入
四、在 BCI 任务上的表现
EEGNet 原始论文覆盖四个任务:
| 任务 | 数据集 | EEGNet | 基线 |
|---|---|---|---|
| P300 | BCI Competition III | 89.5% | xDAWN+SWLDA 88% |
| ERP | MRCP | 91% | FBCSP 89% |
| 运动想象 | BCI IV-2a | 69.9% | FBCSP 67% |
| 错误感知 | Chavarriaga 2014 | 79% | CCA 77% |
在所有任务上与或超过传统方法——首次证明通用 EEG CNN 可行。
五、EEGNet 的变种
DeepConvNet / ShallowConvNet
Schirrmeister et al. 2017 Hum Brain Mapp 较早的 EEG CNN: - DeepConvNet:较深 (4 conv blocks) - ShallowConvNet:类 FBCSP 模拟(log + mean pooling)
EEG-TCNet
Ingolfsson 2020 加入 TCN(时间卷积网络)处理长依赖。
EEGSym
Pérez-Velasco 2022 利用大脑左右对称先验,性能再提升。
BENDR(Transformer)
Kostas 2021 用对比预训练 + Transformer——进入基础模型时代。
六、侵入式 CNN:不同哲学
侵入式 BCI(spike + LFP)的 CNN 设计与 EEGNet 不同:
QRNN / WaveNet 式
Willett 2021 手写 BCI 用 RNN + CNN 混合: - 1D conv 在时间轴 - GRU 做序列建模 - CTC 输出字符
LFP-CNN
Eden-lab 等用 1D CNN 直接从 LFP 原信号学特征,替代手工频带功率。
Spike Tokenization
NDT3、POYO 把 spike 表示为离散 token 再用 Transformer(详见 NDT系列与Transformer)——超越纯 CNN 范式。
七、EEGNet 的工程影响
开源与社区
- Braindecode(Python):PyTorch EEGNet 参考实现
- TorchEEG:更现代的 EEG 深度学习框架
- Kaggle EEG 比赛中 EEGNet 是标配 baseline
教学基线
几乎所有 EEG 深度学习论文都把 EEGNet 作为基线对比。这让 EEGNet 成为"最后的经典 CNN"——就像 ResNet 之于 CV。
八、与 Transformer / Foundation Model 的比较
2023 后 EEG 基础模型兴起(BENDR、EEGPT、LaBraM),在多个数据集上预训练后表现超过 EEGNet。但:
- EEGNet 仍是单 session、少数据场景的最佳选择
- EEGNet 训练一个模型几分钟,Transformer 基础模型需 GPU 数天
- EEGNet 参数少易部署到嵌入式设备(消费级 BCI)
分层使用:嵌入式 / 消费级 / 实时延迟敏感 用 EEGNet;研究 / 大数据 / 跨被试迁移 用 Transformer。
九、CNN 的可解释性
EEGNet 的 depthwise 空间滤波器可视化后近似 CSP 滤波器——深度网络自发学到了神经科学家手工设计的特征。
Grad-CAM / Integrated Gradients 可定位哪个时间窗、哪个频带对分类最重要。这让 EEGNet 在临床场景(需要可解释)仍被保留。
十、逻辑链
- EEG BCI 的小数据高维特性要求特殊 CNN 设计,不能直接套 CV 架构。
- EEGNet 用时间-空间可分离卷积实现参数极简化,~2000 参数达到 SOTA。
- EEGNet 是 EEG 深度学习的基线——所有后续 EEG 论文必须与之比较。
- 侵入式 BCI 的 CNN 设计不同:CTC + 1D conv 用于手写、Transformer-based 用于语音。
- Transformer 基础模型超过 EEGNet,但 EEGNet 仍在资源受限场景占优。
参考文献
- Lawhern et al. (2018). EEGNet: a compact convolutional neural network for EEG-based brain-computer interfaces. J Neural Eng. https://iopscience.iop.org/article/10.1088/1741-2552/aace8c
- Schirrmeister et al. (2017). Deep learning with convolutional neural networks for EEG decoding and visualization. Hum Brain Mapp.
- Willett et al. (2021). High-performance brain-to-text communication via handwriting. Nature. — RNN+CNN 手写
- Kostas et al. (2021). BENDR: using transformers and a contrastive self-supervised learning task to learn from massive amounts of EEG data. Front Hum Neurosci.
- Braindecode: https://braindecode.org/