跳转至

线性判别与特征选择

非侵入式 EEG BCI(运动想象、P300、SSVEP)中,数据量小、信噪比低、类别有限,线性判别分析(LDA)特征选择仍是多年统治性方法。它们代表了"小数据 BCI"与"大数据侵入式 BCI"完全不同的技术哲学。

一、为什么 EEG 需要线性判别

  • 训练数据少(单用户单 session 可能只有几百试次)
  • 维度高(64 通道 × 多频段 × 时间窗)
  • 类别少(通常 2–4 类)
  • 过拟合风险极高

深度学习在这种环境下训练不稳定——线性分类器 + 精心的特征工程反而成为最优。这在 BCI Competition IV-2a 等基准上长期不变。

二、LDA(线性判别分析)

核心思想

找一个投影方向 \(\mathbf{w}\),使得: - 两类均值之差最大 - 两类内方差之和最小

\[\mathbf{w}^* = \arg\max_\mathbf{w} \frac{(\mathbf{w}^T \mu_1 - \mathbf{w}^T \mu_2)^2}{\mathbf{w}^T (\Sigma_1 + \Sigma_2) \mathbf{w}}\]

解析解:\(\mathbf{w}^* = (\Sigma_1 + \Sigma_2)^{-1} (\mu_1 - \mu_2)\)

在 BCI 的应用

  • P300 分类:信号 vs 非信号
  • 运动想象:左手 vs 右手
  • SSVEP 目标判定:哪个频率响应最强

优势

  • 闭式解、训练快
  • 对少数据鲁棒
  • 可解释

局限

  • 线性判别面
  • 假设协方差高斯
  • 高维时 \(\Sigma\) 估计不稳

三、Shrinkage LDA(正则化 LDA)

Blankertz et al. 2011 NeuroImage 提出 shrinkage LDA:

\[\Sigma_{\text{shrink}} = (1 - \gamma) \Sigma + \gamma \frac{\text{tr}(\Sigma)}{d} I\]

\(\gamma \in [0, 1]\) 是收缩系数。shrinkage 让协方差估计在高维下稳定——是 EEG BCI 的标配。

四、CSP 特征 + LDA

Common Spatial Pattern (CSP) + LDA 是运动想象 BCI 十年金标准。

CSP

学习一组空间滤波器 \(W\) 最大化两类协方差比:

\[\max_\mathbf{w} \frac{\mathbf{w}^T \Sigma_1 \mathbf{w}}{\mathbf{w}^T \Sigma_2 \mathbf{w}}\]

滤波后的信号方差(log-variance)作为特征,再送入 LDA。

FBCSP(Filter Bank CSP)

Ang et al. 2008 扩展:

  1. 把信号分成多个频带(4–40 Hz,步长 4 Hz)
  2. 每个频带独立做 CSP
  3. 合并所有频带的 CSP 特征
  4. 特征选择(mutual information)
  5. LDA 或 SVM 分类

FBCSP 在 BCI Competition IV 2a 夺冠,长期作为 EEG MI-BCI 标杆。

五、Riemannian 几何

把 EEG 试次的协方差矩阵 \(\mathbf{C}_i \in \mathbb{R}^{d \times d}\) 看作对称正定流形(SPD manifold) 上的点,用流形距离分类。

关键操作

  • Log 映射:把 SPD 矩阵映到切空间
  • Riemannian mean:流形上的中心
  • MDM(Minimum Distance to Mean):分类器就是"到哪个类均值最近"

表现

Barachant et al. 2012 IEEE TBME 首次把 Riemannian 方法应用于 BCI: - 在 BCI Competition IV 上 击败 FBCSP - 无需通道选择、频带选择 - 跨被试迁移好

pyRiemann 是目前最流行的开源实现。

六、特征选择

高维 EEG 特征常需特征选择减少过拟合:

Filter 方法

基于特征与标签的关系独立评分: - Fisher score - Mutual information - ReliefF

Wrapper 方法

  • Sequential Forward/Backward Selection
  • 每次加/减一个特征看分类性能

Embedded 方法

  • L1 正则化(LASSO):训练时自动置零
  • 弹性网:L1 + L2

稳定特征选择

Nogueira & Brown 2016 提出 stability selection——对多个 bootstrap 训练集选特征,保留高稳定度的。

七、P300 与 SSVEP 的特殊方法

P300 分类器

  • SWLDA(Stepwise Wise LDA):Bender 1988,P300 拼写器标准
  • xDAWN 空间滤波:提升 P300 信噪比

SSVEP 分类器

CCA(Canonical Correlation Analysis) 是 SSVEP 的经典方法:

\[\rho = \max \text{corr}(X\mathbf{a}, Y\mathbf{b})\]

其中 \(X\) 是 EEG,\(Y\)参考正弦/余弦模板。哪个频率对应最大 \(\rho\) 就是用户选择。

扩展: - FBCCA(滤波器组 CCA):Chen 2015,多频带集成 - TRCA(Task-Related Component Analysis):利用多试次模板

八、在现代 BCI 中的位置

线性判别和特征选择是消费级/非侵入 BCI 的主力

  • Muse 冥想器:α/β/γ 带功率 + LDA 分类
  • Emotiv Cortex:基于频带功率的状态分类
  • OpenBCI:CSP + LDA 教学标准

也是深度学习方法的基线——任何新 EEG 深度网络必须超过 shrinkage-LDA 才有意义。

九、与深度学习的比较

场景 线性判别 深度学习
少数据 (<500 试次) ✓ 更好 过拟合
大数据 (>10000) 瓶颈 ✓ 更好
跨被试迁移 Riemannian 好 ✓ 更好
可解释 ✓ 高
在线 ✓ 快 需优化

现代混合策略:Riemannian 特征 + 浅层 CNN,或 EEGNet + shrinkage LDA 头——融合两者优势。

十、逻辑链

  1. EEG BCI 是小数据问题,传统统计方法因此反而占优。
  2. LDA + shrinkage 是 EEG 分类的基础方法。
  3. CSP / FBCSP 是运动想象 BCI 多年金标准。
  4. Riemannian 几何 把协方差矩阵视为流形点,提供更强跨被试能力。
  5. 深度学习超越经典方法仍需大数据;小数据场景下特征工程 + 线性分类器仍是最佳选择。

参考文献

  • Blankertz et al. (2011). Single-trial analysis and classification of ERP components—a tutorial. NeuroImage. — shrinkage LDA
  • Ang et al. (2008). Filter Bank Common Spatial Pattern (FBCSP) in brain-computer interface. IJCNN.
  • Barachant et al. (2012). Multi-class brain-computer interface classification by Riemannian geometry. IEEE TBME. https://ieeexplore.ieee.org/document/6046114
  • Chen et al. (2015). Filter bank canonical correlation analysis for implementing a high-speed SSVEP-based brain-computer interface. J Neural Eng.
  • Lotte et al. (2018). A review of classification algorithms for EEG-based brain-computer interfaces: a 10 year update. J Neural Eng.

评论 #