Chapter 8: 遗憾界¶
约 524 个字 预计阅读时间 2 分钟
在介绍遗憾/Regret 这一在线学习的性能评价指标之前,首先回顾一下批量学习对数据的利用方式及采取的评价指标。批量学习算法只关心整个学习过程结束后得到的分类器性能,一种常用的评价指标是超额风险/Excess Risk,该指标可以理解为学习算法最终输出的模型与假设空间内最优模型的风险之差。批量学习算法假设所有的训练数据提前获得,当数据规模非常大时,这种模式计算复杂度高、响应慢,无法用于实时性要求高的场景。与批量学习不同,在线学习考虑数据持续增长的场景,通常利用当前到来的训练样本更新模型。由于学习模式的不同,在线学习利用遗憾来评价算法性能,该指标可以理解为算法在运行过程中产生的模型与假设空间内最优模型的损失之差的求和,因此遗憾更关注模型在整个学习过程中的表现。
1. 基本概念¶
对于批量学习而言,学习器通过数据集 \(D_T = \{(\boldsymbol{x}_1,y_1),\cdots,(\boldsymbol{x}_T,y_T)\}\) 学习到模型 \(\boldsymbol{w}_{T+1}\),该模式下的算法只关心整个学习过程结束后得到的分类器性能,可以采用超额风险作为评价指标:
\[\mathbb{E}_{(\boldsymbol{x},y)\sim\mathcal{D}}[\ell(\boldsymbol{w}_{T+1}, (\boldsymbol{x},y))] - \min_{\boldsymbol{w}\in\mathcal{W}} \mathbb{E}_{(\boldsymbol{x},y)\sim\mathcal{D}}[\ell(\boldsymbol{w}, (\boldsymbol{x},y))].\]
上式子将模型 \(\boldsymbol{w}_{T+1}\) 的风险与假设空间内最优模型的风险相比较,而第 4 章中的泛化误差则是将模型的风险与经验风险相比较。
2. 完全信息在线学习¶
完全信息在线学习