跳转至

Chapter 2: Basic Probability Inequalities for Sums of Independent Random Variables

约 3357 个字 预计阅读时间 11 分钟

我们希望对经验均值显著偏离数学期望的事件进行上界的估计,其对应的概率被称为尾概率,下面我们将要研究使用指数矩估计来估计尾概率的基本数学工具。

\(X_1, \ldots, X_n\)\(n\) 个独立同分布的实值随机变量,每一个的数学期望都为 \(\mu = \mathbb{E}X_i\)。令

\[ \bar{X}_n = \frac{1}{n} \sum_{i=1}^{n} X_i. \]

给定 \(\epsilon > 0\),我们感兴趣的是估计以下尾概率:

\[\begin{aligned} \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon), \\ \operatorname*{Pr}(\bar{X}_n \le \mu - \epsilon). \end{aligned}\]

在机器学习中,我们可以将 \(\bar{X}_n\) 视为在训练数据上观察到的训练误差。未知的均值 \(\mu\) 是我们希望从训练误差中推断出的测试误差。因此,在机器学习中,这些尾不等式可以解释为:高概率下,测试误差接近训练误差。这样的结果将被用于推导后续章节中的泛化误差界的严格陈述。

2.1 正态随机变量

对于具有相对轻尾的随机变量之和的尾不等式,其一般形式一般是 \(\epsilon^2\) 的指数形式,我们将尾部分布在远离均值的情况下下降更快的随机变量称为具有相对轻尾的随机变量,正态分布是具有轻尾的随机变量的一个例子。

定理:令 \(X_1, \ldots, X_n\)\(n\) 个独立同分布的正态随机变量,\(X_i \sim N(\mu, \sigma^2)\),令 \(\bar{X}_n = n^{-1} \sum_{i=1}^{n} X_i\)。那么对于任意的 \(\epsilon > 0\)

\[ \frac{1}{2} e^{-n(\epsilon + \sigma/\sqrt{n})^2/2\sigma^2} \le \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon) \le \frac{1}{2} e^{-n\epsilon^2/2\sigma^2}. \]

证明

首先考虑标准正态随机变量 \(X \sim N(0, 1)\),其概率密度函数为

\[ p(x) = \frac{1}{\sqrt{2\pi}} e^{-x^2/2}. \]

对于任意的 \(\epsilon > 0\),我们可以将尾概率 \(\operatorname*{Pr}(X \ge \epsilon)\) 上界如下放缩:

\[\begin{aligned} \operatorname*{Pr}(X \ge \epsilon) & = \int_{\epsilon}^{\infty} \frac{1}{\sqrt{2\pi}} e^{-x^2/2} \,\mathrm{d}x \\ & = \int_{0}^{\infty} \frac{1}{\sqrt{2\pi}} e^{-(x+\epsilon)^2/2} \,\mathrm{d}x \leq \int_{0}^{\infty} \frac{1}{\sqrt{2\pi}} e^{-(x^2 + \epsilon^2)/2} \,\mathrm{d}x \\ & = \frac{1}{2} e^{-\epsilon^2/2}. \end{aligned}\]

下界也可以类似放缩:

\[\begin{aligned} \operatorname*{Pr}(X \ge \epsilon) & = \int_{\epsilon}^{\infty} \frac{1}{\sqrt{2\pi}} e^{-x^2/2} \,\mathrm{d}x \\ & \ge \int_{0}^{1} \frac{1}{\sqrt{2\pi}} e^{-(x+\epsilon)^2/2} \,\mathrm{d}x \\ & \ge \int_{0}^{1} \frac{1}{\sqrt{2\pi}} e^{-x^2/2} e^{-(2\epsilon + \epsilon^2)/2} \,\mathrm{d}x \\ & \ge 0.34 e^{-(2\epsilon + \epsilon^2)/2} \ge \frac{1}{2} e^{-(\epsilon + 1)^2/2}. \end{aligned}\]

因此我们就有了

\[ \frac{1}{2} e^{-(\epsilon + 1)^2/2} \le \operatorname*{Pr}(X \ge \epsilon) \le \frac{1}{2} e^{-\epsilon^2/2}. \]

由于 \(\sqrt{n}(\bar{X}_n - \mu)/\sigma \sim N(0, 1)\),我们可以得到

\[ \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon) = \operatorname*{Pr}\left(\sqrt{n}(\bar{X}_n - \mu)/\sigma \ge \sqrt{n}\epsilon/\sigma\right) \]

这就得到了我们想要的结果。

我们注意到正态随机变量的尾概率以指数速率衰减,这样的不等式被称为指数不等式。这种不等式的指数上界是渐进紧/Asymptotically Tight的,当 \(n \rightarrow \infty\),对任意的 \(\epsilon > 0\),我们有

\[ \lim\limits_{n \rightarrow \infty} \frac{1}{n} \ln \operatorname*{Pr}(\lvert \bar{X}_n - \mu \rvert \ge \epsilon) = -\frac{\epsilon^2}{2\sigma^2}. \]

这样的结果也被称为大偏差结果/Large Deviation Result,其适用于当经验均值和真实均值 \(\mu\) 的偏差远大于 \(\bar{X}_n\) 的标准差 \(\sigma/\sqrt{n}\) 的时候。对于正态随机变量的分析,我们可以完全依赖标准的微积分技巧,对于一般的具有指数衰减尾概率的一般随机变量,我们可以使用指数矩/Exponential Moment 技术来推导类似的结果,这种技术可以用来估计样本均值和真实均值的大偏差的概率。

2.2 马尔可夫不等式

估计一般的随机变量的尾概率的一个标准技巧就是 Markov 不等式,令 \(X_1, \ldots, X_n\)\(n\) 个实值独立同分布的随机变量,其均值为 \(\mu\)。令 \(\bar{X}_n\) 为经验均值,我们感兴趣的是估计尾概率 \(\operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon)\),Markov 不等式给出了如下的结果:

定理(马尔可夫不等式):对于任意的非负函数 \(h(x) \ge 0\) 和一个集合 \(S \subset \mathbb{R}\),我们有

\[ \operatorname*{Pr}(\bar{X}_n \in S) \le \frac{\mathbb{E}h(\bar{X}_n)}{\inf_{x \in S} h(x)}. \]

证明

既然 \(h(x)\) 是非负的,我们有

\[ \mathbb{E}h(\bar{X}_n) \ge \mathbb{E}_{\bar{X}_n \in S} h(\bar{X}_n) \ge \mathbb{E}_{\bar{X}_n \in S} \inf_{x \in S} h(x) = \operatorname*{Pr}(\bar{X}_n \in S) \inf_{x \in S} h(x). \]

这就完成了证明。

定理(切比雪夫不等式):我们有

\[ \operatorname*{Pr}(\lvert \bar{X}_n - \mu \rvert \ge \epsilon) \le \frac{\operatorname*{Var}(X_1)}{n\epsilon^2}. \]

证明

\(h(x) = x^2\),我们有

\[ \mathbb{E}h(\bar{X}_n) = \mathbb{E}(\bar{X}_n - \mu)^2 = \frac{1}{n^2} \sum_{i=1}^{n} \mathbb{E}(X_i - \mu)^2 = \frac{1}{n}\operatorname*{Var}(X_1). \]

注意到,在切比雪夫不等式之中,我们使用了 \(h(x) = x^2\),这样的不等式是关于 \(n^{-1}\)\(\epsilon\) 的多项式形式,并且只要求随机变量的方差有界。作为对比,高斯尾概率有着更快的指数衰减。

2.3 指数尾不等式

为了得到指数级别的尾概率界,我们需要选择 \(h(x) = e^{\lambda n x}\),其中 \(\lambda \in \mathbb{R}\) 是某个调节参数。类似于切比雪夫不等式对随机变量方差有界的要求,我们要求随机变量的指数矩 \(\mathbb{E}e^{\lambda X_1} < \infty\)。这就隐含了随机变量 \(X_i\) 的尾概率以指数速率衰减。我们可以定义如下的指数矩生成函数:

定义:给定一个随机变量 \(X\),我们可以定义其对数矩生成函数/Logarithmic Moment Generating Function

\[ \Lambda_X(\lambda) = \ln \mathbb{E}e^{\lambda X}. \]

对于任意的 \(z \in \mathbb{R}\),我们可以定义率函数/Rate Function

\[ I_X(z) = \begin{cases} \sup_{\lambda > 0} [\lambda z - \Lambda_X(\lambda)], & z > \mu, \\ 0, & z = \mu, \\ \sup_{\lambda < 0} [\lambda z - \Lambda_X(\lambda)], & z < \mu, \end{cases} \]

其中 \(\mu = \mathbb{E}X\)

定理:对于任意的 \(n\)\(\epsilon > 0\)

\[\begin{aligned} \frac{1}{n} \ln \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon) & \le -I_X(\mu + \epsilon) = \inf_{\lambda > 0} [-\lambda(\mu + \epsilon) + \Lambda_X(\lambda)], \\ \frac{1}{n} \ln \operatorname*{Pr}(\bar{X}_n \le \mu - \epsilon) & \le -I_X(\mu - \epsilon) = \inf_{\lambda < 0} [-\lambda(\mu - \epsilon) + \Lambda_X(\lambda)]. \end{aligned}\]

证明

我们选择 \(h(z) = e^{\lambda n z}\)\(S = \{\bar{X}_n - \mu \ge \epsilon\}\),使用马尔可夫不等式。对于 \(\lambda > 0\),我们有

\[\begin{aligned} \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon) & \le \frac{\mathbb{E}e^{\lambda n \bar{X}_n}}{\mathbb{E}e^{\lambda n X_1}} = \frac{\mathbb{E}e^{\lambda \sum_{i=1}^{n} X_i}}{e^{\lambda n \mu}} \\ & = \frac{\mathbb{E}\prod_{i=1}^{n} e^{\lambda X_i}}{e^{\lambda n(\mu + \epsilon)}} = e^{-\lambda n(\mu + \epsilon)} \left[\mathbb{E}e^{\lambda X_1}\right]^n. \end{aligned}\]

最后一个等式使用了 \(X_i\) 的独立同分布性质。取对数,我们得到

\[ \ln \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon) \le n\left[-\lambda (\mu + \epsilon) + \ln \mathbb{E}e^{\lambda X_1}\right]. \]

对所有的 \(\lambda > 0\)\(\inf\),我们就得到了第一个不等式。类似的,我们可以得到第二个不等式。

第一个不等式可以重写为

\[ \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon) \le \exp[-nI_X(\mu + \epsilon)]. \]

这就表明了如果率函数 \(I_X(\cdot)\) 是有限的,那么经验均值的尾概率以指数速率衰减。更具体的指数尾不等式可以通过将上面的定理应用到特定的随机变量上得到。比如对于正态随机变量,我们可以算出

\[\begin{aligned} \mathbb{E}e^{\lambda (X_1 - \mu)} & = \int_{-\infty}^{\infty} \frac{1}{\sqrt{2\pi}\sigma} e^{\lambda x} e^{-x^2/2\sigma^2} \,\mathrm{d}x \\ & = \int_{-\infty}^{\infty} \frac{1}{\sqrt{2\pi}} e^{\lambda^2 \sigma^2/2} e^{-(x/\sigma - \lambda\sigma)^2/2} \,\mathrm{d}x/\sigma = e^{\lambda^2 \sigma^2/2}. \end{aligned}\]

这里第一个等式使用了匿名统计学家公式,我在概率论的期末考试就忘记了这个公式 QAQ。因此率函数就为

\[ I_{X_1}(\mu + \epsilon) = \sup\limits_{\lambda > 0} [\lambda \epsilon - \ln \mathbb{E}e^{\lambda(X_1 - \mu)}] = \sup\limits_{\lambda > 0} \left[\lambda \epsilon - \frac{\lambda^2 \sigma^2}{2}\right] = \frac{\epsilon^2}{2\sigma^2}. \]

其中极值在 \(\lambda = \epsilon/\sigma^2\) 处取得,因此我们得到

\[ \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon) \le \exp[-nI_{X_1}(\mu + \epsilon)] = \exp\left[-n\epsilon^2/2\sigma^2\right]. \]

这就得到了和本章最开始得到的内容一致的概率界,只是相差一个常数因子。这个例子和最开始的定理表明了我们在上个定理刚刚证明的指数不等式是渐进紧的。这个结果可以推广到一般的随机变量的大偏差不等式,我们有如下的定理。

定理:对于所有的 \(\epsilon^\prime > \epsilon > 0\),我们有

\[\begin{aligned} \liminf\limits_{n \rightarrow \infty} \frac{1}{n} \ln \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon) & \ge -I_X(\mu + \epsilon^\prime), \\ \liminf\limits_{n \rightarrow \infty} \frac{1}{n} \ln \operatorname*{Pr}(\bar{X}_n \le \mu - \epsilon) & \ge -I_X(\mu - \epsilon^\prime). \end{aligned}\]

证明

我们只需要证明第一个不等式。考虑 \(\operatorname*{Pr}(X_i \le x)\) 作为 \(x\) 的函数,并定义一个随机变量 \(X_i^\prime\),其在 \(x\) 处的密度为

\[ \mathrm{d} \operatorname*{Pr}(X_i^\prime \le x) = e^{\lambda x - \Lambda_{X_1}(\lambda)} \,\mathrm{d} \operatorname*{Pr}(X_i \le x). \]

注意到对数矩生成函数是这样定义的

\[ \Lambda_{X_1}(\lambda) = \ln \mathbb{E}e^{\lambda X_1} = \ln \int e^{\lambda x} \,\mathrm{d} \operatorname*{Pr}(X_1 \le x). \]

这样随机变量的选择就表明

\[ \frac{\mathrm{d}}{\mathrm{d}\lambda} \Lambda_{X_1}(\lambda) = \frac{\displaystyle\int x e^{\lambda x} \,\mathrm{d} \operatorname*{Pr}(X_1 \le x)}{\displaystyle\int e^{\lambda x} \,\mathrm{d} \operatorname*{Pr}(X_1 \le x)} = \int x e^{\lambda x} \,\mathrm{d} \operatorname*{Pr}(X_1 \le x) \cdot e^{-\Lambda_{X_1}(\lambda)} = \mathbb{E}_{X_1^\prime}X_1^\prime. \]

\(\lambda\) 使得 \(\lambda = \operatorname*{\arg\max}\limits_{\lambda^\prime > 0} [\lambda^\prime(\mu + \epsilon^\prime) - \Lambda_{X_1}(\lambda^\prime)]\),我们就得到了

\[\begin{aligned} \mathbb{E}_{X_1^\prime}X_1^\prime = \frac{\mathrm{d}}{\mathrm{d}\lambda} \Lambda_{X_1}(\lambda) & = \mu + \epsilon^\prime, \\ -\lambda(\mu + \epsilon^\prime) + \Lambda(\lambda) & = -I(\mu + \epsilon^\prime). \end{aligned}\]

\(\bar{X}_n^\prime = n^{-1} \sum_{i=1}^{n} X_i^\prime\),根据大数定律,我们知道对于任意的 \(\epsilon^{\prime\prime} > \epsilon^\prime\),有

\[ \lim\limits_{n \rightarrow \infty} \operatorname*{Pr}(\bar{X}_n^\prime - \mu \in [\epsilon^\prime, \epsilon^{\prime\prime}]) = 1. \]

由于 \((X_1^\prime, \ldots, X_n^\prime)\) 的联合密度满足

\[ e^{-\lambda\sum_{i=1}^{n} x_i + n\Lambda_{X_1}(\lambda)} \prod\limits_i \,\mathrm{d} \operatorname*{Pr}(X_i \le x_i) = \prod\limits_i \,\mathrm{d} \operatorname*{Pr}(X_i^\prime \le x_i). \]

使用 \(\mathbb{1}(\cdot)\) 表示指示函数,我们有

\[\begin{aligned} \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon) & \ge \operatorname*{Pr}(\bar{X}_n^\prime - \mu \in [\epsilon^\prime, \epsilon^{\prime\prime}]) \\ & = \mathbb{E}_{X_1, \ldots, X_n} \mathbb{1}(\bar{X}_n - \mu \in [\epsilon^\prime, \epsilon^{\prime\prime}]) \\ & = \mathbb{E}_{X_1^\prime, \ldots, X_n^\prime} e^{-\lambda n\bar{X}_n^\prime + n\Lambda(\lambda)} \mathbb{1}(\bar{X}_n^\prime - \mu \in [\epsilon^\prime, \epsilon^{\prime\prime}]) \\ &\ge e^{-\lambda n(\mu + \epsilon^\prime) + n\Lambda(\lambda)} \operatorname*{Pr}(\bar{X}_n^\prime - \mu \in [\epsilon^\prime, \epsilon^{\prime\prime}]) \end{aligned}\]

第一个等式使用了概率的定义,第二个等式使用了上面联合概率密度的性质,第三个不等式使用了马尔可夫不等式。取对数两面都除以 \(n\),可以得到

\[\begin{aligned} \frac{1}{n} \ln \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon) & \ge -\lambda(\mu + \epsilon^{\prime\prime}) + \Lambda(\lambda) + \frac{1}{n} \ln \operatorname*{Pr}(\bar{X}_n^\prime - \mu \in [\epsilon^\prime, \epsilon^{\prime\prime}]) \\ & = -I(\mu + \epsilon^{\prime}) - \lambda(\epsilon^{\prime\prime} - \epsilon^{\prime}) + \frac{1}{n} \ln \operatorname*{Pr}(\bar{X}_n^\prime - \mu \in [\epsilon^\prime, \epsilon^{\prime\prime}]). \end{aligned}\]

\(n\) 取极限,令 \(\epsilon^{\prime\prime} \rightarrow \epsilon^{\prime}\),我们就得到了我们想要的结果。

命题:对于一个具有有限方差的随机变量,我们有

\[ \Lambda_X(\lambda)\Big|_{\lambda = 0} = \mu, \quad \frac{\mathrm{d}\Lambda_X(\lambda)}{\mathrm{d}\lambda}\Big|_{\lambda = 0} = \operatorname*{Var}(X), \quad \frac{\mathrm{d}^2\Lambda_X(\lambda)}{\mathrm{d}\lambda^2}\Big|_{\lambda = 0} = \operatorname*{Var}(X). \]

引理:考虑一个随机变量 \(X\),其均值为 \(\mu\),存在一个 \(\alpha > 0\)\(\beta \ge 0\),使得对于所有的 \(\lambda \in [0, \beta^{-1})\),我们有

\[ \Lambda_X(\lambda) \le \lambda \mu + \frac{\alpha \lambda^2}{2(1 - \beta \lambda)}. \]

那么对于任意的 \(\epsilon > 0\),我们有

\[\begin{aligned} &-I_X(\mu + \epsilon) \le -\frac{\epsilon^2}{2(\alpha + \beta \epsilon)}, \\ &-I_X(\mu + \epsilon + \frac{\beta \epsilon^2}{2\alpha}) \le -\frac{\epsilon^2}{2\alpha}. \end{aligned}\]

定理:如果对于 \(\lambda > 0\)\(X_1\) 的对数矩生成函数满足引理中的条件,那么对于所有的 \(\epsilon > 0\),我们有

\[ \operatorname*{Pr}(\bar{X}_n \ge \mu + \epsilon) \le \exp\left[-\frac{n\epsilon^2}{2(\alpha + \beta \epsilon)}\right]. \]

并且,对于所有的 \(t > 0\),我们有

\[ \operatorname*{Pr}\left(\bar{X}_n \ge \mu + \sqrt{\frac{2\alpha t}{n}} + \frac{\beta t}{n}\right) \le e^{-t}. \]

2.4 次高斯随机变量

对于一个正态随机变量,其对数矩生成函数关于 \(\lambda\) 是二次的。更一般的,我们可以定义一个次高斯随机变量为对数矩生成函数在 \(\lambda\) 上被二次函数支配的随机变量。这样的随机变量有着轻尾,这意味着它们有着和正态随机变量类似的尾概率不等式。

定义:一个次高斯随机变量 \(X\) 满足对于所有的 \(\lambda \in \mathbb{R}\),其对数矩生成函数满足

\[ \ln \mathbb{E}e^{\lambda X} \le \lambda \mu + \frac{\lambda^2}{2}b. \]

定理:如果 \(X_1\) 是一个次高斯随机变量,那么对于所有的 \(t > 0\),我们有

\[\begin{aligned} \operatorname*{Pr}\left(\bar{X}_n \ge \mu + \sqrt{\frac{2bt}{n}} + \frac{t}{n}\right) &\le e^{-t}.\\ \operatorname*{Pr}\left(\bar{X}_n \le \mu - \sqrt{\frac{2bt}{n}} - \frac{t}{n}\right) &\le e^{-t}. \end{aligned}\]

证明

使用上一节的最后一个定理,取 \(\alpha = b\)\(\beta = 0\),我们就得到了我们想要的结果。

一般的次高斯随机变量的例子包括高斯随机变量和有界随机变量,其中高斯随机变量的 \(b = \sigma^2\),在 \([\alpha, \beta]\) 上有界随机变量的 \(b = (\beta - \alpha)^2/4\)

\(\delta \in (0, 1)\) 使得 \(\delta = \exp(-t)\),我们可以将上面的不等式写成另一种形式。在不少于 \(1 - \delta\) 的概率下,我们有

\[ \bar{X}_n < \mu + \sqrt{\frac{2b\ln(1/\delta)}{n}}. \]

2.5 Hoeffding 不等式

2.6 Bennett 不等式

2.7 Bernstein 不等式

2.8 非一致分布的随机变量

2.9 卡方的尾概率