1 引言
起源于随机场博弈论和交互粒子系统研究, 分布依赖的随机泛函微分方程 (俗称 McKean-Vlasov SDE)[1 ,4 ,7 ,14 ] 最近吸引了许多学者关注, 该方程在金融经济、生物学、统计物理等领域[2 ,3 ,10 ,15 ] 有许多应用, 由于解缺乏马氏性, 因而这类方程比传统随机微分方程结构复杂, 如何解决方程解的分布与扩散项和漂移项共存关系是这类问题关键. 作为统计应用, 传统随机微分方程 (带跳和不带跳) 的统计推断, 如系数估计, 一直是学术界感兴趣问题, 极大似然估计和贝叶斯估计占绝大多数, 与之相比, 最小二乘和 $ L1 $ 估计是两个普遍而代表方法, 这类方法可以延伸到最小距离估计.
当前, 随机泛函微分方程研究较热, 许多深刻且有用结论被得到, 然而, 方程里参数估计工作不多, 特别是分布依赖类 McKean-Vlasov 方程, 认知甚少, 统计问题主要集中在似然比方法估计未知参数以及讨论它的渐近行为[5 ,9 ,13 ,16 ] . 最近, Zhao 和 Zhang[16 ] 介绍了一类 $ \alpha $ - stable 过程驱动的随机微分方程的最小距离估计法, 紧跟也讨论了估计量的极限行为. 然而, 漂移项依赖于解分布这类情形, 即便是此时扩散项为常数, 或者为相应的随机泛函微分方程, 相合性证明和极限分布等统计问题都没有满意结果.
(1.1) $\begin{equation} \begin{aligned} {\rm d}X^\epsilon_t&=b_t(X_t^\epsilon,\mu^\epsilon_t,\theta){\rm d}t+\epsilon {\rm d}W_t,\ \ \ \ \ \ t\in[T];\\ X_0^\epsilon&=x_0, \end{aligned} \end{equation}$
这里 $ x_0 $ 是一个固定常数, $ \theta=(\theta_1,\cdots,\theta_p)^{\prime}\in\Theta\subset\mathbb{R}^p $ 为未知参数, $ \mu^\epsilon_t(A)=\mathbf{P}(X^\epsilon_t\in A) $ 表示过程 $ \{X_t\} $ 在时刻 $ t $ 的分布测度, 它是一个概率测度, 简称分布, $ W_t $ 是一个在带有 $ \sigma $ 代数流的完备概率空间 $ (\Omega,\mathscr{F},(\mathscr{F}_t)_{t\geq0},\mathbf{P}) $ 上 $ d $ - 维布朗运动, 通常称为随机噪声, 漂移项 $ b_t:\mathbb{R}^d\times\mathcal{P}_2(\mathbb{R}^d)\times\Theta\mapsto\mathbb{R}^d $ 循序可测且依赖时间 $ t $ , 系数 $ \epsilon\in(0,1] $ 称为扩散项. 受文献[16 ]启发, 本文采用最小距离法来估计参数 $ \theta $ .
设二元函数 $ \rho(\cdot,\cdot) $ 是一个距离, 且对任意 $ \xi_1 $ , $ \xi_2,\ \xi_3\in D([T],\mathbb{R}^d) $ (右连续左极限存在的函数空间), 满足
(1.2) $\begin{equation} \rho(\xi_1,\xi_2)=\rho(\xi_1+\xi_3,\xi_2+\xi_3) \end{equation}$
(1.3) $\begin{equation} \rho(\xi_1,\xi_2)\leq c_\rho\sup\limits_{0\leq t\leq T}|\xi_1(t)-\xi_2(t)|, \end{equation}$
其中 $ c_\rho $ 是一个依赖于距离函数 $ \rho $ 的正常数, (1.2), (1.3) 式分别代表平移性和有界性, 许多情形都属于这类函数, 例如
$\rho(\xi_1,\xi_2)=\begin{cases} \int_0^T|\xi_1(t)-\xi_2(t)|^r\nu(dt), &0<r<1\\ \bigg(\int_0^T|\xi_1(t)-\xi_2(t)|^r\nu(dt)\bigg)^{\frac{1}{r}}, &r\geq1\\ \underset{0\leq t\leq T}\sup|\xi_1(t)-\xi_2(t)|,\\ \end{cases}$
就满足 (1.2) 和 (1.3) 式, 这里 $ \nu(\cdot) $ 是定义在 $ [T] $ 上的一个有限 Lebesgue 测度.
(1.4) $\begin{equation} \begin{aligned} {\rm d}X^0_t=b_t\left(X^0_t,\delta_{X_t^0}(\cdot),\theta\right){\rm d}t,\ \ \ \ \ \ \ \ t\in[T]; \end{aligned} \end{equation}$
其中 $ \delta_x(\cdot) $ 表示集中在 $ x $ 点的 Diracdelta 测度. 当 $ \epsilon\rightarrow0 $ 时, 对任意 $ t\in[T] $ , 易知 $ X^\epsilon_t\rightarrow X^0_t $ .
基于距离函数 $ \rho(\cdot,\cdot) $ , 未知参数 $ \theta $ 的最小距离估计量可定义为
(1.5) $\begin{equation} \widehat{\theta}_\epsilon:=\underset{\theta\in\Theta}{\text{arginf}}\rho(X_t^\epsilon,X_t^0). \end{equation}$
许多统计问题可以归结为模型 (1.5), 若假定 $ \theta_0\in\Theta $ 为 $ \theta $ 的真实值, 自然问题是讨论 $ \widehat{\theta}_\epsilon $ 的相合性和渐近性质, 对于普通随机微分方程, 一些文献讨论了在一定条件下, 如漂移项和扩散项满足李普希兹条件, 估计量的渐近行为[6 ,16 ] . 一旦漂移项与解分布有依赖关联性时, 渐近分布不易找到, $ X_t $ 缺乏马氏性导致统计量 $ \widehat{\theta}_\epsilon-\theta $ 不能用布朗运动泛函表示, 本文试图克服这问题, 在漂移项满足一定线性增长条件下, 给出估计量的渐近分布, 即证明统计量 $ \epsilon^{-1}(\widehat{\theta}_\epsilon-\theta_0) $ 随着 $ \epsilon\rightarrow0 $ 时, 依概率收敛到一个固定的随机变量, 受瓦西塞克 (Vasicek) 利率多因子模型[8 ,11 ]启发, 假设 $ \theta $ 为多维的, 其分量间存在复重共线性, 本文讨论了带有惩罚函数项下 $ L^\gamma $ 估计及其渐近行为, 进而推广了 $ \theta $ 的大样本统计特性.
2 预备知识
为了方便论述, 我们介绍一些符号和定义: 对任意 $ x,y\in\mathbb{R}^d $ , 定义内积 $ \langle x,y\rangle=\sum\limits_{i=1}^dx_iy_i $ . 使用 $ |\cdot| $ 为欧几里德范数, 即 $ |y|=\sqrt{y^\prime y}=\sqrt{\sum\limits_{i=1}^d\langle y_i,y_i\rangle} $ . 后文经常也用``$ \cdot $ "表示矩阵之间相乘, 定义 $ \mathbf{B} $ 是 Banach 空间, 其范数为 $ \|\cdot\| $ , 特别若 $ \mathbf{B} $ 是所有定义于 $ \mathbb{R}^d $ 上有界连续函数全体, 其范数为 $ \|f\|=\sup\limits_{x\in\mathbb{R}^d}|f(x)| $ . 为了符号简便, 用 $ \mathbf{P}_\theta $ 指在参数 $ \theta $ 下对应的概率测度, 过程 $ \{X_t(\theta)\} $ 表明与 $ \theta $ 有关, 若不引起混淆, 通常也可以省去记号 $ \theta $ , 即: $ X_t^\epsilon=X_t^\epsilon(\theta) $ . 下面介绍 Wasserstein 距离: 设 $ \mathcal{P}(\mathscr{C}) $ 是空间 $ \mathscr{C} $ 上所有的概率测度全体, 若 $ \mu\in\mathcal{P}(\mathscr{C}) $ , 且有 $ \mu $ 具有有限的二阶矩, 即: $ \mu(|\cdot|^2)=\int_{\mathscr{C}}|x|^2\mu(dx)<\infty $ . 这类概率测度空间定义为 $ \mathcal{P}_2(\mathscr{C}) $ . 对于任意 $ \mu,\nu \in\mathcal{P}_2(\mathscr{C}) $ , 定义 Wasserstein 距离 $ \mathcal{W}^{(2)}(\mu,\nu) $ 如下
$\begin{equation*} \begin{aligned} \mathcal{W}^{(2)}(\mu,\nu)=\inf \bigg\{\Big(\int_{\mathscr{C}\times \mathscr{C}}d( x,y)^2 \pi(dx,dy)\Big)^{\frac{1}{2}}:\pi\in \mathcal{P}(\mathscr{C}\times \mathscr{C})\bigg\}, \end{aligned} \end{equation*}$
这里 $ \mathcal{P}(\mathscr{C}\times \mathscr{C}) $ 指由边缘测度 $ \mathcal{P}(\mathscr{C}) $ 和 $ \mathcal{P}(\mathscr{C}) $ 耦合成的二维乘积测度空间, 即满足 $ \pi(\cdot,\mathscr{C})=\mu(\cdot) $ 和 $ \pi(\mathscr{C},\cdot)=\nu(\cdot) $ , 在 Wasserstein 距离下, 可以证明 $ \mathcal{P}_2(\mathscr{C}) $ 是一个波兰空间. 作为推广, 用 $ \mathcal{P}_r(\mathscr{C}) $ 代指 $ E $ 上具有有限 $ r $ 阶矩的概率测度空间全体, 从文献[3 ]知, 对任意测度 $ \delta_{x_0} $ 和 $ \mu\in \mathscr{C} $ ,有
(2.1) $\begin{equation} \mathcal{W}^{(2)}(\mu,\delta_{x_0})=\Big(\int_{\mathscr{C}}(y-x_0)^2\mu(dy)\Big)^{\frac{1}{2}}. \end{equation}$
定义 2.1 设函数 $ f:\mathcal{P}(\mathbb{R}^d)\rightarrow\mathbb{R} $ .
(1) 泛函 $ \phi $ 满足 $ L^2(\mathbb{R}^d\rightarrow\mathbb{R}^d,\mu)\ni\phi\mapsto f(\mu\circ(Id+\phi)^{-1}) $ , 且存在一个函数 $ \gamma\in L^2(\mathbb{R}^d\rightarrow\mathbb{R}^d,\mu) $ 满足
(2.2) $\begin{equation} \lim_{\mu(|\phi|^2)\rightarrow0}\frac{\big|f(\mu\circ(Id+\phi)^{-1})-f(\mu)-\mu(\langle\phi,\gamma\rangle)\big|}{\sqrt{\mu(|\phi|^2)}}=0, \end{equation}$
这里 $ \mu(\langle\phi,\gamma\rangle):=\int_{\mathbb{R}^d}\langle\phi(\xi),\gamma(\xi)\rangle\mu(d\xi) $ . 则称 $ f $ 在点$ \mu\in\mathcal{P}_2(\mathbb{R}^d) $ 处 $ L $ - 可导, 其导数定义为 $ \partial^Lf(\mu)=\gamma $ .
(2) 若对任意 $ \mu\in\mathcal{P}_2(\mathbb{R}^d) $ , $ L $ 导数 $ \partial^Lf(\mu) $ 存在, 则称 $ f $ 是 $ L $ - 可微的. 特别, 如果对每一个 $ \mu\in\mathcal{P}_2(\mathbb{R}^d) $ , 存在一个 $ \mu $ - 版本 $ \partial^Lf(\mu)(\cdot) $ 满足 $ \partial^Lf(\mu)(x) $ 在点 $ (x,\mu)\in\mathbb{R}^d\times\mathcal{P}_2(\mathbb{R}^d) $ 连续, 则用 $ f\in C^{1,0}(1,0)(\mathcal{P}_2(\mathbb{R}^d)) $ 表示.
引理 2.1 设 $ (\Omega,\mathscr{F},\mathbf{P}) $ 是无原子的概率空间, 随机变量 $ X,Y\in L^2(\Omega\mapsto\mathbb{R}^d,\mathbf{P}) $ 且 $ X $ 的分布测度设为 $ \mu(\cdot) $ , 若泛函 $ f $ 在点 $ \mu $ 处 $ L $ 可导, $ f\in C^{1,0}(\mathcal{P}_2(\mathbb{R}^d)) $ , 且 $ X $ , $ Y $ 是有界的, 则
(2.3) $\begin{equation} \lim_{\epsilon\rightarrow0}\frac{f(\mu_{X+\epsilon Y})-f(\mu)}{\epsilon}=\mathbf{E}\langle \partial^Lf(\mu)(X),Y\rangle. \end{equation}$
$\Big|\lim_{\epsilon\rightarrow0}\frac{f(\mu_{X+\epsilon Y})-f(\mu)}{\epsilon}\Big|=|\mathbf{E}\langle \partial^Lf(\mu)(X),Y\rangle|\leq \mathbf{E}\|\partial^Lf(\mu)\|\sqrt{\mathbf{E}|Y|^2}.$
定义 2.2 设 $ H $ 和 $ \hat{H} $ 是两个希尔伯特空间, 二元映射 $ \phi:H\times H\rightarrow\hat{H} $ , $ \mathscr{L}(H,\hat{H}) $ 表示从 $ H $ 到 $ \hat{H} $ 的所有有界线性算子空间, 若对任意 $ h\in H $ 和 $ x, y\in H $ , 存在一个算子 $ \partial_x\phi(x,y)\in\mathscr{L}(H,\hat{H}) $ 满足
$\begin{equation*} \underset{\tau\rightarrow 0}{\lim}\frac{\phi(x+\tau h,y)-\phi(x,y)}{\tau}=\partial_x\phi(x,y).h. \end{equation*}$
则称 $ \phi $ 在 $ x $ 点处 Gâteaux 可导.若同时有
$\begin{equation*} \underset{\|h\|\rightarrow0}{\lim}\frac{\|\phi(x+h,y)-\phi(x,y)-\partial_x\phi(x,y).h\|}{\| h\|}=0, \end{equation*}$
则称 $ \phi $ 在 $ x $ 点处 Fréchet 可导.
定义 2.1, 2.2 和引理 2.1 来自文献[12 ], 称为 $ L $ - 导数公式, 类似微积分公式, 泛函项 $ b_t(x,\mu_t,\theta) $ 在第 $ i $ 指标位置的偏导数可定义为 $ \partial_ib_t(x,\mu_t,\theta) $ , 例如: 对 $ \theta $ 偏导数记为 $ \partial_3b_t(x,\mu_t,\theta) $ . 为了给出结论, 我们需要如下条件.
(A1) $ X^\epsilon_0\in L^p(\mathscr{F}_0,\mathbb{R}^d,\mathbf{P}) $ 且独立于布朗运动 $ \{W_t\} $ ;
(A2) 函数 $ b_t $ : $ (\mathbb{R}^d,\mathcal{P}_2(\mathbb{R}^d),\Theta)\mapsto\mathbb{R}^d $ 循序可测且满足
$\begin{equation*} \mathbf{E}\Big[\int_0^T \big|b_t(X^\epsilon_0,\delta_0,\theta)\big|^p{\rm d}t\Big]<\infty. \end{equation*}$
(ii) 存在一个递增函数 $ K(t)\geq0 $ 使得对于所有 $ t \geq0, x,y\in\mathbb{R}, $ 和 $ \mu,\nu\in \mathcal{P}_2(\mathbb{R}) $ , 有
(2.4) $\begin{equation} \begin{aligned} \big|b_t(x,\mu,\theta_1)-b_t(y,\nu,\theta_2)\big|\leq K(t)\big( |x-y|+\mathcal{W}^{(2)}(\mu,\nu)+|\theta_1-\theta_2| \big). \end{aligned} \end{equation}$
$\begin{equation*} \begin{split} &\underset{x\in \mathbb{R}^d,\delta_x(\cdot)\in \mathcal{P}_2(\mathbb{R}^d),\theta\in \Theta}{\sup}\big|\partial_1 b_t(x,\delta_x,\theta)\big|<\infty,\\ &\underset{x\in \mathbb{R}^d,\delta_x(\cdot)\in \mathcal{P}_2(\mathbb{R}^d),\theta\in \Theta}{\sup}\big|\partial^L_2 b_t(x,\delta_x,\theta)\big|<\infty,\\ \end{split} \end{equation*}$
$\begin{equation*} \underset{x\in \mathbb{R}^d,\delta_x(\cdot)\in \mathcal{P}_2(\mathbb{R}^d),\theta\in \Theta}{\sup}\big|\partial_3 b_t(x,\delta_x,\theta)\big|<\infty. \end{equation*}$
(iv) 存在一个固定函数 $ K(t)>0 $ 和正常数 $ \beta_1,\beta_2 $ 满足: 对任意 $ x,y\in\mathbb{R}^d $ , $\mu, \nu\in\mathcal{P}_2(\mathbb{R}^d) $ 和 $ \theta_1,\theta_2\in\Theta $ , 有
(2.5) $\begin{equation} \begin{aligned} \big|\partial_1b_t(x,\mu,\theta_1)-\partial_1b_t(y,\nu,\theta_2)\big|\leq K(t)\big( |x-y|^{\beta_1}+\mathcal{W}^{(2)}(\mu,\nu)+|\theta_1-\theta_2|^{\beta_1} \big) \end{aligned} \end{equation}$
(2.6) $\begin{equation} \begin{aligned} \big|\partial_2^Lb_t(x,\mu,\theta_1)-\partial_2^Lb_t(y,\nu,\theta_2)\big|\leq K(t)\big( |x-y|^{\beta_2}+\mathcal{W}^{(2)}(\mu,\nu)+|\theta_1-\theta_2|^{\beta_2} \big). \end{aligned} \end{equation}$
对任意 $ x\in\mathbb{R}^d $ , $ \mu\in\mathcal{P}_2(\mathbb{R}^d) $ 和 $ \theta\in\Theta $ , 都有
(2.7) $\begin{equation} \begin{aligned} \max\Big\{\big|\partial_1b_t(x,\mu,\theta)\big|,\ \big|\partial_2^Lb_t(x,\mu,\theta)\big|\Big\}\leq K(t). \end{aligned} \end{equation}$
注 2.1 如果函数项 $ b_t $ 在 $ x $ 满足多项式增长且局部利普希茨条件, 即: 存在一个函数 $ L(t)>0 $ 使得对任意 $ 1<q\in \mathbb{N} $ , $ x,y\in \mathbb{R}^d $ 和 $ \mu \in \mathcal{P}_2(\mathbb{R}^d) $ , 有
(2.8) $\begin{equation} \big|b_t(x,\mu,\theta)-b_t(y,\mu,\theta)\big|\leq L(t)(1+|x|^{q-1}+|y|^{q-1}) |x-y|. \end{equation}$
且其它位置也是同样结论, 易知函数项 $ b_t $ 也满足(2.4)式, 类似地, (2.5)和(2.6)两式也可推广到多项式增长且局部利普希茨条件. 此时方程 (1.1) 也有唯一解[4 ] .
3 极限分布与证明
为了讨论极限过程, 我们需要引入一个辅助过程, 设 $ X^{(1)}=\{X_t^{(1)}(\theta),0\leq t\leq T\} $ 是随机微分方程
(3.1) $\begin{equation} {\rm d}X^{(1)}_t=\partial_{1}b_t\big(X_t^0(\theta),\delta_{X^0_t(\theta)},\theta\big)\cdot X^{(1)}_t{\rm d}t +\mathbf{E}\langle\partial_2^L b_t\big(X_t^0(\theta),\delta_{X^0_t(\theta)},\theta\big),X^{(1)}_t\rangle {\rm d}t +{\rm d}W_t \end{equation}$
的一个解, 为简便叙述, 记 $ X_t^0 $ 对 $ \theta $ 求偏导为
$ \dot{X}^0_t(\theta_0)=\Big(\frac{\partial}{\partial\theta_1}X_t^0(\theta),\cdots,\frac{\partial}{\partial\theta_p}X_t^0(\theta)\Big)^\prime\Big|_{\theta=\theta_0}.$
这是一个 $ p\times d $ 维矩阵型向量, 满足
(3.2) $\begin{matrix} \dot{X}^0_t(\theta)=& \int_0^t\partial_{1}b_s\big(X_s^0(\theta),\delta_{X^0_s(\theta)},\theta\big)\cdot\dot{X}^{(0)}_s(\theta){\rm d}t \\ & +\int_0^t\mathbf{E}\langle\partial_2^L b_s\big(X_s^0(\theta),\delta_{X^0_s(\theta)},\theta\big),\dot{X}^{0}_s(\theta)\rangle {\rm d}s+\int_0^t\partial_3b_s\big(X_s^0(\theta),\delta_{X^0_s(\theta)},\theta\big){\rm d}s. \end{matrix}$
本文目的是证明 $ \epsilon\rightarrow0 $ 时,
(3.3) $\begin{equation} \frac{\hat{\theta}_\epsilon-\theta_0}{\epsilon}\longrightarrow_d\xi_T, \end{equation}$
这里"$ \rightarrow_d $ "代指概率收敛, $ \xi_T $ 是某一个 $ p $ 维随机向量, 其定义如下
(3.4) $\begin{equation} \xi_T:=\underset{u\in \mathbb{R}^d}{\text{arginf}} \, \Big\{\rho\big(X^{(1)}_t(\theta_0),\dot{X}^0_t(\theta_0)\cdot u\big)\Big\}. \end{equation}$
在后文中, 类似(3.4)式里记号 $ t $ 通常被省略, 以下我们来证明(3.3)式. 首先需要几个引理.
引理 3.1 对任意 $ \alpha>0 $ , 假设 $ g(\alpha)=\underset{|\theta-\theta_0|>\alpha}{\inf}\rho(X^0(\theta),X^0(\theta_0))>0 $ . 在条件 (A1) 和 (A2) 下, 有
$\begin{equation*} \underset{\epsilon\rightarrow0}{\lim}\,\mathbf{P}_{\theta_0}(|\hat{\theta}_\epsilon-\theta_0|> \alpha)=0. \end{equation*}$
(3.5) $\begin{matrix} \mathbf{P}_{\theta_0}\left(|\hat{\theta}_\epsilon-\theta_0|>\alpha\right)&=\mathbf{P}_{\theta_0}\left(\underset{|\theta-\theta_0|\leq\alpha}{\inf} \rho(X^\epsilon(\theta),X^0(\theta))>\underset{|\theta-\theta_0|>\alpha}{\inf}\rho(X^\epsilon(\theta),X^0(\theta))\right) \\ & \leq \mathbf{P}_{\theta_0}\bigg(\underset{|\theta-\theta_0|\leq\alpha}{\inf}\Big\{\rho(X^\epsilon(\theta),X^0(\theta_0))+\rho(X^0(\theta),X^0(\theta_0))\Big\} \\ & >\underset{|\theta-\theta_0|>\alpha}{\inf}\Big\{\rho(X^0(\theta),X^0(\theta_0))-\rho(X^\epsilon(\theta),X^0(\theta_0))\Big\}\bigg) \\ & =\mathbf{P}_{\theta_0}\left(2\rho(X^\epsilon(\theta_0),X^0(\theta_0))>\underset{|\theta-\theta_0|>\alpha}{\inf}\rho(X^0(\theta),X^0(\theta_0))\right) \\ & =\mathbf{P}_{\theta_0}\left(\rho(X^\epsilon(\theta_0),X^0(\theta_0))>\frac{g(\alpha)}{2}\right), \end{matrix}$
$\begin{equation*} \underset{|\theta-\theta_0|\leq\alpha}{\inf}\,\rho(X^0(\theta),X^0(\theta_0))=0. \end{equation*}$
(3.6) $\begin{matrix} \big|X^\epsilon_t(\theta)-X^0_t(\theta)\big|&\leq\Big|\int^t_0b_s(X^\epsilon_s(\theta),\mu_s^\epsilon,\theta)-b_s(X^0_s(\theta),\delta_{X^0_s(\theta)},\theta){\rm d}s\Big|+\epsilon|W_t| \\ & \leq\int^t_0K(s)\big(|X^\epsilon_s(\theta)-X^0_s(\theta)|+\mathcal{W}^{(2)}(\mu_s^\epsilon,\delta_{X^0_s(\theta)})\big){\rm d}s+\epsilon|W_t|. \end{matrix}$
利用(2.1)式, 易知 $ \mathcal{W}^{(2)}(\mu_t^\epsilon,\delta_{X^0_t(\theta)})\leq\sup\limits_{0\leq t\leq T}|X_t^\epsilon(\theta)-X_t^0(\theta)| $ .
(3.7) $\begin{equation} \begin{aligned} \sup\limits_{0\leq t\leq T}|X^\epsilon_t(\theta)-X^0_t(\theta)|\leq\epsilon\, {\rm e}^{2\int^T_0K(s){\rm d}s}\sup\limits_{0\leq t\leq T}|W_t|. \end{aligned} \end{equation}$
注意到距离 $ \rho(\cdot,\cdot) $ 满足
(3.8) $\begin{equation} \rho\big(X^\epsilon(\theta),\ X^0(\theta_0)\big)\leq c_{\rho}\sup\limits_{0\leq t\leq T}|X^\epsilon(\theta)-X^0(\theta_0)| \end{equation}$
和关于 $ d $ - 维布朗运动 $ W_t $ 的极大值指数不等式, 即对任意 $ \alpha>0 $ ,
(3.9) $\begin{equation} \mathbf{P}\{\sup\limits_{0\leq t\leq T}|W_t|>\alpha\}\leq 4d\exp\Big\{-\frac{\alpha^2}{2dT}\Big\}. \end{equation}$
$\begin{align*} \mathbf{P}_{\theta_0}\big(\rho(X^\epsilon(\theta), X^0(\theta_0))>\frac{g(\alpha)}{2}\big) &\leq \mathbf{P}_{\theta_0}\Big(\sup\limits_{0\leq t\leq T}|W_t| > \frac{g(\alpha)}{2\epsilon c_\rho {\rm e}^{\int_0^TK(t){\rm d}t}}\Big)\\ &\leq 4d\exp\Big\{-\frac{g(\alpha)^2}{8dT\epsilon^2 c_{\rho}^2{\rm e}^{2\int^T_0K(s){\rm d}s}}\Big\}. \end{align*}$
因此, 结合 (3.5) 式, 当 $ \epsilon\rightarrow 0 $ 时, 有 $ \mathbf{P}_{\theta_0}\big(|\hat{\theta}_\epsilon-\theta_0|>\alpha\big)\rightarrow0. $
引理 3.2 对任意 $ u\in \mathbb{R}^d $ , 在假设 (A2)下, 对足够小的 $ \epsilon $ , 存在一个依赖于 $ \beta_1 $ , $ \beta_2 $ , $ T $ 和函数 $ K(\cdot) $ 相关的常数 $ C(T,\beta_1,\beta_2,K(\cdot))>0 $ 使得
$\begin{equation*} \begin{split} \underset{0\leq t\leq T}{\sup}\Big|\frac{X^0(\theta_0+\epsilon u)-X^0(\theta_0)}{\epsilon}-\dot{X}^0(\theta_0)u\Big| \leq C(T,\beta_1,\beta_2,K(\cdot))\epsilon^{\min\{1,\beta_1,\beta_2\}+1}|u|^{\max\{\beta_1,\beta_2\}+1}. \end{split} \end{equation*}$
证 首先, 对足够小的 $ \epsilon>0 $ , 总有 $ \theta_0+\epsilon u\in \Theta $ . 于是
(3.10) $\begin{matrix} &X^0_t(\theta_0+\epsilon u)-X^0_t(\theta_0) \\ =& \int^t_0\Big(b_s(X^0_s(\theta_0+\epsilon u),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u)-b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0)\Big){\rm d}s \\ =& \int^t_0\Big(b_s(X^0_s(\theta_0+\epsilon u),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u)-b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u)\Big){\rm d}s \\ & +\int^t_0\Big(b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u)-b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0+\epsilon u)\Big){\rm d}s \\ & +\int^t_0\Big(b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0+\epsilon u)-b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0) \Big){\rm d}s. \end{matrix}$
(3.11) $\begin{matrix} \big|X^0_t(\theta_0+\epsilon u)-X^0_t(\theta_0)\big| \leq& \int^t_0K(s)\big|X^0_s(\theta_0+\epsilon u)-X^0_s(\theta_0)\big|{\rm d}s \\ &+\int^t_0K(s)\mathcal{W}^{(2)}(\delta_{X^\epsilon_s(\theta_0+\epsilon u)},\delta_{X^0_s(\theta_0)}){\rm d}s +\epsilon\int^T_0K(s)|u|{\rm d}s. \end{matrix}$
注意到对任意 $ 0\leq s\leq t $ ,
(3.12) $\begin{equation} \mathcal{W}^{(2)}(\delta_{X^\epsilon_s(\theta_0+\epsilon u)},\delta_{X^0_s(\theta_0)})\leq \sup\limits_{0\leq s\leq t}|X^\epsilon_s(\theta_0+\epsilon u)-X^\epsilon_s(\theta_0)|. \end{equation}$
$\begin{equation*} \sup\limits_{0\leq s\leq t}\big|X^0_s(\theta_0+\epsilon u)-X^0_s(\theta_0)\big| \leq2\int_0^tK(s)\sup\limits_{0\leq \upsilon\leq s}\big|X^0_\upsilon(\theta_0+\epsilon u)-X^0_\upsilon(\theta_0)\big|{\rm d}s+\epsilon|u|\int_0^TK(s){\rm d}s.\end{equation*}$
应用 Gronwall 不等式, 对任意 $ 0\leq t\leq T $ , 有
(3.13) $\begin{equation} \begin{aligned} \underset{0\leq s\leq t}{\sup} \big|X^0_s(\theta_0+\epsilon u)-X^0_s(\theta_0)\big| \leq \epsilon|u|\int_0^tK(s)\,{\rm e}^{2\int_0^tK(s){\rm d}s}{\rm d}s. \end{aligned} \end{equation}$
(3.14) $\begin{equation} Z_t^\epsilon(\theta_0)=\frac{X^0_t(\theta_0+\epsilon u)-X^0_t(\theta_0)}{\epsilon}. \end{equation}$
$\begin{align*} &Z_t^\epsilon(\theta_0)-\dot{X}^0_t(\theta_0)\cdot u\\ =&\int^t_0\frac{1}{\epsilon}\Big(b_s(X^0_s(\theta_0+\epsilon u),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u))-b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u)\\ &\ \ \ \ \ \ \ \ \ \ -\epsilon \partial _1b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0)\cdot\dot{X}^0_s(\theta_0)\cdot u\Big){\rm d}s\\ &+\int^t_0\frac{1}{\epsilon}\Big(b(X^0_s(\theta_0),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u)-b(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0+\epsilon u)\\ &\ \ \ \ \ \ \ \ \ \ -\epsilon\mathbf{E}\langle \partial _2^L b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0),\ Z_s^\epsilon(\theta_0)\rangle\Big){\rm d}s\\ & +\int^t_0\frac{1}{\epsilon}\Big(b(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0+\epsilon u)-b(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0)\\ &\ \ \ \ \ \ \ \ \ \ -\epsilon \partial _3 b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0)\cdot u\Big){\rm d}s\\ &+\int_0^t\Big(\mathbf{E}\langle\partial _2^L b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0),Z_s^\epsilon(\theta_0)\rangle\\ &\ \ \ \ \ \ \ \ \ \ -\mathbf{E}\langle\partial _2^L b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0),\dot{X}_s^{0}(\theta_0)\cdot u\rangle {\rm d}s\\ =&:I_1(t)+I_2(t)+I_3(t)+I_4(t). \end{align*}$
设 $ k_0(s)=\int^1_0\partial_1\, b_s\big(X^0_s(\theta_0)+\upsilon Z_s^\epsilon(\theta_0),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u\big){\rm d}v $ , 则
(3.15) $\begin{matrix} |I_1(t)| \leq\ &\Big|\int^t_0k_0(s)\big(Z_s^\epsilon(\theta_0)- \dot{X}^0_s(\theta_0)\cdot u \big){\rm d}s\Big| \\ & +\Big|\int^t_0\Big(k_0(s)-\partial_1 b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u\Big)\cdot u\cdot\dot{X}^0_s(\theta_0){\rm d}s\Big| \\ & +\Big|\int^t_0\Big(\partial_1 b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u) \\ & -\partial_1 b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0)\Big)\cdot u\cdot\dot{X}^0_s(\theta_0){\rm d}s\Big|. \end{matrix}$
利用(2.5)式和假设 (iii), 存在常数 $ C_1>0 $ 满足 $ \sup\limits_{0\leq s\leq T}|k_0(s)|\leq C_1 $ , 进一步有
(3.16) $\begin{matrix} |I_1(t)|\leq\ & C_1\int^t_0\big|\big(Z_s^\epsilon(\theta_0)- \dot{X}^0_s(\theta_0)\cdot u \big)\big|{\rm d}s+\epsilon^{\beta_1}\int_0^tK(s)|\dot{X}^0_s(\theta_0)||u||Z_s^\epsilon(\theta_0)|^{\beta_1}{\rm d}s \\ & +\int_0^tK(s)\Big(\mathcal{W}^{(2)}\big(\delta_{X^0_s(\theta_0+\epsilon u)},\delta_{X^0_s(\theta_0)}\big)+\epsilon^{\beta_1}|u|^{\beta_1}\Big)|u||\dot{X}^0_s(\theta_0)|{\rm d}s \\ \leq\ & C_1\int^t_0\big|\big(Z_s^\epsilon(\theta_0)- \dot{X}^0_s(\theta_0)\cdot u \big)\big|{\rm d}s+\epsilon^{\beta_1}\int_0^tK(s)|\dot{X}^0_s(\theta_0)||u|^{1+\beta_1}C_T^{\beta_1}{\rm d}s \\ & +\int_0^tK(s)\Big(\epsilon|u|C_T+\epsilon^{\beta_1}|u|^{\beta_1}\Big)|u||\dot{X}^0_s(\theta_0)|{\rm d}s \end{matrix}$
这里 $ C_T=\int_0^TK(s)\,{\rm e}^{2\int_0^TK(s){\rm d}s}{\rm d}s $ . 最后一个不等式使用了(3.13)式.
设 $ k_1(s):=\int^1_0\partial_2^L b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)+v(X^0_s(\theta_0+\epsilon u)-X^0_s(\theta_0))},\theta_0+\epsilon u){\rm d}v $ , 则
$\begin{align*} |I_2(t)| &\leq\Big|\int^t_0\mathbf{E}\big\langle k_1(s),\ Z_s^\epsilon(\theta_0)- \dot{X}^0_s(\theta_0)\cdot u\big\rangle {\rm d}s\Big|\\ & \ +\Big|\int^t_0\mathbf{E}\big\langle k_1(s)-\partial_2^L b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u),\ \dot{X}^0_s(\theta_0)\cdot u\big\rangle ds\Big|\\ & \ +\Big|\int^t_0\mathbf{E}\big\langle\partial_2^L b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0+\epsilon u)},\theta_0+\epsilon u)-\partial_2^L b_s(X^0_s(\theta_0),\delta_{X^0_s(\theta_0)},\theta_0),\ \dot{X}^0_s(\theta_0)\cdot u\big\rangle {\rm d}s\Big|. \end{align*}$
利用假设(2.6)和条件 (iii), 存在常数 $ C_2>0 $ 满足 $ \sup\limits_{0\leq s\leq T}|k_1(s)|\leq C_2 $ , 进而
(3.17) $\begin{matrix} |I_2(t)|\leq\ & C_2\int^t_0\big|\big(Z_s^\epsilon(\theta_0)- \dot{X}^0_s(\theta_0)\cdot u \big)\big|{\rm d}s+\epsilon^{\beta_2}\int_0^tK(s)|\dot{X}^0_s(\theta_0)||u||Z_s^\epsilon(\theta_0)|^{\beta_2}{\rm d}s \\ & +\int_0^tK(s)\Big(\mathcal{W}^{(2)}\big(\delta_{X^0_s(\theta_0+\epsilon u)},\delta_{X^0_s(\theta_0)}\big)+\epsilon^{\beta_2}|u|^{\beta_2}\Big)|u||\dot{X}^0_s(\theta_0)|{\rm d}s \\ \leq\ & C \int^t_0\big|\big(Z_s^\epsilon(\theta_0)- \dot{X}^0_s(\theta_0)\cdot u \big)\big|{\rm d}s+\epsilon^{\beta_2}\int_0^tK(s)|\dot{X}^0_s(\theta_0)||u|^{1+\beta_2}C_T^{\beta_2}{\rm d}s \\ & +\int_0^tK(s)\Big(\epsilon|u|C_T+\epsilon^{\beta_2}|u|^{\beta_2}\Big)|u||\dot{X}^0_s(\theta_0)|{\rm d}s. \end{matrix}$
不等式(3.13)同样在最后一个不等号证明中被用到.
对于 $ I_3(t) $ , 由泰勒展开式易得: 存在一个常数 $ c_2>0 $ 满足
(3.18) $\begin{equation} \sup\limits_{0\leq t\leq T}|I_3(t)|\leq c_2\epsilon^2{\rm e}^{\int_0^TK(s){\rm d}s}. \end{equation}$
结合(3.16)-(3.18)式, 注意到(2.6)式, 再次使用 Gronwall 不等式, 得到
$\begin{equation*} \begin{split} \underset{0\leq t\leq T}{\sup}\Big|\frac{X^0(\theta_0+\epsilon u)-X^0(\theta_0)}{\epsilon}-\dot{X}^0(\theta_0)\cdot u\Big| \leq C(T,\beta_1,\beta_2,K(\cdot))\epsilon^{\min\{1,\beta_1,\beta_2\}+1}|u|^{\max\{\beta_1,\beta_2\}+1}. \end{split} \end{equation*}$
引理 3.3 在假设 (A1) 和 (A2) 下, 对任意 $ \alpha>0 $ , 有
(3.19) $\begin{equation} \lim_{\epsilon\rightarrow0}\mathbf{P}\Big(\sup\limits_{0\leq t\leq T}\Big|\frac{X_t^\epsilon(\theta)-X^0_t(\theta)}{\epsilon}-X^{(1)}_t(\theta)\Big|>\alpha\Big)=0. \end{equation}$
其中 $ X^{(1)}_t(\theta) $ 的表达式在(3.1)式中有定义.
(3.20) $\begin{matrix} & \ \mathbf{E}\big[\sup\limits_{0\leq t \leq T}\big|X^\epsilon_t(\theta)-X^0_t(\theta)\big|^2\big] \\ & \leq 2\mathbf{E}\Big|\int^T_0\big(b_s(X^\epsilon_s(\theta),\mu_s^\epsilon,\theta)-b_s(X^0_s(\theta),\delta_{X^0_s(\theta)},\theta)\big){\rm d}s\Big|^2+2\epsilon\mathbf{E}\big[\sup\limits_{0\leq t\leq T}|W_t|^2\big] \\ & \leq 4\int^t_0K(s)\mathbf{E}|X^\epsilon_s(\theta)-X^0_s(\theta)|^2{\rm d}s+4\int_0^TK(s)\mathcal{W}^{(2)}(\mu_s^\epsilon,\delta_{X^0_s(\theta)})\big)^2{\rm d}s+2\epsilon T \\ & \leq 8\int_0^TK(s)\mathbf{E}\big|X_s^\epsilon-X_s^0\big|^2{\rm d}s+2\epsilon T, \end{matrix}$
最后一项使用了不等式 $ \mathcal{W}^{(2)}(\mu_s^\epsilon,\delta_{X^0_s(\theta)})^2\leq \mathbf{E}|X_s^\epsilon-X_s^0|^2 $ . 再次使用
(3.21) $\begin{equation} \mathbf{E}\big[\sup\limits_{0\leq t \leq T}\big|X^\epsilon_t(\theta)-X^0_t(\theta)\big|^2\big]\leq2\epsilon T {\rm e}^{8\int_0^TK(s){\rm d}s}. \end{equation}$
这蕴含随着 $ \epsilon\rightarrow0 $ , 随机变量族 $ \{X^\epsilon_t(\theta)\} $ 依概率收敛 $ X^0_t(\theta) $ .
另一方面, 对于项 $ X^{(1)}_t $ , 依(3.1)式, 有
(3.22) $\begin{matrix} |X^{(1)}_t|\leq&\int_0^t\big|\partial_{1}b_s\big(X_s^0(\theta),\delta_{X^0_s(\theta)},\theta\big)\big|\big| X^{(1)}_s\big|{\rm d}s \\ & +\int_0^t\big|\mathbf{E}\langle\partial_2^L b_s\big(X_s^0(\theta),\delta_{X^0_s(\theta)},\theta\big),X^{(1)}_s\rangle\big|{\rm d}s +\sup\limits_{0\leq t\leq T}\big|W_t\big|. \end{matrix}$
$|X^{(1)}_t|=2\int_0^tK(s)\big| X^{(1)}_s\big|{\rm d}s+\sup\limits_{0\leq t\leq T}\big|W_t\big|.$
(3.23) $\begin{equation} \sup\limits_{0\leq t\leq T}|X^{(1)}_t|\leq {\rm e}^{\int_0^TK(s){\rm d}s}.\sup\limits_{0\leq t\leq T}\big|W_t\big|. \end{equation}$
从(3.9)式, 不难知 $ \sup\limits_{0\leq t\leq T}|X^{(1)}_t| $ 在概率意义下小于某正常数.
$k_2(s)=\int^1_0\partial_1 b_s\big(X^0_s(\theta)+v(X^\epsilon _s(\theta)-X_s^0(\theta)),\delta_{X^0_s(\theta)},\theta\big){\rm d}v$
和$ k_3(s)=\int^1_0\partial_{2}^Lb_s\big(X_s^\epsilon(\theta),\delta_{X^0_s(\theta)+v(\delta_{X^\epsilon_s}(\theta)-\delta_{X^0_s}(\theta))},\theta\big){\rm d}v.$
(3.24) $\begin{matrix} & \frac{X^\epsilon_t(\theta)-X^0_t(\theta)}{\epsilon}- X^{(1)}_t(\theta) \\ =& \int^t_0\frac{1}{\epsilon}\Big(b_s(X^\epsilon_s(\theta),\mu_s^\epsilon,\theta)-b_s(X^0_s(\theta),\delta_{X^0_s(\theta)},\theta) \\ & - \epsilon\partial_1 b_s(X^0_s(\theta),\delta_{X^0_s}(\theta),\theta)\cdot X^{(1)}_s(\theta)-\epsilon\mathbf{E}\big\langle\partial_2^L b_s(X^0_s(\theta),\delta_{X^0_s(\theta)},\theta),X^{(1)}_s(\theta)\big\rangle\Big){\rm d}s \\ =&\int^t_0\Big[\frac{1}{\epsilon}\big(b_s(X^\epsilon_s(\theta),\mu_s^\epsilon,\theta)-b_s(X^0_s(\theta),\mu_s^\epsilon,\theta)\big)- \partial_1 b_s(X^0_s(\theta),\mu_s^\epsilon,\theta)\cdot X^{(1)}_s(\theta)\Big]{\rm d}s \\ & +\int_0^t\Big[\partial_1 b_s(X^0_s(\theta),\mu_s^\epsilon,\theta)-\partial_1 b_s(X^0_s(\theta),\delta_{X^0_s}(\theta),\theta)\Big]\cdot X^{(1)}_s(\theta){\rm d}s \\ & +\int^t_0\Big[\frac{1}{\epsilon}\big(b_s(X^0_s(\theta),\mu_s^\epsilon,\theta)-b_s(X^0_s(\theta),\delta_{X^0_s(\theta)},\theta)\big)- \mathbf{E}\big\langle\partial_2^L b_s(X^0_s,\delta_{X^0_s}(\theta),\theta),X^{(1)}_s(\theta)\big\rangle\Big]{\rm d}s \\ :=&\ I_5(t)+I_6(t)+I_7(t). \end{matrix}$
$\begin{align*} |I_5(t)|&=\Big|\int_0^t\Big(k_2(s)\frac{X_s^\epsilon(\theta)-X_s^0(\theta)}{\epsilon}-\partial_1 b_s(X^0_s(\theta),\mu_s^\epsilon,\theta)\cdot X^{(1)}_s(\theta)\Big]{\rm d}s\Big|\\ &\leq\Big|\int^t_0k_2(s)\big(\frac{X_s^\epsilon(\theta)-X_s^0(\theta)}{\epsilon}- X^{(1)}_s(\theta)\big){\rm d}s\Big|+\Big|\int^t_0\big(k_2(s)-\partial_1 b(X^0_s,\mu_s^\epsilon,\theta)\big)X^{(1)}_s(\theta){\rm d}s\Big|\\ &\leq \int^t_0|k_2(s)|\cdot\big|\frac{X^\epsilon_s(\theta)-X^0_s(\theta)}{\epsilon}-X^{(1)}_s(\theta)\big|{\rm d}s+\int_0^tK(s)\big|X_s^\epsilon(\theta)-X_s^0(\theta)\big|^{\beta_1}{\rm d}s. \end{align*}$
$|I_6(t)|\leq\int_0^tK(s)\mathcal{W}^{(2)}(\mu_s^\epsilon,\delta_{X^0_s(\theta)})\big|X_s^{(1)}(s)\big|{\rm d}s.$
$\begin{align*} |I_7(t)| &=\Big|\int_0^t\Big(\big\langle k_3(s),\frac{X_s^\epsilon(\theta)-X_s^0(\theta)}{\epsilon}\big\rangle-\mathbf{E}\big\langle\partial_2^L b_s(X^0_s,\delta_{X^0_s}(\theta),\theta),X^{(1)}_s(\theta)\big\rangle\Big){\rm d}s\Big|\\ & \leq \Big|\int^t_0\Big\langle k_3(s),\frac{X_s^\epsilon(\theta)-X_s^0(\theta)}{\epsilon}- X^{(1)}_s(\theta)\Big\rangle {\rm d}s\Big|\\ & \ +\Big|\int^t_0\Big(\langle k_3(s),X^{(1)}_s(\theta)\rangle-\mathbf{E}\big\langle\partial_2^L b_s(X^0_s,\delta_{X^0_s}(\theta),\theta),X^{(1)}_s(\theta)\big\rangle\Big){\rm d}s\Big|. \end{align*}$
利用 Hölder 不等式和 B-D-G 不等式, 有
(3.25) $\begin{matrix} &\mathbf{E}\Big[\sup\limits_{0\leq t\leq T}\Big|\frac{X_t^\epsilon(\theta)-X_t^0(\theta)}{\epsilon}-X_t^{(1)}(\theta)\Big|^2\Big] \\ \leq\ &3\mathbf{E}\big[\big|\sup\limits_{0\leq t\leq T}I_5(t)\big|^2\big]+3\mathbf{E}\big[\big|\sup\limits_{0\leq t\leq T}I_6(t)\big|^2\big]+3\mathbf{E}\big[\big|\sup\limits_{0\leq t\leq T}I_7(t)\big|^2\big] \\ \leq\ &24\int^T_0k^2_2(s)\mathbf{E}\Big|\frac{X^\epsilon_s(\theta)-X^0_s(\theta)}{\epsilon}-X^{(1)}_s(\theta)\Big|^2{\rm d}s+24\int_0^Tk_2^2(s)\big|X_s^\epsilon(\theta)-X_s^0(\theta)\big|^{2\beta_1}{\rm d}s \\ & +12\int_0^TK^2(s)\Big(\mathcal{W}^{(2)}(\mu_s^\epsilon,\delta_{X^0_s(\theta)})\Big)^2\mathbf{E}\big|X_s^{(1)}(s)\big|^2{\rm d}s \\ & +24\int^T_0\mathbf{E}\Big|\big\langle k_3(s),\frac{X_s^\epsilon(\theta)-X_s^0(\theta)}{\epsilon}- X^{(1)}_s(\theta)\big\rangle\Big|^2{\rm d}s \\ & +24\int^T_0\mathbf{E}\Big|\big\langle k_3(s)-\partial_2^L b_s(X^0_s,\delta_{X^0_s}(\theta),\theta),X^{(1)}_s(\theta)\big\rangle\Big|^2{\rm d}s. \end{matrix}$
$\int_0^1\mathcal{W}^{(2)}(\delta_{X^0_s(\theta)+\nu(X^\epsilon_s(\theta)-X^0_s(\theta))},\delta_{X^0_s(\theta)})d\nu\leq(\mathbf{E}|X_t^\epsilon(\theta)-X_t^0(\theta)|^2)^{\frac{1}{2}}.$
在假设 (A2) 下, 利用(3.21)-(3.25)式, 存在依赖于 $ T $ 和 $ K(\cdot) $ 的常数 $ C(T,K(\cdot)) $ 满足
$\begin{align*} &\mathbf{E}\Big[\sup\limits_{0\leq t\leq T}\Big|\frac{X_t^\epsilon(\theta)-X_t^0(\theta)}{\epsilon}-X_t^{(1)}(\theta)\Big|^2\Big]\\ \leq\ &12\int^t_0K^2(s)\mathbf{E}\big|\frac{X_t^\epsilon(\theta)-X_t^0(\theta)}{\epsilon}-X_t^{(1)}(\theta)\big|^2{\rm d}s+\epsilon C(T,K(\cdot)). \end{align*}$
$\begin{equation*} \begin{split} \mathbf{E}\Big[\sup\limits_{0\leq t\leq T}\Big|\frac{X_t^\epsilon(\theta)-X_t^0(\theta)}{\epsilon}-X_t^{(1)}(\theta)\Big|^2\Big] \leq\epsilon C(T,K(\cdot)){\rm e}^{12\int_0^TK^2(s){\rm d}s}. \end{split} \end{equation*}$
定理 3.1 在假设 (A1)-(A2) 下, 随着 $ \epsilon\rightarrow0 $ , 有
(3.26) $\begin{equation} \frac{\hat{\theta}_\epsilon-\theta_0}{\epsilon}\longrightarrow_d\xi_T. \end{equation}$
这里随机变量 $ \xi_T $ 的定义来自(3.4)式中.
$\begin{equation*} \begin{split} K_\epsilon(u)=&\rho\Big(\frac{X^\epsilon(\theta_0)-X^0(\theta_0)}{\epsilon},\frac{X^0(\theta_0+\epsilon u)-X^0(\theta_0)}{\epsilon}\Big),\\ K_0(u)=&\rho\big(X^{(1)}(\theta_0),\dot{X}^0(\theta_0)u\big).\\ \end{split} \end{equation*}$
据条件 (A2), 易知 $ K_\epsilon(u) $ 和 $ K_0(u) $ 在 $ \mathbb{R}^d $ 上是利普希茨连续的, 取依赖于 $ \epsilon>0 $ 的正常数 $ L_\epsilon $ , 其满足 $ \lim_{\epsilon\rightarrow0}L_\epsilon=0 $ , 又定义
$\begin{equation*} \xi_\epsilon=\text{arginf}_{|u|<L_\epsilon} K_0(u). \end{equation*}$
由 $ \xi_T $ 的定义, 当 $ \epsilon $ 足够小, 有 $ \xi_\epsilon=\xi_T $ . 另一方面, 易知
(3.27) $\begin{equation} \frac{\widehat{\theta}_\epsilon-\theta_0}{\epsilon}=\text{arginf}_{|u|\leq L_\epsilon}\{K_\epsilon(u)\}. \end{equation}$
$\begin{equation*} A_\epsilon:=\Big\{\omega:\big|\frac{\hat{\theta}_\epsilon-\theta_0}{\epsilon}\big|<L_\epsilon\Big\}. \end{equation*}$
对任意 $ \alpha>0 $ , 使用三角不等式, 易知
$\begin{align*} \mathbf{P}_{\theta_0}(\big|\frac{\hat{\theta}_\epsilon-\theta_0}{\epsilon}-\xi_T\big|>2\alpha) &\leq \mathbf{P}_{\theta_0}(\big|\frac{\hat{\theta}_\epsilon-\theta_0}{\epsilon}-\xi_\epsilon\big|>\alpha)+\mathbf{P}_{\theta_0}(\big|\xi_T-\xi_\epsilon\big|>\alpha)\\ &\leq \mathbf{P}_{\theta_0}(\big|\frac{\hat{\theta}_\epsilon-\theta_0}{\epsilon}-\xi_\epsilon\big|>\alpha,A_\epsilon)+\mathbf{P}_{\theta_0}(A^c_\epsilon)+\mathbf{P}_{\theta_0}(\big|\xi_T-\xi_\epsilon\big|>\alpha)\\ &=I_8+I_9+I_{10}. \end{align*}$
在集合 $ \omega\in A_\epsilon $ 中, 利用距离关系式 (1.2) 和 (1.3) 式, 有
$\begin{align*} & |K_\epsilon(u)-K_0(u)|\\ =\ & \Big|\rho\big(\frac{X^\epsilon(\theta_0)-X^0(\theta_0)}{\epsilon},\frac{X^0(\theta_0+\epsilon u)-X^0(\theta_0)}{\epsilon}\big)-\rho\big(X^{(1)}(\theta_0),\dot{X}^0(\theta_0)u\big)\Big|\\ \leq\ & \left|\rho\big(\frac{X^\epsilon(\theta_0)-X^0(\theta_0)}{\epsilon},\frac{X^0(\theta_0+\epsilon u)-X^0(\theta_0)}{\epsilon}\big)-\rho\big(X^{(1)}(\theta_0),\frac{X^0(\theta_0+\epsilon u)-X^0(\theta_0)}{\epsilon}\big)\right|\\ & +\left|\rho\big(X^{(1)}(\theta_0),\frac{X^0(\theta_0+\epsilon u)-X^0(\theta_0)}{\epsilon}\big)-\rho\big(X^{(1)}(\theta_0),\dot{X}^0(\theta_0)u\big)\right|\\ \leq\ & \rho\big(\frac{X^\epsilon(\theta_0)-X^0(\theta_0)}{\epsilon},X^{(1)}(\theta_0)\big)+\rho\big(\frac{X^0(\theta_0+\epsilon u)-X^0(\theta_0)}{\epsilon},\dot{X}^0(\theta_0)u\big)\\ \leq\ & c_\rho\sup\limits_{0\leq t\leq T}\Big|\frac{X^\epsilon_t(\theta_0)-X^0_t(\theta_0)}{\epsilon}-X^{(1)}_t(\theta_0)\Big|+c_\rho\sup\limits_{0\leq t\leq T}\Big|\frac{X^0_t(\theta_0+\epsilon u)-X^0_t(\theta_0)}{\epsilon}-\dot{X}^0_t(\theta_0)u\Big|\\ \leq\ & c_\rho\sup\limits_{0\leq t\leq T}\Big|\frac{X^\epsilon_t(\theta_0)-X^0_t(\theta_0)}{\epsilon}-X^{(1)}_t(\theta_0)\Big|+C(T,\beta_1,\beta_2,K(\cdot))\epsilon^{\min\{1,\beta_1,\beta_2\}+1}|u|^{\max\{\beta_1,\beta_2\}+1}. \end{align*}$
取 $ L_\epsilon=(\frac{1}{\epsilon C(T,\beta_1,\beta_2,K(\cdot))})^{\frac{1}{\max\{\beta_1,\beta_2\}}+1} $ . 则当 $ |u|<L_\epsilon $ 时, 通过引理 3.3, 让 $ \epsilon $ 足够小,在集合 $ \omega\in A_\epsilon $ 中, 有
$\begin{equation*} \underset{|u|<L_\epsilon}{\sup} |K_\epsilon(u)-K_0(u)| \leq c_\rho\sup\limits_{0\leq t\leq T}\Big|\frac{X^\epsilon_t(\theta_0)-X^0_t(\theta_0)}{\epsilon}-X^{(1)}_t(\theta_0)\Big|+\epsilon^{\min\{1,\beta_1,\beta_2\}}. \end{equation*}$
这蕴含 $ \sup\limits_{u\in L_\epsilon}|K_\epsilon(u)-K_0(u)| $ 依概率收敛到0. 因此, 在区间 $ [-L_\epsilon,L_\epsilon] $ 上 $ K_\epsilon(u) $ 的最小值收敛于 $ K_0(u) $ 的最小值. 因此, 当 $ \epsilon\rightarrow0 $ 时,
$\begin{equation*} I_8+I_{10}\rightarrow0\,\,\, \end{equation*}$
且由引理 3.1 知 $ I_9\rightarrow0 $ . 利用凸最小值收敛原理,(3.26)式获得. 证毕.
4 带惩罚函数项的最小距离估计法
受文献[8 ]的思想启发, 考虑惩罚函数项的距离估计, 依然假定有分布依赖方程 (1.1)和对应的常微分方程(1.4), 定义未知参数 $ \theta=(\theta_1,\cdots,\theta_p)^{\prime}\in\Theta $ 的最小距离估计式为
(4.1) $\begin{equation} \widehat{\theta}_{\epsilon,\gamma}:=\text{arginf}_{\theta\in\Theta}\Big\{\rho(X^\epsilon,X^0)+\lambda_\epsilon\sum\limits_{j=1}^p|\theta_j|^\gamma\Big\}. \end{equation}$
这里 $ \gamma>0 $ , 序列 $ \lambda_\epsilon $ 随着 $ \epsilon\rightarrow0 $ 时趋于0. 类似于引理3.1证明方法, 我们依然能获得估计量 $ \widehat{\theta}_{\epsilon,\gamma} $ 的相合性, 对于渐近分布, 我们给出以下结果.
定理 4.1 设 $ \gamma\geq1 $ 且 $ \frac{\lambda_\epsilon}{\epsilon}\rightarrow\lambda_0\geq0 $ . 在假设 (A1)-(A2) 下, 随着 $ \epsilon\rightarrow0 $ , 有
(4.2) $\begin{equation} \frac{\hat{\theta}_{\epsilon,\gamma}-\theta_0}{\epsilon}\longrightarrow_d\xi_{T,\gamma}. \end{equation}$
这里 $ \xi_{T,\gamma} $ 的定义为, 当 $ p>1 $ 时,
$\begin{equation*} \xi_{T,\gamma}=\underset{u\in \mathbb{R}^d}{\text{arginf}} \, \Big\{\rho\big(X^{(1)}(\theta_0),\dot{X}^0(\theta_0)\cdot u\big)\Big\}+\lambda_0\sum\limits_{j=1}^pu_j \text{sgn}(\theta_{0j})|\theta_{0j}|^{\gamma-1}. \end{equation*}$
$\begin{equation*} \xi_{T,\gamma}=\underset{u\in \mathbb{R}^d}{\text{arginf}} \, \Big\{\rho\big(X^{(1)}(\theta_0),\dot{X}^0(\theta_0)\cdot u\big)\Big\}+\lambda_0\sum\limits_{j=1}^p\Big(|u_j|\mathcal{I}_{\{\theta_{0j}=0\}}+u_j \text{sgn}(\theta_{0j})|\theta_{0j}|\mathcal{I}_{\{\theta_{0j}\neq0\}}\Big). \end{equation*}$
其中 $\text{sgn}(\cdot) $ 表示符号函数.
证 对任意 $ u=(u_1,\cdots,u_p) $ , 定义两个随机函数
(4.3) $\begin{matrix} K_\epsilon(u)=\ &\rho\Big(\frac{X^\epsilon(\theta_0)-X^0(\theta_0)}{\epsilon},\frac{X^0(\theta_0+\epsilon u)-X^0(\theta_0)}{\epsilon}\Big)+\frac{\lambda_\epsilon}{\epsilon^2}\sum\limits_{j=1}^p\big(|\theta_{0j}+\epsilon u_j|^\gamma-|\theta_{0j}|^\gamma\big) \\ :=\ & K_\epsilon^{(1)}(u)+K_\epsilon^{(2)}(u) \end{matrix}$
$\begin{equation*} \begin{aligned} K_0(u)=\rho\big(X^{(1)}(\theta_0),\dot{X}^0(\theta_0)u\big). \end{aligned} \end{equation*}$
与定理 3.1 相同定义法, 定义 $ L_\epsilon $ , 同样可以证明 $ \sup\limits_{u\in L_\epsilon}|K_\epsilon^{(1)}(u)-K_0(u)| $ 依概率收敛到 0. 证毕.
(4.4) $\begin{equation} \begin{aligned} \frac{\lambda_\epsilon}{\epsilon^2}\sum\limits_{j=1}^p\big(|\theta_{0j}+\epsilon u_j|^\gamma-|\theta_{0j}|^\gamma\big) =\frac{\lambda_\epsilon}{\epsilon^2}\sum\limits_{j=1}^pu_j^\prime \frac{|\theta_{0j}+\epsilon u_j|^\gamma-|\theta_{0j}|^\gamma}{\epsilon u_j} \longrightarrow\lambda_0\sum\limits_{j=1}^pu_j \text{sgn}(\theta_{0j})|\theta_{0j}|^{\gamma-1}. \end{aligned} \end{equation}$
这里"$ \longrightarrow $ "是指随 $ \epsilon $ 趋于 0 时的收敛. 当 $ \gamma=1 $ 时, 有
(4.5) $\begin{equation} \begin{aligned} \frac{\lambda_\epsilon}{\epsilon^2}\sum\limits_{j=1}^p\big(|\theta_{0j}+\epsilon u_j|-|\theta_{0j}|\big) \longrightarrow\lambda_0\sum\limits_{j=1}^p\Big(|u_j|\mathcal{I}_{\{\theta_{0j}=0\}}+u_j \text{sgn}(\theta_{0j})|\theta_{0j}|\mathcal{I}_{\{\theta_{0j}\neq0\}}\Big). \end{aligned} \end{equation}$
在一致收敛拓扑下, 需要证明 $ K_\epsilon(u)\longrightarrow_dK_0(u) $ . 注意到随机函数 $ K_\epsilon(u) $ 是非凸的, 它仅仅需要证明
(i) $ K_\epsilon(u) $ 的有限维分布函数几乎处处收敛到 $ K_0(u) $ 的有限维分布函数;
(ii) 胎紧性: $ \lim_{h\rightarrow0}\limsup_{\epsilon\rightarrow0}\mathbf{E}[\varrho(K_\epsilon(u),h)\wedge1]=0 $ ,
这里 $ \varrho(y,h)=\sup\{\rho(y(u),y(\nu)):\ |u-v|\leq h\} $ , $ y(u) $ 是定义在 $ \mathbb{R}^d $ 里紧集上的连续函数.
对于 $ K_\epsilon^{(1)}(u) $ 的收敛性, 可以使用定理 3.1, 而后面项 $ K_\epsilon^{(2)}(u) $ 可以利用(4.4)和(4.5)两式, 对于 $ K_\epsilon(u) $ 的胎紧性 (ii) 的证明, 可以利用随机函数 $ K_\epsilon(u) $ 关于 $ u $ 的连续性和
$\mathbf{E}[\varrho(K_\epsilon(u),h)\wedge1]\leq hc_\rho\sup\limits_{0<\epsilon\leq1}\mathbf{E}\sup\limits_{u\in K}\Big|\frac{\rm d}{{\rm d}u}K_\epsilon(u)\Big|,$
同时让 $ \epsilon\rightarrow0 $ 和 $ h\rightarrow0 $ 便得到 (ii).
对于 $ 0<\gamma<1 $ 情形, 凸最大值原理不能直接应用, 对于调节系数 $ \lambda_\epsilon $ , 需施加额外条件, 即
定理 4 .2设 $ 0<\gamma<1 $ 且 $ \frac{\lambda_\epsilon}{\epsilon^{2-\eta}}\rightarrow\lambda_0\geq0 $ . 这里 $ 0<\eta<1 $ 为固定常数, 在假设 (A1)-(A2) 下, 随着 $ \epsilon\rightarrow0 $ , 有
(4.6) $\begin{equation} \frac{\hat{\theta}_{\epsilon,\gamma,\eta}-\theta_0}{\epsilon}\longrightarrow_d\xi_{T,\gamma,\eta}. \end{equation}$
这里 $ \xi_{T,\gamma,\eta} $ 的定义如下: 当 $ p>1 $ 时
$\begin{equation*} \xi_{T,\gamma,\eta}=\underset{u\in \mathbb{R}^d}{\text{arginf}} \, \Big\{\rho\big(X^{(1)}(\theta_0),\dot{X}^0(\theta_0)\cdot u\big)\Big\}+\lambda_0\sum\limits_{j=1}^p|u_j|^\eta\mathcal{I}_{\{\theta_{0j}=0\}}. \end{equation*}$
证 根据定理 3.1 的证明, 仅仅证明惩罚函数项收敛性问题, 对任意 $ u=(u_1,\cdots,u_p) $ , 当 $ \theta_{0k}\neq0 $ 时,
$\frac{\lambda_\epsilon}{\epsilon}u_k\Big(\frac{|\theta_{0k}+\epsilon u_k|^p-|\theta_{0k}|^p}{\epsilon u_k}\Big)\rightarrow0.$
另一方面, 若 $ \theta_{0k}=0 $ 时,
$frac{\lambda_\epsilon}{\epsilon^2}\sum\limits_{j=1}^p\big(|\theta_{0k}+\epsilon u_k|^p-|\theta_{0k}|^p\big)\rightarrow\lambda_0\sum\limits_{j=1}^p|u_j|^\lambda\mathcal{I}_{\{\theta_{0j}=0\}}.$
结合有限维分布的收敛和胎紧性, 便完成这个结论证明.
在结束本节前, 我们给出一个例子去验证定理 4.1.
例子 设 $ \theta=(\theta^{(1)},\theta^{(2)})^\prime\in\Theta_0:=(c_1,c_2)\times(c_3,c_4)\subset\mathbb{R}^2 $ , 这里 $ c_1<c_2 $ , $ c_3<c_4 $ . 对任意 $ \epsilon\in(0,1) $ , 考虑如下 McKean-Vlasov 随机微分方程
(4.7) $\begin{equation} \begin{aligned} {\rm d}X^\epsilon_t=\Big(\theta^{(1)}+\theta^{(2)}\int_{\mathbb{R}}b_t(X_t^\epsilon,\xi)\mu_t(d\xi)\Big){\rm d}t+\epsilon dB_t,\ \ \ \ \ \ \ \ t\in[T]. \end{aligned} \end{equation}$
其初始条件为 $ X^\epsilon_0=x_0 $ . 这里 $ \theta $ 为未知参数, 其真实值设为 $ \theta_0=(\theta^{(1)}_0,\theta^{(2)}_0)\in\Theta_0 $ , $ \mu_t(\cdot)=\mathbf{P}(X_t^\epsilon\in\cdot) $ 为 $ X_t^\epsilon $ 的分布测度. $ b_t:\mathbb{R}\times\mathbb{R}\mapsto\mathbb{R} $ 满足局部利普希茨条件: 存在函数 $ L(t)>0 $ , 使得对 $ \forall x,y\in \mathbb{R} $ , $ z_1,z_2 \in \mathbb{R} $ , 有
$\begin{equation*} \begin{aligned} \big|b_t(x,z_1)-b_t(y,z_2)\big|\leq K(t)\big( |x-y|+|z_1-z_2| \big). \end{aligned} \end{equation*}$
$\begin{equation*} \underset{x\in \mathbb{R},z\in\mathbb{R}}{\sup}\Big\{\big|\partial_1 b_t(x,z)\big|,\ \big|\partial_2 b_t(x,z))\big|\Big\}<\infty. \end{equation*}$
$\begin{equation*} \widehat{\theta}_{\epsilon}:=\text{arginf}_{\theta\in\Theta}\Big\{\rho(X^\epsilon,X^0)+\epsilon|\theta_1|+\epsilon|\theta_2|\Big\}. \end{equation*}$
$\begin{equation*} \frac{\hat{\theta}_\epsilon-\theta_0}{\epsilon}\longrightarrow_d\xi_{\Theta_0}. \end{equation*}$
这里 $ \xi_{\Theta_0} $ 的定义如下
$\begin{align*} \xi_{\Theta_0}&=\underset{u\in \mathbb{R}^d}{\text{arginf}} \, \Big\{\rho\big(X^{(1)}(\theta_0),\dot{X}^0(\theta_0)\cdot u\big)\Big\}+|u_1|\mathcal{I}_{\{\theta_{1}=0\}}+|u_2|\mathcal{I}_{\{\theta_{2}=0\}}\\ & \ +u_1 \text{sgn}(\theta_{1})|\theta_{1}|\mathcal{I}_{\{\theta_{1}\neq0\}}+u_2 \text{sgn}(\theta_{2})|\theta_{2}|\mathcal{I}_{\{\theta_{2}\neq0\}}. \end{align*}$
$ X^{(1)}(\theta_0) $ 和 $ \dot{X}^0(\theta_0) $ 的定义同样来自(3.1)和(3.2)式.
参考文献
View Option
[1]
Amorino C , Heidari A , Picipauskaitè V , Podolskij M . Parameter estimation of discretely observed interacting particle systems
Stoch Process Appl , 2023 , 163 (2 ): 350 -386
[本文引用: 1]
[2]
Bressloff P C . Stochastic Processes in Cell Biology . New York : Springer , 2014
[本文引用: 1]
[3]
Carmona R , Delarue F . Probabilistic Theory of Mean Field Games with Applications I, Mean Field FBSDEs, Control and Games . New York : Springer , 2018
[本文引用: 2]
[4]
Dos Reis G , Salkekd K , Tugaut J . Freidlin Wentzell LDP in path space for Mckean Vlasov equations and the functional iterated logarithm law
Ann Appl Probab , 2019 , 29 (3 ): 1487 -1540
[本文引用: 2]
[5]
Genon-Catalot V , Larédo C . Parametric inference for small variance and long time horizon McKean-Vlasov diffusion models
Electr J Statist , 2021 , 15 : 5811 -5854
[本文引用: 1]
[6]
Gregorio A D , Iacus S M . On penalized estimation for dynamical systems with small noise
Elect J Statist , 2018 , 12 : 1614 -1630
[本文引用: 1]
[7]
Herrmann S , Imkeller P , Peithmann D . Large deviations and a Kramers'type law for self-stabilizing diffusions
Ann Appl Probab , 2008 , 18 : 1379 -1423
[本文引用: 1]
[8]
Knight K , Fu W . Asymptotics for lasso-type estimators
Ann Statist , 2000 , 5 (28 ): 1536 -1578
[本文引用: 2]
[9]
Kutoyants Y , Pilibossian P . On minimum uniform metric estimate of parameters of diffusion-type processes
Stoch Process Appl , 1994 , 51 (2 ): 259 -267
[本文引用: 1]
[10]
Maestra L D , Hoffmann M . The LAN property for Mckean-Vlasov models in a mean-field regime
Stoch Process Appl , 2023 , 155 (1 ): 109 -146
[本文引用: 1]
[11]
Nkurunziza S , Ahmed S . Shrinkage drift parameter estimation for multi-factor Ornstein-Uhlenbeck processes
Appl Stoch Models Bus Ind , 2010 , 26 : 103 -124
[本文引用: 1]
[12]
Ren P , Wang F . Bismut formula for lions derivative of distribution dependent SDEs and applications
J Diff Equ , 2019 , 267 (8 ): 4745 -4777
[本文引用: 1]
[13]
Ren P , Wu J . Least squeres estimation for path-distribution McKean-Vlasov SDEs via discrete-time observations
Acta Math Sci , 2019 , 39B (3 ): 691 -716
[本文引用: 1]
[14]
Sharrock L , Kantas N , Parpas P , Pavliotis G A . Online parameter estimation for the McKean-Vlasov stochastic differential equation
Stoch Process Appl , 2023 , 162 (2 ): 481 -546
[本文引用: 1]
[15]
Takahashi A . An asymptotic expansion approach to pricing financial contingent claims
Asia-Pacific Financ Markets , 1999 , 6 (2 ): 115 -151
[本文引用: 1]
[16]
Zhao H , Zhang C . Minimum distance parameter estimation for SDEs with small $ \alpha $ - stable noises
Statist Probab Lett , 2019 , 145 : 301 -311
[本文引用: 4]
Parameter estimation of discretely observed interacting particle systems
1
2023
... 起源于随机场博弈论和交互粒子系统研究, 分布依赖的随机泛函微分方程 (俗称 McKean-Vlasov SDE)[1 ,4 ,7 ,14 ] 最近吸引了许多学者关注, 该方程在金融经济、生物学、统计物理等领域[2 ,3 ,10 ,15 ] 有许多应用, 由于解缺乏马氏性, 因而这类方程比传统随机微分方程结构复杂, 如何解决方程解的分布与扩散项和漂移项共存关系是这类问题关键. 作为统计应用, 传统随机微分方程 (带跳和不带跳) 的统计推断, 如系数估计, 一直是学术界感兴趣问题, 极大似然估计和贝叶斯估计占绝大多数, 与之相比, 最小二乘和 $ L1 $ 估计是两个普遍而代表方法, 这类方法可以延伸到最小距离估计. ...
1
2014
... 起源于随机场博弈论和交互粒子系统研究, 分布依赖的随机泛函微分方程 (俗称 McKean-Vlasov SDE)[1 ,4 ,7 ,14 ] 最近吸引了许多学者关注, 该方程在金融经济、生物学、统计物理等领域[2 ,3 ,10 ,15 ] 有许多应用, 由于解缺乏马氏性, 因而这类方程比传统随机微分方程结构复杂, 如何解决方程解的分布与扩散项和漂移项共存关系是这类问题关键. 作为统计应用, 传统随机微分方程 (带跳和不带跳) 的统计推断, 如系数估计, 一直是学术界感兴趣问题, 极大似然估计和贝叶斯估计占绝大多数, 与之相比, 最小二乘和 $ L1 $ 估计是两个普遍而代表方法, 这类方法可以延伸到最小距离估计. ...
2
2018
... 起源于随机场博弈论和交互粒子系统研究, 分布依赖的随机泛函微分方程 (俗称 McKean-Vlasov SDE)[1 ,4 ,7 ,14 ] 最近吸引了许多学者关注, 该方程在金融经济、生物学、统计物理等领域[2 ,3 ,10 ,15 ] 有许多应用, 由于解缺乏马氏性, 因而这类方程比传统随机微分方程结构复杂, 如何解决方程解的分布与扩散项和漂移项共存关系是这类问题关键. 作为统计应用, 传统随机微分方程 (带跳和不带跳) 的统计推断, 如系数估计, 一直是学术界感兴趣问题, 极大似然估计和贝叶斯估计占绝大多数, 与之相比, 最小二乘和 $ L1 $ 估计是两个普遍而代表方法, 这类方法可以延伸到最小距离估计. ...
... 这里 $ \mathcal{P}(\mathscr{C}\times \mathscr{C}) $ 指由边缘测度 $ \mathcal{P}(\mathscr{C}) $ 和 $ \mathcal{P}(\mathscr{C}) $ 耦合成的二维乘积测度空间, 即满足 $ \pi(\cdot,\mathscr{C})=\mu(\cdot) $ 和 $ \pi(\mathscr{C},\cdot)=\nu(\cdot) $ , 在 Wasserstein 距离下, 可以证明 $ \mathcal{P}_2(\mathscr{C}) $ 是一个波兰空间. 作为推广, 用 $ \mathcal{P}_r(\mathscr{C}) $ 代指 $ E $ 上具有有限 $ r $ 阶矩的概率测度空间全体, 从文献[3 ]知, 对任意测度 $ \delta_{x_0} $ 和 $ \mu\in \mathscr{C} $ ,有 ...
Freidlin Wentzell LDP in path space for Mckean Vlasov equations and the functional iterated logarithm law
2
2019
... 起源于随机场博弈论和交互粒子系统研究, 分布依赖的随机泛函微分方程 (俗称 McKean-Vlasov SDE)[1 ,4 ,7 ,14 ] 最近吸引了许多学者关注, 该方程在金融经济、生物学、统计物理等领域[2 ,3 ,10 ,15 ] 有许多应用, 由于解缺乏马氏性, 因而这类方程比传统随机微分方程结构复杂, 如何解决方程解的分布与扩散项和漂移项共存关系是这类问题关键. 作为统计应用, 传统随机微分方程 (带跳和不带跳) 的统计推断, 如系数估计, 一直是学术界感兴趣问题, 极大似然估计和贝叶斯估计占绝大多数, 与之相比, 最小二乘和 $ L1 $ 估计是两个普遍而代表方法, 这类方法可以延伸到最小距离估计. ...
... 且其它位置也是同样结论, 易知函数项 $ b_t $ 也满足(2.4)式, 类似地, (2.5)和(2.6)两式也可推广到多项式增长且局部利普希茨条件. 此时方程 (1.1) 也有唯一解[4 ] . ...
Parametric inference for small variance and long time horizon McKean-Vlasov diffusion models
1
2021
... 当前, 随机泛函微分方程研究较热, 许多深刻且有用结论被得到, 然而, 方程里参数估计工作不多, 特别是分布依赖类 McKean-Vlasov 方程, 认知甚少, 统计问题主要集中在似然比方法估计未知参数以及讨论它的渐近行为[5 ,9 ,13 ,16 ] . 最近, Zhao 和 Zhang[16 ] 介绍了一类 $ \alpha $ - stable 过程驱动的随机微分方程的最小距离估计法, 紧跟也讨论了估计量的极限行为. 然而, 漂移项依赖于解分布这类情形, 即便是此时扩散项为常数, 或者为相应的随机泛函微分方程, 相合性证明和极限分布等统计问题都没有满意结果. ...
On penalized estimation for dynamical systems with small noise
1
2018
... 许多统计问题可以归结为模型 (1.5), 若假定 $ \theta_0\in\Theta $ 为 $ \theta $ 的真实值, 自然问题是讨论 $ \widehat{\theta}_\epsilon $ 的相合性和渐近性质, 对于普通随机微分方程, 一些文献讨论了在一定条件下, 如漂移项和扩散项满足李普希兹条件, 估计量的渐近行为[6 ,16 ] . 一旦漂移项与解分布有依赖关联性时, 渐近分布不易找到, $ X_t $ 缺乏马氏性导致统计量 $ \widehat{\theta}_\epsilon-\theta $ 不能用布朗运动泛函表示, 本文试图克服这问题, 在漂移项满足一定线性增长条件下, 给出估计量的渐近分布, 即证明统计量 $ \epsilon^{-1}(\widehat{\theta}_\epsilon-\theta_0) $ 随着 $ \epsilon\rightarrow0 $ 时, 依概率收敛到一个固定的随机变量, 受瓦西塞克 (Vasicek) 利率多因子模型[8 ,11 ]启发, 假设 $ \theta $ 为多维的, 其分量间存在复重共线性, 本文讨论了带有惩罚函数项下 $ L^\gamma $ 估计及其渐近行为, 进而推广了 $ \theta $ 的大样本统计特性. ...
Large deviations and a Kramers'type law for self-stabilizing diffusions
1
2008
... 起源于随机场博弈论和交互粒子系统研究, 分布依赖的随机泛函微分方程 (俗称 McKean-Vlasov SDE)[1 ,4 ,7 ,14 ] 最近吸引了许多学者关注, 该方程在金融经济、生物学、统计物理等领域[2 ,3 ,10 ,15 ] 有许多应用, 由于解缺乏马氏性, 因而这类方程比传统随机微分方程结构复杂, 如何解决方程解的分布与扩散项和漂移项共存关系是这类问题关键. 作为统计应用, 传统随机微分方程 (带跳和不带跳) 的统计推断, 如系数估计, 一直是学术界感兴趣问题, 极大似然估计和贝叶斯估计占绝大多数, 与之相比, 最小二乘和 $ L1 $ 估计是两个普遍而代表方法, 这类方法可以延伸到最小距离估计. ...
Asymptotics for lasso-type estimators
2
2000
... 许多统计问题可以归结为模型 (1.5), 若假定 $ \theta_0\in\Theta $ 为 $ \theta $ 的真实值, 自然问题是讨论 $ \widehat{\theta}_\epsilon $ 的相合性和渐近性质, 对于普通随机微分方程, 一些文献讨论了在一定条件下, 如漂移项和扩散项满足李普希兹条件, 估计量的渐近行为[6 ,16 ] . 一旦漂移项与解分布有依赖关联性时, 渐近分布不易找到, $ X_t $ 缺乏马氏性导致统计量 $ \widehat{\theta}_\epsilon-\theta $ 不能用布朗运动泛函表示, 本文试图克服这问题, 在漂移项满足一定线性增长条件下, 给出估计量的渐近分布, 即证明统计量 $ \epsilon^{-1}(\widehat{\theta}_\epsilon-\theta_0) $ 随着 $ \epsilon\rightarrow0 $ 时, 依概率收敛到一个固定的随机变量, 受瓦西塞克 (Vasicek) 利率多因子模型[8 ,11 ]启发, 假设 $ \theta $ 为多维的, 其分量间存在复重共线性, 本文讨论了带有惩罚函数项下 $ L^\gamma $ 估计及其渐近行为, 进而推广了 $ \theta $ 的大样本统计特性. ...
... 受文献[8 ]的思想启发, 考虑惩罚函数项的距离估计, 依然假定有分布依赖方程 (1.1)和对应的常微分方程(1.4), 定义未知参数 $ \theta=(\theta_1,\cdots,\theta_p)^{\prime}\in\Theta $ 的最小距离估计式为 ...
On minimum uniform metric estimate of parameters of diffusion-type processes
1
1994
... 当前, 随机泛函微分方程研究较热, 许多深刻且有用结论被得到, 然而, 方程里参数估计工作不多, 特别是分布依赖类 McKean-Vlasov 方程, 认知甚少, 统计问题主要集中在似然比方法估计未知参数以及讨论它的渐近行为[5 ,9 ,13 ,16 ] . 最近, Zhao 和 Zhang[16 ] 介绍了一类 $ \alpha $ - stable 过程驱动的随机微分方程的最小距离估计法, 紧跟也讨论了估计量的极限行为. 然而, 漂移项依赖于解分布这类情形, 即便是此时扩散项为常数, 或者为相应的随机泛函微分方程, 相合性证明和极限分布等统计问题都没有满意结果. ...
The LAN property for Mckean-Vlasov models in a mean-field regime
1
2023
... 起源于随机场博弈论和交互粒子系统研究, 分布依赖的随机泛函微分方程 (俗称 McKean-Vlasov SDE)[1 ,4 ,7 ,14 ] 最近吸引了许多学者关注, 该方程在金融经济、生物学、统计物理等领域[2 ,3 ,10 ,15 ] 有许多应用, 由于解缺乏马氏性, 因而这类方程比传统随机微分方程结构复杂, 如何解决方程解的分布与扩散项和漂移项共存关系是这类问题关键. 作为统计应用, 传统随机微分方程 (带跳和不带跳) 的统计推断, 如系数估计, 一直是学术界感兴趣问题, 极大似然估计和贝叶斯估计占绝大多数, 与之相比, 最小二乘和 $ L1 $ 估计是两个普遍而代表方法, 这类方法可以延伸到最小距离估计. ...
Shrinkage drift parameter estimation for multi-factor Ornstein-Uhlenbeck processes
1
2010
... 许多统计问题可以归结为模型 (1.5), 若假定 $ \theta_0\in\Theta $ 为 $ \theta $ 的真实值, 自然问题是讨论 $ \widehat{\theta}_\epsilon $ 的相合性和渐近性质, 对于普通随机微分方程, 一些文献讨论了在一定条件下, 如漂移项和扩散项满足李普希兹条件, 估计量的渐近行为[6 ,16 ] . 一旦漂移项与解分布有依赖关联性时, 渐近分布不易找到, $ X_t $ 缺乏马氏性导致统计量 $ \widehat{\theta}_\epsilon-\theta $ 不能用布朗运动泛函表示, 本文试图克服这问题, 在漂移项满足一定线性增长条件下, 给出估计量的渐近分布, 即证明统计量 $ \epsilon^{-1}(\widehat{\theta}_\epsilon-\theta_0) $ 随着 $ \epsilon\rightarrow0 $ 时, 依概率收敛到一个固定的随机变量, 受瓦西塞克 (Vasicek) 利率多因子模型[8 ,11 ]启发, 假设 $ \theta $ 为多维的, 其分量间存在复重共线性, 本文讨论了带有惩罚函数项下 $ L^\gamma $ 估计及其渐近行为, 进而推广了 $ \theta $ 的大样本统计特性. ...
Bismut formula for lions derivative of distribution dependent SDEs and applications
1
2019
... 定义 2.1, 2.2 和引理 2.1 来自文献[12 ], 称为 $ L $ - 导数公式, 类似微积分公式, 泛函项 $ b_t(x,\mu_t,\theta) $ 在第 $ i $ 指标位置的偏导数可定义为 $ \partial_ib_t(x,\mu_t,\theta) $ , 例如: 对 $ \theta $ 偏导数记为 $ \partial_3b_t(x,\mu_t,\theta) $ . 为了给出结论, 我们需要如下条件. ...
Least squeres estimation for path-distribution McKean-Vlasov SDEs via discrete-time observations
1
2019
... 当前, 随机泛函微分方程研究较热, 许多深刻且有用结论被得到, 然而, 方程里参数估计工作不多, 特别是分布依赖类 McKean-Vlasov 方程, 认知甚少, 统计问题主要集中在似然比方法估计未知参数以及讨论它的渐近行为[5 ,9 ,13 ,16 ] . 最近, Zhao 和 Zhang[16 ] 介绍了一类 $ \alpha $ - stable 过程驱动的随机微分方程的最小距离估计法, 紧跟也讨论了估计量的极限行为. 然而, 漂移项依赖于解分布这类情形, 即便是此时扩散项为常数, 或者为相应的随机泛函微分方程, 相合性证明和极限分布等统计问题都没有满意结果. ...
Online parameter estimation for the McKean-Vlasov stochastic differential equation
1
2023
... 起源于随机场博弈论和交互粒子系统研究, 分布依赖的随机泛函微分方程 (俗称 McKean-Vlasov SDE)[1 ,4 ,7 ,14 ] 最近吸引了许多学者关注, 该方程在金融经济、生物学、统计物理等领域[2 ,3 ,10 ,15 ] 有许多应用, 由于解缺乏马氏性, 因而这类方程比传统随机微分方程结构复杂, 如何解决方程解的分布与扩散项和漂移项共存关系是这类问题关键. 作为统计应用, 传统随机微分方程 (带跳和不带跳) 的统计推断, 如系数估计, 一直是学术界感兴趣问题, 极大似然估计和贝叶斯估计占绝大多数, 与之相比, 最小二乘和 $ L1 $ 估计是两个普遍而代表方法, 这类方法可以延伸到最小距离估计. ...
An asymptotic expansion approach to pricing financial contingent claims
1
1999
... 起源于随机场博弈论和交互粒子系统研究, 分布依赖的随机泛函微分方程 (俗称 McKean-Vlasov SDE)[1 ,4 ,7 ,14 ] 最近吸引了许多学者关注, 该方程在金融经济、生物学、统计物理等领域[2 ,3 ,10 ,15 ] 有许多应用, 由于解缺乏马氏性, 因而这类方程比传统随机微分方程结构复杂, 如何解决方程解的分布与扩散项和漂移项共存关系是这类问题关键. 作为统计应用, 传统随机微分方程 (带跳和不带跳) 的统计推断, 如系数估计, 一直是学术界感兴趣问题, 极大似然估计和贝叶斯估计占绝大多数, 与之相比, 最小二乘和 $ L1 $ 估计是两个普遍而代表方法, 这类方法可以延伸到最小距离估计. ...
Minimum distance parameter estimation for SDEs with small $ \alpha $ -stable noises
4
2019
... 当前, 随机泛函微分方程研究较热, 许多深刻且有用结论被得到, 然而, 方程里参数估计工作不多, 特别是分布依赖类 McKean-Vlasov 方程, 认知甚少, 统计问题主要集中在似然比方法估计未知参数以及讨论它的渐近行为[5 ,9 ,13 ,16 ] . 最近, Zhao 和 Zhang[16 ] 介绍了一类 $ \alpha $ - stable 过程驱动的随机微分方程的最小距离估计法, 紧跟也讨论了估计量的极限行为. 然而, 漂移项依赖于解分布这类情形, 即便是此时扩散项为常数, 或者为相应的随机泛函微分方程, 相合性证明和极限分布等统计问题都没有满意结果. ...
... [16 ]介绍了一类 $ \alpha $ - stable 过程驱动的随机微分方程的最小距离估计法, 紧跟也讨论了估计量的极限行为. 然而, 漂移项依赖于解分布这类情形, 即便是此时扩散项为常数, 或者为相应的随机泛函微分方程, 相合性证明和极限分布等统计问题都没有满意结果. ...
... 这里 $ x_0 $ 是一个固定常数, $ \theta=(\theta_1,\cdots,\theta_p)^{\prime}\in\Theta\subset\mathbb{R}^p $ 为未知参数, $ \mu^\epsilon_t(A)=\mathbf{P}(X^\epsilon_t\in A) $ 表示过程 $ \{X_t\} $ 在时刻 $ t $ 的分布测度, 它是一个概率测度, 简称分布, $ W_t $ 是一个在带有 $ \sigma $ 代数流的完备概率空间 $ (\Omega,\mathscr{F},(\mathscr{F}_t)_{t\geq0},\mathbf{P}) $ 上 $ d $ - 维布朗运动, 通常称为随机噪声, 漂移项 $ b_t:\mathbb{R}^d\times\mathcal{P}_2(\mathbb{R}^d)\times\Theta\mapsto\mathbb{R}^d $ 循序可测且依赖时间 $ t $ , 系数 $ \epsilon\in(0,1] $ 称为扩散项. 受文献[16 ]启发, 本文采用最小距离法来估计参数 $ \theta $ . ...
... 许多统计问题可以归结为模型 (1.5), 若假定 $ \theta_0\in\Theta $ 为 $ \theta $ 的真实值, 自然问题是讨论 $ \widehat{\theta}_\epsilon $ 的相合性和渐近性质, 对于普通随机微分方程, 一些文献讨论了在一定条件下, 如漂移项和扩散项满足李普希兹条件, 估计量的渐近行为[6 ,16 ] . 一旦漂移项与解分布有依赖关联性时, 渐近分布不易找到, $ X_t $ 缺乏马氏性导致统计量 $ \widehat{\theta}_\epsilon-\theta $ 不能用布朗运动泛函表示, 本文试图克服这问题, 在漂移项满足一定线性增长条件下, 给出估计量的渐近分布, 即证明统计量 $ \epsilon^{-1}(\widehat{\theta}_\epsilon-\theta_0) $ 随着 $ \epsilon\rightarrow0 $ 时, 依概率收敛到一个固定的随机变量, 受瓦西塞克 (Vasicek) 利率多因子模型[8 ,11 ]启发, 假设 $ \theta $ 为多维的, 其分量间存在复重共线性, 本文讨论了带有惩罚函数项下 $ L^\gamma $ 估计及其渐近行为, 进而推广了 $ \theta $ 的大样本统计特性. ...