在本节中,我们介绍了第。三并提出一种视觉测试,以区分实际数据是否对应于具有常数或时间相关Hurst指数的MFBM。
使用长度模拟信号对于第1节中讨论的情况1-4。二使用基于高斯过程Cholesky分解的算法模拟了时变MFBM输出。72、73为了进行验证,我们使用MFBM和中提供的参数表二估计结果见图2对于浅红线,我们给出了95%的置信区间(根据获得的估计赫斯特指数计算),而对于深红线,我们给出了。蓝线对应于赫斯特指数的理论值。
可以观察到,所提出的算法估计正确(小时间和大时间的置信区间更宽)。两个例子——常数函数[情况1(a)和1(b)]——都得到了准确的估计。置信区间较窄,估计函数与理论函数非常接近。对于线性函数(情况2),可以观察到边界处的不确定性显著增加。这种行为符合直觉,因为很少有证据表明这个函数在边界之外仍然是线性的。通过解释置信区间,该模型倾向于边界处的恒定解。在下面的例子中,可以观察到挥发性越大,估计值越不稳定这可以通过比较两个示例来观察——案例3(a)和案例3(b)。使用更平滑的[情况3(a)]与案例3(b)相比,它们也更平滑,变量更少,在案例3(c)中可以观察到估计值的突然跳跃和扭曲。在这种情况下是周期性的(由案例4表示),估计量低估了解并倾向于接近常数,即平均值。
我们将使用所提算法获得的结果与参考文献中提出的MFBM Hurst指数估计经典方法的技术进行了比较。39该方法基于卷积轨迹(使用特定的小波滤波器)与滤波器膨胀率之间的线性关系。在这种关系中,斜率与在给定的时间,并且可以使用基本转换进行提取。然而,这不是所有人都能做到的因为膨胀放大的滤波器(小波)长度限制了开始次数可以对其进行评估。我们使用两种长度的信号进行了比较:和,参考文献。39[针对每个功能]。可以观察(参见图3和中的摘要统计信息表III)那是为了,该估计算法的性能优于经典方法。首先,建议的方法允许估计对于时间点的所有值这一点至关重要,尤其是对于小轨道而言,因为在这样的限制下,我们可能会因为不存在估计值而丢失轨道中很大一部分的信息。参考文献中提出的算法。39(使用建议的最佳参数)无法估计,有效地产生矢量.
比较研究表明,参考文献中给出的估计量的方差。39高于引入估计量的方差。对于参考文献。39,即,对于,所考虑的方法与引入的算法一致,该算法具有略低的方差。然而,它在边界上存在偏见问题。这主要是由于模型没有按照如此长的轨迹进行训练,并且它已经学习了一个估计量对于其中和尽管如此,一般来说,建议的估计器表征了较低的误差(参见表III带有汇总统计);因此,可以得出结论,本文提出的算法总体上更有效,特别是对于较短的轨迹。
值得强调的是,与参考文献中描述的算法相比,本文提出的算法更优越。39因为它不需要找到最优超参数。该模型配备了最佳过滤器,并以最佳窗口大小聚合信息,而在参考文献。39需要指定合适的小波,并具有最佳聚集窗口,其中的选择对估计有巨大影响。选择过宽的窗口可以降低估计量的方差;然而,它会增加对恒定解决方案的偏差。窗口过窄时,估计器可以捕捉过程特征的快速变化;然而,由于方差增加,它可能是随机的,这可能导致错误的结论。这很难,尤其是因为,如参考文献。39,对于线性和logistic的情况,最优超参数是不同的。这意味着需要知道什么类型的函数在估计算法开始之前,该过程由其控制。使用神经网络,我们选择最佳解决方案,而无需猜测最佳参数和知道函数类型已考虑。这是因为我们用几种类型的函数训练模型,而且卷积神经网络的特点是它们共享滤波器的权重。这保证了即使函数严格地不属于模型所训练的函数族,该方法也能很好地执行。因此,建议的解决方案不仅对来自训练集的函数性能更好(参见示例函数的比较,参数化在表二,如所示图4补充了表四)也适用于任何分段定义的函数。此外,由于我们可以用分段线性函数逼近任何函数,因此,该方法具有通用性和通用性。我们在中所示的示例中进行了演示图5其中使用了类似的模拟方法,如图3但有一个轨道长度和更复杂的函数-分段常数和正弦函数。可以观察到,本文提出的方法确实捕捉到了即使这样的功能不在训练功能集中,只包含其组件。此外,通过与参考文献1中提出的算法的比较。39,新方法允许人们发现更复杂的,而另一个平滑了这个区域,导致时间周期性行为无法导出。这种性能差异在表五,其中Coeurjolly方法的误差度量39几乎是它的三倍大。