查看: 1175|回复: 0
收起左侧

HHT的中文翻译

[复制链接]

4

主题

6026

铜板

17

好友

高级工程师

Rank: 9Rank: 9Rank: 9

积分
658
QQ
发表于 2012-10-17 21:29 | 显示全部楼层 |阅读模式
第一章希尔伯特黄变换介绍及其相关的数学问题Norden E. Huang   希尔伯特黄变换(HHT)是一种基于经验数据分析方法。其扩张的基础是适应性的,所以它可以描述非线性,非平稳过程的数据物理意义。然而,作为一个适应性优势的代价:坚实的理论基础的困难。本章是对基本方法的简要说明,包括有关的归希尔伯特变换的最新发展,Hilbert谱的中心限制问题,固有模态函数(IMF)的统计显着性检验的介绍及HHT方法与相关的数学问题,然后讨论。这些问题包括:(一)对自适应数据分析的一般方法。(二)非线性系统的识别方法。(三)在非平稳过程,这是密切相关的经验模式分解到最终效果的预测问题(EMD方法)。(四)插值的问题,集中在寻找对HHT方法最好的插值实现方法,和EMD和二维EMD的收敛性问题。(五)优化问题或最好的IMF选择和最好的EMD唯一行分解。(六)近似问题涉及希尔伯特变换的可靠性和严格正交数据(七)其他有关的HHT的数学问题。1.1 绪论传统的数据分析方法都基于线性和平稳信号的假设。仅在最近几年的新方法被引入到非平稳,非线性数据分析。例如,小波分析和瓦格纳- Ville分布(Flandrin 1999的Grochenig 2001年)被设计来分析线性的非平稳数据。此外,各种非线性时间序列的分析方法(例如,Tong 1990; Kantz and Schreiber 1997; Diks 1999)被设计为平稳和确定性,但非线性系统的分析。不幸的是,最真实的系统,无论是自然的,甚至人为的,数据是最有可能是既非线性,非平稳。分析这样系统中的数据是一项艰巨的问题。即使是公认的在一个先验条件基础上数据展开的数学模式和可以回避先验基础上的卷积运算,有着比解决方案更多的问题。一个必要条件,非线性和非平稳数据代表是有一个自适应的基础。一个先验定义函数不能作为基础,无论多么复杂的基础功能。一些自适应方法可用于信号分析,如Windrow and Stearns (1985)的总结的方法。然而,在他们的著作给予方法都是专为平稳过程。非平稳和非线性数据,其中适应是绝对必要的,指没有任何可用的方法都可以找到。试问这样的基础上界定?什么是数学特性和功能的基础问题?应该如何进行数据分析的自适应方法的一般主题接洽?作为自适应意味着基础的定义,是依赖数据本身的,事后基础上定义的这种做法完全与当前用于数据分析的数学模式不同。因此,所需的定义提出了一个数学界的巨大挑战,当然这种挑战,研究来从现实世界数据的新的方法是必要的。最近发展的方法如希尔伯特黄变换(HHT)由黄等人(1996年,1998年,1999年)提出,似乎能满足一些挑战。HHT方法由两部分组成:经验模式分解(EMD)和Hilbert谱分析(HSA)的。这种方法是有潜在的非线性非平稳数据分析可行性的,特别是对时频能量表现。它已被彻底测试和验证,但只有经验性的。在所有研究的情况下,给出的HHT的结果比从时频能量传统分析方法中的任何陈述都直接有效。此外,HHT揭露了许多在数据检测方面的真实物理意义。HHT是强大的,又完全是经验性的。为了使该方法更加稳健和严谨,许多优秀的HHT方法相关的数学问题需要解决。在本节中,有些必须面对的一些问题将被提出,希望能吸引了数学界关注这一有趣的具有挑战性和关键研究领域。有些问题很简单,而可能在未来数年内解决,其他则更困难,可能会需要更多的努力。在历史上的Fourier分析,是1807年发明的,直到1933年才得以充分证明(Plancherel 1933年)。同样可以预料,HHT也需要大量的时间和精力。在讨论数学问题,首先考虑简要介绍了HHT的方法,对完整的细节感兴趣的读者可以参考黄等人的著作。1.2 希尔伯特黄变换HHT发展的动机是需要详细地描述非平稳过程中的随着信号自发变化的非线性扭曲波。众所周知,自然物理过程大多是非线性,非平稳,但数据分析方法提供了在检测数据等过程中非常有限的选择。可用的方法无论是对上述线性非平稳的还是非线性平稳的及统计确定性随机进程都适用。检测现实世界的非线性,非平稳随机过程的数据,急需新的办法来对非线性过程作特殊的处理。过去对非线性系统的线性结构的做法是不够的。其他例如周期性,数据详细的动态过程要被确定,因为作为非线性过程的典型特征之一的内部波的频率调制表明了一个振荡周期瞬时频率的变化。作为一个例子,对一个非常简单的非线性系统进行检验,非耗散Duffing方程为这里的ε是不必须很小的参数,γ是一个周期性频率ω的函数的振幅。在 (1.1),如果参数ε为零,该系统将是线性的,而且很容易找到解决办法。然而,如果ε不为零,该系统将是非线性的。在过去,任何这样的参数系统都可以用干扰的方法,只要ε《1。然而,相对于整体上不那么小的ε,那么系统变得高度非线性,以及诸如分岔和混沌将导致新的现象。然后干扰的方法不再是一种选择; 必须尝试其他大量的解决方法。无论哪种方式,公式(1.1)代表了最简单的非线性系统之一,它也包含所有的非线性可能。通过重写在一个稍微不同形式的方程它的特征就可以更好拿来应用。然后括号内的数量可以被视为一个变量的弹性系数或变量钟长。单摆的频率(或周期)随着单摆的长度而定,很明显,(1.2)系统中的频率在一个振荡周期内也随着位置到位置,时间到时间的改变而改变。如同黄等人(1998)指出,这同频的频率变化是非线性系统的标志。在过去,当分析的线性傅里叶分析的基础上,内波频率的变化无法描述,只有通过谐波分析。因此,任何非线性失真波形被称为“谐波失真。”谐波失真是在对非线性系统线性结构的数学加工造成的。他们可能有数学上的意义,但没有物理意义(黄等人。1999年)。例如,在水浪的情况下,谐波成分等不具备一个真正潮水的真正的物理特性之一。用物理意义的方法来描述系统中的瞬时频率,能够揭示了内调制波频率范围。最简单的方法来计算瞬时频率是使用希尔伯特变换,通过它的复共轭y(t)的任何实值函数x(t)的频域可被确定(例如,Titchmarsh 1950年)提出在这里PV代表奇异积分的主值。随着希尔伯特变换,解析信号的定义为这里a(t)是瞬时振幅,θ为相位函数,瞬时频率为希尔伯特变换的描述中的许多数学上的重点方法是由Hahn (1996)提出的。从本质上讲,公式(1.3)定义为希尔伯特变换的X(t)的卷积,因此,(1.3)强调x(t)的局部特性。在(1.4)中,极坐标表达进一步阐明了这种局部特性表示的性质:它是一个最好的局部适合幅度和相位变化的三角函数x(t)。即使通过希尔伯特变换,定义的瞬时频​​率仍然饱含争议。事实上,通过此方法获得一个任意函数,不能获得一个瞬时频率。一个直接的应用(由哈恩在1996年主张)只会导致频率值对于任何给定数据集有可能会得到正值或负值的问题。因此,在过去的希尔伯特变换的所有应用仅限于窄带的信号,在限定的频率范围内有着相同数量的的极点和零点。然而,在频率空间滤波是一种线性的运作,而​​筛选的数据将被去掉他们的谐波,其结果将会是波形的失真。希尔伯特变换的真正的优势越来越明显是在黄等人(1998)提出了经验模态分解法后。1.2.1 经验模态分解法(筛选的过程)正如黄等人讨论(1996,1998,1999),在处理非平稳非线性过程的数据,经验模态分解法是必要的。相较于以前的几乎所有方法,该方法与后定义的基础上直观,直接,适应性,分解方法是直接基于数据得出的。分解是根据简单的假设,即任何数据由不同的简单的振荡固有模式。每一个固有模式,线性或非线性,代表了一种有着相同数目极点和零点的简单的振荡。此外,振荡也将与对称有关“局部的意思”对称有关。在任何特定时间,数据可能有许多不同的振荡模式并存,一个在另一个上叠加,最后的结果是复杂的数据。这些振荡模式,每个代表一个固有模态函数(IMF)有如下定义:(1)在整个数据集,极值点的数目与零点数必须相等或最多相差一个(2)在任何时候,由局部最大值和局部最小值确定的包络的平均值是零。图1.1 测试数据固有模态函数相对于简谐函数表示的是简单振荡模式,但它更普遍:不需要恒定的幅度和频率而这对一个简单的谐波分量是需要的,IMF可以把一个可变幅度和频率作为时间函数。随着对IMF的上述定义,任何一个可以分解的功能如下:如图1.1提供的数据,确认所有的局部极值,然后就可以用三次样条线将所有的局部最大值在包络上显示。重复该过程来产生局部极小较低的包络。上下包络应包括它们之间的所有数据,如图1.2所示。他们的平均被指定为m1,也是在图1.2所示。数据与m1之间的差异即第一个分量H1在图1.3所示。也就是说,这是由黄等人在1998年提出的。图1.2  数据(蓝色线)上下包络(绿色线)分别定义局部极大值和极小值,以及包络平均红色线;图1.3 数据(红色线) h1(蓝色线)理想的情况下,h1应满足IMF的定义,应该表示为极大正值和极小负值的对称相等。然而,即使这筛选过程再完美,柔和的斜坡上的一个波峰可以被放大成为局部端点,从而改变直角坐标系或曲线坐标系的局部零值。经过第一轮的筛选,波峰可能成为局部最大值。新的极值实际上以这种方式生成说明正确的方法也没有初步的检测。事实上,通过反复筛,筛选过程也可以恢复信号,通过低振幅导行波表现。在筛选过程中有两个目的:消除导波,使波的轮廓更对称。虽然、实现希尔伯特变换的首要目的是让得到一个有意义的瞬间频率,第二个目的,还必须在邻近的情况下取得的波动幅度有过大的差距。为了实现这些目标,筛选过程必须尽可能重复多次使提取的信号达到IMF的标准。在随后的筛选过程中,h1是可作为初始的IMF。在接下来的一步,它是作为数据处理,然后 图1.4(顶部)H1与M2的反复筛选步骤。 (底部)H2与M3的反复筛选步骤。     如图1.4所示经过这种反复筛的方式,经过了k次筛选后的h1k成为了一个固定模态函数(IMF),即          这时,图1.5 经过15步筛选后的第一IMF分量c1数据中的第一IMF分量如图1.5所示。这时,必须确定一个关键的准则:停止的标准。从历史上看,两种不同的标准已使用:第一种是在黄等人使用(1998年)的。这个决定停止的标准是使用柯西收敛测试。具体来说,测试需要计算连续两个筛选结果的标准差SD k的值来定义:如果这个平方差SDK比预定值小,筛选过程将停止。这个定义是如此地严格的,所以是非常难以执行的实践。这里还必须解决两个关键问题:第一,这个预定值是多么小的问题,就需要一个答案。第二,这个标准并不取决于固定模态函数的定义。比如,平方差可能很小,但是不能保证这个函数有相同的零极点数。这些缺陷促使黄等人(1999,2003)提出的第二个标准以零点和极值点的关系为基础。具体来说,一个筛选的次数是预先选定。在S次连续筛选过程内,当零点数和极值数相等或最多相差一个,筛选过程将停止。这第二个选择也有自己的困难:如何设定筛选次数。显然,任何选择是临时性的,但是一套严格的准则是必要的。在最近对这个开放的筛选结束条件的研究中,黄等人(2003)使用了许多种可能性确定筛选次数从而形成整个IMF模型的方法,从全局平均到中心推导。此外,通过局部值和平均的比较,黄等人建立了一种经验性的指导,即对于一般性的筛选,筛选的次数范围可以设定在4到8之间。更多的细节会在后文介绍。现在假设一个停止的标准,然后这个第一IMF分量c1被确定。总体上讲,c1应该包含最好的频率范围或最短时间内信号的频率分量。然后c1可以分离其余的信号成分,图1.6 原始数据(蓝线)剩余残量(红线)然而如图1.6所示,剩余的r1仍然含有在长周期变换的数据。它被视为新的数据,受到如上所述相同的筛选过程。此过程可反复以后,所有的rj这样产生筛选过程可以被任何预先确定的标准所停止:要么当IMF分量cn或残余分量rn比预定值小时,或者rn成为单调函数不能从中提取任何固定模态函数。即使是具有零均值数据,最终残留量仍然可以不是零均值的。如果数据有一个趋势,最终残留量就表现了这一趋势。通过总结(1.12)和(1.13),我们终于得到   因此,实现一个为N次经验模式的数据分解,并得到的残留rn可以是平均趋势或一个常数。这里讨论的,适用EMD方法的均值或零值引用并非必需的,EMD技术只需要知道局部极值的位置。每个分量的参考零点都在被筛选过程中产生的。如果没有必要的零基准点,EMD在避免了消除非零均值数据的平均值等麻烦步骤上有意外收获。图1.7 一天长度的数据   EMD的成分通常是有物理意义的,它的特征尺度是由物理数据定义的。要理解这一点,我们可以考虑图1.7中一天长度的数据,其中衡量自转周期偏差为固定的24小时。在经历的不用筛选次数的筛选过程后得到的均值和IMF的标准偏差在图1.8a,b给出。筛选结果如停止标准的选择好坏有一个准则,越低的标准偏差值表示筛选结果越好,因此,这些IMF结果是有其物理意义的。第一分量代表短时间内大规模的风暴对地球的旋转速度造成的扰动,这种扰动直到90年代使用了全球卫星定位系统(GPS)才能被测量。第二分量指半月潮汐变化的影响;而第八个分量指每年的潮汐变化。事实上,通过图1.9的自身年际变化图,年际变化实际上是与厄尔尼诺事件有关。在厄尔尼诺发生的情况下,太平洋赤道水温回暖,而这变暖赋予更多能量到大气中。这一结果,反过来,使大气层变得更加活跃。在角动量产生的增加使得地球的旋转速度慢下来。更出人意料的是,由NOAA确定为厄尔尼诺事件发生的期间1965年至1970年期间​​和1990年至1995年之间,不同筛标准偏差值均非常大。图1.8(a,顶图)经过9步筛选后的平均IMF;(b,底图)经过9步筛选后的平均IMF的标准差。图1.9 年平均周期及其包络。每个包络的峰值都代表厄尔尼诺事件这个例子验证了任何IMF分量的真正物理意义。更根本的,有Flandrin等人最近的研究 (2004年)。Flandrin和Goncalves(2004年)还有吴和黄(2004)进一步确立了IMF分量的统计意义。因此,现在正在进行测试能否给予固定模态函数(IMF)包含重要信息,或着只能代表噪音而已。1.2.2. 希尔伯特频谱分析在已获得固有模态函数的分量,对每个IMF分量作希尔伯特变换,根据公式(1.2) - (1.6)计算每个瞬时频率将没有任何难度。通过对每个IMF分量作希尔伯特变换后,原始数据可以表示为下列形式:这里,残留分量rn已被排除在外,因为它要么是单调函数要么是一个常数。虽然希尔伯特变换可以把它当作一个较长的振荡部分的单调的趋势,但剩余的趋势所涉及的能量相对于平均偏移仍肯可能过大。在考虑较长趋势的不确定性时,对获取了其他低能量所包含的信息也应感兴趣,但很明显的振动分量,如最后一个非IMF分量应被排除在外。不过,也可能将物理因素包括在内,如果要考虑物理因素的话。公式(1.15)给出了时域上每个IMF分量的幅度和频率。而下面的公式则是通过傅立叶变换表示相同的数据:这里的aj和wj都是变量。通过公式(1.15)和(1.16)的对比,我们知道了IMF实际上就是一个广义的傅里叶展开。随时间变化的振幅和瞬时频率不仅大大提高了傅里叶展开的效率,而且也使展开以适应非线性非平稳数据。通过IMF的展开,幅度和频率调制也清醒地分开。因此,有了可变幅度和瞬时频率,代表傅立叶展开固定的的幅度和频率的限制已被克服。这个幅度频率时间分布被指定为“希尔伯特振幅谱的”H(ω,t)的,或简单地称其为“Hilbert谱。”如果振幅平方能很好地代表能量密度的话,则该平方值幅度同样可以代表Hilbert能量谱。实际上最基本的Hilbert谱更可取,因为它提供了更多的定量结果。其实,Bacry等人(1991年)和Carmona等人 (1998年)曾试图提取作为连续小波系数局部极大值作为小波变换的骨架。但是这种做法仍被谐波所影响。如果需要有更多的定性结果,也可用二维平滑的Hilbert谱来模糊表示。其结果是一种平滑的时频分布表现,但仍然没有谐波杂质。根据Hilbert谱的定义,我们还可以定义边际谱的H(ω)为边际频谱提供了在每个频率值上的总振幅(或能量)。这个频谱是指在一个概率意义上对整个数据跨度的累加振幅。经验模式分解和希尔伯特谱分析相结合,也被称为“希尔伯特黄变换”,简称HHT。根据经验,所有的测试表明,HHT方法是一种时频非线性和非平稳数据分析优越的工具。它是基于一个自适应的基础上,频率的定义是通过希尔伯特变换。因此,没有必要的杂散谐波代表,作为处理方法中的任何一个先验的基础非线性波形变形,并没有时间或从卷积对频率分辨率不确定性原理的限制上也基于先验基础。现将傅立叶变换,小波和HHT的分析比较摘要载于下表:傅里叶变换小波希尔伯特基础先验先验自适应频率卷积:全部不确定卷积:局部不确定微分:局部确定表现能量—频率能力-时间-频率能力-时间-频率非线性不适用不适用适用非平稳不适用适用适用特征提取不适用离散:不适用;连续:适用适用理论基础完整理论完整理论基于经验此表显示,HHT方法确实是分析非线性和非平稳过程数据的强大方法:它是一种自适应的基础之上,频率的计算方法是分化而不是回旋,因此,它不受不确定性原理的限制;它适用于非线性,非平稳数据,并在时频空间提取能力特征。1.3 最新的发展以下几个领域的一些最新的发展将被详细讨论:(1)归一化希尔伯特变换(2)置信域(3)IMF的统计意义1.3.1归一化希尔伯特变换众所周知,虽然希尔伯特变换适用于任何Lp类函数,变换后的相位函数不会总是产生一个物理意义的瞬时频​​率,如上所述。减少IMF功能,提高了获得一个有意义的瞬时频​​率的机会,但获得IMF只能满足必要的条件;额外的限制条件已被另外两个理论总结。首先,Bedrosian定理(1963)指出希尔伯特变换的两个函数f(t)和H(t)可以写成只有当对f(t)和H(t)的傅里叶频谱在频率空间是完全不相交的,且以H(t)的频谱频率范围是高于f(t)。这种限制是至关重要的:如果瞬时频率来自公式(1.3)到(1.6)的相位函数的计算,数据就可以用IMF形式表示为:这时,希尔波特变换的共轭部分为:然而,根据Bedrosian定理,(1.20)只有在振幅变化非常缓慢,包络的频谱和载波才不相交。这种情况下的希尔伯特变换是有问题的。为了解决这一问题,黄和龙(2003)提出,IMF被如下归一化:开始的数据已经是固定模态函数。首先,找到所有的IMF中的最大值,然后,通过所有的最大值定义由一个样条包络,并指定为E(t)。现在,可以用除以E(t)来归一化IMF: Co(t)是包含所有局部最大值的载波函数,上述的归一化函数在图1.10中给出。图1.10 平均希尔伯特谱这种结构应作出振幅总是归于整体的而异常清晰地存在,而且可能引起并发症,从曲线拟合,主要发生在幅度波动较大的点。然后,拟合曲线可以在数据下面,造成归一化函数比整体的幅度更大。虽然这些情况很少见,他们就可能发生。每当他们这样做,肯定会出现错误,这将在下面讨论。即使是一个完美的归一化,也不是所有的问题都已解决。对于接下来的困难将会提出Nuttall定理。Nuttall定理(1996)指出,希尔伯特变换余弦不一定是简单的90◦相移,结果可以产生与任意一个相位函数功能相同的正弦函数。Nuttall给出了一个误差界限概念ΔE来定义希尔伯特变换Ch和正交分量Cq(正好有90◦的相移)之间的差异:这里的Sq是正交函数的傅立叶频谱。虽然这个定理的证明是严谨,其结果是很难有用的。第一,它是表示在一个仍是未知正交函数的傅立叶频谱;第二,它提供了固定误差在整个数据范围的约束。对于一个非平稳时间序列,这种经常性的约束不会揭露关于时间轴错误的位置。对于归一化,黄和龙(2003)提出了一个变量误差界限定义:该误差为归一化信号与整体的平方差。     这一概念的证明很简单:如果希尔伯特变换是完全正交,顾名思义幅度平方是一致的,差异为零。如果振幅平方是不一致的,那么希尔伯特变换不能完全正交。两个可能的结果可能导致下列错误:第一,归一化过程不清楚,如上所讨论的,因此归一化振幅可以过度一致,误差将会不为零。第二个问题可能来自一个高度复杂的相函数,如黄等人(1998年)讨论,这时的相位图将不会是一个完美的圆。任何圆的偏差会导致幅度在整体上的差异。黄和龙(2003)和黄等人(2005年)进行了详细的比较,发现结果相当令人满意。另外,黄等人(2005)建议,相位函数可以通过计算反余弦的归一化函数发现。以这种方式获得的结果也是令人满意的。但是,两个问题仍然困扰着这种方法:第一,任何不完美的归一化会给予归一函数值比上面所讨论的整体值更大。再这一条件下,反余弦函数将会被破坏。其次,计算精度的要求是相角高度靠近0°和180°。我们可以证明,归一化希尔伯特变换的问题总是发生在振幅急剧变化或幅值非常低的位置上的。1.3.2 置信域   在数据分析中,置信域始终是必要的,它提供了有关结果的合法性的保证措施。因此,对傅立叶频谱的置信域分析是由常规计算,但计算是基于遍历理论的,其中的数据进行细分成N段,从每个部分被计算为基础。置信域从N个不同谱统计展开的。当所有的遍历理论的条件得到满足,时间一般被视为总体平均。不幸的是,只有满足平稳过程,遍历的条件才能满足,否则,他们将没有意义。黄等人(2003年)提出,利用多种方式的无限分解成不同的组件之一给出函数存在不同的方法。使用EMD方法,很多不同的IMF可以被获得通过改变停止标准。例如,黄等人(2003)探讨通过改变的筛选次数来改变停止准则。他们将筛选次数从1改到20,研究均值和Hilbert谱的标准差。由此所得的置信度不依赖于遍历理论。如果使用相同的数据长度,频谱分辨率不降级的频率空间,通过子数据划分为若干个部分。此外,黄等人还引用了间歇标准,迫使相对于不用的筛选次数有着相同的IMF数目。因此,黄等人希望能够找到图1.9所示的具体IMF的平均值。特别令人感兴趣的是高标准差的时期从1965年到1970年和1990 - 1995。这些周期是异常的厄尔尼诺现象期间,当在赤道地区的海水表面温度持续高值的基础上观察,显示出海洋长时间加热,而不是从温暖到寒冷过程中的变化在厄尔尼诺到拉尼娜变化期间。最后,从置信度的研究中,一个意想不到的结果是最优筛选次数的确定。黄等人(2003年)计算之间的个别案件和整体平均差异,并发现其中一个范围一直存在的差异达到当地最低。根据他们使用不同的数据集,黄等人的有限经验推出,一个筛选次数在4至8范围内表现良好。逻辑上还说明筛选次数不应该太高而使IMF失去了所有的物理意义,也不应该太低,而留下一些IMF的导波。1.3.3  IMF的统计意义EMD是根据其不同的频率范围将不同数据分量分离的方法。所以IMF的统计意义的问题始终是一个问题。在含有噪音数据,如何才能自信地将信号从噪声分开?这些问题被Flandrin等人(2004年)提出,Flandrin和Goncalv`es(2004年),吴和黄(2004)开展了对噪声的研究。Flandrin和Goncalv`es(2004年)研究了分数高斯噪声,发现EMD是一个二进制滤波器。这些研究人员还发现,当一个绘制为从分数对一个对数尺度高斯噪声所产生的平均周期函数的均方根(RMS)的IMF值,结果形成了一条直线。白噪声直线的斜率是-1,但是,值发生定期的变化随着不同的赫斯特指数。基于这些结果,Flandrin等人(2004年)和Flandrin和Goncalv`es(2004)建议,EMD的结果可以用来确定遇到一个什么样的噪音。不是分数高斯噪声,吴和黄(2004)只研究了高斯白噪声而已。他们也发现了相同的平均周期函数IMF的RMS值之间的关系。此外,他们还研究了散射的数据的统计特性,发现分布的噪声数据解析的范围。通过分散,他们推导出白噪声的95%频带。因此,他们得出结论,当一个数据集是通过使用EMD方法,分析如果RMS均值周期值范围内的噪音存在,那么这个分量最有可能代表噪声。另一方面,如果平均周期,均方根值超过范围的噪声,那么这些IMF必须代表显着性的信息。因此,随着对噪音的研究,吴,黄已经找到了一种从信息中消除噪音的方法。他们应用此方法对南方波动指数(SOI)和推导出了2.0,3.1,5.9和11.9年平均期内的现象是有统计意义的信号。1.4 与HHT相关的数学问题     在过去的几年里,HHT方法取得了一定的认可。不幸的是,充分的理论基础尚未完全建立起来。到这个时候,用HHT方法的进展大多已经在其应用领域,而基本的数学问题已大多不进行研究。所有的结果都来案件逐案进行实证比较。目前与HHT相关的工作就像历史上小波分析在20世纪80年代早期一样,产生很大的成绩,但对其数学基础上的研究仍然停滞有待开展。这项工作等着有像Daubechies(1992年)奠定了小波变换的数学基础这样的人去做。目前杰出的数学前沿问题的呈现如下:(1)一般的自适应数据分析方法(2)非线性系统辨识方法(3)预测非平稳过程的问题​​(端点效应)(4)拟合问题(最好的HHT拟合实现方法,包括收敛和二维)(5)优化问题(最好的IMF选择和唯一性)(6)近似问题(希尔伯特变换和正交)(7)关于HHT的其他问题1.4.1一般的自适应数据分析方法大多数数据分析方法是不具自适应性的。所建立的方法是先定义一个基础(如三角函数在傅立叶分析)。在确定的基础上,分析简化为卷积计算。这种历史悠久的模式是似是而非的,因为我们没有一个先验的理由相信,这个选择的基础能真实代表其潜在过程。因此,其结果将不会产生有用的信息。这一模式确实如此,但是,提供了一个明确的量化方式在选择一个已知的基础上基于数据的某些性能。如果放弃这种模式,将没有坚实的基础存在,但数据分析方法需要具有适应性,分析的目标是要找出潜在的过程。只有自适应方法可以让数据表明没有任何不正当的影响,从基础数据中表现其潜在的过程。不幸的是,没有数学模型或先例存在这样一种做法。最近,自适应数据处理取得了一定的关注。一些适应性方法正在制定(见Windrows和Stearns 1985年)。不幸的是,大多数可用的方法依赖于反馈,因此,他们被限制为平稳过程。这些可用的方法推广到非平稳条件是一项艰巨的任务。1.4.2 非线性系统识别系统识别方法通常是基于输入和输出数据的。对于一个理想的控制系统,如数据集是可能的,然而,对大多数情况下的研究,自然或人为的,没有这样的奢侈数据可用。所有可以使用是在一组已经测好的数据情况下的。问题是,非线性特性能否从数据中确定。这个问题存在争议,因为这是非常不同于传统的输入与输出比较。系统是否可以通过数据确定仍然是一个悬而未决的问题。不幸的是,在最自然的系统,输入控制是不可能的。此外,输入甚至系统本身通常是未知之数。可用的数据通常只对应于从一个未知系统的输出。该系统可以识别?或短暂识别,能获得什么关于系统?唯一可能提供一些与数据连接的底层控制程序的一般知识。例如,大气和海洋的所有控制流体动力学和热力学,这是广义的非线性方程组。人造建筑物,但设计条件下的线性,将接近极端荷载条件下的非线性。这种先验知识可以指导搜索非线性的特征或签名。但是,这项任务仍然艰巨。到目前为止,绝大多数对非线性系统的测试或定义只是必要条件:例如,各种概率分布,高阶频谱分析,调和分析和瞬时频率(见Bendat 1990年; Priestly 1988年;tong 1990年Kantz and Schreiber 1997年)。某些困难存在于只从观测数据作出这样的证明。这种困难使得一些科学家只谈论“非线性系统”而不是“非线性数据。”这种保留是可以理解的,但这种选择仍然没有解决根本问题:如何识别系统的非线性单从它的输出?这样做可能吗?或者,是否有一个明确的方式来定义一个从数据(系统的输出)在所有的非线性系统?这个问题变得更加困难当遇到随机非平稳过程。在非平稳过程中,各种可能性和傅里叶频谱分析是基于所有问题,因为这些方法是对全球性质的线性和平稳的假设为基础。通过瞬时频率的研究,内波频率调制已建议作为一个非线性指标。最近,黄(2003年)确定的Teager能量算子(Kaiser 1990;Maragos等人1993年a,b)作为从任何数据得到的IMF中的谐波失真的局部极值和极端测试。这些局部相结合的方法为系统识别提供了一些希望。但问题还是没有解决,因为这种做法是假设输入是线性的基础。此外,所有这些局部方法也取决于局部的谐波失真,他们不能区分真正的非线性系统与准线性系统。测试或观察输出识别非线性系统仍有迫切的需要。1.4.3 预测非平稳过程的问题​​(EMD的端点效应)端点效应已经困扰了任何已知的方法开始的数据分析。保守的方式接受和处理这些影响是通过各种窗口,就像进行常规傅里叶分析。虽然在理论上的声音,这种做法不可避免地牺牲了一些端点附近的宝贵的数据。此外,当数据很短时,窗的使用成为一个严​​重的障碍。HHT的方法,超越现有的数据范围从而进行扩展是必要的,通过极值来确定固定模态函数。因此,需要一种方法来确定最后一个可用极值到数据端点范围的拟合曲线。不用窗口,黄等人(1998)介绍了使用“窗框”的方式来扩展现有的范围之外的数据,以提取的所有数据提供的一些信息的想法。数据的延拓或数据预测,是一个有风险的过程即使是在线性和平稳过程中。必须面对的问题是如何对非线性与非平稳随机过程作预测。在这里,古老的线性,平稳,低维和确定性的假设必须放弃,要面对复杂的现实世界中的数据。这些数据大多是从高维非线性,非平稳随机系统得到的。这些系统可预测?什么样的条件能够预测上述系统的吗?以及如何才能使预测的准确性进行量化?原则上,不能只是基于过去的数据进行预测,其潜在的过程也必须被包含。现有数据可以被用来提取足够的信息来做出预测?这个问题是目前悬而未决的问题。然而,EMD还有一个优势去协助分析:需要跨整个数据无法预测试,但只有通过IMF来进行,它有一个更窄的带宽,因为所有IMF应具备的极值点和零点数目相同。此外,所需要的是下一个极值点的值与位置,而不是所有的数据。尽管是这样一个有限目标,仍是具有挑战性的任务。1.4.4 拟合问题(最好的HHT拟合实现方法,包括收敛和二维)   EMD是一个“Reynolds式”分解:它是用来提取分离意味着从数据的变化,在这种情况下,局部平均波动的影响,用拟合曲线来表示。虽然这种方法是完全适应,仍产生了一些尚未解决的问题。   首先,在所有的拟合方法,哪一个是最好的?对这个问题的答案是至关重要的,因为它可以方便地显示,所有IMF中首先是拟合函数的总结,从公式(1.5)到(1.8),可以得出这里,所有的m函数都产生于拟合曲线,因此,根据方程(1.10),得出完全有拟合曲线得出。因此,根据(1.11),所有其余的IMF也完全取决于拟合函数。什么样的拟合方式就适合EMD?怎样才能量化一个曲线相对于另一样的选择?根据经验,人们发现,较高阶拟合函数需要额外的主观确定的参数,但这一要求违反了该方法的自适应性准则。此外,高阶拟合函数也可以引入更多的尺度,同时也要计算他们的时间花费。这样的缺点是,为什么只有三次样条插值法被选中。然而,高阶样条可能的优点与缺点,是拉紧的样条尚未最后确定和量化。最后,经验模式分解方法的收敛性也是一个关键问题:是否有一个有限的步骤,一个函数总是可以转化为有限数目的IMF?所有的直觉推理和经验表明,条件是该过程必须是收敛的。在相当严格的假设,甚至可以证明是必须严格收敛的。受更严格的中点筛选线性限制的极点,收敛性定理可以通过归谬法来建立。它可以表明,残留分量极点的数目必须小于或等于原函数的数目,也就是说只有当数据中的振荡幅度是单调递增或递减的。在这种情况下,筛选可能永远不会收敛,永远都有相同数目的原始数据和IMF提取量。这个证明是不完整的另一个方面:怎么证明一个线性收敛由三次样条取代?因此,这证明的做法是不完整的。最近,陈等人(2004年)用B型样条去完成筛选。如果使用B -样条作为筛选基础的话,那么可以使B样条的部分变化减少,这样拟合曲线将有较少极值。这个定理的细节仍有待建立。1.4.5 优化问题(最好的IMF选择和唯一性模型混合)EMD是否产生一组独一无二的IMF或者是EMD方法能产生无限组IMF?从理论的角度看,无穷多的方法来分解一个给定的数据集是可用。经验表明,EMD的过程可以生成不同的筛选过程中的可调参数多套不同的IMF。IMF是如何相关的不同的组合?用什么标准或准则以指导筛选?不同IMF的统计分布和统计意义是什么?因此,一个关键的问题涉及到如何优化筛选程序,以产生最佳的IMF集。困难在于,它不能太多次筛选和遗漏掉每个IMF分量的所有的物理意义,并在同一时间,决不能筛选次数太少而达不到获得标准的IMF。最近,黄等人(2003年)研究了不同的筛选参数对IMF和Hilbert谱造成的影响,并建立了置信度,但在经验和研究仅限于三次样条法。在筛选过程优化仍然是一个悬而未决的问题。这种IMF的唯一性问题可以追溯到这个更根本的问题:如何更加严格地界定固定模态函数?黄等人给出的定义(1998年,1999年),是难以量化。幸运的是,其实际效果十分宽容:即使有含糊的定义,产生的结果似乎是可以满足的。那么是否可以给出一个严格的数学定义,并找到一个可自动执行算法呢?最后,还有IMF的模式矫正的问题。直截了执行筛选程序将产生模式的混叠(黄等人。1999年,2003年),这会使IMF失真。这种模式混叠可以备避免如果调用一个“间歇”测试(见黄等人。2003年)。这时,人们可以通过互动的步骤只实现了间歇试验。自动模式矫正方案应当能够收集所有相关部门一起,避免不必要的混叠模式失真。这一步不是希尔伯特黄变换至关重要的,但将是一个非常理想的方法。1.4.6近似问题(希尔伯特变换和正交)一个重要的概念突破就是HHT能够定义通过希尔伯特变换的瞬时频率。传统上,两个著名的定理,Bedrosian定理(Bedrosian 1963年)和Nuttall定理(Nuttall1966年),曾考虑过希尔伯特变换无法使用。该Bedrosian定理指出,普通函数的希尔伯特变换可以表示只在低频率端的函数和高频段的函数,如果两个函数频谱是不重叠的。这个条件保证了a(t) cos[θ(t)]函数的Hilbert变换是由a(t) sin[θ(t)给出。Nuttall定理(Nuttall1966年),更进一步规定,cos[θ(t)]的希尔伯特变换不一定由任意函数θ(t)的sin[θ(t)给出。换句话说,希尔伯特变换和一个完美正交的任意函数θ(t)之间存在着矛盾。不幸的是,Nuttall给出的误差界只能表示正交函数频谱的积分,一个未知数。因此,单值误差界是无法评估的。通过研究,通过EMD的过程和IMF的归一化(黄2003),Bedrosian定理的限制已被克服。有了这种新方法,Nuttall给出的误差限被改进用于表达为一个时间函数的误差界在瞬时能量方面。这些发展就是希尔伯特变换及其应用的重大突破。然而,归一化过程的影响,必须可以量化。由于归一化过程依赖于一个非线性数据放大器,那么这种放大器对最后结果有什么影响呢?即使归一化可被接受,对于任意θ(t)函数,瞬时频率只是一个近似值。这怎么能使近似值得到改善呢?与归一化问题相关的还有一些其他的希尔伯特变换问题:例如,什么样的θ(t)函数使希尔伯特变换正交是完美的,然后用以分析?如果正交不被希尔伯特变换识别,那么相函数的误差限是多少(不只是在能量问题上,因为它已经实现了)?一种可能的选择是放弃希尔伯特变换去计算归一化数据反余弦函数的相位函数。两种问题由此产生:第一个是需要计算高精密的相位函数当其值接近π/ 2时。第二个是,归一化只是一个近似值,因此,归一化函数值有时会超过整体。无论哪种方式,有些近似是必要的1.4.7关于HHT的其他问题第一个问题是有关HHT的结果的置信度。传统上,所有频谱分析的结果是都是有其置信限的,无论是真或假的措施。传统的置信限都是在遍历性假设基础上建立的,因此,过程必然是线性和平稳的。如果遍历的假设被抛弃,那么置信限可能存在于真实整体平均不一致的情况,这对大多数的自然现象是几乎不可能的?答案似乎是肯定傅立叶分析。对于HHT方法,在已经初步建立置信限的基础上,根据不同的可调参数重复使用EMD的过程中,产生一组全局的固定模态函数。怎样表示这些不同的固定模态函数呢?如何能作出更严格的定义?怎样才能使这样的统计置信度进行量化措施?第二个问题涉及到非平稳程度。这个问题导致了另一种概念上的突破,即平稳度的定义已转变为对非平稳程度的定量的定义。在黄等人(1998年)的研究中,除了非平稳性度,非平稳度的统计也要给出。对于非平稳度的统计,一平均程序是必需的。什么是时间尺度的平均需要?1.5 总结   前面对遇到的一些问题的研究现状进行了讨论。尽管这些问题还没有得到解决,HHT方法仍然是一个非常有用的工具,但是当他们被选择,HHT的过程将变得更加严格,HHT也将成为更有力的工具。笔者对目前使用的HHT方法,用Heaviside的名言说,当遇到他敌人的反对时所说的:“难道我就因为我不完全理解消化过程而拒绝我的晚餐吗?”对我们来说,“在消化过程“由我们在这一章提出的全部问题。道路是明确的;而我们的工作必须现在就要开始。    最后,对非线性非平稳数据分析的统一框架的制定的需要是紧迫和现实的。目前,该领域是分散的,属于一个游击阵地。例如,在从事小波分析的研究人员都不提Wagner-Ville分布方法,将好像它不存在(见任何关于小波的书)。另一方面,从事Wagner-Ville分布方法研究人员叶都不提小波(例如,科恩1995年)。这种立场是不科学的,并对数据分析界的发展不健康的。时间是每个人适应一些领域的统一,推动其向前发展的支持。协调一致的努力应当付出在非线性非平稳时间序列分析等问题上。一个合乎逻辑的建议是举办活动组,以解决所有的数学和应用问题,以及所有相关的非线性非平稳数据分析的科学问题。这个任务是值得付出努力的。第一章希尔伯特黄变换介绍及其相关的数学问题Norden E. Huang   希尔伯特黄变换(HHT)是一种基于经验数据分析方法。其扩张的基础是适应性的,所以它可以描述非线性,非平稳过程的数据物理意义。然而,作为一个适应性优势的代价:坚实的理论基础的困难。本章是对基本方法的简要说明,包括有关的归希尔伯特变换的最新发展,Hilbert谱的中心限制问题,固有模态函数(IMF)的统计显着性检验的介绍及HHT方法与相关的数学问题,然后讨论。这些问题包括:(一)对自适应数据分析的一般方法。(二)非线性系统的识别方法。(三)在非平稳过程,这是密切相关的经验模式分解到最终效果的预测问题(EMD方法)。(四)插值的问题,集中在寻找对HHT方法最好的插值实现方法,和EMD和二维EMD的收敛性问题。(五)优化问题或最好的IMF选择和最好的EMD唯一行分解。(六)近似问题涉及希尔伯特变换的可靠性和严格正交数据(七)其他有关的HHT的数学问题。1.1 绪论传统的数据分析方法都基于线性和平稳信号的假设。仅在最近几年的新方法被引入到非平稳,非线性数据分析。例如,小波分析和瓦格纳- Ville分布(Flandrin 1999的Grochenig 2001年)被设计来分析线性的非平稳数据。此外,各种非线性时间序列的分析方法(例如,Tong 1990; Kantz and Schreiber 1997; Diks 1999)被设计为平稳和确定性,但非线性系统的分析。不幸的是,最真实的系统,无论是自然的,甚至人为的,数据是最有可能是既非线性,非平稳。分析这样系统中的数据是一项艰巨的问题。即使是公认的在一个先验条件基础上数据展开的数学模式和可以回避先验基础上的卷积运算,有着比解决方案更多的问题。一个必要条件,非线性和非平稳数据代表是有一个自适应的基础。一个先验定义函数不能作为基础,无论多么复杂的基础功能。一些自适应方法可用于信号分析,如Windrow and Stearns (1985)的总结的方法。然而,在他们的著作给予方法都是专为平稳过程。非平稳和非线性数据,其中适应是绝对必要的,指没有任何可用的方法都可以找到。试问这样的基础上界定?什么是数学特性和功能的基础问题?应该如何进行数据分析的自适应方法的一般主题接洽?作为自适应意味着基础的定义,是依赖数据本身的,事后基础上定义的这种做法完全与当前用于数据分析的数学模式不同。因此,所需的定义提出了一个数学界的巨大挑战,当然这种挑战,研究来从现实世界数据的新的方法是必要的。最近发展的方法如希尔伯特黄变换(HHT)由黄等人(1996年,1998年,1999年)提出,似乎能满足一些挑战。HHT方法由两部分组成:经验模式分解(EMD)和Hilbert谱分析(HSA)的。这种方法是有潜在的非线性非平稳数据分析可行性的,特别是对时频能量表现。它已被彻底测试和验证,但只有经验性的。在所有研究的情况下,给出的HHT的结果比从时频能量传统分析方法中的任何陈述都直接有效。此外,HHT揭露了许多在数据检测方面的真实物理意义。HHT是强大的,又完全是经验性的。为了使该方法更加稳健和严谨,许多优秀的HHT方法相关的数学问题需要解决。在本节中,有些必须面对的一些问题将被提出,希望能吸引了数学界关注这一有趣的具有挑战性和关键研究领域。有些问题很简单,而可能在未来数年内解决,其他则更困难,可能会需要更多的努力。在历史上的Fourier分析,是1807年发明的,直到1933年才得以充分证明(Plancherel 1933年)。同样可以预料,HHT也需要大量的时间和精力。在讨论数学问题,首先考虑简要介绍了HHT的方法,对完整的细节感兴趣的读者可以参考黄等人的著作。1.2 希尔伯特黄变换HHT发展的动机是需要详细地描述非平稳过程中的随着信号自发变化的非线性扭曲波。众所周知,自然物理过程大多是非线性,非平稳,但数据分析方法提供了在检测数据等过程中非常有限的选择。可用的方法无论是对上述线性非平稳的还是非线性平稳的及统计确定性随机进程都适用。检测现实世界的非线性,非平稳随机过程的数据,急需新的办法来对非线性过程作特殊的处理。过去对非线性系统的线性结构的做法是不够的。其他例如周期性,数据详细的动态过程要被确定,因为作为非线性过程的典型特征之一的内部波的频率调制表明了一个振荡周期瞬时频率的变化。作为一个例子,对一个非常简单的非线性系统进行检验,非耗散Duffing方程为这里的ε是不必须很小的参数,γ是一个周期性频率ω的函数的振幅。在 (1.1),如果参数ε为零,该系统将是线性的,而且很容易找到解决办法。然而,如果ε不为零,该系统将是非线性的。在过去,任何这样的参数系统都可以用干扰的方法,只要ε《1。然而,相对于整体上不那么小的ε,那么系统变得高度非线性,以及诸如分岔和混沌将导致新的现象。然后干扰的方法不再是一种选择; 必须尝试其他大量的解决方法。无论哪种方式,公式(1.1)代表了最简单的非线性系统之一,它也包含所有的非线性可能。通过重写在一个稍微不同形式的方程它的特征就可以更好拿来应用。然后括号内的数量可以被视为一个变量的弹性系数或变量钟长。单摆的频率(或周期)随着单摆的长度而定,很明显,(1.2)系统中的频率在一个振荡周期内也随着位置到位置,时间到时间的改变而改变。如同黄等人(1998)指出,这同频的频率变化是非线性系统的标志。在过去,当分析的线性傅里叶分析的基础上,内波频率的变化无法描述,只有通过谐波分析。因此,任何非线性失真波形被称为“谐波失真。”谐波失真是在对非线性系统线性结构的数学加工造成的。他们可能有数学上的意义,但没有物理意义(黄等人。1999年)。例如,在水浪的情况下,谐波成分等不具备一个真正潮水的真正的物理特性之一。用物理意义的方法来描述系统中的瞬时频率,能够揭示了内调制波频率范围。最简单的方法来计算瞬时频率是使用希尔伯特变换,通过它的复共轭y(t)的任何实值函数x(t)的频域可被确定(例如,Titchmarsh 1950年)提出在这里PV代表奇异积分的主值。随着希尔伯特变换,解析信号的定义为这里a(t)是瞬时振幅,θ为相位函数,瞬时频率为希尔伯特变换的描述中的许多数学上的重点方法是由Hahn (1996)提出的。从本质上讲,公式(1.3)定义为希尔伯特变换的X(t)的卷积,因此,(1.3)强调x(t)的局部特性。在(1.4)中,极坐标表达进一步阐明了这种局部特性表示的性质:它是一个最好的局部适合幅度和相位变化的三角函数x(t)。即使通过希尔伯特变换,定义的瞬时频​​率仍然饱含争议。事实上,通过此方法获得一个任意函数,不能获得一个瞬时频率。一个直接的应用(由哈恩在1996年主张)只会导致频率值对于任何给定数据集有可能会得到正值或负值的问题。因此,在过去的希尔伯特变换的所有应用仅限于窄带的信号,在限定的频率范围内有着相同数量的的极点和零点。然而,在频率空间滤波是一种线性的运作,而​​筛选的数据将被去掉他们的谐波,其结果将会是波形的失真。希尔伯特变换的真正的优势越来越明显是在黄等人(1998)提出了经验模态分解法后。1.2.1 经验模态分解法(筛选的过程)正如黄等人讨论(1996,1998,1999),在处理非平稳非线性过程的数据,经验模态分解法是必要的。相较于以前的几乎所有方法,该方法与后定义的基础上直观,直接,适应性,分解方法是直接基于数据得出的。分解是根据简单的假设,即任何数据由不同的简单的振荡固有模式。每一个固有模式,线性或非线性,代表了一种有着相同数目极点和零点的简单的振荡。此外,振荡也将与对称有关“局部的意思”对称有关。在任何特定时间,数据可能有许多不同的振荡模式并存,一个在另一个上叠加,最后的结果是复杂的数据。这些振荡模式,每个代表一个固有模态函数(IMF)有如下定义:(1)在整个数据集,极值点的数目与零点数必须相等或最多相差一个(2)在任何时候,由局部最大值和局部最小值确定的包络的平均值是零。图1.1 测试数据固有模态函数相对于简谐函数表示的是简单振荡模式,但它更普遍:不需要恒定的幅度和频率而这对一个简单的谐波分量是需要的,IMF可以把一个可变幅度和频率作为时间函数。随着对IMF的上述定义,任何一个可以分解的功能如下:如图1.1提供的数据,确认所有的局部极值,然后就可以用三次样条线将所有的局部最大值在包络上显示。重复该过程来产生局部极小较低的包络。上下包络应包括它们之间的所有数据,如图1.2所示。他们的平均被指定为m1,也是在图1.2所示。数据与m1之间的差异即第一个分量H1在图1.3所示。也就是说,这是由黄等人在1998年提出的。图1.2  数据(蓝色线)上下包络(绿色线)分别定义局部极大值和极小值,以及包络平均红色线;图1.3 数据(红色线) h1(蓝色线)理想的情况下,h1应满足IMF的定义,应该表示为极大正值和极小负值的对称相等。然而,即使这筛选过程再完美,柔和的斜坡上的一个波峰可以被放大成为局部端点,从而改变直角坐标系或曲线坐标系的局部零值。经过第一轮的筛选,波峰可能成为局部最大值。新的极值实际上以这种方式生成说明正确的方法也没有初步的检测。事实上,通过反复筛,筛选过程也可以恢复信号,通过低振幅导行波表现。在筛选过程中有两个目的:消除导波,使波的轮廓更对称。虽然、实现希尔伯特变换的首要目的是让得到一个有意义的瞬间频率,第二个目的,还必须在邻近的情况下取得的波动幅度有过大的差距。为了实现这些目标,筛选过程必须尽可能重复多次使提取的信号达到IMF的标准。在随后的筛选过程中,h1是可作为初始的IMF。在接下来的一步,它是作为数据处理,然后 图1.4(顶部)H1与M2的反复筛选步骤。 (底部)H2与M3的反复筛选步骤。     如图1.4所示经过这种反复筛的方式,经过了k次筛选后的h1k成为了一个固定模态函数(IMF),即          这时,图1.5 经过15步筛选后的第一IMF分量c1数据中的第一IMF分量如图1.5所示。这时,必须确定一个关键的准则:停止的标准。从历史上看,两种不同的标准已使用:第一种是在黄等人使用(1998年)的。这个决定停止的标准是使用柯西收敛测试。具体来说,测试需要计算连续两个筛选结果的标准差SD k的值来定义:如果这个平方差SDK比预定值小,筛选过程将停止。这个定义是如此地严格的,所以是非常难以执行的实践。这里还必须解决两个关键问题:第一,这个预定值是多么小的问题,就需要一个答案。第二,这个标准并不取决于固定模态函数的定义。比如,平方差可能很小,但是不能保证这个函数有相同的零极点数。这些缺陷促使黄等人(1999,2003)提出的第二个标准以零点和极值点的关系为基础。具体来说,一个筛选的次数是预先选定。在S次连续筛选过程内,当零点数和极值数相等或最多相差一个,筛选过程将停止。这第二个选择也有自己的困难:如何设定筛选次数。显然,任何选择是临时性的,但是一套严格的准则是必要的。在最近对这个开放的筛选结束条件的研究中,黄等人(2003)使用了许多种可能性确定筛选次数从而形成整个IMF模型的方法,从全局平均到中心推导。此外,通过局部值和平均的比较,黄等人建立了一种经验性的指导,即对于一般性的筛选,筛选的次数范围可以设定在4到8之间。更多的细节会在后文介绍。现在假设一个停止的标准,然后这个第一IMF分量c1被确定。总体上讲,c1应该包含最好的频率范围或最短时间内信号的频率分量。然后c1可以分离其余的信号成分,图1.6 原始数据(蓝线)剩余残量(红线)然而如图1.6所示,剩余的r1仍然含有在长周期变换的数据。它被视为新的数据,受到如上所述相同的筛选过程。此过程可反复以后,所有的rj这样产生筛选过程可以被任何预先确定的标准所停止:要么当IMF分量cn或残余分量rn比预定值小时,或者rn成为单调函数不能从中提取任何固定模态函数。即使是具有零均值数据,最终残留量仍然可以不是零均值的。如果数据有一个趋势,最终残留量就表现了这一趋势。通过总结(1.12)和(1.13),我们终于得到   因此,实现一个为N次经验模式的数据分解,并得到的残留rn可以是平均趋势或一个常数。这里讨论的,适用EMD方法的均值或零值引用并非必需的,EMD技术只需要知道局部极值的位置。每个分量的参考零点都在被筛选过程中产生的。如果没有必要的零基准点,EMD在避免了消除非零均值数据的平均值等麻烦步骤上有意外收获。图1.7 一天长度的数据   EMD的成分通常是有物理意义的,它的特征尺度是由物理数据定义的。要理解这一点,我们可以考虑图1.7中一天长度的数据,其中衡量自转周期偏差为固定的24小时。在经历的不用筛选次数的筛选过程后得到的均值和IMF的标准偏差在图1.8a,b给出。筛选结果如停止标准的选择好坏有一个准则,越低的标准偏差值表示筛选结果越好,因此,这些IMF结果是有其物理意义的。第一分量代表短时间内大规模的风暴对地球的旋转速度造成的扰动,这种扰动直到90年代使用了全球卫星定位系统(GPS)才能被测量。第二分量指半月潮汐变化的影响;而第八个分量指每年的潮汐变化。事实上,通过图1.9的自身年际变化图,年际变化实际上是与厄尔尼诺事件有关。在厄尔尼诺发生的情况下,太平洋赤道水温回暖,而这变暖赋予更多能量到大气中。这一结果,反过来,使大气层变得更加活跃。在角动量产生的增加使得地球的旋转速度慢下来。更出人意料的是,由NOAA确定为厄尔尼诺事件发生的期间1965年至1970年期间​​和1990年至1995年之间,不同筛标准偏差值均非常大。图1.8(a,顶图)经过9步筛选后的平均IMF;(b,底图)经过9步筛选后的平均IMF的标准差。图1.9 年平均周期及其包络。每个包络的峰值都代表厄尔尼诺事件这个例子验证了任何IMF分量的真正物理意义。更根本的,有Flandrin等人最近的研究 (2004年)。Flandrin和Goncalves(2004年)还有吴和黄(2004)进一步确立了IMF分量的统计意义。因此,现在正在进行测试能否给予固定模态函数(IMF)包含重要信息,或着只能代表噪音而已。1.2.2. 希尔伯特频谱分析在已获得固有模态函数的分量,对每个IMF分量作希尔伯特变换,根据公式(1.2) - (1.6)计算每个瞬时频率将没有任何难度。通过对每个IMF分量作希尔伯特变换后,原始数据可以表示为下列形式:这里,残留分量rn已被排除在外,因为它要么是单调函数要么是一个常数。虽然希尔伯特变换可以把它当作一个较长的振荡部分的单调的趋势,但剩余的趋势所涉及的能量相对于平均偏移仍肯可能过大。在考虑较长趋势的不确定性时,对获取了其他低能量所包含的信息也应感兴趣,但很明显的振动分量,如最后一个非IMF分量应被排除在外。不过,也可能将物理因素包括在内,如果要考虑物理因素的话。公式(1.15)给出了时域上每个IMF分量的幅度和频率。而下面的公式则是通过傅立叶变换表示相同的数据:这里的aj和wj都是变量。通过公式(1.15)和(1.16)的对比,我们知道了IMF实际上就是一个广义的傅里叶展开。随时间变化的振幅和瞬时频率不仅大大提高了傅里叶展开的效率,而且也使展开以适应非线性非平稳数据。通过IMF的展开,幅度和频率调制也清醒地分开。因此,有了可变幅度和瞬时频率,代表傅立叶展开固定的的幅度和频率的限制已被克服。这个幅度频率时间分布被指定为“希尔伯特振幅谱的”H(ω,t)的,或简单地称其为“Hilbert谱。”如果振幅平方能很好地代表能量密度的话,则该平方值幅度同样可以代表Hilbert能量谱。实际上最基本的Hilbert谱更可取,因为它提供了更多的定量结果。其实,Bacry等人(1991年)和Carmona等人 (1998年)曾试图提取作为连续小波系数局部极大值作为小波变换的骨架。但是这种做法仍被谐波所影响。如果需要有更多的定性结果,也可用二维平滑的Hilbert谱来模糊表示。其结果是一种平滑的时频分布表现,但仍然没有谐波杂质。根据Hilbert谱的定义,我们还可以定义边际谱的H(ω)为边际频谱提供了在每个频率值上的总振幅(或能量)。这个频谱是指在一个概率意义上对整个数据跨度的累加振幅。经验模式分解和希尔伯特谱分析相结合,也被称为“希尔伯特黄变换”,简称HHT。根据经验,所有的测试表明,HHT方法是一种时频非线性和非平稳数据分析优越的工具。它是基于一个自适应的基础上,频率的定义是通过希尔伯特变换。因此,没有必要的杂散谐波代表,作为处理方法中的任何一个先验的基础非线性波形变形,并没有时间或从卷积对频率分辨率不确定性原理的限制上也基于先验基础。现将傅立叶变换,小波和HHT的分析比较摘要载于下表:傅里叶变换小波希尔伯特基础先验先验自适应频率卷积:全部不确定卷积:局部不确定微分:局部确定表现能量—频率能力-时间-频率能力-时间-频率非线性不适用不适用适用非平稳不适用适用适用特征提取不适用离散:不适用;连续:适用适用理论基础完整理论完整理论基于经验此表显示,HHT方法确实是分析非线性和非平稳过程数据的强大方法:它是一种自适应的基础之上,频率的计算方法是分化而不是回旋,因此,它不受不确定性原理的限制;它适用于非线性,非平稳数据,并在时频空间提取能力特征。1.3 最新的发展以下几个领域的一些最新的发展将被详细讨论:(1)归一化希尔伯特变换(2)置信域(3)IMF的统计意义1.3.1归一化希尔伯特变换众所周知,虽然希尔伯特变换适用于任何Lp类函数,变换后的相位函数不会总是产生一个物理意义的瞬时频​​率,如上所述。减少IMF功能,提高了获得一个有意义的瞬时频​​率的机会,但获得IMF只能满足必要的条件;额外的限制条件已被另外两个理论总结。首先,Bedrosian定理(1963)指出希尔伯特变换的两个函数f(t)和H(t)可以写成只有当对f(t)和H(t)的傅里叶频谱在频率空间是完全不相交的,且以H(t)的频谱频率范围是高于f(t)。这种限制是至关重要的:如果瞬时频率来自公式(1.3)到(1.6)的相位函数的计算,数据就可以用IMF形式表示为:这时,希尔波特变换的共轭部分为:然而,根据Bedrosian定理,(1.20)只有在振幅变化非常缓慢,包络的频谱和载波才不相交。这种情况下的希尔伯特变换是有问题的。为了解决这一问题,黄和龙(2003)提出,IMF被如下归一化:开始的数据已经是固定模态函数。首先,找到所有的IMF中的最大值,然后,通过所有的最大值定义由一个样条包络,并指定为E(t)。现在,可以用除以E(t)来归一化IMF: Co(t)是包含所有局部最大值的载波函数,上述的归一化函数在图1.10中给出。图1.10 平均希尔伯特谱这种结构应作出振幅总是归于整体的而异常清晰地存在,而且可能引起并发症,从曲线拟合,主要发生在幅度波动较大的点。然后,拟合曲线可以在数据下面,造成归一化函数比整体的幅度更大。虽然这些情况很少见,他们就可能发生。每当他们这样做,肯定会出现错误,这将在下面讨论。即使是一个完美的归一化,也不是所有的问题都已解决。对于接下来的困难将会提出Nuttall定理。Nuttall定理(1996)指出,希尔伯特变换余弦不一定是简单的90◦相移,结果可以产生与任意一个相位函数功能相同的正弦函数。Nuttall给出了一个误差界限概念ΔE来定义希尔伯特变换Ch和正交分量Cq(正好有90◦的相移)之间的差异:这里的Sq是正交函数的傅立叶频谱。虽然这个定理的证明是严谨,其结果是很难有用的。第一,它是表示在一个仍是未知正交函数的傅立叶频谱;第二,它提供了固定误差在整个数据范围的约束。对于一个非平稳时间序列,这种经常性的约束不会揭露关于时间轴错误的位置。对于归一化,黄和龙(2003)提出了一个变量误差界限定义:该误差为归一化信号与整体的平方差。     这一概念的证明很简单:如果希尔伯特变换是完全正交,顾名思义幅度平方是一致的,差异为零。如果振幅平方是不一致的,那么希尔伯特变换不能完全正交。两个可能的结果可能导致下列错误:第一,归一化过程不清楚,如上所讨论的,因此归一化振幅可以过度一致,误差将会不为零。第二个问题可能来自一个高度复杂的相函数,如黄等人(1998年)讨论,这时的相位图将不会是一个完美的圆。任何圆的偏差会导致幅度在整体上的差异。黄和龙(2003)和黄等人(2005年)进行了详细的比较,发现结果相当令人满意。另外,黄等人(2005)建议,相位函数可以通过计算反余弦的归一化函数发现。以这种方式获得的结果也是令人满意的。但是,两个问题仍然困扰着这种方法:第一,任何不完美的归一化会给予归一函数值比上面所讨论的整体值更大。再这一条件下,反余弦函数将会被破坏。其次,计算精度的要求是相角高度靠近0°和180°。我们可以证明,归一化希尔伯特变换的问题总是发生在振幅急剧变化或幅值非常低的位置上的。1.3.2 置信域   在数据分析中,置信域始终是必要的,它提供了有关结果的合法性的保证措施。因此,对傅立叶频谱的置信域分析是由常规计算,但计算是基于遍历理论的,其中的数据进行细分成N段,从每个部分被计算为基础。置信域从N个不同谱统计展开的。当所有的遍历理论的条件得到满足,时间一般被视为总体平均。不幸的是,只有满足平稳过程,遍历的条件才能满足,否则,他们将没有意义。黄等人(2003年)提出,利用多种方式的无限分解成不同的组件之一给出函数存在不同的方法。使用EMD方法,很多不同的IMF可以被获得通过改变停止标准。例如,黄等人(2003)探讨通过改变的筛选次数来改变停止准则。他们将筛选次数从1改到20,研究均值和Hilbert谱的标准差。由此所得的置信度不依赖于遍历理论。如果使用相同的数据长度,频谱分辨率不降级的频率空间,通过子数据划分为若干个部分。此外,黄等人还引用了间歇标准,迫使相对于不用的筛选次数有着相同的IMF数目。因此,黄等人希望能够找到图1.9所示的具体IMF的平均值。特别令人感兴趣的是高标准差的时期从1965年到1970年和1990 - 1995。这些周期是异常的厄尔尼诺现象期间,当在赤道地区的海水表面温度持续高值的基础上观察,显示出海洋长时间加热,而不是从温暖到寒冷过程中的变化在厄尔尼诺到拉尼娜变化期间。最后,从置信度的研究中,一个意想不到的结果是最优筛选次数的确定。黄等人(2003年)计算之间的个别案件和整体平均差异,并发现其中一个范围一直存在的差异达到当地最低。根据他们使用不同的数据集,黄等人的有限经验推出,一个筛选次数在4至8范围内表现良好。逻辑上还说明筛选次数不应该太高而使IMF失去了所有的物理意义,也不应该太低,而留下一些IMF的导波。1.3.3  IMF的统计意义EMD是根据其不同的频率范围将不同数据分量分离的方法。所以IMF的统计意义的问题始终是一个问题。在含有噪音数据,如何才能自信地将信号从噪声分开?这些问题被Flandrin等人(2004年)提出,Flandrin和Goncalv`es(2004年),吴和黄(2004)开展了对噪声的研究。Flandrin和Goncalv`es(2004年)研究了分数高斯噪声,发现EMD是一个二进制滤波器。这些研究人员还发现,当一个绘制为从分数对一个对数尺度高斯噪声所产生的平均周期函数的均方根(RMS)的IMF值,结果形成了一条直线。白噪声直线的斜率是-1,但是,值发生定期的变化随着不同的赫斯特指数。基于这些结果,Flandrin等人(2004年)和Flandrin和Goncalv`es(2004)建议,EMD的结果可以用来确定遇到一个什么样的噪音。不是分数高斯噪声,吴和黄(2004)只研究了高斯白噪声而已。他们也发现了相同的平均周期函数IMF的RMS值之间的关系。此外,他们还研究了散射的数据的统计特性,发现分布的噪声数据解析的范围。通过分散,他们推导出白噪声的95%频带。因此,他们得出结论,当一个数据集是通过使用EMD方法,分析如果RMS均值周期值范围内的噪音存在,那么这个分量最有可能代表噪声。另一方面,如果平均周期,均方根值超过范围的噪声,那么这些IMF必须代表显着性的信息。因此,随着对噪音的研究,吴,黄已经找到了一种从信息中消除噪音的方法。他们应用此方法对南方波动指数(SOI)和推导出了2.0,3.1,5.9和11.9年平均期内的现象是有统计意义的信号。1.4 与HHT相关的数学问题     在过去的几年里,HHT方法取得了一定的认可。不幸的是,充分的理论基础尚未完全建立起来。到这个时候,用HHT方法的进展大多已经在其应用领域,而基本的数学问题已大多不进行研究。所有的结果都来案件逐案进行实证比较。目前与HHT相关的工作就像历史上小波分析在20世纪80年代早期一样,产生很大的成绩,但对其数学基础上的研究仍然停滞有待开展。这项工作等着有像Daubechies(1992年)奠定了小波变换的数学基础这样的人去做。目前杰出的数学前沿问题的呈现如下:(1)一般的自适应数据分析方法(2)非线性系统辨识方法(3)预测非平稳过程的问题​​(端点效应)(4)拟合问题(最好的HHT拟合实现方法,包括收敛和二维)(5)优化问题(最好的IMF选择和唯一性)(6)近似问题(希尔伯特变换和正交)(7)关于HHT的其他问题1.4.1一般的自适应数据分析方法大多数数据分析方法是不具自适应性的。所建立的方法是先定义一个基础(如三角函数在傅立叶分析)。在确定的基础上,分析简化为卷积计算。这种历史悠久的模式是似是而非的,因为我们没有一个先验的理由相信,这个选择的基础能真实代表其潜在过程。因此,其结果将不会产生有用的信息。这一模式确实如此,但是,提供了一个明确的量化方式在选择一个已知的基础上基于数据的某些性能。如果放弃这种模式,将没有坚实的基础存在,但数据分析方法需要具有适应性,分析的目标是要找出潜在的过程。只有自适应方法可以让数据表明没有任何不正当的影响,从基础数据中表现其潜在的过程。不幸的是,没有数学模型或先例存在这样一种做法。最近,自适应数据处理取得了一定的关注。一些适应性方法正在制定(见Windrows和Stearns 1985年)。不幸的是,大多数可用的方法依赖于反馈,因此,他们被限制为平稳过程。这些可用的方法推广到非平稳条件是一项艰巨的任务。1.4.2 非线性系统识别系统识别方法通常是基于输入和输出数据的。对于一个理想的控制系统,如数据集是可能的,然而,对大多数情况下的研究,自然或人为的,没有这样的奢侈数据可用。所有可以使用是在一组已经测好的数据情况下的。问题是,非线性特性能否从数据中确定。这个问题存在争议,因为这是非常不同于传统的输入与输出比较。系统是否可以通过数据确定仍然是一个悬而未决的问题。不幸的是,在最自然的系统,输入控制是不可能的。此外,输入甚至系统本身通常是未知之数。可用的数据通常只对应于从一个未知系统的输出。该系统可以识别?或短暂识别,能获得什么关于系统?唯一可能提供一些与数据连接的底层控制程序的一般知识。例如,大气和海洋的所有控制流体动力学和热力学,这是广义的非线性方程组。人造建筑物,但设计条件下的线性,将接近极端荷载条件下的非线性。这种先验知识可以指导搜索非线性的特征或签名。但是,这项任务仍然艰巨。到目前为止,绝大多数对非线性系统的测试或定义只是必要条件:例如,各种概率分布,高阶频谱分析,调和分析和瞬时频率(见Bendat 1990年; Priestly 1988年;tong 1990年Kantz and Schreiber 1997年)。某些困难存在于只从观测数据作出这样的证明。这种困难使得一些科学家只谈论“非线性系统”而不是“非线性数据。”这种保留是可以理解的,但这种选择仍然没有解决根本问题:如何识别系统的非线性单从它的输出?这样做可能吗?或者,是否有一个明确的方式来定义一个从数据(系统的输出)在所有的非线性系统?这个问题变得更加困难当遇到随机非平稳过程。在非平稳过程中,各种可能性和傅里叶频谱分析是基于所有问题,因为这些方法是对全球性质的线性和平稳的假设为基础。通过瞬时频率的研究,内波频率调制已建议作为一个非线性指标。最近,黄(2003年)确定的Teager能量算子(Kaiser 1990;Maragos等人1993年a,b)作为从任何数据得到的IMF中的谐波失真的局部极值和极端测试。这些局部相结合的方法为系统识别提供了一些希望。但问题还是没有解决,因为这种做法是假设输入是线性的基础。此外,所有这些局部方法也取决于局部的谐波失真,他们不能区分真正的非线性系统与准线性系统。测试或观察输出识别非线性系统仍有迫切的需要。1.4.3 预测非平稳过程的问题​​(EMD的端点效应)端点效应已经困扰了任何已知的方法开始的数据分析。保守的方式接受和处理这些影响是通过各种窗口,就像进行常规傅里叶分析。虽然在理论上的声音,这种做法不可避免地牺牲了一些端点附近的宝贵的数据。此外,当数据很短时,窗的使用成为一个严​​重的障碍。HHT的方法,超越现有的数据范围从而进行扩展是必要的,通过极值来确定固定模态函数。因此,需要一种方法来确定最后一个可用极值到数据端点范围的拟合曲线。不用窗口,黄等人(1998)介绍了使用“窗框”的方式来扩展现有的范围之外的数据,以提取的所有数据提供的一些信息的想法。数据的延拓或数据预测,是一个有风险的过程即使是在线性和平稳过程中。必须面对的问题是如何对非线性与非平稳随机过程作预测。在这里,古老的线性,平稳,低维和确定性的假设必须放弃,要面对复杂的现实世界中的数据。这些数据大多是从高维非线性,非平稳随机系统得到的。这些系统可预测?什么样的条件能够预测上述系统的吗?以及如何才能使预测的准确性进行量化?原则上,不能只是基于过去的数据进行预测,其潜在的过程也必须被包含。现有数据可以被用来提取足够的信息来做出预测?这个问题是目前悬而未决的问题。然而,EMD还有一个优势去协助分析:需要跨整个数据无法预测试,但只有通过IMF来进行,它有一个更窄的带宽,因为所有IMF应具备的极值点和零点数目相同。此外,所需要的是下一个极值点的值与位置,而不是所有的数据。尽管是这样一个有限目标,仍是具有挑战性的任务。1.4.4 拟合问题(最好的HHT拟合实现方法,包括收敛和二维)   EMD是一个“Reynolds式”分解:它是用来提取分离意味着从数据的变化,在这种情况下,局部平均波动的影响,用拟合曲线来表示。虽然这种方法是完全适应,仍产生了一些尚未解决的问题。   首先,在所有的拟合方法,哪一个是最好的?对这个问题的答案是至关重要的,因为它可以方便地显示,所有IMF中首先是拟合函数的总结,从公式(1.5)到(1.8),可以得出这里,所有的m函数都产生于拟合曲线,因此,根据方程(1.10),得出完全有拟合曲线得出。因此,根据(1.11),所有其余的IMF也完全取决于拟合函数。什么样的拟合方式就适合EMD?怎样才能量化一个曲线相对于另一样的选择?根据经验,人们发现,较高阶拟合函数需要额外的主观确定的参数,但这一要求违反了该方法的自适应性准则。此外,高阶拟合函数也可以引入更多的尺度,同时也要计算他们的时间花费。这样的缺点是,为什么只有三次样条插值法被选中。然而,高阶样条可能的优点与缺点,是拉紧的样条尚未最后确定和量化。最后,经验模式分解方法的收敛性也是一个关键问题:是否有一个有限的步骤,一个函数总是可以转化为有限数目的IMF?所有的直觉推理和经验表明,条件是该过程必须是收敛的。在相当严格的假设,甚至可以证明是必须严格收敛的。受更严格的中点筛选线性限制的极点,收敛性定理可以通过归谬法来建立。它可以表明,残留分量极点的数目必须小于或等于原函数的数目,也就是说只有当数据中的振荡幅度是单调递增或递减的。在这种情况下,筛选可能永远不会收敛,永远都有相同数目的原始数据和IMF提取量。这个证明是不完整的另一个方面:怎么证明一个线性收敛由三次样条取代?因此,这证明的做法是不完整的。最近,陈等人(2004年)用B型样条去完成筛选。如果使用B -样条作为筛选基础的话,那么可以使B样条的部分变化减少,这样拟合曲线将有较少极值。这个定理的细节仍有待建立。1.4.5 优化问题(最好的IMF选择和唯一性模型混合)EMD是否产生一组独一无二的IMF或者是EMD方法能产生无限组IMF?从理论的角度看,无穷多的方法来分解一个给定的数据集是可用。经验表明,EMD的过程可以生成不同的筛选过程中的可调参数多套不同的IMF。IMF是如何相关的不同的组合?用什么标准或准则以指导筛选?不同IMF的统计分布和统计意义是什么?因此,一个关键的问题涉及到如何优化筛选程序,以产生最佳的IMF集。困难在于,它不能太多次筛选和遗漏掉每个IMF分量的所有的物理意义,并在同一时间,决不能筛选次数太少而达不到获得标准的IMF。最近,黄等人(2003年)研究了不同的筛选参数对IMF和Hilbert谱造成的影响,并建立了置信度,但在经验和研究仅限于三次样条法。在筛选过程优化仍然是一个悬而未决的问题。这种IMF的唯一性问题可以追溯到这个更根本的问题:如何更加严格地界定固定模态函数?黄等人给出的定义(1998年,1999年),是难以量化。幸运的是,其实际效果十分宽容:即使有含糊的定义,产生的结果似乎是可以满足的。那么是否可以给出一个严格的数学定义,并找到一个可自动执行算法呢?最后,还有IMF的模式矫正的问题。直截了执行筛选程序将产生模式的混叠(黄等人。1999年,2003年),这会使IMF失真。这种模式混叠可以备避免如果调用一个“间歇”测试(见黄等人。2003年)。这时,人们可以通过互动的步骤只实现了间歇试验。自动模式矫正方案应当能够收集所有相关部门一起,避免不必要的混叠模式失真。这一步不是希尔伯特黄变换至关重要的,但将是一个非常理想的方法。1.4.6近似问题(希尔伯特变换和正交)一个重要的概念突破就是HHT能够定义通过希尔伯特变换的瞬时频率。传统上,两个著名的定理,Bedrosian定理(Bedrosian 1963年)和Nuttall定理(Nuttall1966年),曾考虑过希尔伯特变换无法使用。该Bedrosian定理指出,普通函数的希尔伯特变换可以表示只在低频率端的函数和高频段的函数,如果两个函数频谱是不重叠的。这个条件保证了a(t) cos[θ(t)]函数的Hilbert变换是由a(t) sin[θ(t)给出。Nuttall定理(Nuttall1966年),更进一步规定,cos[θ(t)]的希尔伯特变换不一定由任意函数θ(t)的sin[θ(t)给出。换句话说,希尔伯特变换和一个完美正交的任意函数θ(t)之间存在着矛盾。不幸的是,Nuttall给出的误差界只能表示正交函数频谱的积分,一个未知数。因此,单值误差界是无法评估的。通过研究,通过EMD的过程和IMF的归一化(黄2003),Bedrosian定理的限制已被克服。有了这种新方法,Nuttall给出的误差限被改进用于表达为一个时间函数的误差界在瞬时能量方面。这些发展就是希尔伯特变换及其应用的重大突破。然而,归一化过程的影响,必须可以量化。由于归一化过程依赖于一个非线性数据放大器,那么这种放大器对最后结果有什么影响呢?即使归一化可被接受,对于任意θ(t)函数,瞬时频率只是一个近似值。这怎么能使近似值得到改善呢?与归一化问题相关的还有一些其他的希尔伯特变换问题:例如,什么样的θ(t)函数使希尔伯特变换正交是完美的,然后用以分析?如果正交不被希尔伯特变换识别,那么相函数的误差限是多少(不只是在能量问题上,因为它已经实现了)?一种可能的选择是放弃希尔伯特变换去计算归一化数据反余弦函数的相位函数。两种问题由此产生:第一个是需要计算高精密的相位函数当其值接近π/ 2时。第二个是,归一化只是一个近似值,因此,归一化函数值有时会超过整体。无论哪种方式,有些近似是必要的1.4.7关于HHT的其他问题第一个问题是有关HHT的结果的置信度。传统上,所有频谱分析的结果是都是有其置信限的,无论是真或假的措施。传统的置信限都是在遍历性假设基础上建立的,因此,过程必然是线性和平稳的。如果遍历的假设被抛弃,那么置信限可能存在于真实整体平均不一致的情况,这对大多数的自然现象是几乎不可能的?答案似乎是肯定傅立叶分析。对于HHT方法,在已经初步建立置信限的基础上,根据不同的可调参数重复使用EMD的过程中,产生一组全局的固定模态函数。怎样表示这些不同的固定模态函数呢?如何能作出更严格的定义?怎样才能使这样的统计置信度进行量化措施?第二个问题涉及到非平稳程度。这个问题导致了另一种概念上的突破,即平稳度的定义已转变为对非平稳程度的定量的定义。在黄等人(1998年)的研究中,除了非平稳性度,非平稳度的统计也要给出。对于非平稳度的统计,一平均程序是必需的。什么是时间尺度的平均需要?1.5 总结   前面对遇到的一些问题的研究现状进行了讨论。尽管这些问题还没有得到解决,HHT方法仍然是一个非常有用的工具,但是当他们被选择,HHT的过程将变得更加严格,HHT也将成为更有力的工具。笔者对目前使用的HHT方法,用Heaviside的名言说,当遇到他敌人的反对时所说的:“难道我就因为我不完全理解消化过程而拒绝我的晚餐吗?”对我们来说,“在消化过程“由我们在这一章提出的全部问题。道路是明确的;而我们的工作必须现在就要开始。    最后,对非线性非平稳数据分析的统一框架的制定的需要是紧迫和现实的。目前,该领域是分散的,属于一个游击阵地。例如,在从事小波分析的研究人员都不提Wagner-Ville分布方法,将好像它不存在(见任何关于小波的书)。另一方面,从事Wagner-Ville分布方法研究人员叶都不提小波(例如,科恩1995年)。这种立场是不科学的,并对数据分析界的发展不健康的。时间是每个人适应一些领域的统一,推动其向前发展的支持。协调一致的努力应当付出在非线性非平稳时间序列分析等问题上。一个合乎逻辑的建议是举办活动组,以解决所有的数学和应用问题,以及所有相关的非线性非平稳数据分析的科学问题。这个任务是值得付出努力的。
在线客服
快速回复 返回顶部 返回列表