首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 140 毫秒
1.
在地震勘探中,野外施工条件等因素使观测系统很难记录到完整的地震波场,因此,资料处理中的地震数据插值是一个重要的问题。尤其在复杂构造条件下,缺失的叠前地震数据给后续高精度处理带来严重的影响。压缩感知理论源于解决图像采集问题,主要包含信号的稀疏表征以及数学组合优化问题的求解,它为地震数据插值问题的求解提供了有效的解决方案。在应用压缩感知求解复杂地震波场的插值问题中,如何最佳化表征复杂地震波场以及快速准确的迭代算法是该理论应用的关键问题。Seislet变换是一个特殊针对地震波场表征的稀疏多尺度变换,该方法能有效地压缩地震波同相轴。同时,Bregman迭代算法在以稀疏表征为核心的压缩感知理论中,是一种有效的求解算法,通过选取适当的阈值参数,能够开发地震波动力学预测理论、图像处理变换方法和压缩感知反演算法相结合的地震数据插值方法。本文将地震数据插值问题纳入约束最优化问题,选取能够有效压缩复杂地震波场的OC-seislet稀疏变换,应用Bregman迭代方法求解压缩感知理论框架下的混合范数反问题,提出了Bregman迭代方法中固定阈值选取的H曲线方法,实现地震波场的快速、准确重建。理论模型和实际数据的处理结果验证了基于H曲线准则的Bregman迭代稀疏域插值方法可以有效地恢复复杂波场的缺失信息。  相似文献   

2.
传统的地震数据采样必须严格遵循Nyquist采样定理,而野外实际数据的采集可能由于施工条件或者地表障碍物的限制,不一定能记录到完整的地震波场,所以地震资料处理中的数据重建是非常重要的问题.压缩感知理论最先来自信号处理领域,它所包括的问题类型有信号的稀疏表征和数学组合优化,它给地震数据重建这类问题指明了思考方向.而其中如何选择最优的迭代算法是数据重建中的关键问题.本文将地震数据插值问题归纳到约束最优化问题,选择能有效稀疏表征地震波场的傅里叶变换,对于压缩感知理论框架下的混合范数反问题,再用Bregman迭代方法去求解,在地震数据的重建过程中,传统的阈值参数收敛慢,为了降低迭代次数并且提高地震数据恢复的精度,总结出改进型指数衰减规律的阈值参数,选择用硬阈值算子来重建恢复地震数据.通过对理论模型和实际地震资料的处理结果表明该方法可以快速、有效的恢复地震波场的缺失数据.  相似文献   

3.
刘洋  张鹏  刘财  张雅晨 《地球物理学报》2018,61(4):1400-1412
人工地震方法由于受到野外观测系统和经济因素等的限制,采集的数据在空间方向总是不规则分布.但是,许多地震数据处理技术的应用(如:多次波衰减,偏移和时移地震)都基于空间规则分布条件下的地震数据体.因此,数据插值技术是地震数据处理流程中关键环节之一.失败的插值方法往往会引入虚假信息,给后续处理环节带来严重的影响.迭代插值方法是目前广泛应用的地震数据重建思路,但是常规的迭代插值方法往往很难保证插值精度,并且迭代收敛速度较慢,尤其存在随机噪声的情况下,插值地震道与原始地震道之间存在较大的信噪比差异.因此开发快速的、有效的迭代数据插值方法具有重要的工业价值.本文将地震数据插值归纳为数学基追踪问题,在压缩感知理论框架下,提出新的非线性Bregman整形迭代算法来求解约束最小化问题,同时在迭代过程中提出两种匹配的迭代控制准则,通过有效的稀疏变换对缺失数据进行重建.通过理论模型和实际数据测试本文方法,并且与常规迭代插值算法进行比较,结果表明Bregman整形迭代插值方法能够更加有效地恢复含有随机噪声的缺失地震信息.  相似文献   

4.
基于seislet变换的反假频迭代数据插值方法   总被引:3,自引:3,他引:0       下载免费PDF全文
刘财  李鹏  刘洋  王典  冯晅  刘殿秘 《地球物理学报》2013,56(5):1619-1627
许多地震资料处理方法需要完整的数据信息,但是受野外施工条件等因素的影响,观测系统很难记录完整的地震波场,如空间采样率不足和地震道缺失等现象,尤其是缺失的叠前地震数据时常产生空间假频现象,给后续处理流程中很多重要环节带来严重的影响.传统数据插值方法通常很难同时解决数据缺失和空间假频问题,因此开发有效的反空间假频数据插值方法具有重要的意义.本文通过同时改变时间和空间方向采样比例,利用预测误差滤波器的尺度缩放不变性,计算反空间假频地震倾角模式,构建可有效压缩含空间假频不完整地震数据的反假频seislet变换方法,通过压缩感知Bregman迭代算法,对缺失地震数据进行反假频插值.理论模型和实际数据的处理结果验证了基于seislet变换的迭代插值方法可以有效地恢复含有假频的缺失地震信息.  相似文献   

5.
张鹏  刘洋  刘鑫明  刘财  张亮 《地球物理学报》2020,63(5):2056-2068
人工地震数据总是受到随机噪声的干扰,地震数据时-空变的特性使得常规去噪方法处理效果并不理想,容易导致有效信号的损失.目前广泛应用的预测滤波类方法存在处理时变数据能力不足的问题.随着压缩感知理论的不断完善,稀疏变换阈值算法能够解决时变地震数据噪声压制问题,但是常规的稀疏变换方法,如傅里叶变换,小波变换等,并不是特殊针对地震数据设计的,很难提供地震数据最佳的压缩特征,同时,常规阈值算法容易导致去噪结果过于平滑.因此开发更加有效的时-空变地震数据信噪分离方法具有重要的工业价值.本文将地震数据信噪分离问题归纳为数学基追踪问题,在压缩感知理论框架下,利用特殊针对地震数据设计的VD-seislet稀疏变换方法,结合全变差(TV)算法,构建seislet-TV双正则化条件,并利用分裂Bregman迭代算法求解约束最优化问题,实现地震数据的有效信噪分离.通过理论模型和实际数据测试本文方法,并且与工业标准FXdecon方法进行比较,结果表明基于seislet-TV双正则化约束条件的迭代方法能够更加有效地保护时-空变地震信号,压制地震数据中的强随机噪声.  相似文献   

6.
地震数据重建在地震数据处理中是非常关键的问题,针对传统地震数据重建方法受奈奎斯特采样定理的限制较大,重建数据易出现假频,以及变换基函数对于复杂地震波前信息的稀疏表示不够准确的问题,结合波原子对于简单纹理模型具有最优的稀疏表示能力,可以较好稀疏表示地震数据同相轴信息的特点,提出基于波原子域的地震数据压缩感知重建算法.首先,在波原子域建立地震数据压缩感知重建正则化模型,通过Landweber迭代算法,稀疏反演求解L1范数最小优化问题.其次,为克服波原子变换缺乏平移不变性,易在地震数据缺失道邻域产生伪吉布斯现象的缺点,数据重建过程中在检波器轴采用循环平移技术,对重建结果线性平均以抑制失真.最后,利用指数阈值收缩模型在迭代初期加速促进编码系数的稀疏程度,去除噪声,迭代接近结束时减缓阈值收缩,加强保留地震数据的细节信息与数据的主要特征.利用合成地震模型及实际数据,通过与现有算法对比实验,表明本文算法能有效提高重建地震数据SNR,并且可以更好的保持地震数据同向轴复杂区域的局部特征.理论及实验证明了以波原子域稀疏表示为基础,建立、求解地震数据压缩感知重建模型的合理性,以及结合循环平移技术、指数阈值收缩模型抑制重建数据中噪声的有效性.  相似文献   

7.
张雅晨  刘洋  刘财  武尚 《地球物理学报》2019,62(3):1181-1192
地震数据本质上是时变的,不仅有效同相轴表现出确定性信号的时变特征,而且复杂地表和构造条件以及深部探测环境总是引入时变的非平稳随机噪声.标准的频率-空间域预测滤波只适合压制平面波信号假设下的平稳随机噪声,而处理非平稳地震随机噪声时,需要将数据体分割为小窗口进行分析,但效果不够理想,而传统非预测类随机噪声压制方法往往适应性不高,因此开发能够保护地震信号时变特征的随机噪声压制方法具有重要的工业价值.压缩感知是近年出现的一个新的采样理论,通过开发信号的稀疏特性,已经在地震数据处理中的数据插值以及噪声压制中得到了应用.本文系统地分析了压缩感知理论框架下的地震随机噪声压制问题,建立了阈值消噪的数学反演目标函数;针对时变有效信息具有的可压缩性,利用有限差分算法求解炮检距连续方程,构建有限差分炮检距连续预测算子(FDOC),在seislet变换框架下,提出一种新的快速稀疏变换域———FDOC-seislet变换,实现地震数据的高度稀疏表征;结合非平稳随机噪声不可压缩的特征,提出了一种整形迭代消噪方法,该方法是一种广义的迭代收缩阈值(IST)算法,在无法计算稀疏变换伴随算子的条件下,仍然能够对强噪声环境中的时变有效信息进行有效恢复.通过对模型数据和实际数据的处理,验证了FDOC-seislet稀疏变换域随机噪声迭代压制方法能够在保护复杂构造地震波信息的前提下,有效地衰减原始数据中的强振幅随机噪声干扰.  相似文献   

8.
刘璐  刘洋  刘财  郑植升 《地球物理学报》2021,64(12):4629-4643
复杂地表和复杂介质条件下,随机噪声往往严重影响着复杂地震信号的信噪比,同时深层地球物理目标探查中弱地震信号总是被随机噪声所掩盖,如何有效地压制随机噪声干扰、恢复有效地震信号仍然是高精度地震勘探中的关键问题.压缩感知理论突破了奈奎斯特采样定理的限制,利用有效地震信号的可压缩性和稀疏性,提供了从不可压缩随机噪声中进行有效信号分离的数据原理.本文系统分析压缩感知框架下地震随机噪声压制的稀疏优化反问题,提出了基于迭代软阈值算法的"采集-重建-修复"方案对该问题进行求解.在实现高度稀疏表征的基础上进行地震数据的压缩感知随机观测,通过迭代反演对有效地震信号进行重构,有效提高复杂地震数据的信噪比,同时,当求解稀疏优化问题时,如果出现正则化项引起重构信号衰减现象,可以匹配除偏对衰减的有效信号进行修复.通过与工业标准 f-x预测滤波方法进行比较,理论模型和实际数据处理的结果表明,压缩感知迭代噪声压制方法对复杂地震数据中的随机噪声有较好的压制效果,可以有效恢复出被较强非平稳随机噪声干扰的时空变同相轴信息.  相似文献   

9.
基于压缩感知的Curvelet域联合迭代地震数据重建   总被引:8,自引:7,他引:1       下载免费PDF全文
由于野外采集环境的限制,常常无法采集得到完整规则的野外地震数据,为了后续地震处理、解释工作的顺利进行,地震数据重建工作被广泛的研究.自压缩感知理论的提出,相继出现了基于该理论的多种迭代阈值方法,如CRSI方法(Curvelet Recovery by Sparsity-promoting Inversion method)、Bregman迭代阈值算法(the linearized Bregman method)等.CSRI方法利用地震波形在Curvelet的稀疏特性,通过一种基于最速下降的迭代算法在Curvelet变换域恢复出高信噪比地震数据,该迭代算法稳定,收敛,但其收敛速度慢.Bregman迭代阈值法与CRSI最大区别在于每次迭代时把上一次恢复结果中的阈值前所有能量都保留到本次恢复结果中,从而加快了收敛速度,但随着迭代的进行重构数据中噪声干扰越来越严重,导致最终恢复出的数据信噪比低.综合两种经典方法的优缺点,本文构造了一种新的联合迭代算法框架,在每次迭代中将CRSI和Bregman的恢复量加权并同时加回本次迭代结果中,从而加快了迭代初期的收敛速度,又避免了迭代后期噪声干扰的影响.合成数据和实际数据试算结果表明,我们提出的新方法不仅迭代快速收敛稳定,且能得到高信噪比的重建结果.  相似文献   

10.
在实际的地球物理数据采集工作中,会因为多方面的客观原因导致数据缺失,对缺失数据进行插值重构是地球物理数据处理和解释的基础问题。基于地球物理数据自身或在变换域内的稀疏性,将地球物理数据的重构转化为稀疏优化问题可提高数据重构的精确度与稳定性。本文建立了LO范数最小化的地球物理数据稀疏重构模型,针对不同规模、不同特征的地球物理数据引入了两种不同类型的LO范数最小优化问题的近似求解算法,即基于LO范数最小化的迭代再加权最小二乘算法与具有快速收敛性的快速迭代硬阈值法。理论分析与数值试验表明,将迭代再加权最小二乘算法应用到位场数据重构中可发挥其收敛速度快,计算时间短,精度高的优势,而快速迭代硬阈值法更适合处理地震数据,相对于传统的迭代硬阈值法计算效率有了很大的提高。  相似文献   

11.
Data interpolation is an important step for seismic data analysis because many processing tasks, such as multiple attenuation and migration, are based on regularly sampled seismic data. Failed interpolations may introduce artifacts and eventually lead to inaccurate final processing results. In this paper, we generalised seismic data interpolation as a basis pursuit problem and proposed an iteration framework for recovering missing data. The method is based on non‐linear iteration and sparse transform. A modified Bregman iteration is used for solving the constrained minimisation problem based on compressed sensing. The new iterative strategy guarantees fast convergence by using a fixed threshold value. We also propose a generalised velocity‐dependent formulation of the seislet transform as an effective sparse transform, in which the non‐hyperbolic normal moveout equation serves as a bridge between local slope patterns and moveout parametres in the common‐midpoint domain. It can also be reduced to the traditional velocity‐dependent seislet if special heterogeneity parametre is selected. The generalised velocity‐dependent seislet transform predicts prestack reflection data in offset coordinates, which provides a high compression of reflection events. The method was applied to synthetic and field data examples, and the results show that the generalised velocity‐dependent seislet transform can reconstruct missing data with the help of the modified Bregman iteration even for non‐hyperbolic reflections under complex conditions, such as vertical transverse isotropic (VTI) media or aliasing.  相似文献   

12.
Seismic field data are often irregularly or coarsely sampled in space due to acquisition limits. However, complete and regular data need to be acquired in most conventional seismic processing and imaging algorithms. We have developed a fast joint curvelet‐domain seismic data reconstruction method by sparsity‐promoting inversion based on compressive sensing. We have made an attempt to seek a sparse representation of incomplete seismic data by curvelet coefficients and solve sparsity‐promoting problems through an iterative thresholding process to reconstruct the missing data. In conventional iterative thresholding algorithms, the updated reconstruction result of each iteration is obtained by adding the gradient to the previous result and thresholding it. The algorithm is stable and accurate but always requires sufficient iterations. The linearised Bregman method can accelerate the convergence by replacing the previous result with that before thresholding, thus promoting the effective coefficients added to the result. The method is faster than conventional one, but it can cause artefacts near the missing traces while reconstructing small‐amplitude coefficients because some coefficients in the unthresholded results wrongly represent the residual of the data. The key process in the joint curvelet‐domain reconstruction method is that we use both the previous results of the conventional method and the linearised Bregman method to stabilise the reconstruction quality and accelerate the recovery for a while. The acceleration rate is controlled through weighting to adjust the contribution of the acceleration term and the stable term. A fierce acceleration could be performed for the recovery of comparatively small gaps, whereas a mild acceleration is more appropriate when the incomplete data has a large gap of high‐amplitude events. Finally, we carry out a fast and stable recovery using the trade‐off algorithm. Synthetic and field data tests verified that the joint curvelet‐domain reconstruction method can effectively and quickly reconstruct seismic data with missing traces.  相似文献   

13.
Seismic data reconstruction, as a preconditioning process, is critical to the performance of subsequent data and imaging processing tasks. Often, seismic data are sparsely and non-uniformly sampled due to limitations of economic costs and field conditions. However, most reconstruction processing algorithms are designed for the ideal case of uniformly sampled data. In this paper, we propose the non-equispaced fast discrete curvelet transform-based three-dimensional reconstruction method that can handle and interpolate non-uniformly sampled data effectively along two spatial coordinates. In the procedure, the three-dimensional seismic data sets are organized in a sequence of two-dimensional time slices along the source–receiver domain. By introducing the two-dimensional non-equispaced fast Fourier transform in the conventional fast discrete curvelet transform, we formulate an L1 sparsity regularized problem to invert for the uniformly sampled curvelet coefficients from the non-uniformly sampled data. In order to improve the inversion algorithm efficiency, we employ the linearized Bregman method to solve the L1-norm minimization problem. Once the uniform curvelet coefficients are obtained, uniformly sampled three-dimensional seismic data can be reconstructed via the conventional inverse curvelet transform. The reconstructed results using both synthetic and real data demonstrate that the proposed method can reconstruct not only non-uniformly sampled and aliased data with missing traces, but also the subset of observed data on a non-uniform grid to a specified uniform grid along two spatial coordinates. Also, the results show that the simple linearized Bregman method is superior to the complex spectral projected gradient for L1 norm method in terms of reconstruction accuracy.  相似文献   

14.
A new seismic interpolation and denoising method with a curvelet transform matching filter, employing the fast iterative shrinkage thresholding algorithm (FISTA), is proposed. The approach treats the matching filter, seismic interpolation, and denoising all as the same inverse problem using an inversion iteration algorithm. The curvelet transform has a high sparseness and is useful for separating signal from noise, meaning that it can accurately solve the matching problem using FISTA. When applying the new method to a synthetic noisy data sets and a data sets with missing traces, the optimum matching result is obtained, noise is greatly suppressed, missing seismic data are filled by interpolation, and the waveform is highly consistent. We then verified the method by applying it to real data, yielding satisfactory results. The results show that the method can reconstruct missing traces in the case of low SNR (signal-to-noise ratio). The above three problems can be simultaneously solved via FISTA algorithm, and it will not only increase the processing efficiency but also improve SNR of the seismic data.  相似文献   

15.
在野外数据采集过程中,空间非均匀采样下的地震道缺失现象经常出现,为了不影响后续资料处理,必须进行高精度数据重建.然而大多数常规方法只能对空间均匀采样下的地震缺失道进行重建,而对于非均匀采样的地震数据则无能为力.为此本文在以往多尺度多方向二维曲波变换的基础上,首先引入非均匀快速傅里叶变换,建立均匀曲波系数与空间非均匀采样下地震缺失道数据之间的规则化反演算子,在L1最小范数约束下,使用线性Bregman方法进行反演计算得到均匀曲波系数,最后再进行均匀快速离散曲波反变换,从而形成基于非均匀曲波变换的高精度地震数据重建方法.该方法不仅可以重建非均匀带假频的缺失数据,而且具有较强的抗噪声能力,同时也可以将非均匀网格数据归为到任意指定的均匀采样网格.理论与实际数据的处理表明了该方法重建效果远优于非均匀傅里叶变换方法,可以有效地指导复杂地区数据采集设计及重建.  相似文献   

16.
地震数据规则化重构是地震资料处理十分重要的基础性工作.压缩感知理论打破了香农采样定理的制约,利用信号在某个变换域的稀疏特性重构出完整的信号,在地震数据重构领域得到了很好的应用.深反射地震剖面大都布置在地质构造比较复杂的区段,复杂的地质构造使深反射地震剖面上的波阻特征复杂,采用单一稀疏变换不能最有效地表征数据的内部结构特征.MCA(形态成分分析)方法将信号分解为几种形态特征区别明显的分量来逼近数据的内部复杂结构,但是对各成分简单的叠加仍然无法有效地描述复杂构造数据的各种特征.结合两种方法的优点,本文提出了一种新的基于压缩感知的重构算法框架,在MCA方法的基础上对各稀疏字典进行加权,在迭代中不断更新各个稀疏字典的权值系数,对信号内部的各种特征进行最优描述,从而实现对信号的高质量重构.模型测试和实际资料处理结果表明:基于压缩感知的加权MCA方法不仅可以对地质构造复杂的地震数据进行高效的插值重建,而且可以很好的消除空间假频.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号