全文获取类型
收费全文 | 8869篇 |
免费 | 1360篇 |
国内免费 | 1588篇 |
专业分类
测绘学 | 2855篇 |
大气科学 | 1029篇 |
地球物理 | 1782篇 |
地质学 | 3610篇 |
海洋学 | 835篇 |
天文学 | 376篇 |
综合类 | 619篇 |
自然地理 | 711篇 |
出版年
2024年 | 53篇 |
2023年 | 130篇 |
2022年 | 349篇 |
2021年 | 397篇 |
2020年 | 405篇 |
2019年 | 420篇 |
2018年 | 333篇 |
2017年 | 504篇 |
2016年 | 481篇 |
2015年 | 475篇 |
2014年 | 600篇 |
2013年 | 673篇 |
2012年 | 602篇 |
2011年 | 583篇 |
2010年 | 461篇 |
2009年 | 549篇 |
2008年 | 586篇 |
2007年 | 557篇 |
2006年 | 571篇 |
2005年 | 510篇 |
2004年 | 435篇 |
2003年 | 304篇 |
2002年 | 340篇 |
2001年 | 238篇 |
2000年 | 217篇 |
1999年 | 173篇 |
1998年 | 161篇 |
1997年 | 142篇 |
1996年 | 87篇 |
1995年 | 83篇 |
1994年 | 89篇 |
1993年 | 76篇 |
1992年 | 64篇 |
1991年 | 43篇 |
1990年 | 35篇 |
1989年 | 19篇 |
1988年 | 28篇 |
1987年 | 9篇 |
1986年 | 7篇 |
1985年 | 3篇 |
1984年 | 3篇 |
1983年 | 3篇 |
1982年 | 2篇 |
1979年 | 4篇 |
1974年 | 1篇 |
1971年 | 1篇 |
1954年 | 3篇 |
1900年 | 3篇 |
1897年 | 1篇 |
1880年 | 1篇 |
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
31.
提要:利用常规气象观测资料、银川CD多普勒雷达探测资料和ECMWF、T639、WRF、NCEP/NCAR等模式资料,分析了宁夏气象台漏报的2016年8月21日夜间贺兰山东麓历史罕见特大暴雨天气过程的成因,探讨了重大预报误差之缘由和可预报性,结果表明:(1)ECMWF、T639、WRF三种模式均预报宁夏中北部有15 mm以下的降雨,量级显著偏小是漏报诱因;而ECMWF降雨预报结果明显优于其他模式。(2)2016年8月中下旬西太平洋副热带高压持续偏强、位置偏北,21日达最强,在588dagpm线控制下,592dagpm线从宁夏南部东退,受低层切变线、辐合场和低空急流及贺兰山地形的共同影响,引发了宁夏极为罕见的特大暴雨。当地预报员对于极端暴雨事件预报经验匮乏,对副热带高压强盛、位置偏北的极强暴雨环流形势演变了解和认识欠缺。(3)源于东海的中低层偏东气流在西行中形成东南和南风低空急流,并在贺兰山东麓建立一暖性辐合线,由于贺兰山地形阻挡了气流的移动而产生的绕流、摩擦辐合及迎风波抬升,延长了降雨时间,对暴雨的增幅有促进和加强作用,预报中忽视了贺兰山地形对降雨影响。(4)对暴雨预报有效的物理量场θ_(se500)-θ_(se850)0K、θ_(se500)≥337K和θ_(se850)≥337K、K指数≥38℃、LI≤-3、Q_(700)≥12kg·kg~(-1)等指标掌握应用不熟练。分析结果表明:对于8月21日特大暴雨预报员可提前6h确定暴雨落区、订正降雨量级达到暴雨,可做到过程不漏报,但是经订正后的预报无法报出历史罕见的极端暴雨。 相似文献
32.
利用混合法构建三维数字岩心(英文) 总被引:9,自引:0,他引:9
在弹性波有三维数字岩心描述了岩石的微观孔隙结构。X射线CT扫描是获取三维数字岩心最准确和直接的方法,但实验成本高。本文结合沉积过程模拟和模拟退火算法,提出了重建三维数字岩心的混合法,基于岩石二维图像重建三维数字岩心。利用岩石颗粒沉积算法构建初始数字岩心,作为模拟退火算法的初始状态。运用模拟退火算法调整岩石颗粒和孔隙的相对位置,使三维数字岩心与岩心二维图像具有相似的自相关函数,从而建立三维数字岩心。与传统模拟退火算法相比,该方法计算时间明显减小。运用局部孔隙度理论定量比较了重建数字岩心和岩心X射线微CT图像,两种数字岩心具有相似的均质性和孔隙连通性。利用有限元方法和格子玻尔兹曼方法分别模拟了重建三维数字岩心的地层因素和渗透率,数值模拟结果与实验结果相符。相比传统模拟退火算法,混合法重建数字岩心的传导特性更接近真实岩心的传导特性。 相似文献
33.
微生物诱导碳酸钙沉积(MICP)是一种绿色低碳的新型土体改性技术.该技术当前主要适用于渗透性较好的砂土,普遍使用两相处理方法,即菌液和胶结液分开施用.然而,对于渗透性相对较差的黏性土,传统的两相处理方法难以适用.为此,引入新的单相胶结方法,即菌液和胶结液混合施用,通过调节溶液的初始pH值为细菌水解作用提供窗口期,避免微生物絮凝阻塞孔隙,使混合液均匀分布于土体一定深度范围内,从而达到显著提升胶结效果的目的.利用喷洒法将混合液喷洒至土体表层进行MICP处理,处理完成后使用超微型贯入仪SMP-1测试土体表层不同深度处的结构强度,分析土体力学特性的空间差异,对土体的胶结效果进行定量评价.此外,探究了胶结液浓度(0.2M、0.5M和1.0M)及胶结方法(调节pH与否)对于土体结构强度及MICP改性效果的影响.结果表明:采用单相MICP技术对黏性土进行改性,能够显著提高其结构强度,具有较好的适用性;在不高于1.0 M的胶结液浓度范围内,黏性土的胶结效果随着胶结液浓度增加而提升;相比较而言,调节pH的单相胶结方法对于提升土体胶结的深度和均匀性有明显积极作用.新型单相MICP技术简单易行,能够节约成本,在黏性土表层加固方面具有潜在推广应用价值. 相似文献
34.
35.
对北京天文台新近改造成的三通道高速光度计的结构和性能进行介绍,并给出了在兴隆站85公分望远镜的一些实测结果. 相似文献
36.
真三轴试验中的端部摩擦效应分析 总被引:3,自引:0,他引:3
端部摩擦效应是三轴试验的常见问题之一。相对于常规三轴试验,由于在茂木式真三轴试验中方形试样4个端部需设置两对端部垫块,从而导致端部摩擦问题更加突出。运用FLAC3D,针对Mohr-Coulomb材料,即无中间主应力影响材料,模拟真三轴加载过程中端部摩擦对试样强度和变形行为的影响。计算结果表明,端部摩擦也可以产生虚假中间主应力效应,即使对于无中间主应力效应材料,中间主应力也会导致最大破坏主应力的增加,且摩擦系数越大,这种趋势则越明显。分析了端部摩擦产生这种趋势的原因,指出了真三轴试验中减小端部摩擦的重要性。 相似文献
37.
在海洋地震资料处理中,由于检波点空间分布不均匀造成的采集脚印现象会影响地震资料成像,特别是对双源单缆方式采集的三维地震数据影响更为明显。通过对海上某区双源单缆方式采集的天然气水合物三维地震数据采集脚印形成原因及特点的详细分析,最终分别在叠前采用子波处理、潮汐、水速校正、面元中心化方法,叠后采用频率、波数域滤波的方法压制采集脚印。通过以上关键技术的应用,提高了双源单缆方式采集的三维地震数据的信噪比和分辨率,采集脚印从时间切片和剖面上均有了明显衰减,而且实现了最大限度的保持振幅、频率、相位属性。为精细刻画、描述地质构造形态和预测天然气水合物储层分布及有利富集区带,提供可靠的地震资料。 相似文献
38.
由于随机噪声是一种频带较宽的干扰波,因此依靠单一的去噪处理方式往往难以获得清晰反映目标体的地震信息。小波变换能够较好的去除高斯噪声,保留有效波中、高频成分,提高记录的信噪比,但去除脉冲噪声的效果却并不理想;中值滤波具有良好的边缘保持特性,虽低频去噪声效果有限,但去除脉冲噪声效果明显。因此可利用二维小波变换与中值滤波优势互补的方法,进行叠前去噪处理,达到去除宽频随机噪声的目的。首先运用二维小波变换的理论,采用自适应门限阀值方法进行去噪,同时结合中值滤波方法联合去噪。模型与实际数据的应用效果表明,联合去噪方法可有效压制噪声能量、保留高频有效信号、提高地震记录信噪比与分辨率。 相似文献
39.
The impact of diabatic processes on 4-dimensional variational data assimilation (4D-Var) was studied using the 1995 version of NCEP's global spectral model with and without full physics.The adjoint was coded manually.A cost function measuring spectral errors of 6-hour forecasts to "observation" (the NCEP reanalysis data) was minimized using the L-BFGS (the limited memory quasi-Newton algorithm developed by Broyden,Fletcher,Goldfard and Shanno) for optimizing parameters and initial conditions.Minimization of the cost function constrained by an adiabatic version of the NCEP global model converged to a minimum with a significant amount of decrease in the value of the cost function.Minimization of the cost function using the diabatic model, however,failed after a few iterations due to discontinuities introduced by physical parameterizations.Examination of the convergence of the cost function in different spectral domains reveals that the large-scale flow is adjusted during the first 10 iterations,in which discontinuous diabatic parameterizations play very little role.The adjustment produced by the minimization gradually moves to relatively smaller scales between 10-20th iterations.During this transition period,discontinuities in the cost function produced by "on-off" switches in the physical parameterizations caused the cost function to stay in a shallow local minimum instead of continuously decreasing toward a deeper minimum. Next,a mixed 4D-Var scheme is tested in which large-scale flows are first adiabatically adjusted to a sufficient level,followed by a diabatic adjustment introduced after 10 to 20 iterations. The mixed 4D-Var produced a closer fit of analysis to observations,with 38% and 41% more decrease in the values of the cost function and the norm of gradient,respectively,than the standard diabatic 4D-Var,while the CPU time is reduced by 21%.The resulting optimal initial conditions improve the short-range forecast skills of 48-hour statistics.The detrimental effect of parameterization discontinuities on minimization was also reduced. 相似文献
40.