首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
Résumé

Les statistiques des Compagnies d'assurances semblent être des éléments intéressants pour apprécier les résultats d'opérations de suppression de la grêle. Outre qu'elles ne portent en France que sur des données financières, leurs résultats globaux recouvrent des variations très importantes du capital assuré, de la part prise par les différentes Compagnies, des différentes cultures assurées au cours du temps. La représentativité de l'échantillon assuré, malgré une forte croissance, reste encore faible surtout pour les cultures les plus sensibles. La planification d'une expérience contrôlée doit comporter des mesures physiques objectives.  相似文献   

2.
The applicability of elevation-regression based interpolation methods for long-term temperature normals, for example the Parameter-elevation Regressions on Independent Slopes Model (PRISM), becomes increasingly limited in data sparse, complex terrain such as that found in mountainous British Columbia (BC), Canada. Recent methods to improve both the resolution and accuracy of interpolation models have focused on the development of “up-sampling” algorithms based on local lapse rate adjustments to the original interpolated surfaces. Lapse rates can be derived from statistical models (e.g., elevation-based polynomial regression equations) or dynamical models (e.g., vertical temperature profiles from numerical weather prediction (NWP) models). This study compares a widely used statistical up-sampling algorithm, ClimateBC, with two NWP reanalysis products, the National Centers for Environmental Prediction/National Corporation for Atmospheric Research, Reanalysis 1 (NCEP1) and the more modern European Centre for Medium-range Weather Forecasts (ECMWF) Reanalysis Interim (ERA-Interim). Thirty-year climate normals for maximum and minimum temperatures were calculated using statistical up-sampling and NWP lapse rate adjustments to existing PRISM-based climate normals at a subset of stations in BC. Specifically, up-sampling model evaluation was performed using 1951–80 climate normals from an independent set of 54 surface stations (1 m to 2347 m) which were not included in the PRISM interpolation or assimilated into the NWP reanalysis products. All models performed similarly for minimum temperature, which showed only a slight improvement over PRISM. For maximum temperature, ClimateBC, NCEP1 and ERA-Interim all performed significantly better than PRISM, in particular during spring and summer. The ERA-Interim reanalysis outperformed NCEP1 in almost all months. The results suggest that lapse rate adjustment algorithms based on reanalysis products will have greater potential as progress continues on developing NWP components.

R ésumé ?[Traduit par la rédaction] L'application des techniques d'interpolation par régression en fonction de l'altitude pour les normales de température à long terme, comme le Parameter-elevation Regressions on Independent Slopes Model (PRISM), devient très difficile dans les régions accidentées pour lesquelles on dispose de données insuffisantes, par exemple les secteurs montagneux de la Colombie-Britannique (C.-B.) au Canada. Les toutes dernières méthodes destinées à augmenter le degré de résolution des modèles d'interpolation et leur précision reposent sur la conception d'algorithmes d’échantillonnage vertical fondés sur l'ajustement des surfaces interpolées originales au moyen du gradient vertical local. Nous pouvons établir les gradients verticaux à partir de modèles statistiques (p. ex., des équations de régression polynomiales en fonction de l'altitude) ou de modèles dynamiques (p. ex., des profils verticaux de température à partir de modèles de prévision numérique du temps (PNT)). Dans la présente étude, nous comparons un algorithme d’échantillonnage vertical statistique communément utilisé, le programme ClimateBC, à deux produits de réanalyse de PNT, celle des National Centres for Environmental Prediction/National Corporation for Atmospheric Research Reanalysis 1 (NCEP1), et la réanalyse provisoire (ERA-Interim) du Centre européen pour les prévisions météorologiques à moyen terme (ECMWF). Les normales climatiques de trente ans pour les températures maximums et minimums ont été calculées en appliquant la méthode d’échantillonnage vertical statistique et l'ajustement du gradient obtenu par PNT aux normales climatiques établies à partir du PRISM pour un sous-ensemble de stations en Colombie-Britannique. Plus particulièrement, nous avons procédé à l’évaluation du modèle d’échantillonnage vertical en nous servant des normales climatiques (1951–1980), pour un ensemble de 54 stations d'observation en surface indépendantes (1?m à 2347?m), exclues du modèle d'interpolation PRISM et des produits de réanalyse de PNT. Pour tous les modèles, nous avons obtenu des résultats comparables pour la température minimum, soit une légère amélioration seulement par rapport au PRISM. Pour la température maximum, nous avons obtenu avec ClimateBC, NCEP1 et ERA-Interim, des résultats nettement plus probants qu'avec PRISM, notamment au printemps et en été. Les réanalyses ERA-Interim ont donné de meilleurs résultats que NCEP1 pour pratiquement tous les mois. D'après ces résultats, le potentiel des algorithmes d'ajustements des gradients verticaux de température, établis à partir de produits de réanalyse se renforcera à mesure que les composantes de PNT se développeront.  相似文献   

3.
This study focuses on two physical processes for waves in shallow waters off the Mackenzie Delta: bottom friction and depth-induced breaking terms. We use field observations of winds and waves, the state-of-the-art Simulating Waves Nearshore (SWAN) model, and reanalysis wind and wave data. The two field observation periods are an August 2008 field experiment, during which in situ field data were collected, and an Arctic storm when data were recorded by buoy measurements from 4 to 6 August 1991. Wind and wave development processes are analyzed during these two periods with comparisons to observed winds and waves. Our analyses show that bottom friction is the main shallow water physical process during the August 2008 field experiment, whereas depth-induced breaking is the dominant shallow water physical process during the 4–6 August 1991 storm, in conjunction with the effects of bottom friction. The SWAN wave model is used to investigate the shallow water physical processes during these two observation periods. Simulation results indicate that the model can give reasonable results, with an appropriate Collins coefficient of 0.006 and a wave breaking parameter of 0.55 to represent bottom friction and depth-induced breaking physics, respectively.

RÉSUMÉ?[Traduit par la rédaction] Cette étude porte sur deux processus physiques concernant les vagues dans les eaux peu profondes au large du delta du Mackenzie : les termes du frottement contre le fond et du déferlement lié à la profondeur. Nous utilisons des observations du vent et des vagues, le modèle d'avant-garde SWAN (Simulating Waves Nearshore) et des données de vent et de vagues réanalysées. Les deux périodes d'observations sont une expérience sur le terrain réalisée en août 2008, au cours de laquelle des données de terrain ont été recueillies, et une tempête arctique lors de laquelle des mesures faites par bouée du 4 au 6 août 1991 ont été enregistrées. Nous analysons les processus dévolution du vent et des vagues durant ces deux périodes, et comparons avec le vent et les vagues observées. Nos analyses montrent que le frottement contre le fond est le processus physique en eaux peu profondes le plus important durant l'expérience sur le terrain d'août 2008, alors que le déferlement lié à la profondeur est le processus physique en eaux peu profondes dominant pendant la tempête arctique du 4 au 6 août 1991, en combinaison avec les effets du frottement contre le fond. Nous nous servons du modèle de vagues SWAN pour étudier les processus physiques en eaux peu profondes durant ces deux périodes d'observations. Les résultats des simulations indiquent que le modèle peut donner des résultats raisonnables, avec un coefficient de Collins approprié de 0,006 et un paramètre de déferlement de 0,55 pour représenter la physique du frottement contre le fond et du déferlement lié à la profondeur, respectivement.  相似文献   

4.
Résumé

Cette étude présente des résultats expérimentaux sur les effets du vent et de l'échantillonnage sur la mesure de l'intensité des chutes de grêle, et suggère des thèmes de discus non pour l'Atelier.

L'angle moyen de chute des grêlons, mesuré à partir de la verticale, est un indice significatif de l'augmentation de l'énergie cinétique due à la vitesse du vent au sol. En Italie, au cours des années 1972–1975, 61% des observations révèlent un effet important des vents. Au cours d'un été de Grossversuch IV en Suisse, 41% des observations révèlent aussi de tels effets. Ces observations ont été faites à l’ aide de grêlimètres à cinq faces (hailcubes). On propose un plus grand effort pour rendre possible une estimation des effets du vent à l'aide de grélimètres horizontaux, peut être en utilisant, comme mesure principale, le rapport de la longueur sur la largeur des empreintes faites par les grêlons de la classe centrale de dimensions qui a touché les grêlimètres.

Des résultats sur des mesures juxtaposées du nombre de grêlons, par intervalle donnée de diamètres, et d'énergie cinétique sont aussi présentées. Ces mesures soulignent les erreurs dues à l'échantillonnage qui peuvent être considérables, spécialement pour les gros grêlons naturellement moins nombreux.  相似文献   

5.
Résumé

Le régime journalier du rayonnement solaire global au sol a été reconstitué aux six stations du réseau radiométrique de base canadien situées au Québec à l'aide d'un modèle numérique simulant le transfert de l'énergie solaire à travers l'atmosphère. Les données d'humidité atmosphérique, de trouble atmosphérique et d'albédo au sol ont été interpolées dans le temps et l'espace à partir de la climatologie mensuelle connue de ces champs. La nébulosité a été tirée des séquences horaires des durées d'ensoleillement observées à ces mêmes stations et échelonnées sur une même période de 974 jours. On a estimé les limites de précision du modèle en déterminant l'erreur quadratique moyenne entre la valeur calculée et mesurée pour 1, 2, 3, … et 20 jours consécutifs. On a ainsi trouvé que l'erreur quadratique moyenne diminue rapidement pour les regroupements de 1 à 10 jours et se stabilise pour les périodes plus longues. L'amplitude de l'erreur quadratique moyenne varie saisonnièrement et latitudinalement étant en général plus faible en été et au sud. La variabilité des valeurs journalières simulées n'est que légèrement supérieure à celle des données journalières mesurées. Il est démontré finalement que l'utilisation journalière des résultats du modèle est préférable à l'utilisation de la climatologie du régime solaire.  相似文献   

6.
Resume

Le Service de météorologie du ministère québécois de l'Environnement a voulu savoir comment ses réseaux météorologiques devraient évoluer pour répondre le plus adéquatement possible aux besoins réels, actuels et futurs du Québec.

C'est dans cette perspective que l'on définit une stratégie d'intervention caractérisée par (a) une conception dynamique des réseaux, (b) une régionalisation des besoins et des caractéristiques des variables, (c) des critères réalistes, (d) une étude du réseau région par région, (e) une planification visant à intégrer les réseaux entre eux, (f) une considération des méthodes d'analyse ou de simulation selon une approche régionale, (g) une durée et une densité d'observation adaptées aux besoins et, enfin, (h) une intégration rationnelle des diverses sources de données météorologiques. L'étude proprement dite des réseaux, selon une approche régionale, a été réalisée en faisant appel à l'analyse des données en composantes principales et à l'interpolation optimale. Les notions théoriques particulières à chacune de ces deux méthodes d'analyse sont présentées. On explique, par la suite, avec exemples à l'appui, comment ces méthodes sont appliquées, dans le cadre de la rationalisation du réseau météorologique du Québec, pour la détermination des régions statistiquement homogènes, l'estimation des fonctions de structure et des écarts types d'interpolation régionaux, en fonction de la distance entre les stations, et la cartographie des écarts types réels du réseau en opération, à une date donnée. On indique, aussi, comment les modifications projetées à ce réseau peuvent être évaluées.  相似文献   

7.
《大气与海洋》2012,50(4):103-115
Based on monthly mean Argo profiler float data from 2004 to 2008 and monthly mean sea surface height and current velocity data from the Simple Ocean Data Assimilation (SODA) reanalysis for the period 1958–2007, the three-dimensional structure of the Mindanao Eddy (ME), its seasonal and interannual variability, and its impact on the thermohaline structure are analyzed. In addition, the displacement of the ME centre and its relation to ocean circulations are also discussed. The results showed that the ME spreads vertically from about 600 db depth upward to about 40 db depth. In addition to its strong seasonal variation, the strength of the ME displays strong interannual variability resulting from the interannual variability in the North Equatorial Current (NEC), the North Equatorial Counter Current (NECC) and the Mindanao Current (MC). The meridional movement of the centre of the ME has strong seasonal and interannual variability, and the zonal movement has a strong seasonal variation. The meridional movement is associated with the meridional displacement of the interface between the NECC and the NEC, whereas the zonal movement is associated with the zonal displacement of the interface between the MC and the northward branch of the NECC. The ME variability can greatly affect the pattern of the thermohaline structure in the local upper ocean. When the eddy is strong, the cold and low salinity water within it moves vigorously upward from the deep layer; the thermocline shoals significantly; the subsurface high salinity water shows a large decrease; and the upper mixed layer becomes thinner, and vice versa.

RÉSUMÉ?[Traduit par la rédaction] En nous basant sur les données mensuelles moyennes des flotteurs profileurs Argo pour la période de 2004 à 2008 et sur les données mensuelles moyennes de hauteur de la surface de la mer et de vitesses vectorielles du courant fournies par les réanalyses SODA (Simple Ocean Data Assimilation) pour la période de 1958 à 2007, nous analysons la structure tridimensionnelle du remous de Mindanao, sa variabilité saisonnière et interannuelle et son impact sur la structure thermohaline. De plus, nous discutons du déplacement du centre du remous de Mindanao et de sa relation avec les circulations océaniques. Les résultats ont montré que le remous s'étend verticalement vers le haut à partir d'une profondeur de 600 db jusqu’à une profondeur d'environ 40 db. En plus de sa forte variabilité saisonnière, la force du remous de Mindanao affiche une forte variabilité interannuelle résultant de la variabilité interannuelle dans le courant nord-équatorial (NEC), le contre-courant nord-équatorial (NECC) et le courant de Mindanao (MC). Le mouvement méridien du centre du centre du remous de Mindanao affiche une forte variabilité saisonnière et interannuelle et le mouvement zonal possède une forte variabilité saisonnière. Le mouvement méridien est lié au déplacement méridien de l'interface entre le NECC et le NEC alors que le mouvement zonal est lié au déplacement zonal de l'interface entre le MC et le bras allant vers le nord du NECC. La variabilité du remous de Mindanao peut grandement modifier la configuration de la structure thermohaline dans les couches supérieures locales de l'océan. Quand le remous est fort, l'eau froide et de faible salinité qu'il renferme se déplace vigoureusement vers le haut à partir de la couche profonde; la thermocline s'élève de façon marquée; les eaux de subsurface de forte salinité affichent une diminution importante; et la couche de mélange supérieure devient plus mince, et inversement.  相似文献   

8.
The Soil Atmosphere Boundary, Accurate Evaluation of Heat and Water (SABAE-HW) model is a multilayered, one-dimensional, physically based version of the Canadian Land Surface Scheme (CLASS) and uses the same methodologies as CLASS, version 2.6. SABAE provides an improved interface for groundwater modelling to simulate soil moisture, soil temperature, energy fluxes and snow depth for a wide range of soil and vegetation. This paper reports the results of the first field comparison of SABAE-HW using an extensive ten-year dataset from the Boreal Ecosystem Atmosphere Study (BOREAS) and the Boreal Ecosystem Research and Monitoring Sites (BERMS) project, an area in central Saskatchewan, Canada, rich in terms of hydrological and meteorological data. The model is also independently tested and verified with the Simultaneous Heat and Water (SHAW) model, which is an unsaturated-zone transport model. Two boundary conditions are considered at the bottom of the soil profile: a water table boundary condition and a unit gradient boundary condition. There was substantial agreement between the results of the simulations and observations in terms of snow depth and soil temperature. Snow depth and soil temperature were simulated reasonably well by SABAE, with correlation values of 0.96 and 0.98, respectively. However, there were some discrepancies for simulated soil temperature in winter. General agreement was obtained in terms of unfrozen soil moisture results, especially at greater depths, but there were general similarities in observed and simulated soil moisture trends in winter. An average correlation of 0.55 was found for SABAE while the correlation for SHAW was much smaller (less than 0.30), which indicates a better fit between simulated and field data by SABAE. Although a unit gradient boundary condition does not influence soil moisture, it was found that unit gradient boundary runs resulted in increased bias towards overestimation of the soil temperature. Thus, a safer and more accurate approach, we believe, is to adopt a first type boundary (i.e., water table) condition at the bottom of the domain. This has implications for climate and weather modelling in general. The result of this field testing demonstrated the potential and high accuracy of SABAE-HW as a Canadian model capable of simulating snow depth, snow temperature, soil moisture, energy fluxes, and we believe it is now appropriate to include this land surface scheme with its counterparts.

R ésumé ?[Traduit par la rédaction] Le modèle Soil Atmosphere Boundary, Accurate Evaluation of Heat and Water (SABAE-HW) est une version multicouche, à une dimension, basée sur la physique du schéma CLASS (Canadian Land Surface Scheme) qui utilise les mêmes méthodologies que le CLASS version 2.6. Le SABAE offre une interface améliorée pour la modélisation des eaux sous-terraines permettant de simuler l'humidité du sol, la température du sol, les flux d'énergie et l'épaisseur de la neige pour une grande variété de sols et de végétation. Cet article présente les résultats de la première comparaison terrain du SABAE-HW en utilisant une base de données étendue de dix ans de l'Étude de l'atmosphère et des écosystèmes boréaux (BOREAS) et du projet des Sites de recherche et de surveillance des écosystèmes boréaux (BERMS), une région du centre de la Saskatchewan, au Canada, riche en données hydrologiques et météorologiques. Le modèle est aussi indépendamment testé et vérifié à l'aide du Simultaneous Heat and Water (SHAW), un modèle de transport en zone non saturée. Deux conditions aux limites sont supposées au fond du profil du sol : une condition aux limites de nappe phréatique et une condition aux limites de gradient unitaire. On a trouvé une concordance importante entre les résultats des simulations et les observations en ce qui a trait à l'épaisseur de la neige et à la température du sol. L'épaisseur de la neige et la température du sol ont été raisonnablement bien simulées par le modèle SABAE, avec des corrélations de 0,96 et 0,98, respectivement. Cependant, il y avait certaines divergences pour la température simulée du sol en hiver. Pour ce qui est des résultats concernant l'humidité du sol non gelé, ils s'accordaient généralement, surtout pour les plus grandes profondeurs, mais il y avait des similarités générales dans les tendances observées et simulées de l'humidité du sol en hiver. Nous avons trouvé une corrélation moyenne de 0,55 pour le SABAE alors que la corrélation pour le SHAW était beaucoup plus faible (0,30), ce qui indique un meilleur ajustement des données simulées aux données de terrain pour le SABAE. Même si une condition aux limites de gradient unitaire n'influence pas l'humidité du sol, il ressort que des passes faites avec un gradient unitaire aux limites ont produit un biais accru vers la surestimation de la température du sol. Donc, nous croyons qu'une approche plus sûre et plus précise serait d'adopter une condition aux limites de Dirichlet (c.-à-d. une nappe phréatique) au fond du domaine. Ceci a des répercussions sur la modélisation du climat et du temps en général. Le résultat de cet essai sur le terrain a démontré le potentiel et la grande exactitude du SABAE-HW en tant que modèle canadien capable de simuler l'épaisseur de la neige, la température du sol, l'humidité du sol et les flux d'énergie et nous croyons qu'il est maintenant approprié d'inclure ce schéma de surface avec ses contreparties.  相似文献   

9.
《大气与海洋》2012,50(4):77-91
The seasonal characteristics of water masses, mixed-layer depth and the current field east of Luzon Strait are studied using Argo profiling float data. Based on data from March 2006 to November 2010, the temperature-salinity relation indicates that the seasonal variation of water masses is not obvious, except that the surface temperature is lower and the salinity is higher in spring and winter; the water masses in other layers change little. The seasonal variation of the mixed-layer depth, which is deepest at over 170 m in winter and shallowest at about 25 m in summer, is also discussed. Based on the P-vector method, multi-year seasonal mean Argo data and Levitus data are used to calculate the respective current fields. The surface geostrophic current derived from altimetric data is compared with those computed from Argo data and Levitus data. It is shown that, the current field computed from Argo data, which shows the Kuroshio and eddies clearly, is similar to that obtained from altimetric data, except that the current speed is less in the former case than in the latter one; this may be related to the scarcity and uneven distribution of Argo floats, the subsequent interpolation and extrapolation errors, the shortcomings of the P-vector method, the lack of a barotropic component in the calculation or the altimetry-derived current error associated with the marine geoid, but the resultant current field is much better than that obtained from Levitus data. Moreover, Argo data have an advantage in that they can be used to derive a three-dimensional current field, whereas the altimetric data can only be used to derive the surface current field. The seasonal variations in the vertical current structure and the Kuroshio transport east of Taiwan Island are also discussed; it is found that the thickness of the northward Kuroshio is about 700 m, and the seasonal zonal variation in the main axis of the Kuroshio is obvious.

RÉSUMÉ?[Traduit par la rédaction] Nous étudions les caractéristiques saisonnières des masses d'eau, la profondeur de la couche de mélange et le champ de courant à l'est du détroit de Luçon à l'aide des données des flotteurs profileurs Argo. D'après les données recueillies entre mars 2006 et novembre 2010, la relation température-salinité indique que la variation saisonnière des masses d'eau n'est pas évidente, sauf que la température de surface est plus basse et la salinité plus élevée au printemps et en hiver; les masses d'eau dans les autres couches changent peu. Nous discutons aussi de la variation saisonnière de la profondeur de la couche de mélange, qui est maximale à plus de 170 m en hiver et minimale à environ 25 m en été. En nous basant sur la méthode des vecteurs P, nous utilisons les données Argo et les données Levitus pluriannuelles de moyennes saisonnières pour calculer les champs de courant respectifs. Nous comparons le courant géostrophique de surface déduit des données altimétriques avec ceux calculés à l'aide des données Argo et des données Levitus. Il apparait que le champ de courant calculé d'après les données Argo, qui montre clairement le Kuroshio et les remous, est semblable à celui obtenu des données altimétriques, sauf que la vitesse du courant est moindre dans le premier cas que dans le dernier; cela peut être lié à la rareté et à la distribution inégale des flotteurs Argo, aux erreurs subséquentes d'interpolation et d'extrapolation, aux faiblesses de la méthode des vecteurs P, au manque d'une composante barotropique dans les calculs ou à l'erreur dans le courant déduit des données altimétriques associée au géoïde marin, mais le champ de courant résultant est bien meilleur que celui obtenu à l'aide des données Levitus. De plus, les données Argo présentent l'avantage de pouvoir être utilisées pour déduire un champ de courant tridimensionnel, alors que les données altimétriques ne permettent que de déduire le champ de courant de surface. Nous discutons aussi des variations saisonnières dans la structure verticale du courant et dans le transport par le Kuroshio à l'est de l’île de Taïwan; nous trouvons que la profondeur du Kuroshio circulant vers le nord est d'environ 700 m et la variation saisonnière zonale dans l'axe principal du Kuroshio est évidente.  相似文献   

10.
The Canadian Centre for Climate Modelling and Analysis (CCCma) has developed the fourth generation of the Canadian Atmospheric Global Climate Model (CanAM4). The new model includes substantially modified physical parameterizations compared to its predecessor. In particular, the treatment of clouds, cloud radiative effects, and precipitation has been modified. Aerosol direct and indirect effects are calculated based on a bulk aerosol scheme. Simulation results for present-day global climate are analyzed, with a focus on cloud radiative effects and precipitation. Good overall agreement is found between climatological mean short- and longwave cloud radiative effects and observations from the Clouds and Earth's Radiant Energy System (CERES) experiment. An analysis of the responses of cloud radiative effects to variations in climate will be presented in a companion paper.

[Traduit par la rédaction] Le Centre canadien de la modélisation et de l'analyse climatique (CCmaC) a mis au point la quatrième génération du modèle canadien de circulation générale de l'atmosphère (CanAM4). Le nouveau modèle comprend des paramétrisations physiques passablement modifiées comparativement à son prédécesseur. En particulier, le traitement des nuages, des effets radiatifs des nuages et des précipitations a été modifié. Les effets directs et indirects des aérosols sont calculés à l'aide d'un schéma d'aérosols en bloc. Nous analysons des résultats de simulation pour le climat général du jour présent en mettant l'accent sur les effets radiatifs des nuages et les précipitations. Nous trouvons un bon accord général entre la moyenne climatologique des effets radiatifs des nuages pour les courtes et les grandes longueurs d'onde et les observations de l'expérience CERES (Clouds and Earth's Radiant Energy System). Une analyse de la réponse des effets radiatifs des nuages aux variations du climat sera présentée dans un article connexe.  相似文献   

11.
Résumé

Un modèle bidimensionnel dans le sens vertical est utilisé afin d'étudier et de simuler la circulation marine engendrée par la marée dans l'estuaire du Saint‐Laurent. A partir d'une schématisation de l'Estuaire et de conditions en niveaux d'eau et salinités aux extrémités aval et amont du domaine d'étude, ce modèle génère la répartition des hauteurs d'eau et les distributions longitudinales et verticales de vitesses et salinités. Les résultats permettent alors de déduire les circulations instantanées obtenues aux différentes heures de la marée. Celles‐ci mettent en évidence des phénomènes physiques caractéristiques de l'estuaire du Saint‐Laurent et qui ont été plusieurs fois observés. Parmi ceux‐ci, les processus les plus importants concernent les marées internes, la remontée d'eau profonde et les effets des gradients horizontaux de salinités sur les profils verticaux de vitesse.  相似文献   

12.
Résumé

Dans la mesure où l'on entrevoit la possibilité de réduire, sinon de sup‐primer les chutes de grêle dévastatrices, il est nécessaire d'établir un bilan coût /bénéjîce ajin dejuger l'intérêt de telles opérations. La connaissance des relations entre caractéristiques physiques des chutes de grêle et les dégâts qu'elles occasion‐nent à la végétation est une élément indispensable à ce calcul. La méthode analytique, étant donné la diversité des cas de figures, risque d'être longue à mettre en ?uvre. Il peut être intéressant de rapprocher les résultats d'une réseau de grêlimètres aux constats des Compagnies d'assurances pour déterminer des seuils de façon statistique.  相似文献   

13.
Résumé

Des données grêlimètriques collectées durant la campagne expérimentale de l'été 1978 du programme Grossversuch ont été dépouillées à nouveau six mois plus tard par des opérateurs différents. La comparaison des valeurs des nombres, dimensions et énergies des grêlons montre que les deux séries ne sont pas statistiquement différentes: en un lieu 80% des différences relatives sont inférieures à 20% et pour deux chutes importantes on a obtenu moins de 1% de différence sur l'évaluation de l'énergie cinétique globale.

On conclut que la méthode d'évaluation de la grêle au moyen de réseaux de grêlimètres est suffisamment reproductible pour répondre aux objectifs du programme “Grossversuch IV” on présente néanmoins des recommandations pour éliminer quelques sources d'erreur d'origine technique.  相似文献   

14.
The tendency for rising sea levels, combined with changes in the frequency and intensity of extreme storm events raises the potential for flooding and inundation of coastal locations such as Halifax Harbour, in the context of climate change. In this study, we consider three scenarios for extreme high water levels based on climate change scenarios and estimates for land subsidence, rising mean sea levels, and return period analysis for extreme events (from previous studies). We also investigate the effect of ocean waves on these estimates for extreme high water levels. Because the most damaging storm to make landfall in Nova Scotia over the last century was Hurricane Juan (2003), it was chosen to simulate the extreme case of storm-generated waves and wave run-up in Halifax Harbour. To simulate waves generated by Hurricane Juan, a nested-grid system consisting of two modern state-of-the-art operational wave models was used. High quality winds were used to drive the wave models, and the simulations used recently updated high resolution coastal bathymetry. Observed water elevation changes in Halifax Harbour were used in wave model simulations of Hurricane Juan. The Federal Emergency Management Agency's (FEMA) run-up model is used to estimate wave run-up elevation, which is validated with recorded high water observations along the coastline. Simulated waves and wave run-up elevations for Hurricane Juan suggest that the maximum significant wave heights at the mouth of the Harbour were 9.0 m, and the wave run-up was as high as 2.0 m along the shoreline of Halifax Harbour. In this way, we estimated the impact of waves and wave run-up on extreme high water elevations for three climate change scenarios in Halifax Harbour, under worst-case conditions. The sensitivity of these estimates is analyzed for different water level variations, wave propagation directions and shore slope profiles.

[Traduit par la rédaction] La tendance à la hausse du niveau de la mer de pair avec les changements dans la fréquence et l'intensité des événements de tempêtes extrêmes augmentent le risque d'inondation et de submersion à des emplacements côtiers comme le port d'Halifax dans le contexte du changement climatique. Dans cette étude, nous examinons trois scénarios de niveaux de hautes eaux extrêmes basés sur des scénarios de changement climatique et estimations de subsidence du terrain, l’élévation du niveau moyen de la mer ainsi que l'analyse de la période de retour d’événements extrêmes (faite lors d’études antérieures). Nous examinons aussi les effets des vagues de l'océan sur ces estimations de niveaux de hautes eaux extrêmes. Étant donné que la tempête la plus dévastatrice à avoir touché terre en Nouvelle–Écosse au cours du dernier siècle a été l'ouragan Juan (2003), c'est celle-ci que nous avons choisie pour simuler le cas extrême de vagues produites par une tempête et de remontée de vagues dans le port d'Halifax. Pour simuler les vagues produites par Juan, nous nous sommes servis d'un système à grilles imbriquées consistant en deux modèles de vagues opérationnels à la fine pointe de la technologie. Les modèles de vagues étaient pilotés par des données de vent de haute qualité et les simulations disposaient d'une bathymétrie côtière à haute résolution récemment mise à jour. Les changements observés d’élévation de l'eau dans le port d'Halifax ont été utilisés dans les simulations de l'ouragan Juan par les modèles de vagues. Nous utilisons le modèle de remontée des vagues de la Federal Emergency Management Agency (FEMA) pour estimer la hauteur des remontées, qui est validée par rapport aux observations de hautes eaux enregistrées le long de la côte. Les vagues et les hauteurs de remontée des vagues simulées pour l'ouragan Juan suggèrent que la hauteur significative maximale des vagues à l'entrée du port était de 9,0 m et la remontée des vagues atteignait 2,0 m le long de la côte du port d'Halifax. Nous avons de cette manière estimé l'impact des vagues et de la remontée des vagues sur l’élévation des hautes eaux extrêmes pour trois scénarios de changement climatique dans le port d'Halifax dans les conditions les plus défavorables. Nous analysons la sensibilité de ces estimations à divers changements de niveau d'eau, directions de propagation et profils de pente côtière.  相似文献   

15.
This paper presents a reanalysis of trends in water properties around the Gulf of Alaska. The datasets used are the lighthouse time series and the Line-P time series augmented with data from the Argo global float array. It is shown that though trends have changed, the essential story that was told 15 years ago has not changed in any meaningful way. Sea-surface temperatures are rising over a large part of the Gulf of Alaska, and sea-surface salinities are declining. Both of these lead to a decrease in surface density. We show that the temperature change extends deep into the Gulf of Alaska, and the freshening trend extends to a depth of about 100 db. Potential energy in the water column is decreasing, and the result of the decreasing potential energy and the increasing stratification implies a decrease in mid-winter mixed layer depths.

RÉSUMÉ?[Traduit par la rédaction] Cet article présente une réanalyse des tendances des propriétés de l'eau dans le golfe d'Alaska. Les ensembles de données utilisés sont les séries chronologiques des phares et les séries chronologiques de la ligne P augmentés des données du réseau mondial de flotteurs Argo. Il ressort que même si les tendances ont changé, à peu près tout ce que l'on a pu dire il y a 15 ans demeure valable. Les températures de la surface de la mer augmentent dans une grande partie du golfe d'Alaska et les salinités de la surface diminuent. Ces deux facteurs entraînent une diminution de la densité de la surface. Nous montrons que le changement de température se produit jusqu’à une bonne profondeur dans le golfe d'Alaska et que la tendance à l'adoucissement s’étend jusqu’à une profondeur d'environ 100 db. L’énergie potentielle dans la colonne d'eau diminue et cette diminution, de pair avec l'accroissement de la stratification, implique une diminution des profondeurs de la couche de mélange au milieu de l'hiver.  相似文献   

16.
This article presents results from a model study of interannual and decadal variability in the Nordic Seas. Fifty years of simulations were conducted in an initial condition ensemble mode forced with the National Centers for Environmental Prediction (NCEP) reanalysis. We studied two major events in the interannual and interdecadal variability of the Nordic Seas during the past fifty years: the Great Salinity Anomaly in the 1960s and early 1970s and the warming of the Arctic and subarctic oceans in the late 1990s.

Previous studies demonstrated that the Great Salinity Anomaly observed in the subarctic ocean in 1960 was originally generated by intensified sea-ice and freshwater inflow from the Arctic Ocean. Our model results demonstrate that the increase in the transport of fresh and cold waters through Fram Strait in the 1960s was concurrent with a reduction in the meridional water exchange over the Greenland–Scotland Ridge. The resulting imbalance in salinity and heat fluxes through the strait and over the ridge also contributed to the freshening of the water masses of the Nordic Seas and intensified the Great Salinity Anomaly in the Nordic Seas.

The warming of the Atlantic Waters in the Nordic Seas and Arctic Ocean during the past two decades had an important impact on the variability of these two ocean basins. Some previous observational and model studies demonstrated that the warming of the subpolar Atlantic Ocean in the late 1990s and the meridional transport of the Atlantic Water mass (AW) into the Nordic Seas and Arctic Ocean contributed to this process. At the same time, observations show that the warming of the AW in the Nordic Seas started in the 1980s (i.e., earlier than the warming of the subpolar North Atlantic Ocean). Our model results suggest that this process was triggered by an imbalance in the lateral heat fluxes through Fram Strait and over the Greenland–Scotland Ridge. In the late 1980s the AW transport over the Greenland–Scotland Ridge was stronger than normal while the exchange through Fram Strait was close to normal. The related imbalance in the lateral heat fluxes through the strait and over the ridge warmed the Nordic Seas and caused an increase in the temperature of the AW inflow to the Arctic Ocean in the late 1980s (i.e., about a decade earlier than the warming of the source of the AW in the subpolar North Atlantic Ocean). Thus the model results suggest that the imbalance in lateral heat and salinity fluxes through the strait and over the ridge connecting the Nordic Seas to the North Atlantic and Arctic oceans could amplify the interannual variability in the subarctic ocean.

[Traduit par la rédaction] Cet article présente les résultats d'une étude par modèle de la variabilité interannuelle et décennale dans les mers nordiques. Nous avons effectué des simulations sur une période de cinquante ans en mode d'ensemble de conditions initiales forcé avec les réanalyses des NCEP (National Centers for Environmental Prediction). Nous avons étudié deux événements majeurs survenus dans la variabilité interannuelle et décennale des mers nordiques au cours des cinquante dernières années : la grande anomalie de salinité des années 1960 et du début des années 1970 et le réchauffement des océans Arctique et subarctique vers la fin des années 1990.

Des études précédentes ont démontrées que la grande anomalie de salinité observée dans l'océan subarctique en 1960 a été causée par une intensification de l'apport de glace de mer et d'eau douce depuis l'océan Arctique. Les résultats que nous avons obtenus du modèle montrent que l'accroissement du transport d'eau douce et froide à travers le détroit de Fram dans les années 1960 s'est produit en même temps qu'une réduction dans l’échange méridien d'eau au-dessus de la crête Groenland–Écosse. Le déséquilibre résultant dans les flux de salinité et de chaleur à travers le détroit et au-dessus de la crête a aussi contribué à l'adoucissement des masses d'eau des mers nordiques et a intensifié la grande anomalie de salinité dans les mers nordiques.

Le réchauffement des eaux atlantiques dans les mers nordiques et dans l'océan Arctique au cours des deux dernières décennies a eu un impact important sur la variabilité de ces deux bassins océaniques. Des études observationnelles et par modèle précédentes ont établi que le réchauffement de l'océan Atlantique subpolaire dans les années 1990 et le transport méridien de la masse d'eau atlantique dans les mers nordiques et dans l'océan Arctique ont contribué à ce processus. En même temps, les observations montrent que le réchauffement des eaux atlantiques dans les mers nordiques a commencé dans les années 1980 (c.–à–d. plus tôt que le réchauffement de l'océan Nord-Atlantique subpolaire). Les résultats du modèle suggèrent que ce processus a été déclenché par un déséquilibre dans les flux de chaleur latéraux à travers le détroit de Fram et au-dessus de la crête Groenland–Écosse. À la fin des années 1980, le transport des eaux atlantiques au-dessus de la crête Groenland–Écosse était plus fort que la normale alors que l’échange à travers le détroit de Fram était près de la normale. Le déséquilibre résultant dans les flux de chaleur latéraux à travers le détroit et au-dessus de la crête a réchauffé les mers nordiques et causé une augmentation de la température des eaux atlantiques parvenant à l'océan Arctique à la fin des années 1980 (c.-à-d. environ une décennie avant le réchauffement de la source d'eaux atlantiques dans l'océan Nord-Atlantique subpolaire). Donc, les résultats du modèle suggèrent que le déséquilibre dans les flux de chaleur et de salinité latéraux à travers le détroit et au-dessus de la crête reliant les mers nordiques à l'Atlantique Nord et à l'Arctique pourrait amplifier la variabilité interannuelle dans l'océan subarctique.  相似文献   

17.
《大气与海洋》2012,50(4):129-145
In the ensemble Kalman filter (EnKF), ensemble size is one of the key factors that significantly affects the performance of a data assimilation system. A relatively small ensemble size often must be chosen because of the limitations of computational resources, which often biases the estimation of the background error covariance matrix. This is an issue of particular concern in Argo data assimilation, where the most complex state-of-the-art models are often used. In this study, we propose a time-averaged covariance method to estimate the background error covariance matrix. This method assumes that the statistical properties of the background errors do not change significantly at neighbouring analysis steps during a short time window, allowing the ensembles generated at previous steps to be used in present steps. As such, a joint ensemble matrix combining ensembles of previous and present steps can be constructed to form a larger ensemble for estimating the background error covariance. This method can enlarge the ensemble size without increasing the number of model integrations, and this method is equivalent to estimating the background error covariance matrix using the mean ensemble covariance averaged over several assimilation steps. We apply this method to the assimilation of Argo and altimetry datasets with an oceanic general circulation model.

Experiments show that the use of this time-averaged covariance can improve the performance of the EnKF by reducing the root mean square error (RMSE) and improving the estimation of error covariance structure as well as the relationship between ensemble spread and RMSE.

RÉSUMÉ [Traduit par la rédaction] Dans le filtre de Kalman d'ensemble (EnKF), la taille de l'ensemble est l'un des facteurs clés qui ont une influence importante sur la performance d'un système d'assimilation de données. Il faut souvent choisir une taille d'ensemble assez petite à cause des limites des ressources informatiques, ce qui biaise souvent l'estimation de la matrice de covariance de l'erreur de fond. Cette question revêt une importance particulière pour l'assimilation des données Argo, qui fait souvent appel à des modèles de pointe très complexes. Dans cette étude, nous proposons une méthode de covariance moyennée dans le temps pour estimer la matrice de covariance de l'erreur de fond. Cette méthode suppose que les propriétés statistiques des erreurs de fond ne changent pas de façon importante d'une étape d'analyse à la suivante durant un court laps de temps, ce qui permet d'utiliser dans les étapes courantes les ensembles générés aux étapes précédentes. Ainsi, on peut construire une matrice d'ensembles conjoints combinant les ensembles des étapes précédentes et courantes pour former un plus grand ensemble dans le but d'estimer la covariance de l'erreur de fond. Cette méthode peut accroître la taille de l'ensemble sans augmenter le nombre d'intégrations du modèle; elle équivaut à estimer la matrice de covariance de l'erreur de fond en utilisant la covariance moyenne de l'ensemble calculée sur plusieurs étapes d'assimilation. Nous appliquons cette méthode à l'assimilation des ensembles de données Argo et d'altimétrie avec un modèle de circulation océanique générale.

Des essais montrent que l'emploi de cette covariance moyennée dans le temps peut améliorer la performance de l'EnKF en réduisant l’écart-type et en améliorant l'estimation de la structure de la covariance de l'erreur de même que la relation entre l'étalement et l'écart-type l'ensemble.  相似文献   

18.
Résumé

L'utilisation de valeurs physiques pour évaluer les dommages occasionnés par la grêle aux récoltes se heurte à des difficultés qui tiennent à la réponse variable d'un élément de végétal au choc d'un grêlon. L'énergie cinétique n'est probablement pas un excellent paramètre d'évaluation, et on suggère que la percussion est une valeur physique plus intéressante, bien que plus difficile à déterminer parce que faisant intervenir la vitesse du végétal après percussion.

Pour mesurer l'intérêt pratique d'une opération de lutte contre la grêle, il reste donc intéressant, sinon indispensable, d'utiliser des données établies directement à partir d'observations physiologiques, et non physiques, telles que celles recueillies par les experts des sociétés d'assurances contre la grêle. On présente la méthode d'utilisation de ce type de données adoptée pour le contrôle de l'expérience française de lutte contre la grêle par réseaux de générateurs au sol de noyaux d'iodure d'argent, et on suggère certaines améliorations qui pourraient être apportées à cette méthode.  相似文献   

19.
J. Dupont 《大气与海洋》2013,51(3):449-466
Résumé

En mars 1982, le ministère de l'Environnement du Québec a entrepris un échantillonnage physico‐chimique de 64 lacs de tête de la région de Rouyn‐Noranda. Les objectifs de l'étude étaient de déterminer la sensibilité des lacs de cette région et de délimiter l'aire d'influence de la plus importante source anthropique d'émission d'anhydride sulfureux au Québec.

Le traitement graphique et statistique des résultats, ainsi que l'application de modèles empiriques d'acidification ont permis de dégager les zones les plus vulnérables à l'acidification. L'application de ces techniques d'analyse a montré, entre autres, que les concentrations de sulfates en lac étaient beaucoup plus élevées à proximité de Rouyn‐Noranda où est située l'usine Mines Noranda Itée. De fait, la concentration de sulfates dans les lacs de cette région passe de 16 mg L?1, aux alentours de Rouyn‐Noranda, à moins de 2 mg L?1 en direction du nord‐est, alors qu'elle baisse à 8 mg L?1 en bordure de la rivière des Outaouais. De plus, en faisant abstraction de la distribution en forme de cloche des concentrations de sulfates autour de Rouyn‐Noranda, l'étude a permis de faire ressortir la décroissance générale des sulfates du sud‐ouest vers le nord‐est.

Les points majeurs qui ressortent de cette étude sont la présence de lacs très acides à proximité de Rouyn‐Noranda et V extrême vulnérabilité des plans d'eau situés au sud et sud‐est de la ville. En effet, l'eau des lacs de la région du Témiscamingue est en général moins minéralisée et plus acide que celle des lacs au nord de cette région. Cette distinction est due à la nature géologique des substrats dans les bassins versants. Ainsi, les lacs sensibles à l'acidification sont principalement situés sur des bassins versants associés à des roches granitiques et gneissiques, comparativement aux roches volcaniques et aux dépôts d'argiles lacustres qui caractérisent les lacs aux eaux plus minéralisées.  相似文献   

20.
《大气与海洋》2012,50(4):4-14
This study takes advantage of the newly established observational network of Argo floats to investigate the variability of the oceanic surface mixed layer (ML) in response to typhoons occurring over the period 2000–08 in the western North Pacific Ocean. After removing the background variability due to the seasonal cycle, the regionally averaged ML response is statistically analyzed as a function of the distance from the typhoon centre, the time after typhoon passage, the geographic location, the translation speed of the typhoon and the pre-existing patterns of oceanic circulation. Based on an unprecedented amount of new observational data, our analysis reveals some notable differences between ML temperature and ML depth changes induced by a typhoon, including the delayed response of ML temperature relative to ML depth, the longer restoring time of ML temperature, and the tendency of pre-existing cold-core features to favour ML cooling while warm-core features favour ML deepening.

RÉSUMÉ?[Traduit par la rédaction] La présente étude tire profit du nouveau réseau de balises d'observation Argo qui étudie la variabilité de la couche de mélange de la surface océanique en réponse aux typhons survenus durant la période 2000–2008 dans l'ouest du Pacifique Nord. Après avoir éliminé la variabilité de fond due au cycle saisonnier, nous faisons une analyse statistique de la réponse de la couche de mélange, moyennée dans une région, en fonction de la distance du centre du typhon, du temps écoulé depuis le passage du typhon, du lieu géographique, de la vitesse de déplacement du typhon et des configurations de circulation océanique préexistantes. En se basant sur une quantité sans précédent de nouvelles données d'observation, notre analyse révèle des différences notables entre les changements de température et de profondeur de la couche de mélange produits par le typhon, y compris la réponse retardée de la température de la couche de mélange par rapport à la profondeur de la couche de mélange, le temps de rétablissement plus long de la température de la couche de mélange et la tendance des caractéristiques de noyaux froids préexistantes à favoriser le refroidissement de la couche de mélange pendant que les caractéristiques de noyaux chauds favorisent l'approfondissement de la couche de mélange.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号