首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 875 毫秒
1.
The first thorough examination of oxygen concentrations in Canadian waters of the Pacific Ocean reveals several patterns in space and time. Sub-surface concentrations of oxygen tend to be lower in shelf waters than in deep-sea waters on the same isopycnal and lower in southern waters of the continental shelf than farther north. The lowest near-bottom concentration was 0.7 ml L?1 (31 μmol kg?1) in mid-shelf waters in summer off southwest Vancouver Island in the Juan de Fuca Eddy region. Oxygen concentration there declined at a rate of 0.019 ml L?1 y?1 (0.83 μmol kg?1 y?1) from 1979 to 2011. This decline is attributed mainly to changes in oxygen concentrations on the same density surfaces, rather than to changes in the depth of constant-density surfaces. A numerical simulation of ocean currents and nutrient concentrations in and surrounding the Juan de Fuca Eddy in summer reveals persistent upwelling into the centre of this eddy and slow bottom currents within the eddy. Upwelled water at bottom of the Juan de Fuca Eddy has water properties associated with the California Undercurrent on the 26.6 sigma-t surface at 200 m depth, where oxygen concentration is typically 2.0 ml L?1 (87 μmol kg?1) and declined at a rate of 0.025 ml L?1 y?1 (1.1 μmol kg?1 y?1) from 1981 to 2011, mainly as a result of changes on constant-density surfaces rather than to uplifting isopycnals. We propose that upwelling advects deep, oxygen-poor water onto the continental shelf bottom, and the slow bottom currents allow time for oxidation of organic material in bottom waters to further reduce the oxygen concentration.

RÉSUMÉ?[Traduit par la rédaction] Le premier examen approfondi des concentrations d'oxygène dans les eaux canadiennes de l'océan Pacifique révèle plusieurs configurations dans le temps et dans l'espace. Les concentrations d'oxygène sous la surface ont tendance à être plus faibles dans les eaux de la plate-forme continentale que dans les eaux de l'océan profond sur la même isopycne et plus faibles dans les eaux du sud de la plate-forme que plus loin au nord. La concentration la plus faible près du fond était de 0.7 ml L?1 (31 μmol kg?1) dans les eaux du milieu de la plate-forme en été au large du sud-ouest de l’île de Vancouver dans la région du remous de Juan de Fuca. Les concentrations en oxygène à cet endroit ont diminué au rythme de 0.019 ml L?1 a?1 (0.83 μmol kg?1 a?1) entre 1979 et 2011. Cette diminution est principalement attribuée aux changements dans les concentrations d'oxygène sur les surfaces d’égale densité plutôt qu'aux changements dans la profondeur des surfaces de densité constante. Une simulation numérique des courants océaniques et des concentrations de nutrients dans le remous de Juan de Fuca et dans les régions avoisinantes en été révèle des remontées d'eau froide persistantes vers le centre de ce remous et des courants de fond lents à l'intérieur du remous. L'eau qui a remonté au fond du remous de Juan de Fuca a des propriétés liées au sous-courant de Californie sur la surface sigma–t 26.6 à une profondeur de 200 m, où la concentration en oxygène est normalement de 2.0 ml L?1 (87 μmol kg?1), et a diminué au taux de 0.025 ml L?1 a?1 (1.1 μmol kg?1 a?1) de 1981 à 2011, principalement à cause des changements sur les surfaces de densité constante plutôt que du soulèvement des isopycnes. Nous pausons l'hypothèse que les remontées d'eau advectent des eaux profondes pauvres en oxygène au bas de la plate-forme continentale et que les lents courants de fond donnent le temps à l'oxydation de la matière organique dans les eaux de fond, ce qui réduit davantage la concentration de l'oxygène.  相似文献   

2.
This study focuses on two physical processes for waves in shallow waters off the Mackenzie Delta: bottom friction and depth-induced breaking terms. We use field observations of winds and waves, the state-of-the-art Simulating Waves Nearshore (SWAN) model, and reanalysis wind and wave data. The two field observation periods are an August 2008 field experiment, during which in situ field data were collected, and an Arctic storm when data were recorded by buoy measurements from 4 to 6 August 1991. Wind and wave development processes are analyzed during these two periods with comparisons to observed winds and waves. Our analyses show that bottom friction is the main shallow water physical process during the August 2008 field experiment, whereas depth-induced breaking is the dominant shallow water physical process during the 4–6 August 1991 storm, in conjunction with the effects of bottom friction. The SWAN wave model is used to investigate the shallow water physical processes during these two observation periods. Simulation results indicate that the model can give reasonable results, with an appropriate Collins coefficient of 0.006 and a wave breaking parameter of 0.55 to represent bottom friction and depth-induced breaking physics, respectively.

RÉSUMÉ?[Traduit par la rédaction] Cette étude porte sur deux processus physiques concernant les vagues dans les eaux peu profondes au large du delta du Mackenzie : les termes du frottement contre le fond et du déferlement lié à la profondeur. Nous utilisons des observations du vent et des vagues, le modèle d'avant-garde SWAN (Simulating Waves Nearshore) et des données de vent et de vagues réanalysées. Les deux périodes d'observations sont une expérience sur le terrain réalisée en août 2008, au cours de laquelle des données de terrain ont été recueillies, et une tempête arctique lors de laquelle des mesures faites par bouée du 4 au 6 août 1991 ont été enregistrées. Nous analysons les processus dévolution du vent et des vagues durant ces deux périodes, et comparons avec le vent et les vagues observées. Nos analyses montrent que le frottement contre le fond est le processus physique en eaux peu profondes le plus important durant l'expérience sur le terrain d'août 2008, alors que le déferlement lié à la profondeur est le processus physique en eaux peu profondes dominant pendant la tempête arctique du 4 au 6 août 1991, en combinaison avec les effets du frottement contre le fond. Nous nous servons du modèle de vagues SWAN pour étudier les processus physiques en eaux peu profondes durant ces deux périodes d'observations. Les résultats des simulations indiquent que le modèle peut donner des résultats raisonnables, avec un coefficient de Collins approprié de 0,006 et un paramètre de déferlement de 0,55 pour représenter la physique du frottement contre le fond et du déferlement lié à la profondeur, respectivement.  相似文献   

3.
Résumé

Un modèle bidimensionnel dans le sens vertical est utilisé afin d'étudier et de simuler la circulation marine engendrée par la marée dans l'estuaire du Saint‐Laurent. A partir d'une schématisation de l'Estuaire et de conditions en niveaux d'eau et salinités aux extrémités aval et amont du domaine d'étude, ce modèle génère la répartition des hauteurs d'eau et les distributions longitudinales et verticales de vitesses et salinités. Les résultats permettent alors de déduire les circulations instantanées obtenues aux différentes heures de la marée. Celles‐ci mettent en évidence des phénomènes physiques caractéristiques de l'estuaire du Saint‐Laurent et qui ont été plusieurs fois observés. Parmi ceux‐ci, les processus les plus importants concernent les marées internes, la remontée d'eau profonde et les effets des gradients horizontaux de salinités sur les profils verticaux de vitesse.  相似文献   

4.
This article presents results from a model study of interannual and decadal variability in the Nordic Seas. Fifty years of simulations were conducted in an initial condition ensemble mode forced with the National Centers for Environmental Prediction (NCEP) reanalysis. We studied two major events in the interannual and interdecadal variability of the Nordic Seas during the past fifty years: the Great Salinity Anomaly in the 1960s and early 1970s and the warming of the Arctic and subarctic oceans in the late 1990s.

Previous studies demonstrated that the Great Salinity Anomaly observed in the subarctic ocean in 1960 was originally generated by intensified sea-ice and freshwater inflow from the Arctic Ocean. Our model results demonstrate that the increase in the transport of fresh and cold waters through Fram Strait in the 1960s was concurrent with a reduction in the meridional water exchange over the Greenland–Scotland Ridge. The resulting imbalance in salinity and heat fluxes through the strait and over the ridge also contributed to the freshening of the water masses of the Nordic Seas and intensified the Great Salinity Anomaly in the Nordic Seas.

The warming of the Atlantic Waters in the Nordic Seas and Arctic Ocean during the past two decades had an important impact on the variability of these two ocean basins. Some previous observational and model studies demonstrated that the warming of the subpolar Atlantic Ocean in the late 1990s and the meridional transport of the Atlantic Water mass (AW) into the Nordic Seas and Arctic Ocean contributed to this process. At the same time, observations show that the warming of the AW in the Nordic Seas started in the 1980s (i.e., earlier than the warming of the subpolar North Atlantic Ocean). Our model results suggest that this process was triggered by an imbalance in the lateral heat fluxes through Fram Strait and over the Greenland–Scotland Ridge. In the late 1980s the AW transport over the Greenland–Scotland Ridge was stronger than normal while the exchange through Fram Strait was close to normal. The related imbalance in the lateral heat fluxes through the strait and over the ridge warmed the Nordic Seas and caused an increase in the temperature of the AW inflow to the Arctic Ocean in the late 1980s (i.e., about a decade earlier than the warming of the source of the AW in the subpolar North Atlantic Ocean). Thus the model results suggest that the imbalance in lateral heat and salinity fluxes through the strait and over the ridge connecting the Nordic Seas to the North Atlantic and Arctic oceans could amplify the interannual variability in the subarctic ocean.

[Traduit par la rédaction] Cet article présente les résultats d'une étude par modèle de la variabilité interannuelle et décennale dans les mers nordiques. Nous avons effectué des simulations sur une période de cinquante ans en mode d'ensemble de conditions initiales forcé avec les réanalyses des NCEP (National Centers for Environmental Prediction). Nous avons étudié deux événements majeurs survenus dans la variabilité interannuelle et décennale des mers nordiques au cours des cinquante dernières années : la grande anomalie de salinité des années 1960 et du début des années 1970 et le réchauffement des océans Arctique et subarctique vers la fin des années 1990.

Des études précédentes ont démontrées que la grande anomalie de salinité observée dans l'océan subarctique en 1960 a été causée par une intensification de l'apport de glace de mer et d'eau douce depuis l'océan Arctique. Les résultats que nous avons obtenus du modèle montrent que l'accroissement du transport d'eau douce et froide à travers le détroit de Fram dans les années 1960 s'est produit en même temps qu'une réduction dans l’échange méridien d'eau au-dessus de la crête Groenland–Écosse. Le déséquilibre résultant dans les flux de salinité et de chaleur à travers le détroit et au-dessus de la crête a aussi contribué à l'adoucissement des masses d'eau des mers nordiques et a intensifié la grande anomalie de salinité dans les mers nordiques.

Le réchauffement des eaux atlantiques dans les mers nordiques et dans l'océan Arctique au cours des deux dernières décennies a eu un impact important sur la variabilité de ces deux bassins océaniques. Des études observationnelles et par modèle précédentes ont établi que le réchauffement de l'océan Atlantique subpolaire dans les années 1990 et le transport méridien de la masse d'eau atlantique dans les mers nordiques et dans l'océan Arctique ont contribué à ce processus. En même temps, les observations montrent que le réchauffement des eaux atlantiques dans les mers nordiques a commencé dans les années 1980 (c.–à–d. plus tôt que le réchauffement de l'océan Nord-Atlantique subpolaire). Les résultats du modèle suggèrent que ce processus a été déclenché par un déséquilibre dans les flux de chaleur latéraux à travers le détroit de Fram et au-dessus de la crête Groenland–Écosse. À la fin des années 1980, le transport des eaux atlantiques au-dessus de la crête Groenland–Écosse était plus fort que la normale alors que l’échange à travers le détroit de Fram était près de la normale. Le déséquilibre résultant dans les flux de chaleur latéraux à travers le détroit et au-dessus de la crête a réchauffé les mers nordiques et causé une augmentation de la température des eaux atlantiques parvenant à l'océan Arctique à la fin des années 1980 (c.-à-d. environ une décennie avant le réchauffement de la source d'eaux atlantiques dans l'océan Nord-Atlantique subpolaire). Donc, les résultats du modèle suggèrent que le déséquilibre dans les flux de chaleur et de salinité latéraux à travers le détroit et au-dessus de la crête reliant les mers nordiques à l'Atlantique Nord et à l'Arctique pourrait amplifier la variabilité interannuelle dans l'océan subarctique.  相似文献   

5.
A catastrophic rain event occurred in early June 2002 during a major drought over the Canadian Prairies. The storm brought record-breaking rainfall and major flooding to many locations in the region. Given the importance of this event, this study's overall objectives are to characterize and to understand the physical nature of the rainstorm better. The event was associated with a major extratropical cyclone which acted in concert with the Great Plains low-level jet to transport a tremendous amount of moisture into the eastern Prairies producing intense diurnal mesoscale convective systems over the region. At the same time, moisture was transported to the western Prairies by a strong easterly low-level jet which produced heavy and long-lived orographic precipitation near the foothills. Several working hypotheses were developed to explain the severity and longevity of the rainstorm; it was found that the Rockies played a central role in the organization and development of the system.

Atmospheric features that are critical to the development of an important class of extreme rain events in the Canadian Prairies were also identified. The severity of the June 2002 system is partly a result of the rare co-occurrence of these features during the period. Results from a preliminary analysis show that the atmospheric conditions associated with the extreme background drought enhanced the likelihood of the co-occurrence of these features during spring 2002, hence facilitating the development of the extreme rain event. In return, the tremendous precipitation from the storm alleviated the drought conditions in the southern Prairies.

R ésumé ?[Traduit par la rédaction] Un événement de pluie catastrophique s'est produit au début de juin 2002 pendant une sécheresse importante dans les Prairies canadiennes. La tempête a produit des chutes de pluie records et des inondations importantes à plusieurs endroits dans la région. Étant donné l'importance de cet événement, les objectifs généraux de la présente étude sont de mieux caractériser et de mieux comprendre la nature physique de la tempête de pluie. L'événement a été causé par une importante dépression extratropicale qui s'est associée au courant-jet à basse altitude des Grandes Plaines pour transporter une énorme quantité d'humidité dans l'est des Prairies et produire d'intenses systèmes convectifs de mésoéchelle diurne dans la région. En même temps, de l'humidité transportée dans l'ouest des Prairies par un fort courant-jet à basse altitude soufflant de l'est a produit d'intenses précipitations orographiques persistantes près des contreforts. Nous avons formulé plusieurs hypothèses de travail pour expliquer l'intensité et la persistance de la tempête de pluie; il ressort que les Rocheuses ont joué un rôle central dans l'organisation et le développement du système.

Nous avons aussi identifié les caractéristiques atmosphériques essentielles à la formation d'une catégorie importante d'événements de pluie extrêmes dans les Prairies canadiennes. L'intensité du système de juin 2002 est en partie le résultat de la rare présence simultanée de ces caractéristiques durant la période. Les résultats d'une analyse préliminaire montrent que les conditions atmosphériques liées à la sécheresse extrême qui régnait en toile de fond ont augmenté la probabilité d'une présence simultanée de ces caractéristiques au cours du printemps 2002, ce qui a favorisé la formation de l'événement de pluie extrême. En revanche, les précipitations diluviennes produites par la tempête ont atténué les conditions de sécheresse dans le sud des Prairies.  相似文献   

6.
J. Dupont 《大气与海洋》2013,51(3):449-466
Résumé

En mars 1982, le ministère de l'Environnement du Québec a entrepris un échantillonnage physico‐chimique de 64 lacs de tête de la région de Rouyn‐Noranda. Les objectifs de l'étude étaient de déterminer la sensibilité des lacs de cette région et de délimiter l'aire d'influence de la plus importante source anthropique d'émission d'anhydride sulfureux au Québec.

Le traitement graphique et statistique des résultats, ainsi que l'application de modèles empiriques d'acidification ont permis de dégager les zones les plus vulnérables à l'acidification. L'application de ces techniques d'analyse a montré, entre autres, que les concentrations de sulfates en lac étaient beaucoup plus élevées à proximité de Rouyn‐Noranda où est située l'usine Mines Noranda Itée. De fait, la concentration de sulfates dans les lacs de cette région passe de 16 mg L?1, aux alentours de Rouyn‐Noranda, à moins de 2 mg L?1 en direction du nord‐est, alors qu'elle baisse à 8 mg L?1 en bordure de la rivière des Outaouais. De plus, en faisant abstraction de la distribution en forme de cloche des concentrations de sulfates autour de Rouyn‐Noranda, l'étude a permis de faire ressortir la décroissance générale des sulfates du sud‐ouest vers le nord‐est.

Les points majeurs qui ressortent de cette étude sont la présence de lacs très acides à proximité de Rouyn‐Noranda et V extrême vulnérabilité des plans d'eau situés au sud et sud‐est de la ville. En effet, l'eau des lacs de la région du Témiscamingue est en général moins minéralisée et plus acide que celle des lacs au nord de cette région. Cette distinction est due à la nature géologique des substrats dans les bassins versants. Ainsi, les lacs sensibles à l'acidification sont principalement situés sur des bassins versants associés à des roches granitiques et gneissiques, comparativement aux roches volcaniques et aux dépôts d'argiles lacustres qui caractérisent les lacs aux eaux plus minéralisées.  相似文献   

7.
《大气与海洋》2012,50(4):129-145
In the ensemble Kalman filter (EnKF), ensemble size is one of the key factors that significantly affects the performance of a data assimilation system. A relatively small ensemble size often must be chosen because of the limitations of computational resources, which often biases the estimation of the background error covariance matrix. This is an issue of particular concern in Argo data assimilation, where the most complex state-of-the-art models are often used. In this study, we propose a time-averaged covariance method to estimate the background error covariance matrix. This method assumes that the statistical properties of the background errors do not change significantly at neighbouring analysis steps during a short time window, allowing the ensembles generated at previous steps to be used in present steps. As such, a joint ensemble matrix combining ensembles of previous and present steps can be constructed to form a larger ensemble for estimating the background error covariance. This method can enlarge the ensemble size without increasing the number of model integrations, and this method is equivalent to estimating the background error covariance matrix using the mean ensemble covariance averaged over several assimilation steps. We apply this method to the assimilation of Argo and altimetry datasets with an oceanic general circulation model.

Experiments show that the use of this time-averaged covariance can improve the performance of the EnKF by reducing the root mean square error (RMSE) and improving the estimation of error covariance structure as well as the relationship between ensemble spread and RMSE.

RÉSUMÉ [Traduit par la rédaction] Dans le filtre de Kalman d'ensemble (EnKF), la taille de l'ensemble est l'un des facteurs clés qui ont une influence importante sur la performance d'un système d'assimilation de données. Il faut souvent choisir une taille d'ensemble assez petite à cause des limites des ressources informatiques, ce qui biaise souvent l'estimation de la matrice de covariance de l'erreur de fond. Cette question revêt une importance particulière pour l'assimilation des données Argo, qui fait souvent appel à des modèles de pointe très complexes. Dans cette étude, nous proposons une méthode de covariance moyennée dans le temps pour estimer la matrice de covariance de l'erreur de fond. Cette méthode suppose que les propriétés statistiques des erreurs de fond ne changent pas de façon importante d'une étape d'analyse à la suivante durant un court laps de temps, ce qui permet d'utiliser dans les étapes courantes les ensembles générés aux étapes précédentes. Ainsi, on peut construire une matrice d'ensembles conjoints combinant les ensembles des étapes précédentes et courantes pour former un plus grand ensemble dans le but d'estimer la covariance de l'erreur de fond. Cette méthode peut accroître la taille de l'ensemble sans augmenter le nombre d'intégrations du modèle; elle équivaut à estimer la matrice de covariance de l'erreur de fond en utilisant la covariance moyenne de l'ensemble calculée sur plusieurs étapes d'assimilation. Nous appliquons cette méthode à l'assimilation des ensembles de données Argo et d'altimétrie avec un modèle de circulation océanique générale.

Des essais montrent que l'emploi de cette covariance moyennée dans le temps peut améliorer la performance de l'EnKF en réduisant l’écart-type et en améliorant l'estimation de la structure de la covariance de l'erreur de même que la relation entre l'étalement et l'écart-type l'ensemble.  相似文献   

8.
《大气与海洋》2012,50(4):77-91
The seasonal characteristics of water masses, mixed-layer depth and the current field east of Luzon Strait are studied using Argo profiling float data. Based on data from March 2006 to November 2010, the temperature-salinity relation indicates that the seasonal variation of water masses is not obvious, except that the surface temperature is lower and the salinity is higher in spring and winter; the water masses in other layers change little. The seasonal variation of the mixed-layer depth, which is deepest at over 170 m in winter and shallowest at about 25 m in summer, is also discussed. Based on the P-vector method, multi-year seasonal mean Argo data and Levitus data are used to calculate the respective current fields. The surface geostrophic current derived from altimetric data is compared with those computed from Argo data and Levitus data. It is shown that, the current field computed from Argo data, which shows the Kuroshio and eddies clearly, is similar to that obtained from altimetric data, except that the current speed is less in the former case than in the latter one; this may be related to the scarcity and uneven distribution of Argo floats, the subsequent interpolation and extrapolation errors, the shortcomings of the P-vector method, the lack of a barotropic component in the calculation or the altimetry-derived current error associated with the marine geoid, but the resultant current field is much better than that obtained from Levitus data. Moreover, Argo data have an advantage in that they can be used to derive a three-dimensional current field, whereas the altimetric data can only be used to derive the surface current field. The seasonal variations in the vertical current structure and the Kuroshio transport east of Taiwan Island are also discussed; it is found that the thickness of the northward Kuroshio is about 700 m, and the seasonal zonal variation in the main axis of the Kuroshio is obvious.

RÉSUMÉ?[Traduit par la rédaction] Nous étudions les caractéristiques saisonnières des masses d'eau, la profondeur de la couche de mélange et le champ de courant à l'est du détroit de Luçon à l'aide des données des flotteurs profileurs Argo. D'après les données recueillies entre mars 2006 et novembre 2010, la relation température-salinité indique que la variation saisonnière des masses d'eau n'est pas évidente, sauf que la température de surface est plus basse et la salinité plus élevée au printemps et en hiver; les masses d'eau dans les autres couches changent peu. Nous discutons aussi de la variation saisonnière de la profondeur de la couche de mélange, qui est maximale à plus de 170 m en hiver et minimale à environ 25 m en été. En nous basant sur la méthode des vecteurs P, nous utilisons les données Argo et les données Levitus pluriannuelles de moyennes saisonnières pour calculer les champs de courant respectifs. Nous comparons le courant géostrophique de surface déduit des données altimétriques avec ceux calculés à l'aide des données Argo et des données Levitus. Il apparait que le champ de courant calculé d'après les données Argo, qui montre clairement le Kuroshio et les remous, est semblable à celui obtenu des données altimétriques, sauf que la vitesse du courant est moindre dans le premier cas que dans le dernier; cela peut être lié à la rareté et à la distribution inégale des flotteurs Argo, aux erreurs subséquentes d'interpolation et d'extrapolation, aux faiblesses de la méthode des vecteurs P, au manque d'une composante barotropique dans les calculs ou à l'erreur dans le courant déduit des données altimétriques associée au géoïde marin, mais le champ de courant résultant est bien meilleur que celui obtenu à l'aide des données Levitus. De plus, les données Argo présentent l'avantage de pouvoir être utilisées pour déduire un champ de courant tridimensionnel, alors que les données altimétriques ne permettent que de déduire le champ de courant de surface. Nous discutons aussi des variations saisonnières dans la structure verticale du courant et dans le transport par le Kuroshio à l'est de l’île de Taïwan; nous trouvons que la profondeur du Kuroshio circulant vers le nord est d'environ 700 m et la variation saisonnière zonale dans l'axe principal du Kuroshio est évidente.  相似文献   

9.
E. Yakimiw 《大气与海洋》2013,51(3):260-280
Résumé

Nous présentons les résultats d'une expérience numérique concernant la sensibilité d'un modèle de prévisions atmosphériques. Cette expérience a consisté à pertuber les conditions initiales dans le golfe de l'Alaska et à comparer les prévisions de cinq jours obtenues à partir des mêmes conditions initiales avec et sans perturbation. La perturbation introduite dans la fonction de courant est une dépression à symétrie radiale, d'environ 2000 km de rayon et de valeur centrale maximum de ‐10 dam. Le modèle utilisé est un modèle spectral barocline à cinq niveaux, tronqué “rhomboïdalement” à 20 ondes. La même perturbation a été introduite à tous les niveaux.

Nous avons trouvé, que, dans ce modèle, 1. la vitesse de propagation de la majeure partie de l'erreur moyenne et de l'écart type était égale à tous les niveaux, compte tenu de la marge d'erreur, et ne semble pas être directement reliée à la vitesse zonale moyenne. Elle vaut 18 ± 2ms‐1.

2. la vitesse de propagation des centres d'erreur moyenne et d'écart type est plus faible. Elle est voisine de 12 ±2 m s‐1 independamment du niveau.

3. l'intensité de l'erreur moyenne et de l'écart type augmente avec la hauteur provoquant ainsi un déplacement vers l'est plus rapide du contour de 1 dam de cette erreur ou de cet écart. Cette vitesse est de 20 m s‐1 à la 85 kPa, 33 m s‐1 à la 50 kPa et 37 m s‐1 à la 20 kPa. En moyenne, cette vitesse est 50% supérieure à la vitesse zonale moyenne du niveau. Au cinquième jour, la valeur du centre initial de l'écart type ne dépasse pas 4 dam tandis que d'autres centres se sont formés à l'avant pendant la période de prévision et valent entre 4 et 11 dam selon le niveau.

4. l'écart type total de l'hémisphère décroît plus ou moins rapidement au début de la période de prévision en fonction de la hauteur. Cet écart double ensuite sur une période de 2¼ jours à partir de 36 h à la 20 kPa, à partir de 60 h à la 50 kPa et à partir de 72 h à la 85 kPa, jusqu'à la fin de la période de prévision.

  相似文献   

10.
The geostrophic adjustment of a homogeneous fluid in a circular basin with idealized topography is addressed using a numerical ocean circulation model and analytical process models. When the basin is rotating uniformly, the adjustment takes place via excitation of boundary propagating waves and when topography is present, via topographic Rossby waves. In the numerically derived solution, the waves are damped because of bottom friction, and a quasi-steady geostrophically balanced state emerges that subsequently spins-down on a long time scale. On the f-plane, numerical quasi-steady state solutions are attained well before the system's mechanical energy is entirely dissipated by friction. It is demonstrated that the adjusted states emerging in a circular basin with a step escarpment or a top hat ridge, centred on a line of symmetry, are equivalent to that in a uniform depth semicircular basin, for a given initial condition. These quasi-steady solutions agree well with linear analytical solutions for the latter case in the inviscid limit.

On the polar plane, the high latitude equivalent to the β-plane, no quasi-steady adjusted state emerges from the adjustment process. At intermediate time scales, after the fast Poincaré and Kelvin waves are damped by friction, the solutions take the form of steady-state adjusted solutions on the f-plane. At longer time scales, planetary waves control the flow evolution. An interesting property of planetary waves on a polar plane is a nearly zero eastward group velocity for the waves with a radial mode higher than two and the resulting formation of eddy-like small-scale barotropic structures that remain trapped near the western side of topographic features.

RÉSUMÉ?Traduit par la rédaction] Nous étudions l'ajustement géostrophique d'un fluide homogène dans un bassin circulaire ayant une topographie idéalisée à l'aide d'un modèle numérique de circulation océanique et de modèles analytiques de processus. Quand le bassin est en rotation uniforme, l'ajustement se fait par l'excitation d'ondes de propagation aux limites, et en présence de topographie, par des ondes de Rossby topographiques. Dans la solution numériquement dérivée, les ondes sont amorties à cause frottement contre le fond, et un état quasi-stable géostrophiquement équilibré s’établit pour ensuite décélérer sur une longue période de temps. Sur le plan f, les solutions numériques d’états quasi-stables sont atteintes bien avant que l’énergie du système mécanique soit entièrement dissipée par le frottement. Nous démontrons que les états ajustés apparaissant dans un bassin circulaire avec un accore en forme de marche ou une crête en forme de merlon, centrés sur une ligne de symétrie, sont équivalents à ceux d'un bassin semi-circulaire de profondeur uniforme pour une condition initiale donnée. Les solutions quasi-stables s'accordent bien avec les solutions analytiques linéaires pour le dernier cas dans la limite de la non-viscosité.

Sur le plan polaire, la haute latitude équivalente au plan β, le processus d'ajustement n'aboutit à aucun état ajusté quasi-stable. Aux échelles de temps intermédiaires, après l'amortissement des ondes rapides de Poincaré et Kelvin par le frottement, les solutions prennent la forme de solutions ajustées d’états stables sur le plan f. Aux échelles de temps plus longues, les ondes planétaires déterminent l’évolution de l’écoulement. Une propriété intéressante des ondes planétaires sur un plan polaire est une vitesse de groupe presque nulle vers l'est pour les ondes ayant un mode radial plus grand que deux et la formation résultante de structures barotropiques de petite échelle de type remous qui demeurent emprisonnées près du bord ouest des caractéristiques topographiques.  相似文献   

11.
Résumé

Le régime journalier du rayonnement solaire global au sol a été reconstitué aux six stations du réseau radiométrique de base canadien situées au Québec à l'aide d'un modèle numérique simulant le transfert de l'énergie solaire à travers l'atmosphère. Les données d'humidité atmosphérique, de trouble atmosphérique et d'albédo au sol ont été interpolées dans le temps et l'espace à partir de la climatologie mensuelle connue de ces champs. La nébulosité a été tirée des séquences horaires des durées d'ensoleillement observées à ces mêmes stations et échelonnées sur une même période de 974 jours. On a estimé les limites de précision du modèle en déterminant l'erreur quadratique moyenne entre la valeur calculée et mesurée pour 1, 2, 3, … et 20 jours consécutifs. On a ainsi trouvé que l'erreur quadratique moyenne diminue rapidement pour les regroupements de 1 à 10 jours et se stabilise pour les périodes plus longues. L'amplitude de l'erreur quadratique moyenne varie saisonnièrement et latitudinalement étant en général plus faible en été et au sud. La variabilité des valeurs journalières simulées n'est que légèrement supérieure à celle des données journalières mesurées. Il est démontré finalement que l'utilisation journalière des résultats du modèle est préférable à l'utilisation de la climatologie du régime solaire.  相似文献   

12.
We conduct a retrospective study of ozone formation in the Lower Fraser Valley (LFV), using numerical models, observations, and emission inventories in order to understand relationships between reductions in local precursor emissions and episodic ozone concentrations. Because there appears to be little or no impact from precursor emissions upwind of the LFV during ozone episodes and because background concentrations of ozone and its precursors are generally from the North Pacific Ocean and quite low, summertime ozone formation in the LFV is mostly caused by local emissions. The observed change in behaviour of ozone formation must, therefore, arise from reductions in local precursor emissions. We exploit the observed changing precursor emission–ozone concentration relationship to perform a dynamical model evaluation. Complicating the analyses are an observed shift in the population patterns within the valley over the last 25 years and a small but documented change in the tropospheric background concentration of ozone. Ozone formation for four episodes, which capture the observed changes in ozone reduction and the different meteorological types that occur during LFV ozone events, are investigated using the Weather Research and Forecasting (WRF)-Sparse Matrix Operator Kernel Emissions (SMOKE)-Community Multiscale Air Quality (CMAQ) modelling system. In order to provide realistic simulations of past events, the SMOKE emission inventory is adjusted to account for temporal changes in the amount of emissions and locations of emission sources. Model output is compared with continuous observations, data collected from field campaigns, and previous modelling efforts. The WRF-SMOKE-CMAQ modelling framework is able to capture the changes in both the magnitude of the ozone concentrations and its spatial behaviour over the period of study. Many of the simulations show that the highest ozone concentrations occur outside the area sampled by the fixed monitoring network and within the LFV's numerous tributary valleys. Not all modelled episodes achieved the same agreement with observations and some of these discrepancies are likely related to shortcomings in the meteorological modelling. The model consistently overpredicts ozone at a number of stations within the City of Vancouver and underpredicts daytime NOx concentrations there. Both results are consistent with a deficiency in NOx emissions. The model shows a changing bias over time which also suggests uncertainties in the emission backcasting.

RÉSUMÉ?[Traduit par la rédaction] Nous menons une étude rétrospective de la formation de l'ozone dans le vallée du bas Fraser (VBF) à l'aide de modèles numériques, d'observations et d'inventaires d’émissions dans le but de comprendre les relations entre les réductions dans les émissions locales de polluants précurseurs et les concentrations épisodiques d'ozone. Parce qu'il semble n'y avoir que peu ou pas d'impact des émissions de polluants précurseurs en amont de la VBF durant les épisodes d'ozone et parce que les concentrations de fond de l'ozone et de ses précurseurs proviennent généralement du Pacifique Nord et sont très faibles, la formation d'ozone en été dans la VBF est principalement attribuable aux émissions locales. Le changement de comportement observé dans la formation d'ozone doit par conséquent résulter de réductions dans les émissions locales de précurseurs. Nous exploitons la relation changeante observée entre les émissions de précurseurs et la concentration de l'ozone pour effectuer une évaluation par modèle dynamique. Un déplacement observé dans les configurations de population à l'intérieur de la vallée au cours des 25 dernières années et un changement, petit mais documenté, dans la concentration troposphérique de fond de l'ozone viennent compliquer les analyses. Nous étudions la formation d'ozone lors de quatre épisodes qui capturent les changements observés dans la réduction d'ozone et les différents types météorologiques qui se produisent pendant les événements d'ozone dans la VBF en nous servant du système de modélisation SMOKE (Sparse Matrix Operator Kernel Emissions) – CMAQ (Community Multiscale Air Quality) du WRF (Weather Research and Forecasting). Afin de fournir des simulations réalistes des événements passés, nous avons ajusté l'inventaire d’émissions SMOKE pour tenir compte des changements au cours du temps dans la quantité d’émissions et dans la position des sources d’émissions. Nous comparons la sortie du modèle avec les observations continues, les données recueillies lors d’études sur le terrain et les efforts de modélisation précédents. Le cadre de modélisation WRF-SMOKE-CMAQ est capable de capturer les changements dans la grandeur des concentrations d'ozone ainsi que dans son comportement spatial durant la période de l’étude. Plusieurs des simulations montrent que les plus fortes concentrations d'ozone se produisent en dehors de la région échantillonnée par le réseau fixe de surveillance et à l'intérieur des nombreuses vallées affluentes de la VBF. Tous les épisodes modélisés n'ont pas exhibé le même accord avec les observations et certaines de ces divergences sont vraisemblablement dues à des lacunes dans la modélisation météorologique. Le modèle surprévoit constamment l'ozone à certaines stations dans la ville de Vancouver et sous-prévoit les concentrations de NOx le jour à cet endroit. Les deux résultats sont cohérents avec un déficit dans les émissions de NOx. Le modèle montre un biais qui change avec le temps, ce qui porte à croire à des incertitudes dans les émissions rétrospectives.  相似文献   

13.
Résumé

Cette étude présente des résultats expérimentaux sur les effets du vent et de l'échantillonnage sur la mesure de l'intensité des chutes de grêle, et suggère des thèmes de discus non pour l'Atelier.

L'angle moyen de chute des grêlons, mesuré à partir de la verticale, est un indice significatif de l'augmentation de l'énergie cinétique due à la vitesse du vent au sol. En Italie, au cours des années 1972–1975, 61% des observations révèlent un effet important des vents. Au cours d'un été de Grossversuch IV en Suisse, 41% des observations révèlent aussi de tels effets. Ces observations ont été faites à l’ aide de grêlimètres à cinq faces (hailcubes). On propose un plus grand effort pour rendre possible une estimation des effets du vent à l'aide de grélimètres horizontaux, peut être en utilisant, comme mesure principale, le rapport de la longueur sur la largeur des empreintes faites par les grêlons de la classe centrale de dimensions qui a touché les grêlimètres.

Des résultats sur des mesures juxtaposées du nombre de grêlons, par intervalle donnée de diamètres, et d'énergie cinétique sont aussi présentées. Ces mesures soulignent les erreurs dues à l'échantillonnage qui peuvent être considérables, spécialement pour les gros grêlons naturellement moins nombreux.  相似文献   

14.
Résumé

L'utilisation de valeurs physiques pour évaluer les dommages occasionnés par la grêle aux récoltes se heurte à des difficultés qui tiennent à la réponse variable d'un élément de végétal au choc d'un grêlon. L'énergie cinétique n'est probablement pas un excellent paramètre d'évaluation, et on suggère que la percussion est une valeur physique plus intéressante, bien que plus difficile à déterminer parce que faisant intervenir la vitesse du végétal après percussion.

Pour mesurer l'intérêt pratique d'une opération de lutte contre la grêle, il reste donc intéressant, sinon indispensable, d'utiliser des données établies directement à partir d'observations physiologiques, et non physiques, telles que celles recueillies par les experts des sociétés d'assurances contre la grêle. On présente la méthode d'utilisation de ce type de données adoptée pour le contrôle de l'expérience française de lutte contre la grêle par réseaux de générateurs au sol de noyaux d'iodure d'argent, et on suggère certaines améliorations qui pourraient être apportées à cette méthode.  相似文献   

15.
Résumé

Dans la mesure où l'on entrevoit la possibilité de réduire, sinon de sup‐primer les chutes de grêle dévastatrices, il est nécessaire d'établir un bilan coût /bénéjîce ajin dejuger l'intérêt de telles opérations. La connaissance des relations entre caractéristiques physiques des chutes de grêle et les dégâts qu'elles occasion‐nent à la végétation est une élément indispensable à ce calcul. La méthode analytique, étant donné la diversité des cas de figures, risque d'être longue à mettre en ?uvre. Il peut être intéressant de rapprocher les résultats d'une réseau de grêlimètres aux constats des Compagnies d'assurances pour déterminer des seuils de façon statistique.  相似文献   

16.
Résumé

Le comportement des ions majeurs (Ca+2, Mg+2, Na+, K+, Cl?, SO4 ?2) et de la conductivité en rivière en fonction des épisodes hydrologiques extrêmes est examiné. Plus précisément, les concentrations moyennes de chaque ion majeur, de même que la composition chimique globale des eaux en étiage et en crue sont confrontées aux valeurs obtenues dans les eaux de précipitation et les eaux souterraines. Il en ressort que, dans les eaux de la rivière Sainte‐Anne, même pour les épisodes d'étiage les plus sévères, la concentration des ions majeurs diffère sensiblement de celle des eaux souterraines. Par ailleurs, on observe que les concentrations sont significativement plus élevées en étiage qu'en crue pour l'ensemble des paramètres, ce qui est également mis en évidence par les relations concentration‐débit. Un bilan massique chimique par épisode a été esquissé, mais la contribution des eaux souterraines y apparaît généralement trop forte; on en déduit qu'une fraction seulement des eaux souterraines possède la concentration typique des eaux de puits ou que la nappe superficielle alimentant principalement l'écoulement en étiage, est bien moins chargée. Ces résultats mettent en évidence la complexité de l'évolution de la qualité même pour les éléments de comportement réputé simple.  相似文献   

17.
This article examines the current practice of streamflow modelling, a field under development for over a century. A sample of the wide range of assessment and planning applications of streamflow models is presented. The diversity in the use of these models is mirrored in the diversity of model complexity, and modelling approaches ranging from empirical to physically based and from lumped to fully distributed are described with examples. Predictions derived from hydrological models are subject to many sources of error; these are discussed along with methods for error minimization or anticipation. Model error is generally quantified using an ensemble of forecasts meant to sample the range of predictive uncertainty. This ensemble can be used to generate reliable probabilistic forecasts of hydrological quantities if all sources of error are accounted for. To date, applications of ensemble methods in streamflow forecasting have typically focused on only one or two error sources. A challenge will be to develop ensemble streamflow forecasts that sample a wider range of predictive uncertainty.

[Traduit par la rédaction] Le présent article examine la pratique actuelle en modélisation d’écoulement fluvial, un domaine qui évolue depuis plus d'un siècle. Nous présentons un échantillon de la vaste gamme d'applications d’évaluation et de planification des modèles d’écoulement fluvial. La diversité dans l'utilisation de ces modèles est le reflet de la diversité dans la complexité des modèles, et nous décrivons à l'aide d'exemples les approches de modélisation qui peuvent être empiriques ou basées sur la physique ou encore localisées ou entièrement réparties. Plusieurs sources d'erreur peuvent affecter les prévisions issues des modèles hydrologiques; nous discutons de ces sources d'erreur de même que des méthodes de réduction ou d'anticipation des erreurs. L'erreur du modèle est généralement quantifiée à l'aide d'un ensemble de prévisions servant à échantillonner la grandeur de l'incertitude prévisionnelle. Cet ensemble peut servir à produire des prévisions probabilistes fiables des grandeurs hydrologiques si toutes les sources d'erreur sont prises en compte. Jusqu’à maintenant, les applications des méthodes d'ensemble à la prévision des écoulements fluviaux n'ont généralement tenu compte que d'une ou deux sources d'erreur. Ce sera un défi de mettre au point des prévisions d'ensemble d’écoulement fluvial qui échantillonnent un plus large éventail d'incertitude prévisionnelle.  相似文献   

18.
A statistical downscaling technique is employed to link atmospheric circulation produced by an ensemble of global climate model (GCM) simulations over the twenty-first century to precipitation recorded at weather stations on Vancouver Island. Relationships between the different spatial scales are established with synoptic typing, coupled with non-homogeneous Markov models to simulate precipitation intensity and occurrence. Types are generated from daily precipitation observations spanning 1971 to 2000. Atmospheric predictors used to influence the Markov models are derived from two versions of GCM output: averages of GCM grid cells selected by correlation maps of circulation and precipitation data and an approach involving common Empirical Orthogonal Functions (EOFs) calculated from GCM output over the northeast Pacific Ocean. Projections for 2081 to 2100 made using averaged grid cells find that winter (November–February) precipitation anomalies produce modestly positive values, with gains of 7.5% in average precipitation, typical increases of 9.0% rising to 20% in the case of high-intensity precipitation, and little spatial dependence. In contrast, average and high-intensity summer precipitation (June–September) decline negligibly at most island weather stations with the exception of those in the southwestern sections, which experience reductions of 15% relative to 1971 to 2000. Projections made using common EOFs display a strong spatial dependence. Future winter precipitation is expected to increase only on the west coast of the island by 11%, on average, while the southeastern coast will experience decreases of 5% to 10%. The same pattern repeats in summer, though with negligible increases on the west coast and declines of 12% to 16% on the southeastern coast. The reliability of this novel EOF method remains to be confirmed definitively, however. In both seasons precipitation occurrence decreases slightly at all stations with declines in the total days with measurable precipitation ranging from 2% to 8%.

RÉSUMÉ [Traduit par la rédaction] Nous employons une technique statistique de réduction d’échelle pour lier la circulation atmosphérique produite par un ensemble de simulations du GCM (Global Climate Model) durant le XXIe siècle aux précipitations enregistrées à des stations météorologiques sur l’île de Vancouver. Les relations entre les différentes échelles spatiales sont établies au moyen d'un typage synoptique couplé avec des modèles markoviens non homogènes pour simuler l'intensité et la fréquence des précipitations. Les types sont générés à partir des observations quotidiennes de précipitations au cours de la période 1971–2000. Les prédicteurs atmosphériques utilisés pour influencer les modèles markoviens sont dérivés de deux versions de sorties du GCM : les moyennes de mailles du GCM sélectionnées par tables de corrélation des données de circulation et de précipitations et une approche fondée sur les fonctions orthogonales empiriques (EOF) communes calculées d'après la sortie du GCM pour le nord-est du Pacifique. Les projections pour la période 2081–2100 basées sur des moyennes de mailles montrent que les anomalies de précipitations hivernales (novembre–février) produisent de faibles valeurs positives, avec des gains de 7.5% dans les précipitations moyennes, des accroissements caractéristiques de 9.0% augmentant à 20% dans le cas des précipitations de forte intensité, et peu de dépendance spatiale. En revanche, les précipitations estivales (juin–septembre) moyennes et de forte intensité diminuent de façon négligeable à la plupart des stations météorologiques de l’île, à l'exception de celles situées dans secteur sud-ouest qui subissent une réduction de 15% par rapport à 1971–2000. Les projections faites à l'aide des fonctions orthogonales empiriques communes exhibent une forte dépendance spatiale. Les précipitations hivernales futures devraient augmenter seulement sur la côte ouest de l’île de 11% en moyenne alors que la côte sud-est connaîtra des diminutions de 5 à 10%. La même configuration se répète en été, bien qu'avec des accroissements négligeables sur la côte ouest et des diminutions de 12 à 16% sur la côte sud-est. La fiabilité de cette nouvelle méthode EOF reste toutefois à établir. Dans les deux saisons, la fréquence des précipitations diminue légèrement à toutes les stations, les diminutions du nombre total de jours avec précipitations mesurables variant entre 2 et 8%.  相似文献   

19.
《大气与海洋》2012,50(4):15-26
Argo salinity and temperature profiles, along with other sea surface measurements, were used to explore the impacts of Typhoon Namtheun (2004) on the ocean. Namtheun took local enthalpy heat from the sea (0.39–0.7?×?108 J m?2), cooled the sea surface water as a result of vertical mixing (maximum 3–4°C) and produced heavy precipitation over the sea (100–180 mm). During this time, the vast latent heat released (2.6–4.4?×?108 J m?2) by the precipitation made a larger contribution to the typhoon's energy budget than the local air-sea enthalpy flux. In the upper ocean, the oceanic responses can be separated into two sub-processes, the fast spin-up accompanied by one-dimensional vertical mixing and the slow spin-down accompanied by the convergence of surface water. From Argo profiles on 28 July, it can be seen that the typhoon-induced surface mixing broke down the seasonal thermocline (approximately 20 db) within one day. In addition, the shallower (<200 db) convergence of the sea surface fresh water as a result of precipitation also made the post-typhoon water fresher (0.04 (practical salinity scale used)). In the deep ocean, the rapid upwelling at the top of the permanent thermocline suggests that the fast spin-up is a barotropic mechanism, probably gravity pressure. During the slow spin-down stage, the upwelling signal propagated downward (approximately 2 m h?1) from the shallow water to the deep ocean for about 10 days; this was a baroclinic process. The baroclinic mechanism was more effective in maintaining a cyclonic eddy than in maintaining an inertial wave, and the low sea surface height anomaly and upwelling lasted much longer than the inertial oscillation (>20 days as opposed to approximately 10 days). This change in vertical structure and long-term upwelling could have impacts on the ocean environment and even on the short-term climate.

RÉSUMÉ?[Traduit par la rédaction] Nous nous sommes servis des profils de salinité et de température Argo, de pair avec d'autres mesures de la surface de la mer, pour explorer les répercussions du typhon Namtheun (2004) sur l'océan. Namtheun a pris de la chaleur enthalpique locale de la mer (0.39–0.7?×?108 J m?2), a refroidi l'eau de la surface de la mer par suite d'un mélange vertical (maximum 3°–4 °C) et a produit de fortes précipitations au-dessus de la mer (100–180 mm). Durant ce temps, l'importante quantité de chaleur latente (2.6–4.4?×?108 J m?2) relâchée par les précipitations a apporté une plus grande contribution au bilan énergétique du typhon que le flux enthalpique air-mer local. Dans la couche supérieure de l'océan, les réponses océaniques peuvent être divisées en deux sous-processus, la surgyration rapide accompagnée d'un mélange vertical unidimensionnel et la dégyration lente accompagnée de la convergence d'eau de surface. Sur les profils Argo du 28 juillet, on peut voir que le mélange en surface produit par le typhon a brisé la thermocline saisonnière (approximativement 20 db) à l'intérieur d'une journée. De plus, la convergence moins profonde (<200 db) de l'eau douce à la surface de la mer provenant des précipitations a aussi rendu l'eau post-typhon plus douce (0.04 — en utilisant l’échelle de salinité pratique). Dans l'océan profond, la remonté d'eau rapide au sommet de la thermocline permanente suggère que la surgyration rapide est un mécanisme barotrope, probablement de pression gravitationnelle. Durant la phase de dégyration lente, le signal de remonté d'eau s'est propagé vers le bas (approximativement à 2 m h?1) de la couche superficielle vers l'océan profond pendant environ 10 jours; c’était un processus barocline. Le mécanisme barocline était plus efficace à entretenir un remous cyclonique qu’à entretenir une onde d'inertie, et l'anomalie de basse hauteur de la surface de la mer ainsi que la remonté d'eau ont duré beaucoup plus longtemps que l'oscillation d'inertie (>20 jours contre environ 10 jours). Ce changement dans la structure verticale et la remontée d'eau à long terme pourrait avoir des répercussions sur l'environnement océanique et même sur le climat à court terme.  相似文献   

20.
This paper presents a reanalysis of trends in water properties around the Gulf of Alaska. The datasets used are the lighthouse time series and the Line-P time series augmented with data from the Argo global float array. It is shown that though trends have changed, the essential story that was told 15 years ago has not changed in any meaningful way. Sea-surface temperatures are rising over a large part of the Gulf of Alaska, and sea-surface salinities are declining. Both of these lead to a decrease in surface density. We show that the temperature change extends deep into the Gulf of Alaska, and the freshening trend extends to a depth of about 100 db. Potential energy in the water column is decreasing, and the result of the decreasing potential energy and the increasing stratification implies a decrease in mid-winter mixed layer depths.

RÉSUMÉ?[Traduit par la rédaction] Cet article présente une réanalyse des tendances des propriétés de l'eau dans le golfe d'Alaska. Les ensembles de données utilisés sont les séries chronologiques des phares et les séries chronologiques de la ligne P augmentés des données du réseau mondial de flotteurs Argo. Il ressort que même si les tendances ont changé, à peu près tout ce que l'on a pu dire il y a 15 ans demeure valable. Les températures de la surface de la mer augmentent dans une grande partie du golfe d'Alaska et les salinités de la surface diminuent. Ces deux facteurs entraînent une diminution de la densité de la surface. Nous montrons que le changement de température se produit jusqu’à une bonne profondeur dans le golfe d'Alaska et que la tendance à l'adoucissement s’étend jusqu’à une profondeur d'environ 100 db. L’énergie potentielle dans la colonne d'eau diminue et cette diminution, de pair avec l'accroissement de la stratification, implique une diminution des profondeurs de la couche de mélange au milieu de l'hiver.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号