Suite

Interpolation QGIS sur grille courbe (MNT de rivière)


J'ai une tâche très difficile que je veux faire dans QGIS (ou un autre programme SIG open source).

J'ai des données ponctuelles pour la bathymétrie fluviale (profondeur). J'ai créé des modèles d'élévation numériques d'eux en utilisant de l'herbe et en masquant la rivière, ce qui les rend magnifiques, mais je peux dire qu'il y a des problèmes, tout simplement logiquement. GRASS interpole dans une grille nord-sud-est-ouest, qui n'est pas la direction dans laquelle coule la rivière ! Les méandres et les virages de la rivière et la bathymétrie doivent être interpolés en conséquence.

L'objectif serait de tracer une ligne au centre de la rivière et de l'utiliser comme guide pour l'interpolation (pour interpoler vers l'extérieur à partir de la ligne). J'ai vu une belle conférence où un professeur a redressé mathématiquement la ligne en utilisant une référence et en créant une équation de "redressement" puis en l'appliquant. L'interpolation s'est ensuite faite de manière traditionnelle mais à la fin la rivière a été recourbée. Je ne l'ai pas compris à 100%.

D'autres choses à mentionner sont qu'idéalement, ce logiciel interpolerait de nouvelles sections efficaces (cela peut-il être fait dans HEC-RAS ?). Solution.

Les questions sont :

Existe-t-il actuellement un outil pour cela ?

Comment pourrais-je créer un outil pour cela? (Plugin Python) ?


Vous pouvez générer de nouvelles sections transversales en utilisant Hec-Ras, vous tracez une ligne comme un centre de votre rivière puis vous devez utiliser les coordonnées de vos sections transversales (j'ai utilisé le logiciel Covadis pour les obtenir). cette vidéo explique le processus https://www.youtube.com/watch?v=VlsTNNIi6Kc


Analyse spatiale é o processo de manipulação de informações espaciais para extrair novas informações e significados a partir dos dados originais. Normalemente, análise espacial é executada com um Sistema de Informação Geográfica (SIG). Um SIG normalmente fornece ferramentas de análise espacial para calcular as estatísticas de recursos e realização de atividades de geoprocessamento como interpolação de dados. Em hidrologia, os usuários provavelmente irão enfatizar a importância da análise do terreno e modelagem hidrológica (modelar o movimento da água sobre e no terreno). Na gestão da vida selvagem, os usuários estão interessados ​​​​em funções analíticas que tratam de pontos de localização de vida selvagem e sua relação com o meio ambiente. Cada usuário terá coisas diferentes em que eles estão interessados, dependendo do tipo de trabalho que exercem.

Interpolação espacial é o processo de utilização de pontos com valores conhecidos para estimar os valores em outros pontos desconhecidos. Par exemple, para elaborar um mapeamento de precipitação (chuva) de seu país, você não irá encontrar suficientes estações weatherológicas distribuídas uniformmente para cobrir a região inteira. Une Interpolação espacial pode estimar une temperature em locais sem dados registrados usando temperaturas conhecidas registradas em estações weatherológicas próximas (veja figure_temperature_map). Este tipo de superfície interpolada é fréquentemente chamada de superfície estatística. Dados de elevação, precipitação, acumulação de neve, zona de saturação da água subterrânea e densidade populacional são outros de dados que podem ser calculados utilizando interpolação.

Figure Carte de température 1 :

Mapa de temperaturas interpolado das Estações Meteorológicas da África do Sul

Por causa do alto custo e recursos limitados, a coleta de dados é geralmente realizada apenas em um número limitado de pontos locais selecionados. Em SIG, un interpolação espacial destes pontos pode ser aplicada para criar uma superfície raster com estimativas feitas para todas as células deste raster.

A fim de gerar um mapa contínuo, como por exemplo, um mapa digital de elevação a partir de pontos de elevação obtidos com um dispositivo de GPS, um método apropriado de interpolação deve ser usado para melhor estimar os valores n nos locras ou medidas. Os resultados da análise da interpolação podem então ser utilizados para análises que cobrem toda a área e para a modelagem.

Existem muitos métodos de interpolação. Nesta introdução apresentaremos dois dos mais usados, “Inverso da Distância à Potência” (IDW) et “Redes de Triangulação Irregular” (TIN). Se você busca outros métodos de interpolação, por favor, veja na seção “Leitura adicional” no final deste tópico.


Exécution d'une interpolation Spline sur une piste GPS

Je cherche un moyen d'appliquer l'interpolation spline à une piste GPS (format GPX). Je suis un utilisateur régulier de QGIS et j'ai également installé des bibliothèques GDAL sur mon Mac si cela peut aider.

Fondamentalement, les informations sur les sentiers et les randonnées sur MTB Project ont un petit ensemble de points et les chemins réels sont étendus via une interpolation spline pour réduire la taille des fichiers. Je peux télécharger les pistes au format gpx, mais elles ne contiennent qu'un petit ensemble de points, ce qui me donne une piste qui ressemble à une ligne dentelée qui représente le petit nombre de points avant interpolation. Je souhaite appliquer une transformation similaire pour recréer les lignes courbes qui se trouvent sur le site Web, dans un processus quelque peu répétable qui ne me permet pas de retracer manuellement chaque point avec l'outil de dessin de spline dans QGIS.

Est-ce que quelqu'un connaît un moyen d'appliquer facilement l'interpolation spline aux données de ma piste GPS pour reproduire la piste spline de MTB Project à l'aide d'outils gratuits ? De préférence sur OSX ?

3 réponses

Il existe un script python "gpx_interpolate" sur Github qui fera l'interpolation entre les points de suivi GPX.

Cela produira un nouveau fichier INPUT_interpolated.gpx avec 50 m ( -r 50 ) entre les points et le long de la spline de degré 3 ( -d 3 ).

  • Résolution -r : distance entre les points interpolés. La valeur par défaut est 1 m (changez cela si vous avez un long tracklog ou vous vous retrouverez avec une longue attente et un énorme fichier de sortie)
  • Degré -d : degré polynomial à partir de 1 (droites) puis jusqu'au degré 5 (2-5 toutes les courbes).
  • Nombre de points -n : force un certain nombre de points de sortie (la valeur par défaut est 0, pas de limite).

J'ai utilisé cela pour produire de meilleures estimations des traces réelles à partir des journaux de vol des avions où le GPS était réglé sur un intervalle de 10 secondes. Dans l'exemple ci-dessus, le réglage de la résolution r sur 50 a interpolé un intervalle d'environ 1 seconde qui correspond étroitement à la piste réelle. Ceci est très utile lorsque vous utilisez une trace GPS basse résolution pour géoréférencer correctement les images prises en vol.

Notez que ce script ne préserve pas le repères d'origine, mais il est possible de fusionner les originaux avec la nouvelle interpolation en utilisant gpsbabel :

Répondu il y a 3 mois par Simbamangu avec 3 votes positifs

Je me sens mal à l'aise, mais permettez-moi de recommander QGIS + Spline Plugin comme l'une des options pour votre cas.

  1. Oui, numériser tous les points est fastidieux. Mais la définition d'un paramètre d'option d'accrochage approprié peut alléger le fardeau de la tâche.
  2. Un autre logiciel capable de créer des splines serait la CAO (par exemple AutoCAD) ou une solution mathématique (par exemple R). Si vous choisissez CAD, son flux de travail est presque le même, répéter les points de clic pour ajouter des segments de spline.
  3. Si la piste cyclable était une courbe spline "idéale", interpolée mathématiquement, la spline la mieux adaptée serait la solution. En réalité, une telle spline représente rarement l'intégralité de votre piste. Vous pouvez finir par épisser plusieurs courbes, en essayant différents paramètres de lissage.
  4. Lorsque vous utilisez Spline Plugin, vous pouvez modifier les paramètres au fur et à mesure de la numérisation.

Si votre étanchéité est définie sur 0,5 (valeur par défaut), il peut connecter des points de mesure denses en douceur, et une étanchéité plus élevée essaie de ne pas plier la courbe autour de ces points.

Vous remarquerez que la courbe bleue (0,9) convient mieux aux courbes douces et orange (0,5) convient mieux aux virages serrés. Cette flexibilité est la meilleure partie de la numérisation manuelle par Spline Plugin. Si nous essayons de le faire par équation mathématique, cela peut être un cauchemar.

  1. j'ai peur généraliser technique ne respecte pas les points de données d'origine. En d'autres termes, la courbe dérivée par le généralisateur ne passe pas par votre piste cyclable.

Répondu il y a 3 mois par Kazuhito avec 3 votes positifs

Essayez d'utiliser l'outil v.generalize de la boîte à outils de traitement. Il y a un certain nombre d'algorithmes qui peuvent bien généraliser une ligne.

Une autre solution possible pourrait être le plugin "Generalizer" qui a été mentionné dans cet article, les informations sur le plugin dans QGIS suggèrent que l'outil est de toute façon basé sur le module v.generalizer Grass.

Juste pour référence ci-dessous est un exemple de la sortie de l'outil v.generalize. J'ai utilisé les entrées par défaut pour les sorties Chaiken et Hermite, je ne doute pas que vous pourriez obtenir de meilleurs résultats avec un peu de recherche sur l'outil et plus précisément sur la signification des valeurs d'entrée.

Mettre à jour - L'algorithme Snakes (non affiché dans l'image originale ci-dessous) avec quelques ajustements des paramètres alpha et bêta donne une apparence plus fluide sur mon ensemble de données de test.


Impact des sources de données sur la construction de DEM et application à la modélisation du ruissellement et de l'apport en sédiments à l'aide du modèle LISEM

L'utilisation de modèles altimétriques numériques interpolés (MNT) obtenus à partir d'images satellitaires gratuites à basse résolution est une solution typique pour la modélisation de l'érosion des sols. Cependant, cette méthode peut entraîner une perte de détails de surface, en particulier dans les petits bassins versants. Ainsi, les levés planimétriques sur le site d'étude peuvent améliorer la qualité de la description du terrain, bien que cela nécessite des coûts et du temps élevés. Par conséquent, cette étude vise à évaluer l'impact de deux sources DEM sur les résultats d'un modèle d'érosion basé sur les processus. L'étude a été développée dans le bassin versant du ruisseau Lajeado Ferreira (1,23 km 2 ) dans le sud du Brésil. Deux cartes DEM interpolées avec une résolution de 5 m obtenues à partir de : (i) la source de télédétection Shuttle Radar Topography Mission (SRTM) et (ii) un levé topographique de terrain avec le système mondial de navigation par satellite utilisant la cinématique en temps réel (GNSS/RTK) ont été utilisées comme entrée dans le Limburg Soil Erosion Model (LISEM) pour simuler le ruissellement et le transport des sédiments. Deux autres cartes nécessaires à la modélisation ont été élaborées à partir de chaque source DEM : la carte de direction d'écoulement et de réseau de drainage. Six événements pluviométriques surveillés ont été calibrés pour les variables, le moment du débit de pointe (Qtemps), débit de pointe (QPic), coefficient de ruissellement (C), volume total de ruissellement superficiel (Qtotal) et le rendement en sédiments (SY). La plupart des variables calibrées se situaient dans les plages statistiques acceptables. Le Qtemps et QPic simulées pour tous les événements étaient proches des valeurs mesurées avec une modification mineure des paramètres d'entrée lors de l'utilisation du GNSS/RTK. Cependant, même dans les cartes avec une meilleure précision de description du relief (GNSS/RTK), les paramètres d'érosion ajustés pour l'étalonnage n'étaient pas dans une limite physique acceptable. Par exemple, les valeurs de cohésion du sol devaient être multipliées par au moins huit fois leur valeur d'origine. L'étalonnage des formes d'hydrogramme et de sédimentgraphe n'a pas atteint un niveau statistique satisfaisant, même avec la base de données GNSS/RTK et l'incorporation des caractéristiques pertinentes du paysage basées sur l'observation locale. Bien que la base de données GNSS/RTK ait entraîné des gains pour certaines variables calibrées avec le modèle LISEM, les avantages n'étaient pas significatifs pour les conditions de cette étude.

Points forts

Une étude topographique de terrain (GNSS/RTK) a décrit des caractéristiques importantes du terrain dans un petit bassin versant rural du sud du Brésil par rapport au SRTM (90 et 30 m).

La connectivité entre la route non revêtue et le canal de drainage affecte le moment et le débit du débit de pointe.

Le levé topographique sur le terrain a fourni de meilleurs résultats d'étalonnage pour la simulation du ruissellement.

Les paramètres d'érosion ajustés pour l'étalonnage n'étaient pas dans une limite physique acceptable, même avec un levé topographique sur le terrain.


Un cadre de risque basé sur des scénarios pour déterminer les conséquences des différents modes de défaillance des barrages en terre

Les modes de défaillance des barrages en terre sont examinés et analysés en profondeur à l'aide d'une approche à trois volets comprenant une revue de la littérature, des observations physiques d'un site de barrage en terre représentatif et une analyse structurelle par éléments finis de la paroi du barrage. Plusieurs scénarios de défaillance sont utilisés pour prédire les conséquences en termes d'inondation et de dommages en aval. La composante d'écoulement de fluide est réalisée à l'aide de la méthode hydrodynamique des particules lissées sans maillage. Pour un barrage en terre représentatif, la tuyauterie et le glissement de terrain sont identifiés comme des modes de défaillance clés sur la base d'une combinaison d'analyse par éléments finis, de théorie et d'observations physiques. Le comportement d'inondation est très différent pour les deux modes de défaillance. La rupture de glissement de terrain est la plus critique pour le barrage étudié, les eaux de crue brisant la berge de la rivière et affectant les propriétés et les terres agricoles environnantes. Pour les ruptures de tuyauterie, l'eau s'écoule des tuyaux initiaux formés pendant des périodes importantes avant qu'elles ne s'effondrent, mais les débits sont faibles par rapport à celui du mode glissement de terrain beaucoup plus important. Après rupture, des fragments du mur effondré bouchent la brèche et peuvent restreindre considérablement le débit de crue. Dans certains cas, la pression de l'eau peut pousser le matériau obstruant vers l'aval et des inondations mineures se produisent, mais dans d'autres cas, la brèche peut rester bloquée avec peu d'inondations. Un prototype de cadre de risque est développé à l'aide de la petite base de données des scénarios d'inondation pré-calculés et des variables clés qui affectent l'inondation, telles que le niveau d'eau dans le réservoir. Cela peut être utilisé pour estimer des cartes d'inondation pour des scénarios encore non calculés grâce à des techniques d'interpolation et de superposition. La mise en œuvre du cadre de risque est démontrée par l'estimation de cartes d'inondation pour deux niveaux intermédiaires de réservoir non calculés. Les inondations dues à des brèches multiples sont également estimées par superposition de trois scénarios de brèche unique. Les résultats sont comparés à la violation multiple simulée. Une mise en œuvre préliminaire de ce cadre de risque dans un système d'information géographique est également décrite.

Ceci est un aperçu du contenu de l'abonnement, accessible via votre institution.


Résultats et discussion

Évaluation de la précision verticale des données LiDAR

Les résultats de l'évaluation de la précision verticale effectuée sur le nuage de points LiDAR reclassé sont résumés dans le tableau 1. Il s'avère que les valeurs aberrantes ont une grande influence sur la moyenne et l'écart type des valeurs des erreurs verticales. Respectivement, ils chutent de 0,032 à 0,026 m et de 0,304 à 0,260 m après la suppression des valeurs aberrantes. L'histogramme et le tracé Q-Q normal représentés respectivement sur les figures 2A, B mettent en évidence que la distribution des erreurs verticales n'est pas normale. En particulier, l'histogramme montre que le kurtosis de la distribution des erreurs verticales est positif (c'est-à-dire que la distribution a un pic plus aigu autour de la moyenne et des queues plus grosses que la normale). De plus, le tracé Q-Q normal s'écarte de la ligne droite aux extrêmes, ce qui indique clairement la présence de valeurs aberrantes dans l'échantillon d'erreurs verticales. Après l'élimination des valeurs aberrantes, les valeurs de la moyenne et de l'écart type des erreurs verticales diminuent (tableau 1), restant de toute façon légèrement supérieures aux valeurs robustes correspondantes (c'est-à-dire supérieures aux valeurs de la médiane et du NMAD des erreurs verticales voir sous-section Prétraitement des données LiDAR et analyse de la précision verticale et tableau 3S du matériel supplémentaire). En outre, l'histogramme et le tracé Q-Q normal représentés respectivement sur les figures 2C, D mettent en évidence que la distribution des erreurs verticales seuillées ne suit pas la distribution normale.

Figure 2. (A) Histogramme de l'ensemble de données d'erreurs. Superposée, la distribution normale avec la moyenne et l'écart type estimés à partir de l'ensemble de données d'erreurs d'origine. (B) Tracé Q-Q normal de l'ensemble de données d'erreurs. (C) Histogramme de l'ensemble de données d'erreurs sans valeurs aberrantes. Superposée, la distribution normale avec la moyenne et l'écart type estimés à partir de l'ensemble de données des erreurs seuillées. (RÉ) Tracé Q-Q normal de l'ensemble de données d'erreurs sans valeurs aberrantes. DZ désigne l'erreur verticale.

La médiane des erreurs verticales est de 0,020 m et représente le décalage vertical systématique entre le nuage de points LiDAR reclassé et les données de validation rtkGPS. Ce biais altimétrique a été éliminé au moyen d'une procédure d'étalonnage 2.5D (c'est-à-dire une translation rigide dans la dimension Z du nuage de points LiDAR reclassé). Après la procédure d'étalonnage, la précision verticale du nuage de points LiDAR reclassé ne dépend que de sa composante d'erreur verticale aléatoire, et elle peut être évaluée au moyen de l'écart type des erreurs verticales. Dans ce cas, l'estimateur robuste de l'écart-type est égal à 0,237 m, et il correspond approximativement au quantile de 68,3 % de la distribution des erreurs verticales absolues.

La figure 4S du matériel supplémentaire illustre la différence entre les mesures de précision employées. Il a été obtenu en superposant à la distribution d'échantillon d'erreurs verticales les normales calculées en utilisant la moyenne et l'écart-type de l'échantillon d'erreurs verticales, la moyenne et l'écart-type de l'échantillon d'erreurs verticales sans valeurs aberrantes, et la médiane et le NMAD de l'échantillon d'erreurs verticales, respectivement. D'une part, le graphique montre que les mesures de précision standard ne sont pas en mesure de correspondre à la distribution de l'échantillon des erreurs verticales. De plus, même l'application d'un seuil de valeurs aberrantes n'élimine pas chacune d'elles de l'échantillon d'erreurs verticales, et les mesures de précision standard restent donc imprécises. D'autre part, étant donné que les mesures de précision robustes sont capables d'appliquer une transition plus douce entre l'acceptation ou le rejet d'une observation à partir de l'échantillon d'erreurs verticales, elles s'adaptent le mieux à la distribution de l'échantillon d'erreurs verticales, à la fois près de la moyenne et aux extrémités. Ce résultat valide les suggestions proposées par Höhle et Höhle (2009), qui recommandent l'utilisation de mesures de précision robustes (c. graphique) de la distribution de l'échantillon d'erreurs révèle une non-normalité, car elles ne sont pas influencées par les valeurs aberrantes ou par l'asymétrie de la distribution.

Résultats de l'analyse exploratoire des données spatiales

Les résultats de l'analyse de la distribution spatiale effectuée sur l'ensemble de données des points LiDAR reclassés sont résumés dans le tableau 5S du matériel supplémentaire. La zone d'influence moyenne de Voronoi des points au sol LiDAR est égale à 0,237 m 2 , avec un intervalle interquartile correspondant à 0,174 m 2 . Cela signifie que la propagation des valeurs de zone d'influence est faible, et donc le réseau d'échantillonnage peut être considéré comme homogène. De plus, la distance mutuelle moyenne entre les paires de points LiDAR les plus proches est égale à 0,29 m ± 0,13 m, avec un maximum de 3,48 m. Le quantile à 5 % de la distribution des distances mutuelles correspond à 0,10 m, tandis que le quantile à 95 % est égal à 0,57 m. La première statistique peut être considérée comme une mesure robuste de la distance minimale entre les paires de points au sol les plus proches, tandis que la seconde comme une mesure robuste de leur distance maximale.

Comme le montre la figure 3A, la distribution marginale de l'ensemble de données LiDAR reclassé est à peu près unimodale, approximativement symétrique (coefficient d'asymétrie égal à 0,30) et approximativement mésokurtique (aplatissement égal à 2,40). Cependant, le tracé Q-Q normal s'écarte de la ligne droite aux extrêmes (figure 3B), indiquant ainsi que la distribution des valeurs d'élévation n'est pas normale. De plus, la boîte à moustaches illustrée à la figure 3C ne révèle pas la présence de valeurs aberrantes dans l'ensemble de données, comme le confirme également un coefficient de variation inférieur à un.

figure 3. Histogramme avec en surimpression la distribution normale (UNE), tracé Q-Q normal (B), et box-plot (C) de l'ensemble de données des points au sol LiDAR.

La carte des quantiles des valeurs d'élévation (figure 4A) montre clairement une tendance dans la direction NE-SW. Cela signifie que la variable à interpoler n'est pas stationnaire dans le domaine puisque sa moyenne change régulièrement dans l'espace. Pour trouver le degré de tendance, la corrélation entre les valeurs d'altitude et les coordonnées spatiales est-nord a été analysée à travers les nuages ​​de points représentés respectivement sur les figures 4B,C. Le coefficient de corrélation de Pearson's (appelé “rho Pearson”), qui fournit une mesure de la relation linéaire entre deux variables, est égal à 0,48 et 0,82 le long des directions est et nord, respectivement. Souvent, il est utile de compléter le coefficient de corrélation linéaire avec le coefficient de corrélation de rang de Spearman (appelé “rho Spearman”), qui représente une mesure supplémentaire de la force de la relation (Isaaks et Srivastava, 1989). Contrairement au coefficient de Pearson's, le coefficient de rang de Spearman's n'est pas fortement influencé par les paires extrêmes, et de grandes différences entre les valeurs des deux coefficients de corrélation peuvent être dues à la présence de quelques paires erratiques ou à une relation non linéaire entre les deux. variables. Pour la zone d'étude, le coefficient de classement de Spearman est égal à 0,47 et 0,84 le long des directions est et nord, respectivement. Comme à la fois le long de la direction est et nord, les différences entre les valeurs des coefficients de corrélation de Pearson et de Spearman sont faibles, on peut affirmer que la variable à interpoler présente une tendance globale linéaire.

Figure 4. Carte des quantiles de l'altitude variable (la flèche rouge indique la direction de la tendance, qui correspond au gradient du canal) (UNE), valeurs d'altitude du nuage de points par rapport à la coordonnée est (rho Pearson = 0,48 rho Spearman = 0,47) (B), et valeurs d'altitude du nuage de points par rapport aux coordonnées nord (rho Pearson = 0,82 rho Spearman = 0,84) (C).

Le variogramme empirique directionnel des valeurs d'élévation calculées perpendiculairement au gradient du canal (c'est-à-dire le long de la direction de la plus grande continuité spatiale) est illustré à la figure 5SA du matériel supplémentaire, avec le modèle de variogramme théorique gaussien ajusté. Le variogramme théorique se stabilise à une portée d'environ 180 m pour atteindre un plateau de 450 m 2 . De plus, il présente une structure parabolique près de l'origine (figure 5SB du matériel supplémentaire), suivie d'un point d'inflexion. Le rapport pépite sur seuil le long de la direction de modélisation du variogramme considérée est proche de zéro, indiquant ainsi la présence d'une forte structure spatiale.

Comparaison des méthodes d'interpolation

Les mesures de précision globale calculées pour chaque MNT interpolé sont résumées dans le tableau 2. Pour les deux résolutions spatiales choisies, tous les algorithmes d'interpolation testés fournissent un petit nombre comparable de valeurs aberrantes (correspondant à environ 1 % de l'échantillon d'erreurs verticales), affectant toutefois la mesures de précision standard. De plus, toutes les distributions d'échantillons d'erreurs verticales sont non normales (la seule exception est l'algorithme ANUDEM qui donne un K 2 tests omnibus p-valeur égale à 0,10 à la résolution spatiale de 1,00 m). Globalement, la médiane des erreurs verticales est centimétrique (inférieure à ± 0,040 m), ce qui signifie que le biais d'interpolation peut être considéré comme négligeable. Cependant, un examen plus attentif des valeurs médianes calculées révèle que seul l'algorithme de krigeage ordinaire fournit des valeurs positives (0,018 et 0,034 m aux résolutions spatiales de 1,00 et 0,50 m, respectivement). De plus, les algorithmes ANUDEM et du voisin le plus proche donnent les valeurs médianes les plus basses aux deux résolutions spatiales choisies (respectivement, 𢄠.007 et 𢄠.016 m à la résolution spatiale de 1,00 m, et 𢄠.016 et & #x022120.006 m à la résolution spatiale de 0,50 m), alors que les valeurs les plus élevées sont fournies par la spline à plaque mince plus tension (𢄠,031 m à la résolution spatiale de 1,00 m) et le krigeage ordinaire (0,034 m à la résolution spatiale de 0,50 m) algorithmes. Les valeurs NMAD vont de 0,288 à 0,429 m et de 0,201 à 0,337 m aux résolutions spatiales de 1,00 et 0,50 m, respectivement. Aux deux tailles de cellules de grille, les fonctions de spline à plaque mince et de base multiquadratique donnent les valeurs les plus faibles (respectivement, 0,288 et 0,288 m à la résolution spatiale de 1,00 m, et 0,201 et 0,203 m à la résolution spatiale de 0,50 m) , tandis que les algorithmes ANUDEM et de krigeage ordinaire montrent les performances les plus faibles (c'est-à-dire les valeurs NMAD les plus élevées, égales à 0,429 et 0,390 m à la résolution spatiale de 1,00 m, et 0,347 et 0,337 m à la résolution spatiale de 0,50 m, respectivement). Il faut noter que pour toutes les méthodes de maillage testées, plus la résolution spatiale du DEM interpolé est élevée (c'est-à-dire plus la taille des cellules de la grille raster est petite), plus la valeur NMAD correspondante est petite (c'est-à-dire meilleure est l'interpolation). Ce résultat est en accord général avec celui observé par exemple par Bater et Coops (2009), qui ont remarqué une amélioration des performances des algorithmes d'interpolation lorsque la résolution spatiale des MNT générés est passée de 1,50 à 0,50 m. Cependant, les pourcentages de variation NMAD (c'est-à-dire de combien un interpolateur augmente sa précision de prédiction à mesure que la résolution spatiale augmente) changent en fonction de l'algorithme de maillage considéré. En détail, les fonctions de spline à plaque mince et de base multiquadratique présentent les pourcentages les plus élevés de variation NMAD (correspondant à 29,90 et 29,38%, respectivement), où l'algorithme de krigeage ordinaire ainsi que la fonction de base multiquadratique inverse montrent les plus petits (correspondant à 13,69 et 15,72 %, respectivement). Cela signifie que bien que tous les algorithmes d'interpolation testés améliorent leurs performances à mesure que la taille de cellule de grille raster choisie diminue, pour certains d'entre eux, le choix d'une résolution spatiale optimale est une préoccupation plus critique. Les quantiles d'échantillon à 95 % des distributions d'erreurs verticales absolues vont de 0,770 à 0,945 m et de 0,738 à 0,945 m aux résolutions spatiales de 1,00 et 0,50 m, respectivement. Cette statistique peut être considérée comme une mesure robuste de l'erreur verticale d'interpolation maximale (non signée). Pour les deux résolutions spatiales choisies, les fonctions de spline en lame mince et de base multiquadratique donnent les valeurs de quantiles les plus faibles (respectivement 0,770 et 0,778 m à la résolution spatiale de 1,00 m, et 0,745 et 0,738 m à la résolution spatiale de 0,50 m ), ainsi que la triangulation linéaire (0,777 m) et l'algorithme du voisin naturel (0,777 m) uniquement à la résolution spatiale de 1,00 m. À l'inverse, les algorithmes ANUDEM et de krigeage ordinaire sont les moins performants (c'est-à-dire qu'ils donnent les valeurs de quantile d'échantillon les plus élevées, égales à 0,922 et 0,945 m à la résolution spatiale de 1,00 m, et 0,802 et 0,945 m à la résolution spatiale de 0,50 m, respectivement), avec la fonction de base multi-quadratique inverse (0,825 m) uniquement à la résolution spatiale de 0,50 m. Il convient de souligner que dans l'ensemble, aucune différence significative dans les mesures de précision calculées n'est trouvée entre le krigeage ordinaire par points et par blocs.

Tableau 2. Mesures de précision globale pour chaque DEM interpolé (* les valeurs se réfèrent à la distribution des erreurs après la suppression des valeurs aberrantes).

Les mesures de qualité supplémentaires des DEM ainsi que les valeurs de l'indice Global Moran's I sont présentées dans le tableau 3. Les valeurs MAE vont de 0,243 à 0,338 m et de 0,184 à 0,329 m aux résolutions spatiales de 1,00 et 0,50 m, respectivement. Aux deux tailles de cellules de grille, les fonctions de spline à plaque mince et de base multiquadratique donnent les valeurs MAE les plus faibles (respectivement, 0,243 et 0,248 m à la résolution spatiale de 1,00 m, et 0,184 et 0,187 m à la résolution spatiale de 0,50 m ), alors que les algorithmes ANUDEM et de krigeage ordinaire montrent les performances les plus faibles (c'est-à-dire les valeurs MAE les plus élevées, correspondant à 0,338 et 0,329 m à la résolution spatiale de 1,00 m, et 0,266 et 0,329 m à la résolution spatiale de 0,50 m, respectivement) . La plage d'erreur verticale est comprise entre 2,212 et 2,812 m, et entre 1,327 et 2,597 m aux résolutions spatiales de 1,00 et 0,50 m respectivement. Les plages d'erreur les plus faibles sont fournies par la spline à plaque mince (2,212 et 1,907 m, aux résolutions spatiales de 1,00 et 0,50 m, respectivement). Inversement, l'ANUDEM et les algorithmes de krigeage ordinaire renvoient les valeurs de plage d'erreur les plus élevées à la résolution spatiale de 1,00 m (respectivement, 2,711 et 2,812 m), alors que le krigeage par blocs ordinaire est le moins performant à la résolution spatiale de 0,50 m (2,597 m). En ce qui concerne les paramètres de régression linéaire, les valeurs d'interception sont toutes négatives aux deux résolutions spatiales choisies, avec les pires résultats fournis par l'ANUDEM et les algorithmes de krigeage ordinaires (environ 𢄢.00 m). D'un autre côté, les valeurs de la pente et des coefficients de régression pondérés ne révèlent pas de différences notables entre les méthodes de maillage testées, toutes étant égales à un. L'analyse de la surface totale des puits de drainage met en évidence une correspondance entre l'incrément de résolution spatiale et le nombre de fosses, quel que soit l'algorithme de maillage. La seule exception est l'algorithme ANUDEM, qui fournit également (comme prévu) le plus petit nombre de puits aux deux résolutions spatiales choisies (respectivement 3 et 2). Inversement, la fonction de base multiquadratique est la moins performante (c'est-à-dire qu'elle produit le plus grand nombre de puits) aux deux tailles de mailles (respectivement 30 et 273). Il faut noter que l'augmentation de la surface totale des puits de drainage n'est pas seulement liée à la réduction de moitié de la taille des cellules, mais également à une augmentation du nombre de fosses. En d'autres termes, plus la résolution spatiale est élevée, plus le nombre d'artefacts d'interpolation est élevé. Ce constat contraste nettement avec le précédent. Cependant, il convient de noter que l'évaluation de la précision verticale effectuée sur les MNT interpolés a été effectuée en comparant deux ensembles de données de points (c'est-à-dire les points rtkGPS et les centres des cellules de la grille contenant les points rtkGPS eux-mêmes) qui ne se chevauchent pas spatialement. Par conséquent, la meilleure précision (c.

Tableau 3. Indices de qualité DEM supplémentaires et valeurs globales de l'indice Moran'I pour chaque algorithme d'interpolation testé et résolution spatiale choisie (* les valeurs se réfèrent à la distribution des erreurs après la suppression des valeurs aberrantes).

L'analyse du modèle spatial des erreurs absolues au moyen de l'inspection visuelle des cartes de symboles choroplèthes (Figure 5) révèle que pour tous les algorithmes d'interpolation testés, les plus grandes erreurs verticales (non signées) se produisent en correspondance des ruptures de pente (par exemple, au sommet des berges) et dans des zones morphologiquement complexes (par exemple, dans la partie supérieure du chenal en raison de la présence de gros blocs rocheux, et à l'étage rocheux situé à environ 200 m en aval de la zone d'initiation (ߡ 500 m d'altitude), Figure 1B), quelle que soit la densité de points du jeu de données utilisé lors de la procédure d'interpolation et la taille de cellule de la grille raster choisie. De plus, à l'intérieur du canal, il existe des différences subtiles entre les algorithmes d'interpolation testés, et la configuration spatiale des erreurs verticales semble visuellement aléatoire. Cependant, un examen plus attentif de ces cartes met en évidence quelques poches locales de dépendance spatiale communes à toutes les méthodes testées, comme le confirment également les cartes d'indice local Moran's I d'Anselin (Figure 6). Les valeurs de l'indice Global Moran's I vont de 0,242 à 0,501 et de 0,329 à 0,583 aux résolutions spatiales de 1,00 et 0,50 m, respectivement. Cela signifie que tous les algorithmes d'interpolation testés produisent un degré considérable de clustering d'erreurs, avec les valeurs les plus élevées fournies par l'ANUDEM et les algorithmes de krigeage ordinaires (respectivement 0,466 et 0,501 à la résolution spatiale de 1,00 m, et 0,531 et 0,583 à la résolution spatiale de 0,50 m). Il convient de noter que pour toutes les méthodes de maillage testées, plus la résolution spatiale est élevée, plus le degré d'erreur de clustering est élevé, avec les pourcentages de variation les plus élevés fournis par les fonctions de spline à plaque mince et de base multiquadratique (35,44 et 40,86%, respectivement) .

Figure 5. Carte des symboles choroplèthes des erreurs absolues de la fonction spline en plaque mince (résolution spatiale de 1,00 m). À noter que les plus grandes erreurs absolues se produisent principalement au sommet des berges et dans la partie supérieure grossière de la zone d'étude. Dans le canal, la configuration spatiale des erreurs semble être “random”.

Figure 6. Carte d'index Moran's I locale des erreurs absolues de la fonction spline en plaque mince (résolution spatiale de 1,00 m). Notez les grappes locales de valeurs d'erreurs élevées et faibles principalement situées le long de la partie supérieure du chenal où la rugosité topographique est plus élevée en raison de la présence de blocs et de ruptures de berges. De plus, les valeurs aberrantes locales se concentrent près de la marche rocheuse à une altitude d'environ 1 500 m d'altitude.

Les résultats de l'analyse de robustesse des algorithmes d'interpolation en termes de NMAD et de la médiane de la variation des valeurs d'erreurs verticales sur la base de la densité d'échantillon sont résumés dans la figure 7. Les graphiques des figures 7A,B peut être divisé en deux régions distinctes. La première région (ligne de bordure continue) comprend les algorithmes d'interpolation qui sont stables (ou robustes) par rapport à la densité de l'échantillon (c'est-à-dire que la valeur NMAD ne change pas lorsque le nombre de points utilisés dans la procédure d'interpolation diminue). A l'inverse, le second (ligne pointillée) comprend les routines dont la précision de prédiction change en fonction de la densité de l'échantillon (la seule exception est l'algorithme ANUDEM, qui fournit des valeurs NMAD cohérentes). De plus, dans les deux régions délimitées, la répartition des valeurs NMAD pour chaque densité d'échantillon diffère. En fait, dans la première région, l'étalement des valeurs est plus petit que celui des valeurs dans la seconde, ce qui signifie que les interpolateurs dans la première région donnent des valeurs de précision similaires à chaque densité d'échantillon. Pour les deux résolutions spatiales choisies, les fonctions de spline à plaque mince et de base multiquadratique donnent les valeurs NMAD les plus cohérentes, qui sont également les plus faibles pour chaque densité d'échantillon. Ils sont suivis des algorithmes d'interpolation basés sur le TIN et de la méthode de distance inverse à une puissance. Inversement, aux deux tailles de mailles, l'algorithme de krigeage ordinaire et la fonction de base radiale multi-quadratique inverse sont les algorithmes d'interpolation les moins robustes, ainsi que la fonction spline complètement régularisée (uniquement à la résolution spatiale de 0,50 m). De plus, les graphiques des figures 7C,D mettent en évidence que toutes les méthodes de maillage testées produisent des biais verticaux cohérents (c'est-à-dire que la médiane des erreurs verticales ne change pas de manière significative en fonction de la densité de l'échantillon). La seule exception est l'algorithme de krigeage ordinaire, qui fournit également des valeurs médianes positives (jusqu'à 0,10 m à une densité d'échantillon égale à 50 %). Il convient de noter qu'aux densités d'échantillons les plus faibles (c'est-à-dire 75 et 50 %), l'algorithme de krigeage est le moins performant en termes d'erreur verticale systématique et aléatoire. Cette preuve contraste clairement avec ce qui est rapporté dans McDonnell et Lloyd (2015), qui ont déclaré que pour les champs spatiaux irréguliers, lorsque la densité de l'échantillon diminue, l'algorithme de krigeage surpasse les méthodes d'interpolation déterministe.

Figure 7. La variation des valeurs NMAD en fonction de la densité de l'échantillon (UNE, résolution spatiale égale à 1,00 m, et B, résolution spatiale égale à 0,50 m). Variation des valeurs médianes en fonction de la densité de l'échantillon (C, résolution spatiale égale à 1,00 m, et , résolution spatiale égale à 0,50 m).

L'inspection visuelle effectuée sur les dérivés DEMs met en évidence que toutes les surfaces maillées générées contiennent des artefacts d'interpolation notables (par exemple, facettes triangulaires caractéristiques hérissées effet de rayures relief ondulé, bruyant ou trop lissé et motif spatial discontinu de pente et de courbure), indépendamment de à la fois la densité de points du jeu de données utilisé pendant la procédure d'interpolation et la taille de cellule de grille raster choisie (Figure 8). Cependant, pour les algorithmes de triangulation linéaire, voisin naturel, ANUDEM, spline complètement régularisé, spline plaque mince plus tension et krigeage ordinaire, ils n'empêchent pas une représentation visuelle globalement satisfaisante de la morphologie du canal. Inversement, les algorithmes de la distance inverse à une puissance, du voisin le plus proche et de la fonction de base multi-quadratique inverse produisent des DEM trop bruyants. De plus, malgré leurs excellentes performances statistiques, les fonctions de spline à plaque mince et de base radiale multiquadratique ne garantissent pas une représentation réaliste de la topographie du site d'étude, principalement en raison du sous-dépassement et du dépassement de la fonction. En conséquence, des caractéristiques épineuses pertinentes correspondant aux discontinuités de pente sont générées, à la fois à l'intérieur et à l'extérieur de la zone du canal (figure 8A). Ce résultat confirme l'importance d'intégrer des techniques statistiques et qualitatives lorsqu'une analyse de performance d'algorithme d'interpolation est entreprise, comme suggéré par un certain nombre d'études antérieures (par exemple, Wood et Fisher, 1993 Declercq, 1996 Wood, 1996 Desmet, 1997 Yang et Hodler, 2000 Chaplot et al., 2006 Podobnikar, 2009 Setiawan et al., 2013). La comparaison multicritères basée sur la morphologie montre que la spline complètement régularisée et la spline à plaque mince plus les fonctions de tension assurent la représentation plano-altimétrique la plus réaliste des caractéristiques linéaires longitudinales et transversales, les deux formes de fond de canal. A l'inverse, l'ANUDEM et les méthodes de krigeage ordinaire prouvent la plus faible fiabilité de forme principalement en raison du sur-lissage de la surface, avec des discontinuités de pente et des formes de fond de canal pas bien définies dans les MNT correspondants. De plus, un effet d'entrelacement significatif perpendiculaire à la direction de la tendance (c'est-à-dire le long de la direction de modélisation du variogramme considérée) affectant les MNT dérivés du krigeage suggère que la méthodologie suivie ici pour kridger l'ensemble de données de points LiDAR ne représente pas une procédure appropriée pour interpoler les MNT à des fins hydrologiques. et la modélisation hydraulique (Figure 8C). La triangulation linéaire et l'algorithme du voisin naturel fonctionnent dans une position intermédiaire, avec une représentation globalement réaliste des caractéristiques du canal, bien que les contours apparaissent dans certains cas irréguliers ou avec des formes parasites.Les résultats de l'analyse résiduelle effectuée sur les DEM à 0,50 mètre de résolution de l'ensemble de données complet sont présentés (à titre d'exemple) sur la figure 6S du matériel supplémentaire. Il s'avère que l'algorithme ANUDEM a la plus faible capacité à remplir les données topographiques échantillonnées, suivi par l'algorithme de krigeage ordinaire. D'autre part, aucune différence significative dans la capacité d'honorer les données topographiques échantillonnées n'est détectée parmi les méthodes de maillage testées restantes.

Figure 8. Présentation des artefacts d'interpolation détectés : (UNE) caractéristiques hérissées dans la partie supérieure du canal de coulée de débris en raison de la fonction de sous-dépassement et de dépassement en correspondance des discontinuités de pente, (B) relief bruyant avec une configuration spatiale discontinue des pentes, (C) effet de striping orienté selon le sens de modélisation du variogramme, (RÉ) surface ondulée, (E) surface sur-lissée (lignes rouges : courbes de niveau d'intervalle de 1 mètre du MNA dérivé d'ANUDEM, lignes noires : courbes de niveau d'intervalle de 1 mètre du MNA naturel dérivé du voisin), (F) effet de rayures orienté selon la direction d'échantillonnage.

Effets des techniques de maillage sur la modélisation du routage des flux de débris

Pour les deux scénarios d'événements modélisés (c'est-à-dire des périodes de retour de 50 et 300 ans), les résultats de l'analyse de corrélation globale (c'est-à-dire à l'étendue du canal) entre l'écart-type au niveau des pixels des douze jeux de données complets dérivés de 1 mètre les hauteurs des DEM de résolution et l'écart type par pixel des douze profondeurs d'érosion/dépôt simulées correspondantes sont résumés sur les figures 9A, B, respectivement. Pour les deux scénarios d'événement, les coefficients de corrélation de rang de Pearson et de Spearman approchent des valeurs faibles similaires, respectivement égales à 0,13 et 0,21 (c'est-à-dire environ 15 % de la corrélation positive parfaite entre les deux variables analysées). Seule une légère amélioration de la force de corrélation est obtenue en utilisant les MNT de résolution de 1 mètre dérivés de l'amincissement à 50 % dans les exécutions du modèle (figures 9C, D). De plus, l'analyse de corrélation des fenêtres mobiles ne met pas non plus l'accent sur un lien spatial fort entre les cellules avec une incertitude élevée dans les profondeurs d'érosion/dépôt simulées et celles avec une incertitude élevée dans les données topographiques d'entrée (Figure 10), quelle que soit l'ampleur de la scénario d'événement modélisé et la densité de points du jeu de données utilisé lors de la procédure d'interpolation.

Figure 9. Diagramme de dispersion des écarts-types au niveau des pixels des douze hauteurs de DEM à résolution de 1 mètre et de l'écart-type au niveau des pixels des douze profondeurs d'érosion/dépôt simulées correspondantes : (UNE) MNE dérivés de l'ensemble de données complet et période de retour de 300 ans (rho Pearson = 0,126, rho Spearman = 0,205), (B) MNE dérivés de l'ensemble de données complet et période de retour de 50 ans (rho Pearson = 0,129, rho Spearman = 0,208), (C) 50 % de MNT dérivés de l'éclaircie et période de retour de 300 ans (rho Pearson = 0,167, rho Spearman = 0,252), et (RÉ) 50 % de DEM dérivés de l'éclaircie et période de retour de 50 ans (rho Pearson = 0,172, rho Spearman = 0,256). La ligne rouge continue correspond à la ligne de régression linéaire, tandis que les lignes bleues pointillées correspondent à la moyenne marginale des deux variables corrélées.

Figure 10. 5 × 5 fenêtres mobiles Coefficient de corrélation de Pearson's entre les écarts-types au niveau des pixels des douze hauteurs de DEM à résolution de 1 mètre dérivées de l'amincissement à 50 % et l'écart-type au niveau des pixels des douze périodes de retour de 50 ans correspondantes simulées profondeurs d'érosion/dépôt.

Pour les MNT de résolution de 1 mètre dérivés à 50 % d'éclaircies, nous rapportons (à titre d'exemple) les résultats de la période de retour de 50 ans en termes de : zones et volumes d'érosion/dépôt simulés (tableau 4), décharges solides-liquides (figure 11), et la morphologie du canal après l'événement (Figure 12). Globalement, les résultats ne mettent pas en évidence de changement notable dans le comportement du modèle de routage en fonction de la surface topographique utilisée, indépendamment à la fois de l'ampleur du scénario d'événement modélisé et de la densité de points du jeu de données utilisé lors de la procédure d'interpolation. En détail, dans le tableau 4, l'étalement des valeurs de zones inondées simulées est inférieur à 2 000 m 2 (c'est-à-dire inférieur à 10 % de la moyenne de toutes les valeurs de zones inondées simulées), alors que pour les zones d'érosion et de dépôt simulées, il correspond à 854 m 2 (c'est-à-dire 7 % de la moyenne de toutes les valeurs de surface d'érosion simulées) et 1 191 m 2 (c'est-à-dire 6 % de la moyenne de toutes les valeurs de surface de dépôt simulées), respectivement. De même, l'étalement des valeurs de volume d'érosion et de dépôt simulées est égal à 6 166 m 3 (soit 14 % de la moyenne de toutes les valeurs de volume d'érosion simulées) et 3 217 m 3 (soit 13 % de la moyenne de toutes les valeurs de volume d'érosion simulées). valeurs de volume de dépôt), respectivement. En clair, ces différences peuvent être considérées comme négligeables lorsque le modèle de routage cellulaire est utilisé à des fins de prévision, ou pour identifier les zones principalement soumises à d'importants phénomènes d'érosion et de dépôt. Les hydrogrammes solide-liquide représentés sur la figure 11 concernent deux sections transversales situées dans la partie supérieure du canal, juste en aval de la zone de déclenchement de la coulée de débris de Rovina di Cancia. Tous les hydrogrammes montrent une forme triangulaire bien définie comparable avec des valeurs similaires de débit de pointe, de temps de pointe et de durée. Cela signifie que la dynamique de l'écoulement simulé n'est pas fortement influencée par l'incertitude topographique due aux différents algorithmes d'interpolation testés. Cette constatation est également confirmée par les profils de section transversale des MNT avant (ligne continue) et post-événement (lignes pointillées) illustrés à la figure 12. Les profils de section transversale rapportés sont représentatifs d'un tronçon de canal principalement soumis à des processus d'érosion. (figure 12A), les processus de dépôt (figure 12B) et les processus mixtes d'érosion et de dépôt (figure 12C). Pour toutes les sections transversales, les profils DEMs ne mettent pas en évidence de différences significatives dans la morphologie du canal après l'événement. Plus important encore, les différences détectées dans les profils d'érosion et de dépôt ne semblent pas être liées à la variabilité des profils des MNT d'entrée.

Tableau 4. Résultats d'exécution du modèle DEM à résolution de 1 mètre dérivés de l'éclaircie à 50 % (période de retour de 50 ans).


Abstrait

Les crues éclair dans les villes ont entraîné des niveaux élevés d'eau dans les rues et les routes, causant de nombreux problèmes tels que l'effondrement de ponts, des dommages aux bâtiments et des problèmes de circulation. Il est impossible d'éviter les risques d'inondations ou d'empêcher leur survenance, cependant il est plausible de travailler sur la réduction de leurs effets et de réduire les pertes qu'elles peuvent occasionner. La cartographie des crues éclair pour identifier les sites dans les zones inondables à haut risque est l'un des outils puissants à cette fin. La cartographie des crues éclair sera bénéfique pour les urbanistes et les planificateurs d'infrastructures, les gestionnaires de risques et les services d'intervention en cas de catastrophe ou d'urgence lors de précipitations extrêmes et intenses. L'objectif de cet article est de générer une carte des crues éclair pour la ville de Najran, en Arabie saoudite, à l'aide d'images satellite et d'outils SIG. Pour ce faire, nous utilisons les données des DEM SPOT et SRTM dont l'évaluation de la précision est réalisée à l'aide de points de contrôle, obtenus par des observations GPS. Le processus analytique hiérarchique (AHP) est utilisé pour déterminer le poids relatif de l'impact des facteurs causant les inondations afin d'obtenir un indice composite des risques d'inondation (FHI). Les facteurs causaux dans cette étude sont le ruissellement, le type de sol, la pente de la surface, la rugosité de la surface, la densité de drainage, la distance au canal principal et l'utilisation des terres. Toutes les données utilisées sont finalement intégrées dans un ArcMap pour préparer une carte finale des risques d'inondation pour la zone d'étude. Les superficies des zones à haut risque d'inondation sont obtenues en superposant la carte de l'indice d'aléa avec la couche de limites de zone. Le nombre de personnes affectées et la superficie des terres sont déterminés et comparés.


1. Introduction

Pour permettre la modélisation des modèles et des processus de la surface terrestre, la topographie continue doit être simplifiée en un ensemble de valeurs discrètes pour la représentation virtuelle. Le processus de discrétisation de la topographie à partir des données mesurées introduira inévitablement des biais algorithmiques et dépendants de l'échelle. Un DEM (Digital Elevation Model) est la forme virtuelle fondamentale d'informations topographiques et est couramment utilisé pour la délimitation automatisée des limites des bassins versants et des réseaux de cours d'eau [O'Callaghan et Mark, 1984 Jensen et Dominique, 1988 Martz et Garbrecht, 1993 ]. La structure discrète communément prise par un MNT est une grille d'élévations à un espacement horizontal constant dans les deux X et oui directions [Moore et al., 1991 ]. La distance horizontale entre les emplacements de la grille est appelée résolution spatiale et est représentative de l'échelle DEM. LiDAR (Light Detection and Ranging) est devenu l'un des outils les plus populaires pour l'acquisition d'informations DEM haute résolution, comme en témoigne sa croissance commerciale passée [Carey et associés, 2009 ]. Avec l'augmentation rapide de la disponibilité du LiDAR, une analyse est nécessaire pour évaluer la mise en œuvre de MNT à résolution fine pour la délimitation de l'étendue des bassins versants et des réseaux de cours d'eau. Ces produits nécessitent une attention particulière car ce sont des couches de données primaires à utiliser dans les modèles hydrologiques qui fournissent des informations essentielles pour la gestion des ressources en eau.

La recherche a commencé à évaluer les avantages de la technologie LiDAR pour la caractérisation et l'analyse des bassins versants. Par exemple, Li et Wong [ 2010 ] a comparé les MNT dérivés du LiDAR à des résolutions spatiales de 2, 10 et 30 m, la Mission de topographie radar par satellite (SRTM) à 30 m de résolution spatiale et le National Elevation Dataset (NED) à des résolutions spatiales de 10 et 30 m, à des fins d'extraction de réseau de drainage et de simulation de crue. Il a été constaté que le LiDAR DEM de 2 m fournissait des réseaux de drainage qui étaient les plus précis par rapport aux réseaux de l'ensemble de données hydrographiques nationales (NHD). Cependant, les réseaux de drainage LiDAR étaient moins précis que les réseaux de drainage NED DEM à des résolutions équivalentes (10 et 30 m). Hopkinson et al. [ 2009 ] a analysé les attributs des bassins versants à l'aide de trois sources de données (LiDAR, photogrammétrie, données de contour numériques publiques) à deux résolutions (5 m, 25 m) et a constaté qu'une zone de bassin versant dérivée du MNT dérivé des contours numériques était surestimée de 15 %. , par rapport à un DEM dérivé du LiDAR. Il a été déterminé que la surestimation était liée à la capacité du système d'acquisition LiDAR à représenter plus précisément le terrain sous le couvert forestier, car la faible densité de données des sources photogrammétriques et de contours créait des chemins d'écoulement erronés dans les zones boisées. La surestimation de la zone n'était pas liée à la résolution du DEM, mais à la précision et à l'échantillonnage de la surface du terrain représentée dans le DEM. Dans une étude similaire d'un bassin versant dans les contreforts des montagnes Rocheuses, Murphy et al. [ 2008 ] a comparé un réseau de drainage obtenu à partir d'un DEM LiDAR de 1 m, d'un DEM dérivé photogrammétriquement de 10 m et d'observations sur le terrain du système de positionnement global (GPS). Il a été constaté que le DEM photogrammétrique excluait ou réduisait la longueur des cours d'eau de premier ordre et contenait des erreurs spatiales significatives par rapport aux observations GPS échantillonnées sur le terrain. Cela a indiqué que le DEM dérivé du LiDAR de 1 m fournissait la caractérisation la plus précise du réseau de cours d'eau. De plus, le DEM LiDAR a produit une zone de bassin versant délimitée qui était 15 % plus grande et avec des limites plus détaillées, analysées par une inspection visuelle, que celle dérivée du DEM photogrammétrique. Remmel et al. [ 2008 ] a comparé un DEM dérivé photogrammétriquement de 20 m avec un DEM LiDAR de 5 m rééchantillonné à 2,5 m. Il a été constaté que la haute résolution spatiale fournie par le LiDAR DEM permettait une meilleure prédiction des segments de cours d'eau plus petits, une meilleure définition de l'étendue des bassins versants et fournissait des détails sur les zones de saturation du sol qui pourraient améliorer les décisions de gestion des récoltes forestières. Barbier et Shortridge [ 2005 ] ont rapporté que les MNT dérivés du LiDAR offraient un avantage limité pour la délimitation des bassins par rapport aux MNT à résolution moyenne, car la source et la résolution n'entraînaient que des différences mineures. L'étude a comparé un DEM LiDAR à des résolutions spatiales de 6 et 30 m par rapport à un DEM NED de 30 m. Ils ont noté les paysages à faible relief comme une exception qui bénéficierait de l'amélioration de la précision de l'altitude et de la résolution des MNT dérivés du LiDAR.

La littérature existante s'est simultanément concentrée sur la comparaison de la source d'informations DEM (par exemple, LiDAR par rapport à la photogrammétrie) et la résolution spatiale aux fins de la délimitation des bassins versants et des réseaux de cours d'eau. Dans l'évaluation de la résolution spatiale, la variation a été limitée à au plus trois niveaux différents. La majorité des études concluent que les DEM LiDAR à résolution fine offrent les meilleurs résultats par rapport aux DEM à plus faible résolution provenant de sources alternatives, cependant, une résolution DEM optimale pour les DEM dérivés du LiDAR ne peut pas être conclue. La résolution DEM optimale est souhaitable car elle permet une modélisation efficace et précise des attributs des bassins versants, tout en minimisant les coûts d'acquisition et la charge de calcul.

Une analyse d'échelle, consistant en plusieurs déterminations d'un processus modélisé par une modification contrôlée de la résolution DEM, révélera des irrégularités dépendantes de l'échelle ainsi que déterminera l'existence de motifs reproductibles sur plusieurs échelles [Atkinson et Tate, 2000 ], guidant le choix de la résolution DEM. LiDAR est un outil efficace pour une telle analyse de mise à l'échelle car il fournit des informations d'élévation brutes suffisamment denses pour permettre la production d'élévations DEM sur des supports de résolution spatiale fine auparavant indisponibles. Des relations d'échelle utiles entre la résolution d'un DEM et la longueur du réseau de flux ont été identifiées dans la littérature [Tarboton et al., 1988 Hjelmfelt, 1988 La Barbera et Rosso, 1989 ] et ont montré des propriétés fractales. Traditionnellement, les changements d'échelle du réseau de flux sont imposés aux DEM de taille de cellule constante en modifiant la zone seuil pour l'initiation du flux, comme dans Tarboton et al. [ 1988 ], qui a mis en œuvre une analyse d'échelle avec un DEM de résolution de 30 m. Diminuer le seuil d'initiation du flux a pour effet d'augmenter la résolution du réseau de flux et vice versa [Tarboton et al., 1988 Helmlinger et al., 1993 ]. Deux relations d'échelle distinctes ont été observées entre l'échelle d'un réseau de cours d'eau et la longueur du cours d'eau, une pour des réseaux de drainage entiers qui peuvent être modélisés avec une dimension fractale approchant deux, et une pour des canaux de cours d'eau uniques qui peuvent être modélisés avec des dimensions fractales comprises entre 1,04 et 1,07 [Tarboton et al., 1988 ]. Peu d'analyses ont été fournies sur les relations d'échelle entre la longueur du flux et la résolution DEM explicitement obtenues par un changement de la taille des cellules DEM. Quelques analyses préliminaires sur les longueurs de flux unique [Helmlinger et al., 1993 Garbrecht et Martz, 1994 Wang et Yin, 1998 , Thieken et al., 1999 ] a montré une diminution systématique avec la résolution spatiale du MNA, car les détails fins du canal du cours d'eau sont perdus dans les MNA à résolution grossière.

La sélection de la méthode d'interpolation DEM est également critique dans la génération de MNA dérivés du LiDAR et s'est avérée affecter la précision du MNA [Aguilar et al., 2005 Chaplot et al., 2006 Bater et Coops, 2009 Guo et al., 2010 ]. Des routines d'interpolation sont nécessaires pour déterminer l'élévation des nœuds de la grille DEM à partir d'observations LiDAR brutes, qui se répartissent selon un modèle au sol pseudo-aléatoire lié aux configurations de vol et aux routines de filtrage de post-traitement. Les approches d'interpolation optimales exploitent la redondance disponible dans les données sources LiDAR pour réduire les erreurs verticales aléatoires qui peuvent atteindre de manière conservatrice des niveaux décimétriques [Glennie, 2007 Goulden et Hopkinson, 2010a ] et aussi pour maintenir l'efficacité de calcul [Pfeifer et Mandlburger, 2009 ]. Le choix de la méthode d'interpolation des élévations brutes n'a pas été bien étudié dans le contexte de la détermination de l'étendue des bassins versants et de la délimitation des chenaux des cours d'eau. Le choix de la méthode d'interpolation pour la génération de DEM est souvent fait par les fournisseurs de services LiDAR sur la base de l'efficacité du traitement des données, et non optimisé pour les produits DEM prévus. Par exemple, Remmel et al. [ 2008 ] ont indiqué que le LiDAR DEM mis en œuvre dans leur étude a été créé avec une méthode d'interpolation inconnue mise en œuvre par le fournisseur de services.

Le but de cette étude est d'étudier les procédures de génération de MNA optimales pour les MNA à échelle fine dérivés du LiDAR afin de déterminer les limites des bassins versants et la longueur du réseau de cours d'eau. L'étude est exécutée à travers plusieurs objectifs : (i) déterminer si les MNT à résolution spatiale fine dérivés du LiDAR (1 à 50 m) présentent des irrégularités dépendantes de l'échelle qui affectent la détermination de la superficie du bassin versant, (ii) déterminer si la longueur du cours d'eau affiche une relation systématique avec les changements de résolution spatiale DEM, et permet une mise à l'échelle à travers une relation fractale, (iii) pour identifier la résolution DEM la plus précise pour représenter la longueur du flux, et (iv) pour déterminer si la méthode d'interpolation DEM affectera ces relations. Les hypothèses respectives sont que (i) les déterminations de la superficie planimétrique des bassins versants montreront des variations imprévisibles dues à l'introduction de caractéristiques dépendantes de l'échelle telles que des modifications anthropiques du paysage (routes) ou des ravins ou des vallées naturelles dans le paysage à mesure que la résolution augmente, (ii ) que la longueur du flux augmentera avec une augmentation de la résolution spatiale à mesure que des détails supplémentaires dans le flux sont résolus, et que cette relation peut être décrite avec une dimension fractale, (iii) la résolution la plus précise pour caractériser la longueur du flux est la résolution la plus élevée disponible en raison à la capacité de représenter des détails fins, et (iv) que la méthode d'interpolation peut entraîner des changements subtils d'élévation qui affecteront la superficie du bassin versant et la longueur des cours d'eau dans les régions avec des changements mineurs de relief. De plus, il est émis l'hypothèse que les méthodes d'interpolation qui ne réduisent pas efficacement le bruit pourraient provoquer un comportement erratique dans la direction de l'écoulement, augmentant ainsi la sinuosité du cours d'eau et sa longueur totale.

Étant donné que les avantages relatifs de l'utilisation de MNA dérivés du LiDAR ont varié selon les différents types de paysage [Barbier et Shortridge, 2005 Jones et al., 2008 ]. ∼25 m) et (iii) Thomas Brook, un site de colline à vallée avec un changement d'altitude modéré (∼200 m). Ces types de paysages ont été sélectionnés parce que les ruisseaux Mosquito et Scotty sont représentatifs des extrémités de la variation du relief et que le ruisseau Thomas représente un niveau intermédiaire de variation du relief avec quelques modifications anthropiques. Des données de validation pour vérifier les longueurs de cours d'eau dérivées du MNA sont fournies pour Thomas Brook et Mosquito Creek sous la forme d'emplacements de cours d'eau relevés sur le terrain et de numérisation à partir de photographies aériennes orthorectifiées, respectivement. Les données de validation fournissent une estimation de la longueur réelle du flux et indiquent la résolution DEM qui fournit l'estimation la plus précise de la longueur du flux. La connaissance d'une relation de mise à l'échelle et de la résolution la plus précise permettra de mettre à l'échelle les longueurs de flux à partir de n'importe quelle résolution arbitraire disponible, augmentant ainsi la précision des estimations de longueur de flux.

Le reste du document est divisé en trois sections. La première explique la méthodologie, qui comprend les descriptions de chaque site d'étude, le processus de création de MNE, l'algorithme pour délimiter l'étendue des bassins versants et les canaux de cours d'eau dans ArcHydro, la collecte de données pour valider les longueurs de cours d'eau modélisées et les procédures théoriques pour la mise à l'échelle des longueurs de cours d'eau. selon la géométrie fractale. Viennent ensuite les résultats, qui comprennent une description des irrégularités dépendantes de l'échelle qui ont affecté la détermination de l'étendue des bassins hydrographiques, la précision spatiale des longueurs de cours d'eau modélisées aux sites Thomas Brook et Mosquito Creek, la précision de la mise à l'échelle des longueurs de cours d'eau entre les résolutions DEM, et la précision atteignable grâce à la mise à l'échelle des longueurs de flux entre les résolutions DEM. Dans une dernière section, des remarques de conclusion concernant les choix de résolution, d'interpolation et les conditions uniques de chaque site seront proposées.


Krigeage : interpolation spatiale dans les SIG de bureau

Cet article fait partie d'une série d'articles écrits par les boursiers du Summer of Maps 2016. Le programme de bourses Summer of Maps d'Azavea fournit une analyse spatiale pro bono percutante pour les organisations à but non lucratif, tandis que les boursiers bénéficient de l'expertise des mentors Azavea. Pour voir plus d'articles de blog sur Summer of Maps, cliquez ici.

Le krigeage est un outil complexe et utile pour les analystes SIG. La méthode présente un éventail d'options et nécessite un peu de connaissances statistiques de base. Bien qu'il existe une mine d'informations disponibles en ligne, une grande partie suppose que le lecteur dispose déjà d'une grande partie de ces informations de base. J'écris donc le billet de blog que j'aurais aimé trouver en faisant des recherches pour mon analyse de krigeage pour mon projet avec la Croix-Rouge américaine. Vous pouvez vous attendre à :

  • Un aperçu (relativement) sans jargon du krigeage
  • Un workflow pour explorer les données spatiales
  • Lignes directrices pour s'assurer que les données répondent aux hypothèses nécessaires
  • Aide à la définition des paramètres
  • Une évaluation de différents modèles à l'aide de tests statistiques

Présentation de l'interpolation spatiale

L'interpolation spatiale est une méthode qui utilise les valeurs connues à des emplacements donnés pour estimer une surface continue. Il existe plusieurs types d'interpolation spatiale, notamment la pondération de distance inverse (IDW), la spline et le krigeage.

L'interpolation spatiale est utile dans une grande variété de contextes, tels que l'estimation des précipitations, la pollution des eaux souterraines, la température ou la propagation d'une maladie. Il aide à « combler les lacunes » entre les points de données connus. Par exemple, mon projet avec la Croix-Rouge américaine utilise le krigeage pour générer une surface continue de vulnérabilité au Libéria sur la base de données d'enquête auprès de communautés spécifiques. Cette surface peut ensuite être utilisée pour estimer le risque même dans les zones sans données.

Qu'est-ce que le krigeage ?

Le krigeage est un type puissant d'interpolation spatiale qui utilise des formules mathématiques complexes pour estimer des valeurs à des points inconnus en fonction des valeurs à des points connus. Il existe plusieurs types de krigeage, notamment le krigeage ordinaire, universel, cokrigeant et indicateur. Cet article de blog se concentrera sur le type le plus courant, le krigeage ordinaire.

Le krigeage ordinaire, contrairement aux autres types de krigeage, suppose une autocorrélation spatiale mais ne suppose aucune tendance dominante ou dérive directionnelle. À moins que vous ne soyez certain que vos données présentent une tendance globale, le krigeage ordinaire est généralement une bonne option. Je me concentrerai sur l'exécution du krigeage à l'aide de la boîte à outils Geostatistical Analyst d'ArcMap. Le krigeage peut également être effectué à l'aide d'autres logiciels, tels que le logiciel statistique R , mais l'outil Assistant géostatistique de la boîte à outils ArcMap dispose d'une interface facile à utiliser.

Préparation du modèle de krigeage

Un élément essentiel de la génération de tout modèle de krigeage consiste à créer le semi-variogramme, qui est un graphique qui montre la variance en mesure avec la distance entre toutes les paires d'emplacements échantillonnés. Dans le modèle, les points proches les uns des autres devraient être plus similaires que les points plus éloignés les uns des autres. Le gamme est l'endroit où l'autocorrélation existe entre les points en fonction de la distance. Le pépite est l'erreur ou l'effet aléatoire. Le seuil est la distance à laquelle les points ne sont plus spatialement autocorrélés.

Bien que le krigeage puisse être plus complexe que d'autres types d'interpolation spatiale, il a un plus grand potentiel pour générer des surfaces validées plus précises. L'ajustement d'un modèle de krigeage aux points de données repose sur plusieurs hypothèses :

  1. Les données suivent une distribution de courbe en cloche normale
  2. Il ne présente aucune tendance globale globale
  3. Elle est spatialement autocorrélée

Distribution normale

Pour évaluer si mes points de données étaient normalement distribués, j'ai créé un histogramme et un tracé QQ normal à l'aide de l'outil Explorer les données de la boîte à outils Geostatistical Analyst. Les points de données suivaient une distribution de courbe en cloche dans l'histogramme et tombaient généralement le long de la ligne de référence dans le tracé QQ normal. Ces deux graphiques suggèrent que les données sont normalement distribuées et n'ont pas besoin d'être transformées. Si mes données n'avaient pas été distribuées normalement, j'aurais pu les transformer à l'aide d'une fonction logarithmique.

Tendances globales

Les tendances mondiales peuvent interférer avec le modèle d'interpolation final. Par conséquent, évaluer si les données contiennent des tendances est une étape importante du processus. Pour ce faire, j'ai utilisé l'outil Explorer les données de la boîte à outils Geostatistical Analyst pour créer un tracé d'analyse de tendance qui adapte une tendance polynomiale aux données. Cet outil 3D interactif permet à l'utilisateur d'appliquer différents ordres de tendances polynomiales aux données et d'inspecter visuellement si la tendance semble correspondre aux données. Si la tendance correspond bien aux données, la ligne sera incurvée vers le haut ou vers le bas si la tendance ne correspond pas bien aux données, la ligne sera horizontale.

Envie de travailler sur des projets à impact social et citoyen ? Découvrez ce que c'est que de travailler chez Azavea.

Aucune des lignes de tendance polynomiales ne semblait correspondre aux données, j'ai donc conclu que mes données ne présentaient aucune tendance globale. Si mes données avaient présenté des tendances mondiales, j'aurais dû supprimer la tendance en fonction de l'ordre du polynôme. L'assistant géostatistique d'ArcMap offre une option pour réduire la tendance des données en fonction de l'ordre polynomial nécessaire.

Autocorrélation spatiale

Avant de créer le modèle de krigeage, je devais également m'assurer que les données étaient spatialement autocorrélées. Pour ce faire, j'ai utilisé ArcMap pour effectuer un test Global Moran I sur mes données afin de déterminer si les données présentent ou non une autocorrélation spatiale. Le score z résultant de 2,26 et la valeur p de 0,024 suggèrent que les données sont positivement autocorrélées spatialement, ce qui signifie que la distribution spatiale des valeurs élevées et des valeurs faibles dans l'ensemble de données est plus regroupée spatialement que ce à quoi on pourrait s'attendre si les processus spatiaux sous-jacents étaient aléatoires. .

Création du semi-variogramme

Enfin, je devais spécifier la taille du décalage et le nombre de décalages pour le modèle de semi-variogramme. En règle générale, la taille du décalage multipliée par le nombre de décalage devrait couvrir environ la moitié de la couverture totale du semi-variogramme. L'outil Moyenne des voisins les plus proches de la boîte à outils Spatial Analyst d'ArcMap peut être utilisé pour trouver la distance moyenne entre les voisins les plus proches dans le jeu de données, ce qui est souvent une bonne taille de décalage.

Utilisation de l'outil Assistant géostatistique

Maintenant que toutes les hypothèses nécessaires ont été remplies, nous pouvons enfin commencer à créer le modèle de krigeage !

Tout d'abord, ouvrez l'outil Assistant géostatistique situé dans la barre d'outils de Geostatistical Analyst. Si vous ne voyez pas cette barre d'outils, allez dans "Personnaliser" et assurez-vous que votre extension "Geostatistical Analyst" est activée.

Après avoir ouvert l'outil, sélectionnez Krigeage/CoKrigeage. Cliquez sur Suivant et transformez vos données si elles ne sont pas normalement distribuées ou supprimez les tendances si elles présentent des tendances mondiales.

Cliquez sur Suivant pour afficher le modèle de semi-variogramme que l'assistant géostatistique génère automatiquement. Cette page peut sembler déroutante, mais concentrons-nous sur quelques composants clés pour vous aider à construire un modèle de semi-variogramme précis. Vous pouvez choisir parmi plusieurs modèles, mais les modèles les plus courants sont stables, exponentiels et gaussiens. La ligne de tendance du meilleur modèle passera le plus près des croix bleues, qui représentent les valeurs moyennes.

Évaluation des modèles de krigeage

Après avoir créé plusieurs modèles de krigeage avec différents modèles de semi-variogramme, tailles de décalage et nombre de décalages, j'ai comparé ces différents modèles à l'aide de l'outil Comparer. Si vous faites un clic droit sur l'une des couches géostatistiques, vous pouvez sélectionner Comparer, puis modifier les modèles visibles dans l'interface. L'outil Assistant géostatistique effectue une validation croisée de chaque modèle de krigeage et calcule plusieurs types d'erreurs différents pour aider à évaluer la précision du modèle.

Généralement, le meilleur modèle a les attributs suivants :

  • Une moyenne standardisée la plus proche de zéro
  • La plus petite erreur de prédiction quadratique moyenne
  • L'erreur standard moyenne la plus proche de l'erreur de prédiction quadratique moyenne
  • L'erreur de prédiction quadratique moyenne normalisée la plus proche de 1

Cependant, si cela semble trop compliqué, concentrez-vous sur la plus petite erreur de prédiction quadratique moyenne car cela indique généralement le modèle optimal. Vous trouverez plus d'informations sur la comparaison de modèles sur le site Web d'ESRI .

Contraindre la zone géographique du modèle de krigeage

Bien que la barre d'outils Geostatistical Analyst soit recommandée pour créer le modèle de Krigeage, l'outil Krigeage dans la barre d'outils Spatial Analyst offre une fonctionnalité unique qui peut être utile. Cet outil général de krigeage permet à un utilisateur de contraindre l'interpolation à une zone géographique spécifique, comme une limite de ville.

Pour ce faire, accédez aux paramètres d'environnement de l'outil Krigeage et définissez un fichier de formes en tant que masque raster. Malheureusement, l'outil de krigeage ne donne pas la gamme d'options expérimentales que propose l'assistant géostatistique. Donc, si vous allez suivre cette voie, je vous recommande d'utiliser l'outil Assistant géostatistique pour expérimenter avec des modèles et déterminer quel modèle de semi-variogramme, quelle taille de décalage et quel nombre de décalages sont les meilleurs, puis spécifiez ces paramètres dans l'outil de krigeage plus simple dans le Spatial Barre d'outils de l'analyste.

De cette façon, vous pouvez obtenir la profondeur de contrôle de l'assistant géostatistique tout en ayant la possibilité d'utiliser les contraintes géographiques trouvées avec l'outil de krigeage. De plus amples informations sur le krigeage avec la boîte à outils Geostatistical Analyst sont disponibles sur le site Web d'ESRI.

Couches interpolées finales

Points originaux contenant des données de vulnérabilité sur les communautés au Libéria Surface interpolée finale montrant une surface continue de vulnérabilité

Les images ci-dessus montrent les points de données d'origine et ma dernière couche interpolée de vulnérabilité de la communauté dans la région frontalière de Libera. Vous pouvez voir que la surface créée est contrainte dans une distance tampon spécifiée. Cela a été fait en suivant les recommandations décrites dans cet article.

La Croix-Rouge américaine peut désormais utiliser cette surface générée statistiquement pour estimer la vulnérabilité et mieux informer sa programmation.


Introduction

L'affaissement du sol est généralement défini comme un abaissement doux et progressif ou un affaissement soudain de la surface du sol (Galloway & Burbey, 2011). Les processus naturels ou anthropiques, ainsi que leur combinaison, et les phénomènes endogènes ou exogènes, qui renvoient respectivement aux mouvements géologiques et à l'enlèvement de matériaux souterrains (Prokopovich, 1979 ), peuvent provoquer des affaissements, parfois avec des conséquences. Les phénomènes de subsidence affectent principalement les zones urbaines et les serres ou les pépinières (Tomas et al., 2014 Del Soldato et al., 2018 ) en raison de la surexploitation de l'eau, avec des conséquences graves telles que des dommages aux infrastructures linéaires, par ex. les ponts, les routes ou les voies ferrées, et les problèmes de stabilité des bâtiments dus au tassement différentiel (Del Soldato et al., 2016 Faunt et al., 2016 Tomas et al., 2012 ).

La surveillance de ces phénomènes joue un rôle clé dans la gestion des risques naturels pour atténuer et minimiser les pertes et les conséquences des catastrophes. Pour la surveillance des affaissements de terrain, les techniques classiques telles que les réseaux de nivellement (Teatini, Tosi, et al., 2005) ou les techniques Global Navigation Satellite System (GNSS)/Global Positioning System (GPS) (Abidin et al., 2001 Béjar-Pizarro et al ., 2016 Bitelli, Bonsignore, & Unguendoli, 2000 Psimoulis, Ghilardi, Fouache, & Stiros, 2007 , Falchi et al., 2018 ) sont traditionnellement utilisés. Au cours des dernières décennies, la technique d'observation de la Terre, en particulier les méthodes de télédétection par radar à synthèse d'ouverture (SAR), se sont rapidement développées. Ces techniques peuvent soutenir de manière rentable les stratégies de réduction des risques en tirant parti de leur large couverture géographique associée à un rapport coût/bénéfice élevé. Les techniques d'interférométrie à diffuseurs persistants (PSI) (par exemple Ferretti, Prati, & Rocca, 2001 Berardino et al., 2002 Hooper et al., 2004 Ferretti et al., 2011 ) ont été adoptées avec succès pour un large éventail d'applications dans la gestion des catastrophes , et il s'est largement avéré être un outil précieux pour détecter les déformations du sol dues aux glissements de terrain (Solari et al., 2018 Del Soldato, Riquelme, et al., 2018 a Ciampalini et al., 2016 ) ou à l'affaissement (Bonì et al. , 2017 Da Lio & Tosi, 2018 Da Lio & Teatini, 2018 Gao et al., 2018 Hung et al., 2017 Minh, Van Trung, & Toan, 2015 Aslan, Cakır, Ergintav, Lasserre, & Renard, 2018 Sun et al ., 2017 ) ou la stabilité des infrastructures (Di Pasquale et al., 2018 ).

Le PSI est couramment appliqué aux images SAR par satellite basées sur la reconnaissance de points au sol caractérisés par une stabilité à long terme du signal rétrodiffusé électromagnétique et des diffuseurs persistants (PS) à haute réflectivité (Crosetto et al., 2016 Colesanti et al., 2003 Costantini et al. ., 2008 Monserrat, Cuevas-González, Devanthéry, & Crippa, 2016 Ferretti et al., 2001 ). En utilisant la technique interférométrique sur la phase du signal réfléchi par PS, les vitesses de ces points peuvent être étudiées grâce à l'analyse de séries temporelles de leurs déplacements. Comme toutes les techniques interférométriques, la vitesse mesurée est relative à certains points de l'image SAR supposés stables.

L'absence de référentiel absolu peut être fournie par des mesures GNSS (Farolfi, Piombino, Catani, 2018 , Farolfi, Bianchini, Casagli, 2018 ) car il s'agit d'un réseau géodésique qui fournit des taux et une localisation géographique précise. Dans la littérature, de nombreux travaux ont exploité à la fois les données SAR et GNSS (ie Bovenga et al., 2012 Casu et al., 2006 Raucoles, et al., 2013 Del Soldato, Farolfi et al., 2018 Del Soldato, Riquelme et al., 2018 ) pour les mouvements de terrain locaux.

Dans ce travail, nous exploitons les données SAR acquises par les données historiques ENVISAT prises en charge et calibrées au moyen de données GNSS tout au long d'une procédure méthodologique pour combiner les deux ensembles de données sources. Nous appliquons cette approche aux villes de Ravenne et de Ferrare situées dans la plaine du Pô en Italie centrale, car cette zone est historiquement affectée par des affaissements dus à des causes naturelles et anthropiques (Carminati & Martinelli, 2002). La fusion des produits SAR avec le GNSS s'avère fondamentale notamment dans le cas d'affaissement de terrain où les taux de vitesse jouent un rôle important pour comprendre et quantifier les phénomènes.


Interpolation QGIS sur grille courbe (MNT de rivière) - Systèmes d'information géographique

Les inondations fluviales sont connues pour avoir un impact négatif sur les communautés affectées en faisant des victimes, en infligeant des dommages aux biens physiques, en perturbant temporairement les activités sociales et économiques et en forçant une communauté à prendre des mesures d'urgence (FICR, 2013). Aux États-Unis, par exemple, les inondations sont reconnues comme la principale catastrophe naturelle avec 7,96 milliards USD de dommages liés aux inondations par an et 82 décès par an, en moyenne sur les 30 dernières années (NWS, 2014). Il est rapporté que 78 % des urgences sont liées aux conditions météorologiques (Weaver et al., 2014 Hoss et Fischbeck, 2016).

L'augmentation des températures moyennes mondiales a accru le potentiel d'événements météorologiques sévères à extrêmes (Becker et Grunewald, 2003 WMO, 2003). Alors que le monde se réchauffe, les régions nordiques et les zones montagneuses reçoivent plus de précipitations tombant sous forme de pluie que de neige, une augmentation prononcée des précipitations étant observée dans la région de l'est de l'Amérique du Nord (Karl, 2009). Le rapport spécial sur « Gérer les risques d'événements extrêmes et de catastrophes pour faire progresser l'adaptation au changement climatique » du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC), a évalué de manière critique la littérature scientifique récente sur le changement climatique et les impacts des événements extrêmes. Ils ont signalé que l'augmentation de la fréquence et de l'intensité des précipitations, sur la base de modèles climatiques, a considérablement contribué aux inondations locales (Kundzewicz et al., 2014). Des études portant sur les dommages causés par les inondations aux États-Unis montrent que l'impact des inondations sur une communauté a augmenté au fil du temps en raison à la fois de facteurs climatiques, tels que les précipitations, et de facteurs sociétaux, tels que l'augmentation de la population et du développement urbain (Pielke Jr., 2000 Changnon et al., 2001). En outre, des études indiquent que les dommages monétaires associés aux inondations sont également susceptibles d'augmenter au 21e siècle et au-delà (Milly et al., 2002 Allamano et al., 2009 Pall et al., 2011). L'augmentation du nombre d'événements météorologiques extrêmes ces dernières années a stimulé la nécessité de mieux prévoir les inondations et d'atténuer les dommages causés par les inondations. De tels avertissements avancés ne sont pas seulement importants pour les pertes économiques, mais peuvent faire la différence entre la vie et la mort (NWS, 2012). Des études suggèrent qu'un délai d'une heure seulement peut entraîner une réduction de 10 % des dommages causés par les inondations si les informations sur les prévisions sont communiquées en temps opportun (McEnery et al., 2005). La modélisation et la prévision des crues ont considérablement progressé ces dernières années avec l'avènement des systèmes d'information géographique (SIG), des modèles numériques d'élévation (MNE) à haute résolution, des modèles hydrologiques et météorologiques distribués et de meilleurs systèmes de livraison sur Internet (McEnery et al., 2005 ). Cependant, malgré les progrès des systèmes de prévision hydrologique, ces systèmes restent en proie à l'incertitude des modèles de prévision numérique du temps (Clark et Hay, 2004) et des paramètres de modèle et de structure hydrologiques (Krzysztofowicz, 2001a Gupta, 2005).

En termes de forçage atmosphérique, la principale source d'incertitude dans les prévisions de débit provient des erreurs de prévision des précipitations qui incluent des erreurs résultant de la paramétrisation des processus physiques dans les modèles atmosphériques, la résolution et les conditions initiales (Krzysztofowicz, 2001a Bartholmes et Todini, 2005 Cuo et al., 2011). Dans ce contexte, les prévisions hydrologiques d'ensemble utilisant chaque membre de l'ensemble sont intéressantes pour tenir compte de l'incertitude des prévisions du modèle de prévision numérique du temps (PNT) (Buizza et al., 1999 Krzysztofowicz, 2001b Bowler et al., 2008 Hamill et al., 2008 Cloke et Pappenberger, 2009).

Des études récentes montrent la promesse d'adopter des techniques de prévision d'ensemble de débits en raison des avantages par rapport aux prévisions déterministes (Habets et al., 2004 Younis et al., 2008 Boucher et al., 2011 Schellekens et al., 2011 Verkade et Werner, 2011 Alfieri et al. ., 2013) ainsi qu'un moyen de tenir compte des incertitudes dans les prévisions hydrologiques (Chen et Yu, 2007 Demeritt et al., 2007 Davolio et al., 2008 Pappenberger et al., 2008 Reggiani et Weerts, 2008 Cloke et Pappenberger, 2009 Bao et al., 2011 Bogner et Pappenberger, 2011 Cuo et al., 2011 Schellekens et al., 2011 Alfieri et al., 2012 Amengual et al., 2015).D'autres avantages incluent la capacité de faire la distinction entre une prévision d'événement extrême qui est plus ou moins susceptible de se produire dans l'horizon de prévision du modèle (Buizza, 2008 Golding, 2009) et une meilleure prise de décision en ce qui concerne les préoccupations hydrologiques opérationnelles (Ramos et al., 2007 McCollor et Stull, 2008 Boucher et al., 2012). De plus, les prévisions de débit basées sur l'ensemble ont tendance à être plus cohérentes entre les prévisions successives (Pappenberger et al., 2011). Fan et al. (2014) ont montré des avantages dans l'utilisation d'ensembles, en particulier pour les apports de réservoir lors d'événements de crue, et par rapport aux valeurs déterministes données par le membre de contrôle de l'ensemble et par la moyenne d'ensemble.

Komma et al. (2007) ont signalé que pour des délais de prévision plus longs, la variabilité de l'ensemble des précipitations est amplifiée à mesure qu'elle se propage dans le système de captage en raison de la réponse non linéaire du captage. Ils ont également montré que l'étalement d'ensemble est un indicateur utile pour évaluer les erreurs de prévision potentielles pour des délais supérieurs à 12 h.

Un certain nombre de techniques existantes sont actuellement utilisées par la communauté hydrologique pour tenir compte de l'incertitude dans les systèmes de prévision hydrologique. Par exemple, Krzysztofowicz (2001a) a mis en œuvre une méthode pour combiner les incertitudes des modèles hydrologiques et des prévisions de précipitations en utilisant un système de prévision bayésien (BFS). Cette approche était basée sur la décomposition de l'incertitude totale de l'étage fluvial en incertitude sur les précipitations et incertitude hydrologique, qui sont quantifiées indépendamment puis intégrées dans une distribution prédictive de l'étage fluvial. Montanari et Grossi (2008) ont indirectement lié l'erreur de prévision aux sources d'incertitude dans la procédure de prévision par un lien probabiliste avec la prévision actuelle émise par le modèle hydrologique, l'erreur de prévision passée et les précipitations passées. Olsson et Lindström (2008) ont effectué une analyse sur la séparation des contributions des erreurs de prévision des précipitations et des erreurs de simulation hydrologique. Weerts et al. (2011) ont utilisé des régressions quantiles pour évaluer la relation entre la prévision hydrologique et l'erreur de prévision associée. Renard et al. (2010) ont abordé l'incertitude prédictive totale et l'ont séparée en composantes d'entrée et structurelles selon différents scénarios d'inférence. Ils ont souligné les limites inhérentes à la déduction de modèles hydrologiques inexacts à l'aide de données pluie-débit avec de grandes incertitudes. Brown (2015) a quantifié l'incertitude totale du débit futur en combinant les incertitudes du forçage météorologique et les incertitudes de la modélisation hydrologique. Il a mis en œuvre un processeur de prévision d'ensemble météorologique (MEFP) pour quantifier les incertitudes météorologiques et corriger les biais dans les entrées de forçage dans la modélisation des prévisions de débit.

Malgré les progrès et les avantages des prévisions d'ensemble de débits signalés dans la littérature, il existe un certain nombre de questions scientifiques clés qui nécessitent une meilleure compréhension. Il s'agit notamment de la manière dont l'incertitude des prévisions météorologiques reflète dans les prévisions de débit d'ensemble, la corrélation entre le degré de propagation et la réponse hydrologique avec le délai d'exécution de la prévision et l'échelle d'application et l'efficacité des prévisions d'ensemble de débit lors d'un événement hydrologique extrême. Le présent travail étudie ces questions en prévoyant rétrospectivement le débit d'un événement extrême (l'ouragan Irene) dans le bassin de la rivière Hudson, aux États-Unis. L'ouragan Irene a eu de forts effets hydrologiques dus à une forte teneur en humidité qui a entraîné de très fortes précipitations sur la côte est des États-Unis, y compris le bassin de la rivière Hudson (Coch, 2012) (Fig. 1). Le total estimé des dommages causés par l'ouragan Irene était d'environ 15,8 milliards de dollars. Cela comprend environ 7,2 milliards USD provenant des inondations à l'intérieur des terres et des ondes de tempête (Avila et Cangialosi, 2011).

Dans cet article, nous décrivons d'abord la zone d'étude de cas et le contexte. Nous résumons ensuite les principaux ensembles de données qui ont été utilisés pour mettre en œuvre le cadre hydrologique. Par la suite, nous fournissons une analyse quantitative détaillée et une discussion des incertitudes dans les prévisions de débit associées au forçage des modèles météorologiques et démontrons comment les incertitudes dans la médiane des prévisions de débit, l'heure de pointe et la propagation sont réduites à l'approche d'un événement donné.

Image de l'est du satellite géostationnaire opérationnel pour l'environnement (GOES) de l'ouragan Irene qui a touché terre le 28 août 2011 (source de l'image : National Oceanic and Atmospheric Administration (NOAA), 2011).

Carte montrant la topographie du bassin de la rivière Hudson, y compris les divisions du bassin (lignes noires fines) et le réseau hydrographique. Des exemples d'ensembles de données d'utilisation des terres, de nombre de courbes et d'imperméabilité (zoomés) qui ont été utilisés dans HEC-GeoHMS pour construire le modèle hydrologique sont également présentés. Le côté supérieur droit de la figure présente un exemple de la structure du modèle HEC-HMS et de ses sous-bassins utilisant des grilles hydrologiques standard (SHG (2 × 2 km)).

Étapes de conception du cadre, y compris les données spatiales et les séries temporelles de décharge de l'USGS. Le traitement des informations générales régulièrement distribuées dans les fichiers binaires de précipitations GRIB a été réalisé en Qgis (Qgis, 2011), R et Python, et exporté vers le système de stockage HEC-DSSvue. Les paramètres du bassin ont été dérivés pour la zone d'étude et le modèle hydrologique a été exécuté en utilisant ces entrées.

Résumé des performances HEC-HMS aux stations de débit de l'USGS. Les cercles représentent les critères de Nash et Sutcliffe (NSE) tandis que les carrés représentent le BIAS (%). Les critères statistiques sont calculés au pas de temps horaire. Les performances du modèle sont illustrées pour le forçage des précipitations NARR. La carte montre également le total des précipitations accumulées observées reçues en 48 h du 28 au 29 août 2011 (données de la National Oceanic and Atmospheric Administration, 2011). Les séries chronologiques pour les stations de débit sélectionnées sont présentées dans la Fig. 5.

Matériels et méthodes Zone d'étude et contexte

L'étude englobe le bassin de la rivière Hudson (États-Unis) qui prend sa source dans les montagnes Adirondack du nord de l'État de New York et se jette dans l'océan Atlantique (Fig. 2). L'aire de drainage du bassin est d'environ 36 000 km 2 , couvrant 25 % de l'État de New York et d'autres parties des États du New Jersey, du Connecticut, du Massachusetts et du Vermont. Le bassin est considéré comme l'une des plus grandes zones de drainage de la côte est des États-Unis. Selon une étude nationale d'évaluation de la qualité de l'eau menée par le United States Geological Survey (USGS), près de 60 % de l'eau fournie dans le bassin est à usage commercial ou industriel. Plusieurs réservoirs du bassin de la rivière Hudson contribuent au système d'approvisionnement en eau de la ville de New York, qui alimente en eau environ 8 millions de personnes.

En 2011, l'ouragan Irene a causé de graves dommages et des destructions généralisées qui ont touché la côte est des États-Unis. La tempête a touché terre sous la forme d'une forte tempête tropicale à Little Egg Inlet dans le New Jersey le 28 août 2011 (Fig. 1). L'accumulation totale de précipitations due à l'ouragan Irene du 27 au 30 août 2011 a dépassé 300 mm dans certaines zones du bassin de la rivière Hudson (Fig. 4). Il a inondé des cours d'eau dans tout le New Jersey, entraînant des débits de pointe dépassant l'intervalle de récurrence de 100 ans à de nombreuses jauges de cours d'eau et causant de lourds dommages matériels et routiers. Par exemple, les bassins des rivières Passaic et Hackensack dans le nord du New Jersey (au sud du bassin de la rivière Hudson) ont connu de nouveaux pics records à un certain nombre de stations de jaugeage.

Le président Obama a publié une déclaration de catastrophe majeure pour les comtés de New York et du New Jersey touchés par l'ouragan Irene. Au total, 38 comtés de l'État de New York ont ​​été touchés avec environ 1,5 milliard de dollars de coûts d'assistance publique de la FEMA et 10 décès (FEMA, 2011). Dans le New Jersey, les dommages matériels ont été estimés à 1 milliard de dollars. En plus des dommages pécuniaires élevés, des millions de personnes à travers l'État ont été évacuées et sept décès ont été signalés (Watson et al., 2013 NJOEM, 2014).

Description du cadre de modélisation

Le schéma du cadre opérationnel est illustré à la figure 3 et les ensembles de données utilisés pour construire le modèle hydrologique à l'échelle régionale du bassin du fleuve Hudson sont illustrés à la figure 2. Le cadre a été validé à l'aide de la réanalyse régionale nord-américaine des National Centers for Environmental Prediction (NCEP). (NARR) des données sur les précipitations (Mesinger et al., 2006). Une prévision rétrospective de l'ouragan Irene utilisant les 21 membres de l'ensemble du Global Ensemble Forecast System Reforecast (GEFS/R) de la NOAA a ensuite été utilisée (Hamill et al., 2015).

En dehors de ce travail, le framework est actuellement opérationnel et entièrement automatisé sur le supercalculateur Linux Pharos (du grec "phare") au Stevens Institute of Technology. Il produit quatre cycles de prévision du débit fluvial d'ensemble par jour, simulés à des pas de temps horaires, qui alimentent le New York Harbour Observing and Prediction System (NYHOPS) (Bruno et al., 2006 Georgas et al., 2007, 2014). NYHOPS a été développé au laboratoire Davidson du Stevens Institute of Technology pour générer des prévisions de la côte atlantique, du port de New York et de la région de la rivière Hudson grâce à un équipement de surveillance in situ et à une modélisation hydrodynamique (Blumberg et al., 2015).

Le bassin de la rivière Hudson a été modélisé à l'aide du dernier système de modélisation hydrologique du Centre d'ingénierie hydrologique (HEC-HMS), version 4.1 (USACE, 2015). HEC-HMS, développé par l'US Army Corps of Engineers, est un modèle hydrologique conceptuel semi-distribué qui a été largement utilisé dans la modélisation pluie-débit et d'autres études hydrologiques connexes (Anderson et al., 2002 Neary et al., 2004 Knebl et al., 2005 Amengual et al., 2009 Chu et Steinman, 2009 Halwatura et Najim, 2013 Meenu et al., 2013 Seyoum et al., 2013 Zhang et al., 2013 Yang et Yang, 2014). Le modèle utilise un certain nombre de paramètres ajustables dérivés de manière empirique qui décrivent la structure globale du bassin, y compris des paramètres pour le ruissellement, le débit de base et le tracé de la rivière (Feldman, 2000). Dans ce travail, la méthode distribuée modifiée de Clark (ModClark) (Kull et Feldman, 1998) a été utilisée pour tenir compte de la variabilité spatiale et des caractéristiques du bassin. Les entrées de précipitations maillées ont été utilisées pour permettre des calculs d'infiltration distribués spatialement dans toutes les régions du bassin. La capacité d'infiltration dans le modèle a été quantifiée à l'aide de la méthodologie du nombre de courbes maillées (CN) dérivée du Soil Conservation Service (SCS) (USDA, 1986 Mishra et Singh, 2013). La méthode SCS CN estime l'excès de précipitations en fonction des précipitations cumulées, du type de sol, de la teneur en eau du sol antécédent, de l'utilisation des terres, de la longueur totale de la rivière et de l'altitude du bassin versant (Scharffenberg, 2015). La composante débit de base du modèle comprend le débit initial et la constante de récession pour tenir compte des contributions des eaux souterraines au débit du cours d'eau (Chow, 1959 Maidment, 1992 Feldman, 2000). Le tracé du débit de la rivière était basé sur les équations de Muskingum du modèle HEC-HMS (USACE, 2015).

Ensembles de données du modèle hydrologique du bassin du fleuve Hudson

L'extension ArcGIS HEC-GeoHMS 10.2 (Fleming et Doan, 2013) a été utilisée pour préparer et importer les données du système d'information géographique (SIG) dans HEC-HMS (Johnson et al., 2001). Les ensembles de données du modèle régional illustré à la figure 2 comprennent la topographie obtenue à partir de l'ensemble de données d'élévation nationale (NED) de l'USGS (Gesch et al., 2002), la couverture de la surface terrestre obtenue du Service national de conservation des ressources (NRCS) du département américain de l'Agriculture et le sol données pour l'État de New York et le New Jersey recueillies à partir de la State Soil Geographic Database (STATSGO) (Miller et White, 1998). Les ensembles de données sur l'utilisation des terres ont été obtenus à partir du National Land Cover Dataset (NLCD) de l'USGS (Homer et al., 2012).

Le bassin de la rivière Hudson a d'abord été délimité en sous-bassins en fonction de la direction du flux et de l'accumulation dérivée d'un modèle numérique d'élévation (MNE) utilisant HEC-GeoHMS (Fleming et Doan, 2013), puis chaque sous-bassin a été subdivisé en unités de réponse hydrologique. , dont chacun a un numéro de courbe maillée représentant son taux de réponse au ruissellement en fonction de sa combinaison unique d'utilisation des terres, de type de sol et de pente (Gassman et al., 2007). Le numéro de la courbe SCS maillée a été obtenu en croisant l'utilisation des terres et la couverture des terres avec les données sur le sol à l'aide de l'outil CN-grid dans HEC-GeoHMS. Un exemple de la couche SIG de grille de numéros de courbe sur un sous-bassin de la rivière Hudson est illustré à la Fig. 2. Il est important de souligner que l'estimation du ruissellement du modèle peut être très sensible à l'humidité du sol et à l'utilisation de paramètres de numéro de courbe SCS statiques. peut introduire des limitations lorsque le modèle est exécuté de manière opérationnelle. Pour surmonter ces limitations, le cadre utilise une table de recherche pour les paramètres d'abstraction initiaux basés sur la simulation rétrospective et l'exécution continue du modèle avec les données NARR. D'autres techniques futures qui impliquent l'intégration de techniques d'apprentissage automatique pour sélectionner automatiquement les paramètres d'abstraction initiaux optimaux à la volée peuvent également être avantageuses. Les coefficients de stockage et le pourcentage d'imperméabilité des sous-bassins ont été dérivés des ensembles de données SIG décrits plus tôt dans cette section en utilisant HEC-GeoHMS 10.2 (Fig. 2). Les données de débit observées pour 15 stations de jaugeage de l'USGS, situées dans le bassin de la rivière Hudson (Fig. 2), ont été automatiquement récupérées à l'aide du package R dataRetrieval (Hirsch et De Cicco, 2015). Les données de débit observées ont été enregistrées à des intervalles de 15 minutes. et importé dans le moteur d'utilitaire visuel du système de stockage de données de l'USACE (HEC-DSSVue) (HEC, 2009).

Les constantes de récession du débit de base du modèle ont été dérivées à l'aide d'une technique automatisée de séparation du débit de base basée sur le progiciel de statistiques de débit faible R « lfstat » (Gustard et Demuth, 2009 Koffler et Laaha, 2012). Au total, 25 années de données historiques sur les débits observés ont été utilisées pour dériver les constantes de récession du débit de base pour chaque sous-bassin afin de mieux simuler la branche descendante de l'hydrogramme de débit simulé. Les valeurs optimales des constantes de récession pour les sous-bassins variaient de 0,67 à 0,90 selon le sous-bassin considéré. Les valeurs de constantes de récession calculées étaient cohérentes et en accord avec celles rapportées dans la littérature (Pilgrim et Cordery, 1993 Feldman, 2000).

Pour le débit de base initial, nous avons utilisé les conditions observées dans les stations de jaugeage pour réduire les incertitudes du modèle, car le modèle était destiné à prévoir des événements extrêmes à court terme, dans un horizon de prévision de 96 h, et non des simulations à long terme. Le modèle a été forcé avec des précipitations maillées, discutées en détail dans les sections suivantes de cet article, pour fonctionner avec la méthode de transformation ModClark (Kull et Feldman, 1998).

Ensembles de données météorologiques modèles Réanalyse régionale nord-américaine

NARR est un ensemble de données hydrologiques atmosphériques et terrestres à long terme, dynamiquement cohérentes, à haute résolution et à haute fréquence pour le domaine nord-américain (Mesinger et al., 2006). NARR a été développé comme une amélioration majeure par rapport aux précédents Centres nationaux de prévision environnementale - Centre national de recherche atmosphérique Global Reanalysis 1 (NCEP-NCAR GR1). Les données NARR ont réussi à assimiler des observations de précipitations détaillées et de haute qualité dans l'analyse atmosphérique pour créer un ensemble de données climatiques à long terme, cohérentes et à haute résolution pour le domaine nord-américain. La résolution temporelle des données NARR est de 3 h et la résolution spatiale est de 32 km (Mesinger et al., 2006). Les données sur les précipitations du NARR ont été utilisées dans un certain nombre d'études hydrologiques. Par exemple, Choi et al. (2009) ont utilisé les ensembles de données NARR pour calibrer avec succès le modèle de processus de ruissellement semi-distribué basé sur l'utilisation des terres (SLURP). Solaiman et Simonovic (2010) ont utilisé les données NARR dans un bassin hydrologique régional et ont signalé des performances satisfaisantes de ces données dans des régions rares.

Centiles des précipitations totales accumulées des 21 membres de l'ensemble GEFS ainsi que le débit de pointe pour les prévisions émises à des délais de 72 à 24 h. L'aire de drainage de chaque bassin est également indiquée.

Dans ce travail, les données de précipitation NARR, du 26 au 31 août 2011, correspondant à l'ouragan Irene ont été utilisées dans le modèle hydrologique appliqué au bassin de la rivière Hudson dans un format de grille hydrologique commun de 2 km utilisant une interpolation bicubique. Le tableau 1 présente les totaux d'accumulation de précipitations extraits des données NARR pour certains sous-bassins du fleuve Hudson. La simulation hydrologique utilisant cet ensemble de données de précipitations a été considérée comme la simulation de référence et a été comparée à la prévision d'ensemble qui est rapportée dans la section suivante.

Reforecast Global Ensemble Forecast System (GEFS/R)

Le Global Ensemble Forecast System (GEFS) est un modèle de prévision météorologique composé de 21 membres d'ensemble (Hamill et al., 2013, 2015). Le GEFS tient compte de la quantité d'incertitude dans une prévision en générant un ensemble de prévisions multiples, chacune très différente, ou perturbée, de la prévision de contrôle. Les reprévisions de données à résolution horizontale GEFS 1 ont utilisé des conditions initiales obtenues à partir de données de réanalyse de haute qualité et du même système d'assimilation qui est utilisé de manière opérationnelle. Ces reprévisions se sont avérées particulièrement utiles pour le calibrage de phénomènes relativement rares tels que les fortes précipitations (Hagedorn, 2008 Hamill et al., 2008). En ce qui concerne l'hydrologie, les reprévisions aident à produire des estimations probabilistes quantitatives du débit fluvial qui sont aussi précises et fiables que possible (Schaake et al., 2007).

Critères statistiques utilisés pour évaluer les performances des modèles

Les performances des modèles ont été évaluées statistiquement à l'aide des critères d'efficacité de Nash-Sutcliffe, dénommés ci-après NSE (Eq. 1), et de biais (en %) entre simulations et observations, dénommés ci-après BIAS (Eq. 2). Le NSE mesure la fraction de la variance des flux observés expliquée par le modèle en termes d'amplitude relative de la variance résiduelle (bruit) à la variance des flux (information) la valeur optimale est de 1,0 et les valeurs doivent être supérieures à 0,0 pour indiquer une performance minimalement acceptable (Nash et Sutcliffe, 1970 O'Connell et al., 1970). NSE = 1 - ∑ i = 1 N ( P i - O i ) 2 ∑ i = 1 N ( O i - O ‾ i ) 2 , où N est le nombre de valeurs comparées, P i est la valeur simulée (prévue) , O i est la valeur observée et O ‾ i est la moyenne des séries temporelles O i.

Le BIAS mesure la tendance moyenne des valeurs simulées à être plus grandes ou plus petites que celles observées. La valeur optimale de BIAS est de 0,0, avec des valeurs de faible amplitude indiquant une simulation précise du modèle. Les valeurs positives indiquent une surestimation, tandis que les valeurs négatives indiquent une sous-estimation (Yapo et al., 1996). BIAIS ( % ) = 100 i = 1 N ( P i - O i ) ∑ i = 1 N O i . Le modèle BIAS est rapporté par rapport à la magnitude moyenne d'observation (Eq. 2), en pourcentage (%).

Les prévisions de débit d'ensemble comparées au débit observé dans des stations sélectionnées à des heures d'avance de 72, 48 et 24 h à partir de l'heure rapportée du débit de pointe observé sont en GMT.

Résultats Calibrage du modèle HEC-HMS à l'aide des données de précipitation NARR

Lors de la mise en œuvre de la configuration du modèle, nous avons calibré le modèle hydrologique pour évaluer sa capacité à reproduire l'événement de l'ouragan Irene à l'aide des données de précipitation maillées NARR (Mesinger et al., 2006). Le modèle HEC-HMS a été exécuté sur une résolution de grille hydrologique standard (SHG) de 2 × 2 km (Maidment et Djokic, 2000) à des pas de temps horaires.Les hydrogrammes de débit simulé ont été calibrés par rapport aux observations horaires du débit fluvial pour obtenir des performances optimales en termes de volume de ruissellement et de débit de pointe. Les paramètres hydrologiques ont été modifiés pour produire un modèle optimal en utilisant une fonction objectif d'erreur quadratique moyenne (RMSE) dans le cadre de la méthode d'optimisation Nelder-Mead du modèle HEC-HMS (Barati, 2011 Seyoum et al., 2013), visant à maximiser la ajustement entre le débit simulé et les observations à 15 stations de jaugeage de l'US Geological Survey (USGS) (Fig. 2). L'étalonnage a également été effectué par comparaison visuelle et statistique pour produire une simulation précise du débit aux stations de jaugeage de la rivière Hudson (Fig. 2). Nous avons également utilisé la fonction d'incertitude HEC-HMS qui, grâce à une variante de l'échantillonnage par hypercube latin, fait varier les paramètres sensibles du modèle dans une plage définie, produisant ainsi une estimation des paramètres les mieux adaptés après plusieurs itérations (Mousavi et al., 2012). Par exemple, les paramètres de routage hydrologique de Muskingum ont été modifiés pour inclure un plus grand rapport d'atténuation à la translation du ruissellement dans les sous-bassins, ce qui a considérablement amélioré les résultats du modèle (Fig. 5). Pour évaluer et évaluer les incertitudes des paramètres, nous avons effectué une analyse d'incertitude basée sur Monte Carlo disponible dans HEC-HMS 4.1 (Scharffenberg et al., 2015).

Le tableau 1 répertorie les précipitations accumulées NARR pour chaque sous-bassin de la rivière Hudson tandis que le résumé de l'ajustement du modèle représenté par les critères NSE et BIAS est présenté à la figure 4. Les résultats du modèle hydrologique NARR (également appelé simulation de référence) a montré un ajustement raisonnable entre le modèle et les observations dans tous les sous-bassins sélectionnés. Le NSE le plus bas était de 0,75 et certains sous-bassins avaient des valeurs de NSE supérieures à 0,90 (Fig. 4). Parmi les 15 stations de débit examinées dans l'étude, 13 stations avaient un BIAS inférieur à 10 % tandis que 2 stations avaient un BIAS supérieur à 10 %. Il a été observé que les stations avec un BIAS plus élevé étaient situées dans les parties en amont du bassin, notamment le sous-bassin de la rivière Hoosic (USGS ID 01334500) (Fig. 4). Il est important de noter que la forme horaire de l'hydrogramme et le moment des pics ont reproduit avec précision les observations, comme illustré à la figure 5. Dans l'ensemble, la simulation de référence a montré un ajustement représentatif aux observations. Ainsi, le cadre calibré développé a montré des résultats prometteurs pour générer des prévisions de débit avec un délai de 96 h en utilisant le forçage des prévisions météorologiques des membres de l'ensemble.

Prévision rétrospective du débit de la rivière d'ensemble

Nous avons forcé le modèle HEC-HMS avec les champs de précipitations des membres de l'ensemble de prévisions rétrospectives GEFS à examiner les variations du débit simulé parmi les membres de l'ensemble. Plus précisément, nous avons alimenté le modèle hydrologique du bassin du fleuve Hudson avec chaque membre GEFS des 21 membres disponibles. Les ensembles résultants de prévisions de débit ont ensuite été analysés pour mieux comprendre l'incertitude des prévisions de débit qui découle de la réponse du cadre hydrologique aux incertitudes du forçage météorologique. La répartition des membres de l'ensemble est considérée comme une mesure utile de l'incertitude des prévisions (Pappenberger et al., 2005).

Pour évaluer la compétence des prévisions, nous avons comparé, à des délais de 72, 48 et 24 h, les observations avec les résultats des membres de l'ensemble individuels, la médiane de tous les membres, le membre de contrôle de l'ensemble (GEFSC00) et la simulation de référence NARR. (Fig. 5). Nous avons choisi d'inclure le membre de contrôle dans ces comparaisons en tant que proxy pour les modèles déterministes uniques utilisés lorsque les prévisions d'ensemble ne sont pas prises en compte. Les paramètres hydrologiques et les conditions de débit de base calibrés dans la simulation de référence NARR ont été retenus dans toutes les simulations. Les 98e et 2e centiles des précipitations accumulées des 21 membres de l'ensemble à chaque prévision sont présentés dans le tableau 1.

Dans la reprévision publiée 72 h avant l'événement, la forte incertitude des entrées d'ensemble de la prévision numérique du temps s'est traduite par une forte incertitude du débit simulé lorsqu'il est simulé par le modèle hydrologique. Par exemple, dans la station ID 01391500 (Saddle River à Lodi, NJ), il y avait un écart de 20 fois dans les précipitations accumulées parmi les 21 membres de l'ensemble. Pour la même station, le débit de pointe variait du débit de base (3 m 3 s - 1 ) à 242 m 3 s - 1 (dépassant le seuil de crue majeure) (Fig. 5). À la rivière Hackensack à New Milford, le débit de pointe se situait entre 20 et 525 m 3 s-1. L'ampleur de la propagation dans les autres stations était similaire (Fig. 5). À ce stade de la prévision rétrospective, le débit simulé à l'aide du membre de contrôle (GEFSC00) sous-estimait le débit observé dans toutes les stations, à l'exception de la station ID 01375000 (Croton River sur Hudson, NY) où le débit a été simulé correctement (Fig. 5). Cependant, l'écart entre les membres individuels de l'ensemble est resté très élevé, comme indiqué ci-dessus. En termes d'heure de pointe estimée, on constate que l'organe de contrôle GEFSC00 a correctement projeté l'heure de pointe de l'événement dans toutes les stations avec une erreur de ± 3 h par rapport aux observations. Cependant, d'autres membres individuels avaient un décalage allant jusqu'à 24 h entre les pics simulés et observés dans certaines stations (Fig. 5-a1, -b1, -c1, -d1 et -e1). Par exemple, à la station ID 01375000 (Croton River sur Hudson, NY), un membre individuel projetait un pic estimé le soir du 28 août tandis qu'un autre membre individuel le projetait à midi le jour suivant. Dans cette station particulière, le pic observé était vers minuit le 28 août. Ce résultat offre une perspective intéressante en termes d'extraction précise des caractéristiques hydrographiques car on peut utiliser l'organe de contrôle à ce stade des prévisions pour projeter précisément l'heure du pic avec une erreur temporelle de ± 3 h. En termes d'évaluation statistique, les Fig. 6 et 7 rapportent le NSE et le BIAS (%) pour les stations sélectionnées. Pour la station ID 01375000, le membre de contrôle (GEFSC00) a prédit le débit avec précision avec un NSE d'environ 0,95, cependant le débit est sous-estimé d'environ 20 % dans la prévision émise 72 h avant l'événement. Dans l'ensemble, seuls sept membres de l'ensemble à cette station avaient un NSE supérieur à 0,70 alors que plus de 60 % des membres ont sous-estimé ou surestimé l'hydrogramme de débit de plus de 30 % (Fig. 7). Bien que les incertitudes dans les conditions initiales du débit de base et les paramètres hydrologiques du modèle ne soient pas abordées dans ce travail, il a été noté que les incertitudes des entrées de précipitations ont un impact substantiel sur la prévision par rapport aux incertitudes restantes dans les conditions initiales et les paramètres du modèle hydrologique calibré.

Performances des modèles représentées par l'efficacité de Nash-Sutcliffe (NSE) à des délais de 72, 48 et 24 h à partir du débit de pointe observé. Les métriques montrent les sorties du modèle NARR, la médiane des membres de l'ensemble et le membre de contrôle GEFS. Les membres perturbés de GEFS sont représentés en gris.

Performances des modèles représentées par BIAS (%) à des délais de 72, 48 et 24 h à partir du débit de pointe observé. Les métriques montrent les sorties du modèle NARR, la médiane des membres de l'ensemble et le membre de contrôle GEFS. Les membres perturbés de GEFS sont représentés en gris.

Dans la reprévision suivante, émise 48 h avant l'événement, le spread (ou l'enveloppe d'incertitude) a été considérablement réduit, notamment dans le temps projeté du pic (Fig. 5-a2, -b2, -c2, -d2 et -e2 ). Ceci est principalement dû à la diminution de l'étalement de l'ensemble des précipitations accumulées (tableau 1). L'amplitude de l'étalement de l'ensemble de pointe se situait entre 104 et 229 m 3 s - 1 pour la rivière Saddle. La même rivière avait un écart de l'ordre de 20 fois dans les prévisions précédentes. Cette amélioration a également été observée dans d'autres stations. A 48 h d'avance, l'organe de contrôle surestimait systématiquement le débit à toutes les stations (Fig. 5-a2, -b2, -c2, -d2 et -e2), mais il prédisait systématiquement l'heure de pointe, comme ce fut le cas dans la prévision émise 72 h avant l'événement. L'incertitude quant au moment du pic a également diminué, la plupart des membres de l'ensemble prédisant les pics à ± 3 h des pics observés. Cela suggère que l'étalement de l'ensemble des pics ne devrait pas être la seule métrique considérée pour quantifier l'incertitude potentielle, cela suggère que d'autres caractéristiques, telles que le moment et l'amplitude des pics, devraient également être examinées. L'organe de contrôle (GEFSC00), qui a correctement prédit le débit de la rivière Croton sur Hudson (ID 01375000) 72 h avant l'événement, a cependant montré à 48 h un délai d'avance marqué de 65 %. Cela suggère que la précision des prédictions varie également dans le temps et qu'aucun membre ne peut être considéré de manière cohérente comme une prévision parfaite. Dans l'ensemble, il y a eu une amélioration significative du NSE pour la plupart des membres de l'ensemble dans les prévisions émises 48 h avant l'événement.

Dans la reprévision finale considérée, émise 24 h avant l'événement, la propagation a été encore réduite avec tous les membres prédisant avec plus de précision les membres ascendants et descendants de l'hydrogramme. Le membre de contrôle a présenté une prévision presque parfaite pour la rivière Hackensack à New Milford (Fig. 6). La propagation d'ensemble de pointe a été réduite de 57 %, 60 % et 48 % par rapport au délai de 72 h prévu pour la propagation d'ensemble de pointe aux stations Hackensack River, Saddle River et Wallkill River, respectivement. De plus, les pics devaient se produire dans les ± 3 h suivant le pic de l'événement observé dans tous les cas. L'organe de contrôle a semblé cohérent avec les observations en termes d'heure de pointe à ce stade de la prévision et les incertitudes sont inférieures à celle projetée 48 h avant l'événement. À ce stade de la prévision, 75 % des membres de l'ensemble avaient un NSE supérieur à 0,75 (Fig. 6). Ceci est cohérent avec les résultats d'études récentes sur les débits d'ensemble qui ont utilisé différents cadres de modélisation (Thielen et al., 2009 Fan et al., 2014 Yang et Yang, 2014). Les résultats suggèrent également que l'ampleur de la propagation entre les membres de l'ensemble dépend de manière significative de la zone de drainage du sous-bassin. Par exemple, à la station ID 01391500, Saddle River à Lodi (140 km 2 ), un débit de pointe de 242 m 3 s - 1 correspond à une précipitation cumulée maximale de 206 mm. Ainsi, il y a un débit de pointe d'environ 1 m 3 s - 1 pour 1 mm de précipitations accumulées. Ce rapport augmente cependant pour un bassin de plus grande superficie. Par exemple, à Wallkill River à Gardiner, NY (ID 01371500, 1800 km 2 ), il y avait un débit de pointe d'environ 10 m 3 s - 1 pour 1 mm de précipitations accumulées alors qu'elles se propageaient (de manière non linéaire) dans la zone de drainage, il existe donc une corrélation entre l'étalement des données de précipitations et la superficie du sous-bassin.

NSE et BIAS globaux (%) à travers les stations pour les prévisions émises 24 h avant l'ouragan Irene.

Diagramme de dépassement de seuil codé par couleur pour les prévisions de l'ouragan Irene à intervalles de 6 h en utilisant le seuil de crue majeure pour chaque station USGS. Les valeurs de débit en dessous de l'ID de station sont le seuil de crue majeure pour une station donnée. L'axe des x représente l'horizon de prévision de 96 h à partir de la date de simulation indiquée dans la colonne de gauche. La période au cours de laquelle l'enregistrement hydrologique de l'événement majeur dépasse le seuil d'alerte équivalent est indiquée à l'aide d'une cellule rouge foncé, tandis que les valeurs des cellules se réfèrent au pourcentage de membres de l'ensemble qui prévoyaient une crue majeure. Par exemple, si la valeur est 100, les 21 membres de l'ensemble de flux projettent un événement majeur dans un intervalle de temps donné, tandis que 0 signifie qu'aucun des membres de l'ensemble ne dépasse le seuil d'événement majeur. L'occurrence observée du seuil est affichée à la dernière ligne pour chaque station, le code de couleur rouge indique un débit observé supérieur au seuil de crue majeure, tandis que la cellule verte indique un débit inférieur au seuil majeur. L'heure rapportée est au format de date GMT est mm/jj/aaaa.

Pour avoir une évaluation globale de la compétence de prévision, nous avons calculé la plage et la moyenne NSE et BIAS (%) à travers toutes les stations (Fig. 8) dans le bassin de la rivière Hudson pour les différents membres de l'ensemble de reprévision 24 h avant l'événement. La figure montre comment un membre qui a un bon NSE et BIAS à une station peut avoir de très mauvaises performances dans d'autres parties du bassin qui peuvent être en partie dues à la réduction statistique des précipitations de 1 de résolution à 2 km, et la l'incertitude dans la distribution spatiale des précipitations. La médiane de tous les membres et le membre témoin ont montré de bonnes performances avec un NSE moyen de 0,75 par rapport à chacun des membres. Les résultats montrent qu'il n'y a pas de solution « taille unique » pour sélectionner un membre de l'ensemble, notant que chaque sous-bassin a son propre ensemble distinct de caractéristiques qui se manifestent dans les conditions locales, telles que la taille du bassin et l'utilisation des terres. Cette découverte nécessite des travaux supplémentaires impliquant des modèles de précipitation à plus haute résolution pour évaluer l'effet de la taille du bassin et des résolutions de forçage météorologique.

Diagramme de persistance des dépassements de seuil

En plus des métriques statistiques et de la comparaison visuelle des débits, une évaluation de la compétence des prévisions a été réalisée pour l'ouragan Irene à l'aide d'un diagramme de persistance des dépassements de seuil à des intervalles de 6 h de la série chronologique des prévisions de débit (Fig. 9). Le diagramme de dépassement utilisé dans cette étude est une adaptation du système opérationnel européen d'alerte aux inondations (Bartholmes et al., 2009 Thielen et al., 2009). De tels diagrammes quantitatifs donnent une idée de la persistance des prévisions et soutiennent les décisions opérationnelles de gestion des crues et le jugement humain. Le seuil de crue majeure pour chaque station a été obtenu auprès du service météorologique national de la NOAA (2011). Il est défini comme la catégorie d'inondation où l'on s'attend à une inondation importante des structures et des routes, ce qui nécessite une évacuation importante des personnes et un transfert de propriété à des altitudes plus élevées (NWS, 2012).

Les principaux seuils de débit observé et simulé ont été transformés en séries temporelles dichotomiques de 1 (le seuil majeur est dépassé) et 0 (le seuil majeur n'est pas dépassé). L'information de chaque cellule du diagramme matriciel est la probabilité de dépasser la valeur d'inondation majeure, calculée en utilisant tous les membres de l'ensemble à une prévision donnée. Par exemple, une probabilité de 100 % suggère que les 21 membres de l'ensemble utilisés dans le travail projettent une inondation majeure. La figure 9 présente les résultats du diagramme de dépassement à des stations sélectionnées du bassin de la rivière Hudson dans lesquelles les observations ont dépassé le seuil de crue majeure pendant cet événement. Les résultats suggèrent que l'on peut établir une prévision de débit très fiable 48 h avant l'événement. Par exemple, les reprévisions à 72h (émis le 26 août 2011, 00h00 GMT) pour la station ID 01381900 prévoyaient une probabilité de 52 % (11 membres sur 21) d'avoir une inondation majeure à 78h. Cependant, la probabilité est passée à 100 % dans la reprévision du 27 août 2011 à 00h00 GMT (48 h avant l'événement) pour la même station. La moyenne de toutes les stations pour la reprévision du jour 3 (72 h avant l'événement) montrait une probabilité de 60 % d'avoir une inondation majeure le 29 août 2011 (entre 00h00 et 06h00 GMT), tandis que le jour 2 (48 h avant l'événement) les reprévisions avaient en moyenne 99 % de chances de dépasser le seuil de crue majeure. Cela met en évidence l'augmentation de la fiabilité à mesure que l'événement approche. Le diagramme suggère également que la persistance de l'occurrence de l'événement parmi les prévisions ultérieures est un bon indicateur pour déclencher une alerte de crue majeure, en particulier lorsque la proportion de membres au-dessus du seuil dépasse 71 % (15 ou plus sur les 21 membres de l'ensemble). En revanche, dans la station ID 0137500, les observations et les membres de l'ensemble de débit n'ont pas dépassé le seuil de crue majeure (Fig. 9). Ceci est particulièrement important pour la fiabilité et la validation du système de prévision opérationnelle. Cependant, il convient d'être prudent lors de l'interprétation des diagrammes de dépassement de la persistance, car les séries chronologiques devront être examinées en parallèle pour confirmer tout écart potentiel entre les modèles.

La première partie de ce travail consistait à mettre en œuvre un cadre de modélisation hydrologique à l'échelle régionale sur le bassin du fleuve Hudson en utilisant le modèle HEC-HMS (USACE, 2015) forcé avec des entrées de précipitations maillées NARR (Mesinger et al., 2006). La deuxième partie a étudié l'utilisation des entrées d'ensemble GEFS (Hamill et al., 2013, 2015) pour prévoir rétrospectivement un événement hydrologique extrême, l'ouragan Irene, avec un horizon temporel de 96 h à des pas de temps horaires. Au total, 21 membres de l'ensemble GEFS ont été testés sur le bassin de la rivière Hudson avec des reprévisions émises 72, 48 et 24 h avant l'événement.

En termes d'évaluation, nous avons quantifié visuellement et statistiquement les résultats des membres individuels du GEFS, les prévisions déterministes représentées par le membre de contrôle (GEFSC00) et la médiane de tous les membres. Nous avons également utilisé le diagramme de dépassement de persistance des seuils établis pour projeter la possibilité d'inondations majeures sur la base de tous les membres individuels. La comparaison a montré que les prévisions d'ensemble sont avantageuses pour quantifier l'incertitude du délai de prévision et augmenter la fiabilité d'un point de vue opérationnel. Ce travail n'a pas abordé l'incertitude dans les conditions hydrologiques initiales et les paramètres du modèle, qui ont été optimisés dans l'étalonnage basé sur le NARR, mais s'est plutôt concentré sur la prédominance des entrées de précipitations sur les résultats des prévisions de débit hydrologique. Les résultats de ce travail confirment que l'utilisation de prévisions de débit d'ensemble présente des avantages par rapport aux prévisions déterministes en termes de meilleure représentation de l'incertitude, en particulier dans un événement hydrologique extrême tel que celui présenté dans ce travail. En outre, alors que la perception générale est que l'incertitude hydrologique est réduite avec le délai d'exécution, il n'y a pas d'études qui caractérisent quantitativement cet aspect en utilisant les données rétrospectives du GEFS et en cas d'événement de crue extrême comme l'ouragan Irene.

Les travaux montrent que les prévisions de débit sont fortement dépendantes des apports météorologiques et reflètent les incertitudes associées à ces apports. De toute évidence, la superficie relativement petite du sous-bassin et la résolution du modèle météorologique étaient importantes pour la surestimation de la propagation due aux entrées de précipitations. Dans ce contexte, des modèles météorologiques à plus haute résolution tels que le Centre européen de prévisions météorologiques à moyen terme (ECMWF) (Molteni et al., 1996 Thiemig et al., 2015) ou le Coupled Ocean-Atmosphere Mesoscale Prediction System (COAMPS) ® (Pullen et al., 2015) peuvent être particulièrement intéressants dans les sous-bassins à plus petite échelle afin de fournir une plus grande précision. Les ensembles de données opérationnelles de prévision d'ensemble GEFS ont été mis à niveau à une résolution de 0,5 ∘ le 2 décembre 2015. Un forçage plus détaillé du modèle météorologique peut entraîner une réduction de l'étalement du débit et réduire l'incertitude de la prévision.

La modélisation du bassin de la rivière Hudson a démontré qu'un membre d'ensemble d'écoulement fluvial donné peut produire un écoulement fluvial qui est tout à fait en accord avec les observations, en tenant compte de l'incertitude des précipitations et des paramètres du modèle hydrologique. Cependant, il n'y a pas de solution "taille unique" pour sélectionner un membre d'ensemble, notant que chaque sous-bassin a son propre ensemble distinct de caractéristiques qui se manifestent dans des conditions locales telles que la superficie du bassin versant et l'utilisation des terres.En outre, il convient d'être prudent dans les modèles de prévision qui n'utilisent que le membre de contrôle des modèles météorologiques ou le membre moyen de l'ensemble, car cela peut entraîner un écart considérable dans les prévisions de débit de la rivière par rapport aux observations, entraînant de faux avertissements et des inondations manquées (Fig. 5). .

Les résultats suggèrent également qu'une confiance plus élevée dans les prévisions de débit de la rivière peut être atteinte à mesure que nous approchons d'un événement majeur d'environ 48 h. Les résultats de ce travail offrent des perspectives intéressantes pour les futures techniques de post-traitement d'ensemble et l'extraction de caractéristiques, notamment en ce qui concerne le moment de pointe d'un événement hydrologique extrême lorsqu'il est combiné avec le diagramme de persistance des crues majeures.

Le cadre opérationnel présenté dans ce travail offre une amélioration par rapport au système de prévision hydrologique avancé de la NOAA (AHPS) disponible dans cette région particulière (McEnery et al., 2005) et gère de manière opérationnelle 125 membres de l'ensemble, y compris (en plus du GEFS) l'ECMWF, ECMWF-HRES, le Short-Range Ensemble Forecast (SREF), le Centre météorologique canadien (CMC) et le North American Mesoscale Forecast System (NAM). Les prévisions de débit AHPS sont effectuées à des intervalles de 6 h en utilisant une prévision météorologique déterministe comme entrée et avec un délai d'avance inférieur à 60 h dans cette région (Adams, 2015).

Le cadre est très flexible et gère directement les formats d'entrée météorologiques GRIB1, GRIB2 et NetCDF. Cette flexibilité opérationnelle du cadre lui permet d'utiliser d'autres sources de données météorologiques au lieu du NARR, qui n'est pas disponible dans les régions à l'extérieur de l'Amérique du Nord. Des exemples de produits de réanalyse atmosphérique qui peuvent être utilisés comprennent le Centre européen de prévision météorologique à moyen terme (ECMWF), les Centres nationaux de prévision environnementale (NCEP) et le Centre national de recherche atmosphérique (NCAR). Quant à la validation du cadre, si elle est appliquée à des bassins versants sans stations de jaugeage (ou avec seulement quelques-unes), il est possible d'utiliser les données de télédétection sur le débit des rivières pour calibrer et valider les sorties de modélisation. Malgré le fait que ces données comportent des incertitudes, il y a eu de nombreux progrès dans ce domaine et il existe un potentiel d'applications futures (par exemple, la mission satellitaire de Surface Water and Ocean Topography (SWOT) Saleh et al., 2012 Biancamaria et al., 2015 ). Ainsi, ce cadre est prometteur pour la prévision opérationnelle des débits dans d'autres parties du monde.

Le temps de calcul requis pour exécuter le bassin de la rivière Hudson pour les 21 membres de l'ensemble GEFS était d'environ 30 minutes. Cela inclut le traitement des fichiers d'entrée GRIB et le post-traitement des sorties d'ensemble. Le temps total requis pour exécuter l'ensemble des 125 membres de l'ensemble est d'environ 5,5 h, ce qui comprend le prétraitement des entrées et la mise à jour de la base de données et du site Web du Stevens Flood Advisory System (SFAS). Les prévisions sont mises à jour toutes les 6 h, avec un délai de 87 h, ce qui est suffisant pour émettre une alerte de crue.

Les travaux en cours peuvent potentiellement être étendus pour intégrer un modèle hydrodynamique, tel que HEC-RAS (Brunner, 2002), qui présente des avantages en termes de simulation des niveaux d'eau et de l'étendue des crues en plus du débit des cours d'eau. Une telle modélisation hydrodynamique nécessite des conditions aux limites d'écoulement qui peuvent être obtenues à partir du modèle de prévision hydrologique. Cette modélisation nécessitera également une représentation détaillée des sections transversales des rivières qui peuvent être obtenues à l'aide de données lidar à des emplacements spécifiques au site, mais elle n'est pas toujours disponible à l'échelle régionale (Saleh et al., 2011).

En termes d'applications, le modèle à l'échelle régionale du bassin du fleuve Hudson peut être utilisé pour prévoir en continu la variabilité globale des ressources en eau (Saleh et al., 2011 Pryet et al., 2015 Saraiva Okello et al., 2015), en prédisant le devenir et transport de qualité de l'eau comme le nitrate (Schoonover et Lockaby, 2006 Wang et al., 2012 Bastola et Misra, 2015 Schuetz et al., 2016) et les scénarios de changement climatique (Ducharne et al., 2007, 2010 Graham et al., 2007 Quintana Seguí et al., 2010 Habets et al., 2013). De plus, l'analyse socio-économique peut être utilisée pour évaluer comment ces prévisions améliorées peuvent prévenir les pertes de vie et minimiser les dommages matériels, à l'aide d'une communication efficace et des médias sociaux.

Toutes les données de recherche sous-jacentes utilisées pour construire le modèle hydrologique sont accessibles au public et accessibles en ligne. Les sources de données utilisées dans ce travail sont dans l'onglet actifs.


Voir la vidéo: Tutorial N 12: Interpolation using QGis (Octobre 2021).