Suite

Étirement de la couche de polygones dans une autre couche de polygones


Y a-t-il une possibilité d'étirer la couche bleue dans la couche blanche ?

J'aimerais intégrer les quartiers (la couche bleue) dans la ville (la couche blanche), mais je n'ai aucune idée de comment le faire avec des données aussi différentes.


Pour résoudre ce problème, je pense que vous devriez utiliser l'ajustement spatial pour effectuer des bâches en caoutchouc :

Les données SIG proviennent souvent de nombreuses sources. Les incohérences entre les sources de données vous obligent parfois à effectuer un travail supplémentaire pour intégrer un nouvel ensemble de données au reste de vos données. Certaines données sont géométriquement déformées ou pivotées par rapport à vos données de base.

Dans l'environnement d'édition, les outils d'ajustement spatial fournissent des méthodes interactives pour aligner et intégrer vos données. L'ajustement spatial prend en charge une variété de méthodes d'ajustement et ajustera toutes les sources de données modifiables. Il est souvent utilisé lorsque vous avez importé des données à partir d'une autre source, comme un dessin CAO. Certaines des tâches que vous pouvez effectuer incluent la conversion de données d'un système de coordonnées à un autre, la correction des distorsions géométriques, l'alignement des entités le long du bord d'une couche sur les entités d'une couche adjacente et la copie d'attributs entre les couches. Étant donné que l'ajustement spatial fonctionne au sein d'une session d'édition, vous pouvez utiliser les fonctionnalités d'édition existantes, telles que l'accrochage, pour améliorer vos ajustements.


Étirement de la couche de polygones dans une autre couche de polygones - Systèmes d'information géographique

Une fois le processus de saisie des données terminé et vos couches SIG prétraitées, vous pouvez commencer l'étape d'analyse. L'analyse des données géographiques nécessite un esprit critique et un raisonnement. Vous recherchez des modèles, des associations, des connexions, des interactions et des preuves de changement dans le temps et dans l'espace. Le SIG vous aide à analyser les ensembles de données et à tester les relations spatiales, mais il ne remplace pas la nécessité pour vous de penser spatialement. Tout d'abord, vous devez concevoir les modèles et les relations spatiaux possibles. Ce chapitre donne un aperçu des fonctions d'analyse les plus courantes et poursuit la discussion sur l'analyse spatiale commencée au chapitre 1.

En intégrant les couches SIG, vous pouvez poser les questions spatiales décrites au chapitre 1 : “Qu'est-ce qu'il y a à… ?”, “Où est-il… ?”, “Qu'est-ce qui a changé depuis ?”, & #8220Quels modèles spatiaux existent ?”, et « Et si… ? » (la question du scénario). Les deux premières de ces questions recensent les caractéristiques et examinent au minimum l'emplacement et les relations des caractéristiques. Les trois dernières questions sont plus complexes. Pour répondre à ces questions, vous devez utiliser ou enchaîner certaines des fonctions analytiques que vous découvrirez dans ce chapitre. Les fonctions analytiques particulières et leur ordre dépendent de vous.

Ce chapitre se concentre sur les fonctions SIG qui vous assistent dans l'analyse, qui vous aident à évaluer, estimer, prévoir, interpréter et comprendre les données spatiales. Le chapitre décompose ces fonctions en quatre analyses présentées dans la figure 5.1 :

Figure 5.1 : Catégories de fonctions d'analyse.

Bon nombre des analyses spécifiques contenues dans les catégories ci-dessus ont plusieurs noms pour la même fonction. Ce chapitre utilise les termes les plus fréquemment utilisés, mais tente de noter les synonymes couramment utilisés. Il indique également si les processus analytiques sont vectoriels, raster ou peuvent être utilisés avec les deux modèles de données.

SÉLECTION & MESURE

La partie sélection de cette catégorie justifie à peine son placement dans ce chapitre. La sélection n'est pas une fonction d'analyse, mais c'est une première étape importante pour de nombreuses fonctions d'analyse. Cependant, en raison de son utilisation intensive dans la phase analytique, il est inclus. Les deux processus de sélection suivants, la requête d'attributs et la sélection spatiale, ont été discutés dans une certaine mesure plus tôt dans ce texte. La mesure, la deuxième partie de cette catégorie, est plus facile à justifier en tant que processus analytique car les nombres qui décrivent les caractéristiques sont générés par ces fonctions.

Requête d'attribut (sélection booléenne)
Comme décrit au chapitre 4, la requête attributaire sélectionne les entités en fonction de leurs valeurs attributaires. Cela implique de sélectionner des caractéristiques basées sur des expressions de requête, qui utilisent l'algèbre booléenne (et, ou, pas), l'algèbre des ensembles (>, <, =, >=, <=), les opérateurs arithmétiques (=, -, *, /), et valeurs définies par l'utilisateur. En termes simples, le SIG compare les valeurs d'un champ attributaire avec une expression de requête que vous définissez. Par exemple, dans la Figure 5.2, si vous souhaitez sélectionner chaque restaurant dont le prix est considéré comme bon marché, vous utiliserez une expression de requête telle que « “PRICE = $ » (où « PRICE » est le champ d'attribut à l'étude, « =" est l'ensemble opérateur algébrique et « $ » est la valeur). Votre logiciel recherche ensuite une valeur égale à $ dans le champ de prix de chaque enregistrement et sélectionne uniquement les enregistrements qui satisfont à l'équation. Dans la figure 5.2, cinquante des 112 restaurants correspondent à l'expression de la requête et sont sélectionnés dans le fichier d'attributs. Ils sont simultanément mis en évidence sur la carte.

Figure 5.2 : Sélection par attribut. Dans cet exemple, les restaurants sont sélectionnés sur leur prix étant bon marché (PRICE = ‘$’). Les résultats sont affichés à la fois sur la carte et dans la table attributaire (surlignée en orange).

Les requêtes d'attributs peuvent être complexes. Les expressions de requête, comme celle ci-dessus, peuvent être enchaînées pour former de longues équations pouvant inclure l'un des opérateurs répertoriés ci-dessus et un nombre quelconque de champs d'attribut existants. Une fois que les entités souhaitées sont sélectionnées, vous pouvez effectuer un certain nombre de processus analytiques uniquement sur les entités sélectionnées ou, à défaut, vous pouvez enregistrer les entités mises en surbrillance dans une nouvelle couche.

La requête d'attributs est un processus vectoriel, mais la reclassification (discutée comme une fonction de prétraitement au chapitre 3) est un processus raster similaire.

Sélection spatiale (recherches spatiales)
Alors que les requêtes attributaires sélectionnent les entités en triant les enregistrements dans un fichier de données, la sélection spatiale choisit les entités à partir de l'interface cartographique. Dans la plupart des cas, il sélectionne les entités d'une couche qui se situent à l'intérieur ou touchent une arête d'entités surfaciques dans une deuxième couche (ou un polygone graphique dessiné de manière interactive). La figure 5.3 est un exemple qui utilise la même couche de restaurant que la figure précédente. Encore une fois, la première couche se compose de restaurants, dont certains veulent sélectionner. La deuxième couche est composée de polygones rayonnant à partir de points d'intérêt. Après le processus de sélection, les clients entrant dans les polygones superposés sont mis en évidence (sélectionnés). Quatre-vingt-dix des 112 restaurants correspondent à l'expression de la requête et sont sélectionnés dans le fichier d'attributs et simultanément sur la carte.

Figure 5.3 : Sélection spatiale. Seuls les restaurants compris dans les polygones bleus sont sélectionnés.

Il existe plusieurs types de sélection spatiale. Point dans le polygone, peut-être le plus utilisé, sélectionne les points d'une couche s'ils sont contenus dans un polygone (ou des polygones) sélectionné(s) d'une autre couche (ou graphique). Ligne dans le polygone, une opération similaire, sélectionne des entités linéaires qui sont entièrement ou partiellement contenues dans le polygone d'une couche différente. Polygon in Polygon est une autre variante qui sélectionne des entités surfaciques dans (ou se chevauchant) des polygones sélectionnés à partir d'une deuxième couche. Un autre type de sélection spatiale est la distance de point (qui a également des versions de ligne et de polygone), qui identifie tous les points d'une couche qui se trouvent à une distance spécifiée d'un ou de plusieurs points sélectionnés dans une couche différente. Comme tout type de sélection, vous pouvez effectuer des processus analytiques sur ces entités mises en évidence ou les enregistrer dans une nouvelle couche.

Vous pouvez mélanger des sélections spatiales et des requêtes attributaires. Ici, vous pouvez d'abord sélectionner spatialement des entités, puis à partir du fichier d'attributs d'entités, vous réduisez (ou augmentez) les enregistrements sélectionnés via des expressions de requête d'attribut. La figure 5.4 est un exemple utilisant les mêmes données de restaurant que ci-dessus. Trente-sept des 112 restaurants correspondent à l'expression de la requête et se trouvent dans les polygones superposés. Ils sont mis en évidence à la fois dans le fichier d'attributs et sur la carte.

Figure 5.4 : Sélection spatiale et attributaire combinées. Dans cet exemple, les restaurants compris dans les polygones bleus et peu coûteux (PRICE = $) sont surlignés en orange.

La sélection spatiale est un processus vectoriel, mais lorsque vous combinez la reclassification (discutée au chapitre 3) et la superposition (discutée plus loin dans ce chapitre), la combinaison produit une version raster de la sélection spatiale.

Distance de mesure
Il existe de nombreuses façons de mesurer la distance. La plupart des programmes SIG, à la fois matriciels et vectoriels, ont un bouton de règle qui vous permet de mesurer les distances sur une carte. Après avoir cliqué sur le bouton, vous pointez sur la carte où vous souhaitez commencer votre mesure de distance, puis cliquez sur le point d'arrivée (ou les points intermédiaires qui définissent le chemin que vous souhaitez mesurer).

De nombreux systèmes vectoriels mesurent les distances le long des réseaux de lignes vectorielles existants, comme les rues, les égouts et les voies ferrées. Ce type de mesure de distance repose sur des relations de réseau topologiques, qui sont discutées plus loin (voir Analyse de connectivité). De plus, certains systèmes vectoriels génèrent automatiquement des mesures de longueur pour les entités linéaires lorsque vous les saisissez. Ils stockent le résultat de longueur dans un champ attributaire du fichier de données de la couche. Les systèmes qui ne disposent pas de cette fonction automatique vous permettent généralement de calculer la longueur de l'entité linéaire et de stocker le résultat dans un champ attributaire que vous définissez. Une fois calculée et stockée, vous pouvez additionner la longueur de plusieurs entités linéaires en les sélectionnant et en calculant leur somme (voir Calcul des statistiques descriptives ci-dessous).

Les systèmes basés sur des trames vous permettent de générer des mesures de distance dans toutes les directions à partir d'un pixel ou d'un groupe de pixels sélectionné. Ces distances sont placées dans un nouveau calque où la valeur de chaque cellule représente la distance entre cette cellule et le pixel sélectionné le plus proche. Ces couches de « distance » sont souvent utilisées pour les fonctions d'étalement (voir Fonctions d'étalement ci-dessous).

Zone/Périmètre de mesure
De nombreux systèmes vectoriels génèrent automatiquement des mesures de surface et de périmètre pour les entités surfaciques et stockent ces valeurs dans des champs attributaires prescrits. Les systèmes qui n'ont pas cette fonction automatique vous permettent de générer une surface et un périmètre et de stocker les résultats dans des champs définis par l'utilisateur. Voir la figure 5.5 pour un exemple. Une fois calculées et stockées, vous pouvez sélectionner plusieurs entités surfaciques et additionner leur superficie et leur périmètre (voir Calcul des statistiques descriptives ci-dessous).

Figure 5.5 : Aire et périmètre contenus comme attributs dans le fichier de données de la couche.

Le calcul des zones et des périmètres s'effectue différemment dans les systèmes raster. Au lieu de mesurer et de stocker la zone et le périmètre de chaque polygone dans les pixels de l'entité, les systèmes raster connaissent déjà la taille (la zone couverte) par un seul pixel. Pour calculer la zone, il ajoute simplement le nombre de pixels avec un attribut spécifié et multiplie le nombre par la zone contenue dans un seul pixel. C'est des maths faciles. Par exemple, votre couche peut avoir 100 polygones qui possèdent l'une des douze catégories de couverture terrestre. La routine trouve chaque occurrence des douze catégories (même si elles ne sont pas contiguës) et additionne la zone et le périmètre de la catégorie. Le périmètre est généralement tout aussi facile si les pixels sont carrés, et dans la grande majorité des cas, ils le sont. Ces mesures sont fournies soit dans des tableaux standard, soit dans de nouvelles couches où les pixels présentent les sommes de la surface et du périmètre de la catégorie à laquelle il appartenait à l'origine.

Calcul des statistiques descriptives
Les statistiques descriptives résument les données d'attribut. Ils réduisent la complexité de nombreuses valeurs individuelles en quelques nombres significatifs qui décrivent collectivement les caractéristiques individuelles. Les statistiques descriptives sont organisées en deux groupes : les mesures de tendance centrale et les mesures de dispersion.

La tendance centrale décrit le centre de la distribution des données d'attribut. La moyenne, la médiane et le mode sont ses trois mesures communes, mais la mesure à utiliser dépend largement du niveau de mesure de l'attribut (décrit au chapitre 2). La figure 5.6 illustre les trois mesures de tendance centrale pour les valeurs d'attribut d'un seul champ.

  • La mesure la plus utilisée est la signifier (communément appelée moyenne), qui est calculée en additionnant la valeur attributaire de chaque caractéristique et en divisant la somme par le nombre d'entités. Par exemple, si vous vouliez caractériser l'âge des personnes lisant ce texte électronique, vous feriez la somme de l'âge de chaque lecteur et le diviseriez par le nombre de lecteurs. Le résultat est la moyenne. C'est, comme toutes les mesures de tendance centrale, un substitut utilisé pour décrire toutes les valeurs dans un seul champ d'attribut. Cette mesure nécessite des données d'intervalle ou de rapport.
  • Si nous plaçons les valeurs d'attribut dans l'ordre croissant ou décroissant, le médian est le score moyen de la distribution (cela fonctionne pour un nombre impair de cas). En d'autres termes, la moitié des valeurs d'attribut sont supérieures et l'autre moitié inférieures à cette valeur. Dans une distribution paire, la médiane est la moyenne des deux notes moyennes. La médiane est utilisée pour les données ordinales et dérivées (agrégées).
  • Mode est le score le plus fréquent dans une distribution. Bien entendu, certaines distributions n'ont pas de mode s'il n'y a pas de valeurs répétées. Parfois, la seule valeur répétée peut se situer à l'extrémité inférieure ou supérieure de la distribution, ce qui rend cette mesure un peu peu fiable et certainement non centrale. La mesure, cependant, est utile pour décrire les principales catégories (par exemple les différents partis politiques). C'est la seule mesure pour décrire la tendance centrale des données nominales.

Figure 5.6 : Mesures de tendance centrale. Ces valeurs attributaires sont obtenues à partir du champ attributaire d'une couche vectorielle ou à partir de pixels sélectionnés dans une couche raster.

La dispersion, le deuxième groupe de statistiques descriptives, examine la propagation des données d'attribut. Ses mesures (y compris la plage, la variance et l'écart type) décrivent à quel point les valeurs des attributs varient autour du centre de la distribution (ses mesures de tendance centrale). Les valeurs sont-elles regroupées étroitement ou sont-elles dispersées ? Ces mesures vous aident à évaluer dans quelle mesure la tendance centrale caractérise toutes les valeurs du champ attributaire. Si la mesure de la dispersion est petite, les valeurs sont regroupées et la mesure de la tendance centrale décrit bien la distribution. Il existe plusieurs types de mesures de dispersion (voir également la figure 5.7) :

  • Comptes et fréquences ne sont pas des mesures de dispersion, mais ce sont des moyens de base pour résumer les données. Le comptage dénote simplement la quantité. La fréquence est le nombre de fois qu'un champ d'attribut a une valeur particulière. Une distribution de fréquence, généralement sous la forme d'un histogramme, décrit la forme (ou la structure) des données d'attribut en tabulant les fréquences de chaque valeur (ou plage de valeurs).
  • Varier est la distance entre les valeurs d'attribut minimale et maximale. Pour le dériver, il suffit de soustraire la valeur minimale de la valeur maximale. C'est la mesure la plus simple de la dispersion, mais elle est vulnérable aux valeurs aberrantes (valeurs non fiables qui sont significativement différentes du reste des valeurs d'attribut). Si vous pensez que les valeurs aberrantes affectent la plage, utilisez plutôt la plage interquartile. Il divise la distribution, classée du bas vers le haut, en quatre parties contenant chacune 25 % des valeurs d'attribut, et c'est la différence entre les 25e et 75e centiles.
  • Le variance examine la différence entre les valeurs de la distribution et sa mesure de tendance centrale (dans ce cas, la moyenne). Il est plus complexe que de calculer la différence moyenne que chaque valeur d'attribut tombe de la moyenne. Un tel score ne met pas suffisamment l'accent numérique sur les valeurs d'attribut sur l'extrémité inférieure et supérieure de la distribution. La variance s'ajuste en égalant la différence au carré, en additionnant les carrés et en divisant par le nombre.
  • Écart-type est la racine carrée de la variance. Comme la variance, elle décrit la dispersion autour de la moyenne et vous permet d'évaluer à quel point les nombres de l'ensemble de données sont regroupés autour de la moyenne (en d'autres termes, dans quelle mesure la moyenne décrit ou résume l'ensemble de nombres). De même, plus le nombre est petit, plus les valeurs sont regroupées autour de la mesure de tendance centrale. Contrairement aux valeurs plus élevées de la variance, cependant, l'écart type utilise des nombres similaires à l'ensemble de données d'origine. Pourtant, les deux sont essentiellement la même chose.

Figure 5.7 : Mesures de dispersion.

Dans les systèmes vectoriels, les statistiques descriptives sont généralement générées dans l'interface du fichier d'attributs. Dans les couches raster, les commandes de menu traitent les statistiques descriptives. Chaque champ d'attribut peut être résumé dans son intégralité ou limité à des enregistrements ou des pixels sélectionnés. Les statistiques descriptives calculées dépendent du niveau de mesure des données d'attribut (Figure 5.8).

Figure 5.8 : Décrit quelles statistiques descriptives peuvent être utilisées avec différents niveaux de données.

ANALYSE DE RECOUVREMENT

La superposition est l'une des fonctions SIG les plus courantes et les plus puissantes. Il étudie l'association spatiale des entités en « empilant verticalement » des couches d'entités pour étudier les modèles géographiques et déterminer les emplacements qui répondent à des critères spécifiques.

C'est la fonction SIG la plus connue, mais des exemples de superposition sont antérieurs aux ordinateurs et aux SIG. Un exemple simple mais puissant a été décrit au chapitre 1 : le Dr Snow a superposé les pompes à eau sur les décès dus au choléra pour voir un schéma spatial et déduire un lien entre l'eau et la maladie. D'autres analyses superposées, plus sophistiquées, ont également eu lieu avant l'avènement du SIG. Dans les années 1960, Ian McHarg a cherché une meilleure façon de planifier l'utilisation des terres, en tenant compte de l'environnement physique et des facteurs humains. Dans Design with Nature (1969), McHarg a formalisé son processus de planification de site basé sur des transparences superposées. Il a créé des cartes transparentes sur papier pour chaque facteur humain (valeurs historiques, vues panoramiques, coûts sociaux, etc.) et physique (pente, drainage de surface, zones riveraines, susceptibilité à l'érosion, etc.) pertinent. Chaque transparence comprenait des nuances allant des tons sombres (zones avec des valeurs élevées) aux tons clairs (zones avec des valeurs faibles). Physiquement, les transparents se sont superposés les uns aux autres sur le fond de carte de la zone d'étude. Une carte composite a révélé des tons sombres dans les zones où plusieurs couches avaient des valeurs élevées (impacts élevés) et des tons clairs dans les régions à faibles valeurs d'impact. McHarg a estimé que les planificateurs devaient entreprendre ce processus pour déterminer quelles zones devraient être laissées naturelles et quels endroits se prêtaient au développement. Son livre et sa méthode étaient si populaires que bon nombre des premiers projets SIG ont tenté de formaliser sa technique à l'aide du SIG.

Aujourd'hui, il existe de nombreux types de superposition SIG. Les modèles vectoriels et raster effectuent tous deux une superposition, mais leurs fonctions de superposition diffèrent considérablement et seront donc discutées séparément.

Superposition vectorielle (logique)
La superposition vectorielle superpose principalement les polygones d'une couche sur les polygones d'une autre couche, mais elle peut également être utilisée pour superposer des entités ponctuelles ou linéaires sur des couches de polygones. Parfois appelée superposition topologique ou logique, elle est conceptuellement et mathématiquement plus exigeante que la superposition raster. Il existe trois types d'opérations de superposition vectorielle :

Polygone sur polygone est l'endroit où une couche de polygones est superposée à une autre couche de polygones pour créer une nouvelle couche de polygones en sortie. Les polygones résultants peuvent contenir tout ou partie des attributs des polygones dans lesquels ils ont été créés. Il existe plusieurs types de polygones sur superposition de polygones, notamment l'intersection (A et B), l'union (A ou B) et le découpage (A et non B). Ces opérateurs booléens fonctionnent à la fois sur la table attributaire et sur la géographie.

  • Intersection calcule l'intersection géométrique de tous les polygones dans les couches en entrée (voir Figure 5.9). Seules les entités partageant une géographie commune sont conservées dans la couche en sortie. Tout polygone ou partie de polygone qui se situe en dehors de la zone commune est supprimé de la couche en sortie. La nouvelle couche de polygones peut posséder les données attributaires des entités dans les couches en entrée.

Figure 5.9 : Intersection de deux couches.

  • syndicat combine les caractéristiques des couches de polygones en entrée (voir Figure 5.10). Tous les polygones des couches en entrée sont inclus dans la couche de polygones en sortie. Il peut également posséder les données attributaires combinées des couches de polygones en entrée.

Figure 5.10 : Union de deux couches.

  • Agrafe supprime ces entités (ou portions d'entités) d'une couche de polygones en entrée qui se superposent aux entités d'une couche de polygones de découpage (Figure 5.11). La couche de découpage agit comme un emporte-pièce pour supprimer les entités (et des portions d'entités) qui se trouvent à l'intérieur de la couche de découpage.

Figure 5.11 : Découpage d'un calque d'un autre.

Point dans le polygone est l'endroit où une couche d'entités ponctuelles est superposée à une couche d'entités surfaciques. Les deux couches produisent une couche de points qui inclut les attributs des polygones de couche en entrée environnants (Figure 5.12). Vous pouvez également compter le nombre d'entités ponctuelles comprises dans chaque polygone et stocker la somme en tant que nouvel attribut dans la couche de polygones. D'autres attributs de point peuvent être agrégés (sommes, moyennes, etc.) et inclus en tant qu'attributs dans le fichier de données de polygones. Le transfert d'attributs en fonction de leur position géographique s'appelle une jointure spatiale.

Figure 5.12 : Point dans le polygone.

Ligne sur polygone est similaire au point dans un polygone, mais les lignes sont superposées aux polygones. Ce type de jointure spatiale ajoute des attributs de polygone aux entités linéaires qui les composent ou compte et agrège les données d'attributs de ligne dans le fichier de données de la couche de polygones.

Superposition de raster (arithmétique)
La superposition de raster superpose au moins deux couches raster en entrée pour produire une couche en sortie. Chaque cellule du calque de sortie est calculée à partir des pixels correspondants des calques d'entrée. Pour ce faire, les couches doivent s'aligner parfaitement, elles doivent avoir la même résolution en pixels et la même étendue spatiale. Si elles ne s'alignent pas, elles peuvent être ajustées pour s'adapter à l'aide des fonctions de prétraitement décrites au chapitre 3. Une fois prétraitée, la superposition raster est flexible, efficace, rapide et offre plus de possibilités de superposition que la superposition vectorielle.

La superposition de raster, fréquemment appelée algèbre cartographique, est basée sur des calculs qui incluent des expressions arithmétiques et des opérateurs algébriques ensemblistes et booléens pour traiter les couches d'entrée afin de créer une couche de sortie. Les opérateurs les plus courants sont l'addition, la soustraction, la multiplication et la division, mais d'autres opérateurs populaires incluent le maximum, le minimum, la moyenne, ET, OU et NON. En bref, la superposition de raster utilise simplement des opérateurs arithmétiques pour calculer les cellules correspondantes de deux ou plusieurs couches d'entrée ensemble, utilise l'algèbre booléenne comme AND ou OR pour trouver les pixels qui correspondent à une instruction de requête particulière, ou exécute des tests statistiques comme la corrélation et la régression sur le couches d'entrée (voir Figure 5.13).

Figure 5.13 : Superposition de raster. En utilisant les couches 1 et 2, toutes sortes de superpositions sont possibles.

Correlation et regression
La corrélation et la régression sont deux façons de calculer le degré d'association entre deux (ou parfois plus) couches. Avec la corrélation, vous ne supposez pas une relation causale. En d'autres termes, une couche n'affecte pas le modèle spatial de l'autre couche. Les modèles peuvent être similaires, mais aucune cause ni effet n'est impliqué.

La régression est différente, vous faites l'hypothèse qu'une couche (et sa variable) influence l'autre. Vous spécifiez une couche variable indépendante (parfois plusieurs) qui affecte la couche variable dépendante. La figure 5.14 montre une précipitation (dépendante) et une élévation (indépendante) en tant que couches.

Figure 5.14 : Existe-t-il une relation spatiale entre ces deux couches ? Les tests de corrélation et de régression vous permettent de superposer des couches pour tester leur relation spatiale.

Avec les deux tests statistiques, vous calculez un coefficient de corrélation, qui va de -1 à +1. Des coefficients positifs indiquent que les deux variables de couche sont associées dans le même sens. Lorsqu'une variable augmente, l'autre variable augmente (les deux peuvent également diminuer simultanément). Les valeurs plus proches de +1 décrivent une association plus forte que celles plus proches de zéro. Un coefficient négatif représente deux variables de couche associées mais dans des directions opposées. Lorsqu'une variable augmente, l'autre variable diminue. Les valeurs plus proches de -1 ont une forte association négative. Si le coefficient de corrélation est proche de zéro, il y a peu ou pas d'association. Ces deux processus sont basés sur des trames.

OPÉRATIONS DE QUARTIER

Les opérations de voisinage, également appelées analyses de proximité, prennent en compte les caractéristiques des zones voisines autour d'un emplacement spécifique. Ces fonctions modifient les entités existantes ou créent de nouvelles couches d'entités, qui sont influencées, dans une certaine mesure, par la distance par rapport aux entités existantes. Tous les programmes SIG fournissent des analyses de voisinage, qui incluent la mise en mémoire tampon, l'interpolation, les polygones de Theissen et diverses fonctions topographiques.

mise en mémoire tampon
La mise en mémoire tampon crée des zones physiques autour des entités. Ces « tampons » sont généralement basés sur des distances en ligne droite spécifiques à partir d'entités sélectionnées (comme dans la figure 5.15). Les zones tampon, communes aux systèmes raster et vectoriels, sont créées autour d'entités ponctuelles, linéaires ou surfaciques. Les zones tampon résultantes sont placées dans une couche d'entités surfaciques en sortie. Une fois terminées, les couches tampons sont utilisées pour déterminer quelles entités (dans d'autres couches) apparaissent à l'intérieur ou à l'extérieur des tampons (requêtes spatiales), pour effectuer une superposition ou pour mesurer la superficie de la zone tampon. Ce sont les opérations de quartier les plus utilisées.

Figure 5.15 : Mise en mémoire tampon autour d'une entité linéaire sélectionnée.

La plupart des zones tampons utilisent des largeurs constantes pour générer des zones, mais certaines zones tampons ont des largeurs variables qui dépendent des valeurs des attributs d'entité. À titre d'exemple, la figure de droite représente une zone tampon à distance variable basée sur les décibels d'un aéroport.

Interpolation
L'interpolation est une méthode de prédiction ou d'estimation des valeurs de pixels à des emplacements non échantillonnés sur la base des valeurs connues des pixels voisins (voir Figure 5.16). Comme il est peu pratique pour vous de prendre des mesures à tous les emplacements de votre zone d'étude en raison de contraintes financières, de temps, juridiques et physiques, vous interpolez entre les valeurs de pixels connues (emplacements échantillonnés). Avec l'interpolation, vous créez une surface continue comme l'altitude, la température et les caractéristiques du sol qui se produisent partout. En raison de sa nature continue, l'interpolation n'est disponible que dans les systèmes basés sur des trames.

Figure 5.16 : Interpolation entre entités ponctuelles. Les points rouges sont les points où les valeurs sont connues. Les cellules grises sont les données estimées basées sur les valeurs connues.

Il existe de nombreux types d'interpolation : L'interpolation linéaire, la forme la plus simple, suppose que le changement de valeur en fonction de la distance par rapport aux pixels enregistrés est uniforme. En d'autres termes, la variation de valeur par pixel est constante entre deux points connus. Cette méthode d'interpolation n'est pas toujours appropriée, il existe donc d'autres méthodes, notamment la moyenne locale à rayon fixe, la pondération par distance inverse, la surface de tendance, les splines et le krigeage. Toutes ces méthodes d'interpolation examinent les valeurs des pixels enregistrés pour générer la valeur des pixels qui se situent entre les deux. Les méthodes diffèrent par la manière dont elles pondèrent les attributs enregistrés et par le nombre d'observations utilisées pour chaque méthode. Aucune méthode n'est exacte dans toutes les situations.

Polygones de Theissen (voronoi ou polygones proximaux)
Les polygones de Theissen sont des limites créées autour de points dans une couche de points (voir Figure 5.17). Les polygones résultants se forment autour de chacun des points et ils délimitent des territoires autour desquels tout emplacement à l'intérieur du polygone est plus proche du point interne (qui l'a créé) que de tout autre point de la couche. Les attributs associés à chaque point sont attribués au polygone résultant. Il s'agit d'un processus vectoriel et raster, mais pour plusieurs attributs, les systèmes raster doivent utiliser plusieurs couches.

Figure 5.17 : Création de polygones de Theissen à partir d'entités ponctuelles.

Fonctions topographiques
Les fonctions topographiques utilisent des modèles numériques d'élévation (MNE) pour illustrer la configuration du terrain. Les DEM sont des couches raster contenant des données d'altitude dans chaque pixel. À partir de ces valeurs, vous produisez des couches de sortie pour représenter la pente (inclinaison), l'aspect (direction) et l'ombrage (voir Figure 5.18). Ces fonctions topographiques sont des processus de voisinage typiques. Chaque pixel de la couche résultante est un produit de sa propre valeur d'élévation ainsi que de celles de ses voisins environnants.

  • Pente les couches présentent l'inclinaison ou la pente du terrain. C'est le changement d'altitude sur une distance définie.
  • Aspect est la direction de la boussole dans laquelle une pente fait face. Depuis le nord, il est généralement exprimé dans le sens des aiguilles d'une montre de 0 à 360 degrés.
  • Ombrage, qui est cartographiquement appelé relief ombré, est un effet de lumière qui imite le soleil pour mettre en valeur les collines et les vallées. Certaines zones semblent être éclairées tandis que d'autres se trouvent dans l'ombre.

Figure 5.18 : Fonctions topographiques. Le DEM crée les couches de pente, d'aspect et d'ombrage.

Bien que ces fonctions soient des processus raster, la plupart peuvent être imitées dans un environnement vectoriel par des réseaux irréguliers triangulés (TIN). De plus, les fonctions topographiques peuvent dériver des isolignes vectorielles (contours).

ANALYSES DE CONNECTIVITÉ

Les analyses de connectivité utilisent des fonctions qui accumulent des valeurs sur une zone parcourue. Le plus souvent, il s'agit de l'analyse des surfaces et des réseaux. Les analyses de connectivité incluent l'analyse du réseau, les fonctions de propagation et l'analyse de la visibilité. Ce groupe de fonctions analytiques est le moins développé dans les logiciels SIG commerciaux, mais cette situation évolue à mesure que la demande commerciale pour ces fonctions augmente.

Les systèmes vectoriels se concentrent généralement sur les capacités d'analyse de réseau. Les systèmes basés sur des trames fournissent une analyse de visibilité et des fonctions de diffusion sophistiquées.

Fonctions d'étalement (analyse de surface)
Les fonctions d'étalement sont des techniques d'analyse raster qui déterminent les chemins dans l'espace en considérant comment les phénomènes (y compris les caractéristiques) se propagent sur une zone dans toutes les directions mais avec des résistances différentes. Vous commencez avec une couche d'origine ou de départ (un point où commence le chemin) et une couche de friction, qui représente la difficulté - quelle résistance - il est pour le phénomène de traverser chaque cellule. À partir de ces deux couches, une nouvelle couche est formée qui indique la résistance que rencontre le phénomène lorsqu'il se propage dans toutes les directions (voir Figure 5.19).

Ajoutez une couche de destination et vous pourrez déterminer le chemin « le moins coûteux » entre l'origine et la destination. Le « moindre coût » peut être un coût monétaire, mais il peut aussi représenter le temps qu'il faut pour aller d'un point à un autre, le coût environnemental de l'utilisation d'un itinéraire, ou encore la quantité d'effort (calories) dépensée.

Figure 5.19 : Fonctions d'étalement. Cet exemple montre que la distance la plus courte n'est pas toujours la distance la moins coûteuse.

Modélisation du champ de vision (analyse d'intervisibilité)
La modélisation du champ de vision utilise des couches d'altitude pour indiquer les zones sur la carte qui peuvent et ne peuvent pas être visualisées à partir d'un point de vue spécifique. La zone non obscurcie est le bassin de vision. Les champs de vision sont développés à partir de MNT dans des systèmes basés sur des trames et à partir de TIN dans des systèmes vectoriels. La capacité de déterminer les points de vue (et comment ils peuvent être modifiés) est particulièrement utile aux planificateurs de parcs nationaux et d'État et aux architectes paysagistes. La figure 5.20 illustre les zones à l'intérieur d'un parc où une antenne radio proposée peut être vue.

Figure 5.20 : Analyse du champ de vision. Carte reproduite avec l'aimable autorisation du National Park Service, ministère de l'Intérieur, 2007.

Analyse de réseau
Les analyses de réseau impliquent l'analyse du flux des réseaux, un ensemble connecté de lignes et de nœuds ponctuels (parfois appelés centres ou hubs). Ces réseaux linéaires représentent le plus souvent des éléments tels que des rivières, des corridors de transport (routes, voies ferrées et même des trajectoires de vol) et des services publics (électricité, téléphone, télévision, égouts, eau, gaz). Les nœuds ponctuels représentent généralement des sites de prise en charge ou de destination, des clients, des transformateurs, des vannes et des intersections. Les personnes, l'eau, les forfaits de consommation, les kilowatts et de nombreuses autres ressources circulent vers et depuis les nœuds le long d'entités linéaires.

Chaque caractéristique linéaire affecte le flux de ressources. Par exemple, un segment de rue peut ne fournir un flux que dans une direction (une rue à sens unique) et à une certaine vitesse. Les nœuds peuvent également affecter le flux. Une vanne bloquée peut permettre à une trop grande quantité de ressources de sortir et de s'éloigner de sa destination prévue. Les outils d'analyse de réseau vous aident à analyser le “coût” du déplacement sur le réseau. Comme les fonctions d'étalement, “cost” peut représenter l'argent, le temps, la distance ou l'effort. Les analyses de réseau sont des applications vectorielles, mais il existe des similitudes avec les fonctions d'étalement raster.

Les trois principaux types d'analyses de réseau comprennent la sélection d'itinéraires (chemin optimal ou chemin le plus court), l'allocation des ressources et la modélisation du réseau.

  • Sélection d'itinéraire tente d'identifier l'itinéraire le moins coûteux. Comme décrit ci-dessus, le coût peut être défini de plusieurs manières. Vous voudrez peut-être trouver le chemin le plus court entre votre domicile et une destination de week-end ou l'itinéraire le moins coûteux qui livre les colis UPS à leurs destinataires. Dans toute routine de sélection de route, deux nœuds ou plus, comprenant un point d'origine et un point de destination, doivent être identifiés et pouvoir être visités sur le réseau. Parfois, il existe un grand nombre d'itinéraires possibles. C'est le travail de l'algorithme d'analyse de réseau de déterminer l'itinéraire le moins coûteux. Plusieurs chemins sont testés jusqu'à ce que le chemin le moins coûteux relie les points de départ et de destination.
  • Allocation de ressources, le deuxième grand type d'analyse de réseau, implique la répartition d'un réseau en nœuds. Pour ce faire, vous définissez un ou plusieurs nœuds d'allocation sur le réseau. Des territoires d'entités linéaires, comme des rues, sont définis autour de chacun de ces nœuds d'allocation. Les entités linéaires sont généralement attribuées au nœud le plus proche, où la distance est mesurée en temps, en longueur, en argent ou en effort. La figure 5.21 illustre les temps de réponse de 4 minutes de six casernes de pompiers et de trois emplacements potentiels de casernes de pompiers. Le polygone qui est dessiné autour de chaque station (triangle) représente la zone qui peut être couverte en 4 minutes.

Figure 5.21 : Affectation des ressources. La carte est une gracieuseté de Tyler Schrag, Bellingham Fire Department, 2006.


Comment les données numériques SIG sont-elles stockées ?¶

Les traitements de texte, les tableurs et les logiciels graphiques sont tous des programmes qui vous permettent de créer et de modifier des données numériques. Chaque type d'application enregistre ses données dans un format de fichier particulier. Par exemple, un programme graphique vous permettra d'enregistrer votre dessin en tant qu'image JPEG .jpg, les traitements de texte vous permettront d'enregistrer votre document en tant que document Word .odt OpenDocument ou .doc, et ainsi de suite.

Tout comme ces autres applications, les applications SIG peuvent stocker leurs données dans des fichiers sur le disque dur de l'ordinateur. Il existe un certain nombre de formats de fichiers différents pour les données SIG, mais le plus courant est probablement le « fichier de forme ». Le nom est un peu étrange car bien que nous l'appelions un fichier de forme (singulier), il se compose en fait d'au moins trois fichiers différents qui fonctionnent ensemble pour stocker vos données vectorielles numériques, comme indiqué dans table_shapefile.

La géométrie des entités vectorielles est stockée dans ce fichier

Les attributs des entités vectorielles sont stockés dans ce fichier

Ce fichier est un index qui aide l'application SIG à trouver des entités plus rapidement.

Table Shapefile 1 : Les fichiers de base qui forment ensemble un « shapefile ».

Lorsque vous regardez les fichiers qui composent un shapefile sur le disque dur de l'ordinateur, vous verrez quelque chose comme figure_shapefile. Si vous souhaitez partager des données vectorielles stockées dans des fichiers de formes avec une autre personne, il est important de leur donner tous les fichiers de cette couche. Ainsi, dans le cas de la couche d'arbres montrée dans figure_shapefile, vous devrez donner à la personne tree.shp , tree.shx , tree.dbf , tree.prj et tree.qml .

Les fichiers qui composent un fichier de formes « arbres » comme on le voit dans le gestionnaire de fichiers de l'ordinateur. ¶

De nombreuses applications SIG sont également capables de stocker des données numériques dans un base de données. En général, le stockage des données SIG dans une base de données est une bonne solution car la base de données peut stocker de grandes quantités de données efficacement et peut fournir des données à l'application SIG rapidement. L'utilisation d'une base de données permet également à de nombreuses personnes de travailler avec les mêmes couches de données vectorielles en même temps. La configuration d'une base de données pour stocker les données SIG est plus compliquée que l'utilisation de fichiers de formes. Pour ce sujet, nous nous concentrerons donc sur la création et la modification de fichiers de formes.


Planifiez avant de commencer¶

Avant de pouvoir créer une nouvelle couche vectorielle (qui sera stockée dans un fichier de formes), vous devez savoir quelle sera la géométrie de cette couche (point, polyligne ou polygone), et vous devez savoir quels seront les attributs de cette couche . Regardons quelques exemples et il deviendra plus clair comment procéder.

Exemple 1 : Création d'une carte touristique¶

Imaginez que vous vouliez créer une belle carte touristique de votre région. Votre vision de la carte finale est une feuille topographique au 1:50 000 avec des marqueurs superposés pour les sites d'intérêt pour les touristes. Tout d'abord, pensons à la géométrie. Nous savons que nous pouvons représenter une couche vectorielle à l'aide d'entités ponctuelles, polylignes ou surfaciques. Lequel a le plus de sens pour notre carte touristique ? Nous pourrions utiliser des points si nous voulions marquer des emplacements spécifiques tels que des points de vue, des monuments commémoratifs, des sites de bataille, etc. Si nous voulions emmener les touristes le long d'un itinéraire, comme une route panoramique à travers un col de montagne, il pourrait être judicieux d'utiliser des polylignes. Si nous avons des zones entières d'intérêt touristique, comme une réserve naturelle ou un village culturel, les polygones pourraient être un bon choix.

Comme vous pouvez le voir, il n'est souvent pas facile de savoir de quel type de géométrie vous aurez besoin. Une approche courante de ce problème consiste à créer une couche pour chaque type de géométrie dont vous avez besoin. Ainsi, par exemple, si vous regardez les données numériques fournies par la Direction générale : Surveys and Mapping, Afrique du Sud, elles fournissent une couche de zones fluviales (polygones) et une couche de polylignes fluviales.Ils utilisent les zones fluviales (polygones) pour représenter des tronçons fluviaux larges, et ils utilisent des polylignes fluviales pour représenter des tronçons fluviaux étroits. Dans figure_tourism, nous pouvons voir à quoi pourraient ressembler nos couches touristiques sur une carte si nous utilisions les trois types de géométrie.

Figure Tourisme 1 :

Une carte avec des couches touristiques. Nous avons utilisé trois types de géométrie différents pour les données touristiques afin de pouvoir représenter correctement les différents types de caractéristiques nécessaires à nos visiteurs, en leur donnant toutes les informations dont ils ont besoin.

Exemple 2 : Création d'une carte des niveaux de pollution le long d'une rivière¶

Si vous vouliez mesurer les niveaux de pollution le long du cours d'une rivière, vous voyageriez généralement le long de la rivière en bateau ou marcheriez le long de ses rives. À intervalles réguliers, vous vous arrêtiez et preniez diverses mesures telles que les niveaux d'oxygène dissous (OD), le nombre de bactéries coliformes (CB), les niveaux de turbidité et le pH. Vous devrez également effectuer une lecture cartographique de votre position ou obtenir votre position à l'aide d'un récepteur GPS.

Pour stocker les données collectées à partir d'un exercice comme celui-ci dans une application SIG, vous créeriez probablement une couche SIG avec une géométrie de point. L'utilisation de la géométrie des points est logique ici car chaque échantillon prélevé représente les conditions à un endroit très spécifique.

Pour les attributs, nous voudrions un domaine pour chaque élément qui décrit le site échantillon. Nous pouvons donc nous retrouver avec une table attributaire qui ressemble à table_river_attributes.

ÉchantillonNon pH FAIRE CB Turbidité Collectionneur Date
1 7 6 N Faible La patience 12/01/2009
2 6.8 5 Oui Moyen Thabo 12/01/2009
3 6.9 6 Oui Haute Victor 12/01/2009

Table River Attributes 1 : dessiner une table comme celle-ci avant de créer votre couche vectorielle vous permettra de décider des champs attributaires (colonnes) dont vous aurez besoin. Notez que la géométrie (positions où les échantillons ont été prélevés) n'est pas affichée dans la table attributaire –– l'application SIG la stocke séparément !


L'essentiel du système d'information géographique v.1.0

Lire la version texte

Chapitre 6 Caractéristiques et visualisation des données Figure 6.8 Les entités bleues et jaunes mises en surbrillance sont sélectionnées car elles coupent les entités rouges. • SONT À DISTANCE DE. Cette technique nécessite que l'utilisateur spécifie une valeur de distance, qui est ensuite utilisée pour tamponner (Chapitre 7 \"Geospatial Analysis I: Vector Operations\", Section 7.2 \"Multiple Layer Analysis\") la couche source. Toutes les entités qui croisent cette zone tampon sont mises en évidence dans la couche cible. La requête « sont à une distance de » permet d'utiliser des couches de points, de lignes ou de polygones à la fois pour les couches source et cible (Figure 6.9). 6.2 Recherches et requêtes 147

Chapitre 6 Caractéristiques et visualisation des données Figure 6.9 Les entités bleues et jaunes mises en surbrillance sont sélectionnées parce qu'elles se trouvent dans la distance sélectionnée des entités rouges. Les zones bronzées représentent des zones tampons autour des diverses entités. • CONTENIR COMPLÈTEMENT. Cette technique de requête spatiale renvoie les entités qui se trouvent entièrement dans la couche source. Les entités avec des limites coïncidentes ne sont pas sélectionnées par ce type de requête. La requête « contenir complètement » autorise les points, les lignes ou les polygones comme couche source, mais seuls les polygones peuvent être utilisés comme couche cible (Figure 6.10). 6.2 Recherches et requêtes 148

Chapitre 6 Caractéristiques et visualisation des données Figure 6.10 Les entités en surbrillance bleue et jaune sont sélectionnées car elles contiennent entièrement les entités rouges. • SONT COMPLÈTEMENT À L'INTÉRIEUR. Cette requête sélectionne les entités de la couche cible dont l'étendue spatiale entière se situe dans la géométrie de la couche source. La requête « sont complètement à l'intérieur » permet d'utiliser des points, des lignes ou des polygones comme couche cible, mais seuls les polygones peuvent être utilisés comme couche source (Figure 6.11). Figure 6.11 Les entités bleues et jaunes mises en surbrillance sont sélectionnées car elles se trouvent entièrement dans les entités rouges. 6.2 Recherches et requêtes 149

Chapitre 6 Caractéristiques et visualisation des données • AYEZ LEUR CENTRE À L'INTÉRIEUR. Cette technique sélectionne les entités cibles dont le centre, ou centre de gravité, est situé dans les limites du jeu de classes d'entités source. La requête « avoir leur centre dans » permet d'utiliser des couches de points, de lignes ou de polygones à la fois comme couches source et cible (Figure 6.12). Figure 6.12 Les entités bleues et jaunes mises en surbrillance sont sélectionnées car elles ont leurs centres dans les entités rouges. • PARTAGEZ UN SEGMENT DE LIGNE. Cette requête spatiale sélectionne des entités cibles dont les géométries de limites partagent au moins deux sommets adjacents avec la couche source. La requête « partager un segment de ligne » permet d'utiliser des couches de lignes ou de polygones pour les couches source et cible (Figure 6.13). 6.2 Recherches et requêtes 150

Chapitre 6 Caractéristiques et visualisation des données Figure 6.13 Les entités bleues et jaunes mises en surbrillance sont sélectionnées car elles partagent un segment de ligne avec les entités rouges. • TOUCHER LA LIMITE DE. Cette méthodologie est similaire à la requête spatiale INTERSECT, mais elle sélectionne des entités linéaires et surfaciques qui partagent une limite commune avec la couche cible. La requête « toucher la limite de » permet d'utiliser des couches de lignes ou de polygones à la fois comme couches source et cible (Figure 6.14). 6.2 Recherches et requêtes 151

Chapitre 6 Caractéristiques et visualisation des données Figure 6.14 Les entités bleues et jaunes mises en surbrillance sont sélectionnées car elles touchent la limite des entités rouges. • SONT IDENTIQUES À. Cette requête spatiale renvoie des entités qui ont exactement le même emplacement géographique. La requête « sont identiques à » peut être utilisée sur des points, des lignes ou des polygones, mais le type de couche cible doit être le même que le type de couche source (Figure 6.15). 6.2 Recherches et requêtes 152

Chapitre 6 Caractéristiques et visualisation des données Figure 6.15 Les entités en surbrillance bleue et jaune sont sélectionnées car elles sont identiques aux entités rouges. • SONT TRAVERSÉS PAR LE SCHÉMA DE. Ce critère de sélection renvoie des entités qui partagent un seul sommet mais pas un segment de ligne entier. La requête « sont traversés par le contour de » permet d'utiliser des couches de lignes ou de polygones à la fois comme couches source et cible (Figure 6.16). 6.2 Recherches et requêtes 153

Chapitre 6 Caractéristiques et visualisation des données Figure 6.16 Les entités en surbrillance bleue et jaune sont sélectionnées car elles sont traversées par le contour des entités rouges. • CONTENIR. Cette méthode est similaire à la requête spatiale COMPLETELY CONTAIN, cependant, les entités de la couche cible seront sélectionnées même si les limites se chevauchent. La requête « contenir » autorise les entités ponctuelles, linéaires ou surfaciques dans la couche cible lorsque des points sont utilisés comme source lorsque des couches cibles linéaires et surfaciques avec une source linéaire et lorsque seules des couches cibles polygonales avec une source polygonale (Figure 6.17). 6.2 Recherches et requêtes 154

Chapitre 6 Caractéristiques et visualisation des données Figure 6.17 Les entités bleues et jaunes mises en surbrillance sont sélectionnées car elles contiennent les entités rouges. • SONT CONTENUS PAR. Cette méthode est similaire à la requête spatiale ARE COMPLETELY WITHIN, cependant, les entités de la couche cible seront sélectionnées même si les limites se chevauchent. La requête « sont contenus par » autorise les entités ponctuelles, linéaires ou surfaciques dans la couche cible lorsque des polygones sont utilisés comme source lorsque des couches cibles ponctuelles et linéaires avec une source linéaire et lorsque seules les couches cibles ponctuelles avec une source ponctuelle (Figure 6.18 ). 6.2 Recherches et requêtes 155

Chapitre 6 Caractéristiques et visualisation des données Figure 6.18 Les entités bleues et jaunes mises en surbrillance sont sélectionnées car elles sont contenues dans les entités rouges. PRINCIPAUX POINTS À RETENIR • Les trois méthodes de base pour rechercher et interroger les données d'attributs sont la sélection, l'interrogation par attribut et l'interrogation par géographie. • SQL est un langage informatique couramment utilisé développé pour interroger par attribut des données dans un système de gestion de base de données relationnelle. • Les requêtes par géographie permettent à un utilisateur de mettre en évidence les caractéristiques souhaitées en examinant leur position par rapport à d'autres caractéristiques. Les onze différentes options d'interrogation par géographie répertoriées ici sont disponibles dans la plupart des progiciels SIG. 6.2 Recherches et requêtes 156

Chapitre 6 Caractéristiques et visualisation des données EXERCICES 1. À l'aide de la figure 6.1 \"Histogram montrant la distribution de fréquence des résultats d'examen\", développez l'instruction SQL qui génère la sortie de tous les noms de rue des personnes vivant à Los Angeles, triés par numéro de rue . 2. Lors d'une requête géographique, quelle est la différence entre une couche source et une couche cible ? 3. Quelle est la différence entre les requêtes CONTENIR, CONTENIR COMPLÈTEMENT et SONT CONTENUS PAR ? 6.2 Recherches et requêtes 157

Chapitre 6 Caractéristiques et visualisation des données 6.3 Classification des données OBJECTIF D'APPRENTISSAGE 1. L'objectif de cette section est de décrire les méthodologies disponibles pour analyser les données en diverses classes pour une représentation visuelle dans une carte. Le processus de classification des données combine les données brutes dans des classes prédéfinies, ou des bacs. Ces classes peuvent être représentées dans une carte par des symboles uniques ou, dans le cas des cartes choroplèthes, par une couleur ou une teinte unique (pour plus d'informations sur la couleur et la teinte, voir Chapitre 8 \"Geospatial Analysis II : Raster Data\", Section 8.1 \"Géotraitement de base 20 avec rasters\"). Les cartes choroplèthes sont des cartes thématiques ombrées avec des couleurs graduées pour représenter une variable statistique d'intérêt. Bien qu'apparemment simples, il existe plusieurs méthodologies de classification différentes disponibles pour un cartographe. Ces méthodologies décomposent les valeurs d'attribut selon divers modèles d'intervalle. Monmonier (1991)Monmonier, M. 1991. Comment mentir avec des cartes. Chicago : Presse de l'Université de Chicago. ont noté que différentes méthodologies de classification peuvent avoir un impact majeur sur l'interprétabilité d'une carte donnée, car le modèle visuel présenté est facilement déformé en manipulant les pauses d'intervalle spécifiques de la classification. En plus de la méthodologie employée, le nombre de classes choisies pour représenter la caractéristique d'intérêt affectera également de manière significative la capacité du spectateur à interpréter les informations cartographiées. Inclure trop de classes peut rendre une carte trop complexe et déroutante. Trop peu de classes peuvent simplifier à l'excès la carte et masquer des tendances de données importantes. Les tentatives de classification les plus efficaces utilisent environ quatre à six classes distinctes. Bien que des problèmes existent potentiellement avec toute technique de classification, un choroplèthe bien construit augmente l'interprétabilité d'une carte donnée. La discussion suivante décrit les méthodes de classification couramment disponibles dans les progiciels de système d'information géographique (SIG). Dans ces exemples, nous utiliserons les statistiques démographiques du US Census Bureau pour les comtés américains en 1997. Ces données sont disponibles gratuitement sur le site Web du recensement américain (http://www.census.gov). 20. Une technique de cartographie qui utilise des différences graduelles d'ombrage, de couleur ou de symbolologie pour définir. La méthode de classification à intervalle égal (ou pas égal) divise la plage de valeurs moyennes de certaines valeurs d'attribut en classes de taille égale. Le nombre de classes est déterminé par la propriété ou la quantité. l'utilisateur. La méthode de classification à intervalles égaux est mieux utilisée pour les ensembles de données de cartographie continue 21. Un choroplèthe tels que les précipitations ou la température. Dans le cas de la technique du Bureau du recensement de 1997 qui définit les données de valeur, les valeurs de population des comtés à travers les États-Unis vont de 40 (plages de Yellowstone dans chaque catégorie à un comté de parc national, MO) à 9 184 770 (comté de Los Angeles, CA) pour un gamme totale de taille égale. 158

Chapitre 6 Caractéristiques et visualisation des données 9 184 770 − 40 = 9 184 730. Si nous décidons de classer ces données en 5 classes d'intervalles égaux, la plage de chaque classe couvrirait une répartition de la population de 9 184 730 / 5 = 1 836 946 (Figure 6.19 \"Equal Interval Classification for 1997 US County Population Data\"). L'avantage de la méthode de classification à intervalles égaux est qu'elle crée une légende facile à interpréter et à présenter à un public non averti. Le principal inconvénient est que certains ensembles de données finiront avec la plupart des valeurs de données tombant dans une ou deux classes seulement, tandis que peu ou pas de valeurs occuperont les autres classes. Comme vous pouvez le voir sur la figure 6.19 \"Equal Interval Classification for 1997 US County Population Data\", presque tous les comtés sont affectés à la première catégorie (jaune). Figure 6.19 Classification à intervalles égaux pour les données de 1997 sur la population des comtés des États-Unis 22 La méthode de classification par quantiles place un nombre égal d'observations dans chaque classe. Cette méthode est la meilleure pour les données qui sont uniformément réparties sur toute sa plage. La figure 6.20 \"Quantiles\" montre la méthode de classification des quantiles avec cinq classes totales. Comme il existe 3 140 comtés aux États-Unis, chaque classe de la méthodologie de classification des quantiles contiendra 3 140 / 5 = 628 comtés différents. La 22. Une technique de cartographie choroplèthe qui classe l'avantage des données par rapport à cette méthode est qu'elle excelle souvent à souligner la position relative dans un nombre prédéfini de valeurs de données (c'est-à-dire quels comtés contiennent les 20 % supérieurs des catégories américaines avec un population). Le principal inconvénient de la méthodologie de classification des quantiles est le nombre d'unités dans chaque catégorie. que les entités placées dans la même classe peuvent avoir des valeurs très différentes, 6.3 Classification des données 159

Chapitre 6 Caractéristiques et visualisation des données, en particulier si les données ne sont pas uniformément réparties sur toute sa plage. En outre, l'inverse peut également se produire lorsque des valeurs avec de petites différences de plage peuvent être placées dans différentes classes, suggérant une plus grande différence dans l'ensemble de données qu'il n'existe réellement. Figure 6.20 Quantiles 23 La méthode de classification des ruptures naturelles (ou Jenks) utilise un algorithme pour regrouper les valeurs en classes séparées par des points de rupture distincts. Cette méthode est mieux utilisée avec des données inégalement réparties mais non asymétriques vers l'une ou l'autre extrémité de la distribution. La figure 6.21 \"Natural Breaks\" montre la classification des ruptures naturelles pour les données de densité de population des comtés américains de 1997. Un inconvénient potentiel est que cette méthode peut créer des classes qui contiennent des plages de nombres très variables. En conséquence, la classe 1 est caractérisée par une plage d'un peu plus de 150 000, tandis que la classe 5 est caractérisée par une plage de plus de 6 000 000. Dans des cas comme celui-ci, il est souvent utile de « modifier » les classes après l'effort de classification ou de changer les étiquettes en une échelle ordinale telle que « petite, moyenne ou grande ». Ce dernier exemple, en particulier, peut aboutir à une carte plus compréhensible pour le spectateur. Un deuxième inconvénient est le fait qu'il peut être difficile de comparer deux ou 23. Un choroplèthe mappant plusieurs cartes créées avec la méthode de classification des ruptures naturelles car la technique de classe qui place les plages de classe est donc très spécifique à chaque jeu de données. Dans ces cas, des ensembles de données qui peuvent ne pas être des ruptures d'écarts entre des groupes de valeurs. trop disparate peut apparaître ainsi dans le graphique de sortie. 6.3 Classification des données 160

Chapitre 6 Caractéristiques et visualisation des données Figure 6.21 Ruptures naturelles Enfin, la méthode de classification de l'écart type forme chaque classe en ajoutant et en soustrayant l'écart type de la moyenne de l'ensemble de données. La méthode est la mieux adaptée pour être utilisée avec des données conformes à une distribution normale. Dans l'exemple de la population du comté, la moyenne est de 85 108 et l'écart type est de 277 080. Par conséquent, comme le montre la légende de la figure 6.22 \"Standard Deviation\", la classe centrale contient des valeurs comprises dans un écart type de 0,5 par rapport à la moyenne, tandis que les classes supérieure et inférieure contiennent des valeurs supérieures ou égales à 0,5 écart type ou plus. en dessous de la moyenne, respectivement. 6.3 Classification des données 161

Chapitre 6 Caractéristiques et visualisation des données Figure 6.22 Ecart type En conclusion, il existe plusieurs méthodologies viables de classification des données qui peuvent être appliquées aux cartes choroplèthes. Bien que d'autres méthodes soient disponibles (par exemple, aire égale, optimale), celles décrites ici représentent les plus couramment utilisées et les plus largement disponibles. Chacune de ces méthodes présente les données d'une manière différente et met en évidence différents aspects des tendances dans l'ensemble de données. En effet, la méthodologie de classification, ainsi que le nombre de classes utilisées, peuvent conduire à des interprétations très variées de l'ensemble de données. Il vous incombe, en tant que cartographe, de sélectionner la méthode la mieux adaptée aux besoins de l'étude et de présenter les données de la manière la plus significative et transparente possible. PRINCIPAUX POINTS À RETENIR • Les cartes choroplèthes sont des cartes thématiques ombrées avec des couleurs graduées pour représenter une variable statistique d'intérêt. • Quatre méthodes de classification des données présentées ici comprennent les intervalles égaux, le quartile, les ruptures naturelles et l'écart type. Ces méthodes présentent certains avantages et inconvénients lors de la visualisation d'une variable d'intérêt. 6.3 Classification des données 162

Chapitre 6 Caractéristiques et visualisation des données EXERCICES 1. Compte tenu des cartes choroplèthes présentées dans ce chapitre, laquelle, selon vous, représente le mieux l'ensemble de données ? Pourquoi? 2. Allez en ligne et décrivez deux autres méthodes de classification des données disponibles pour les utilisateurs de SIG. 3. Pour le tableau de trente valeurs de données créé dans la section 6.1 \"Descriptions et résumés\", Exercice 1, déterminez les plages de données pour chaque classe comme si vous créiez des schémas de classification à intervalles égaux et quantiles. 6.3 Classification des données 163

Chapitre 7 Analyse géospatiale I : Opérations vectorielles Au chapitre 6 « Caractéristiques et visualisation des données » 92 », nous avons discuté des différentes manières d'interroger, de classer et de résumer les informations dans les tables attributaires. Ces méthodes sont indispensables pour comprendre les tendances quantitatives et qualitatives de base d'un ensemble de données. Cependant, ils ne profitent pas particulièrement de la plus grande force d'un système d'information géographique (SIG), notamment les relations spatiales explicites. L'analyse spatiale est un composant fondamental d'un SIG qui permet une étude approfondie des propriétés topologiques et géométriques d'un ou de plusieurs ensembles de données. Dans ce chapitre, nous discutons des techniques d'analyse spatiale de base pour les jeux de données vectorielles. 164

Chapitre 7 Analyse géospatiale I : Opérations vectorielles 7.1 Analyse à couche unique OBJECTIF D'APPRENTISSAGE 1. L'objectif de cette section est de se familiariser avec les concepts et les termes liés à la variété des techniques d'analyse à couche unique disponibles pour analyser et manipuler les attributs spatiaux d'une entité vectorielle base de données. Comme son nom l'indique, les analyses à couche unique sont celles qui sont entreprises sur un jeu de données d'entités individuel. La mise en mémoire tampon est le processus de création d'une couche de polygone en sortie contenant une zone (ou des zones) d'une largeur spécifiée autour d'un point, d'une ligne ou d'une entité surfacique en entrée. Les tampons sont particulièrement adaptés pour déterminer la zone d'influence autour des caractéristiques d'intérêt. Le géotraitement est une suite d'outils fournis par de nombreux progiciels de système d'information géographique (SIG) qui permettent à l'utilisateur d'automatiser de nombreuses tâches banales associées à la manipulation des données SIG.Le géotraitement implique généralement l'entrée d'un ou plusieurs jeux de données d'entités, suivi d'une analyse spatialement explicite et aboutissant à un jeu de données d'entités en sortie. Les tampons tampons sont des outils d'analyse vectorielle courants utilisés pour répondre aux questions de proximité dans un SIG et peuvent être utilisés sur des points, des lignes ou des polygones (Figure 7.1 \"Tampons autour des entités de point rouge, de ligne et de polygone\"). Par exemple, supposons qu'un gestionnaire de ressources naturelles veuille s'assurer qu'aucune zone n'est perturbée à moins de 1 000 pieds de l'habitat de reproduction de la mouche florifère des sables de Delhi (Rhaphiomidas terminatus abdominalis), une espèce en voie de disparition. Cette espèce ne se trouve que dans les quelques formations pédologiques restantes de Delhi Sands dans l'ouest des États-Unis. Pour accomplir cette tâche, une zone de protection de 1 000 pieds (tampon) pourrait être créée autour de tous les emplacements de points observés de l'espèce. Alternativement, le gestionnaire peut décider qu'il n'y a pas suffisamment d'informations de localisation spécifiques à un point concernant cette espèce rare et décider de protéger toutes les formations du sol de Delhi Sands. Dans ce cas, il ou elle pourrait créer une zone tampon de 1 000 pieds autour de tous les polygones étiquetés « Delhi Sands » sur un jeu de données sur les formations pédologiques. Dans les deux cas, l'utilisation de zones tampons fournit un outil rapide et facile pour déterminer quelles zones doivent être maintenues en tant qu'habitat préservé pour la mouche menacée. 1. Placer une région de largeur spécifiée autour d'un point, d'une ligne ou d'un polygone. 2. Toute opération utilisée pour manipuler des données spatiales. 165

Chapitre 7 Analyse géospatiale I : Opérations vectorielles Figure 7.1 Tampons autour des entités de point rouge, de ligne et de polygone Plusieurs options de tampon sont disponibles pour affiner la sortie. Par exemple, l'outil tampon ne tamponnera généralement que les entités sélectionnées. Si aucune entité n'est sélectionnée, toutes les entités seront mises en mémoire tampon. Deux principaux types de zones tampons sont disponibles pour les utilisateurs de GIS 3 : à largeur constante et à largeur variable. Les tampons à largeur constante nécessitent que les utilisateurs saisissent une valeur par laquelle les entités sont tamponnées (Figure 7.1 \"Tampons autour des entités de point rouge, de ligne et de polygone\"), comme dans les exemples du paragraphe 4 précédent. Les tampons à largeur variable, en revanche, font appel à un champ tampon prédéfini dans la table attributaire pour déterminer la largeur de la zone tampon pour chaque entité spécifique dans l'ensemble de données (Figure 7.2 \"Options de tampon supplémentaires autour des caractéristiques rouges : (a) Tampons à largeur variable, (b) Tampons à anneaux multiples, (c) Tampon en anneau, (d) Tampon de retrait, (e) Tampon non dissous, (f) Tampon dissous). De plus, les utilisateurs peuvent choisir de dissoudre ou de ne pas dissoudre les limites entre 3. Des régions de largeur constante 5 autour de points, de lignes ou de zones tampons coïncidentes qui se chevauchent. Plusieurs tampons annulaires peuvent être créés de telle sorte que des polygones. une série de zones tampons concentriques (un peu comme une cible de tir à l'arc) sont créées autour de l'entité d'origine à des distances spécifiées par l'utilisateur (Figure 7.2 \"Additional Buffer 4. Régions de largeur variable autour des points, des lignes ou des options autour des entités rouges : (un ) Tampons à largeur variable, (b) Tampons à anneaux multiples, polygones. (c) Tampon en anneau, (d) Tampon en retrait, (e) Tampon non dissous, (f) Tampon dissous). Dans le cas des couches de polygones, des zones tampons peuvent être créées qui incluent les 5. Régions concentriques multiples d'une largeur spécifiée autour de l'entité surfacique d'origine dans le cadre de la zone tampon ou elles peuvent être créées sous forme d'anneau 6 7 points, lignes ou polygones. tampon qui exclut la zone du polygone en entrée. Les zones tampons en retrait sont similaires aux zones tampons en forme de beignet, cependant, elles ne tamponnent que la zone à l'intérieur du polygone 6. Une zone tampon autour d'une entité surfacique qui n'inclut pas de limite. Les entités linéaires peuvent être tamponnées des deux côtés de la ligne, uniquement à gauche, la zone à l'intérieur de la zone tamponnée ou uniquement à droite. Les entités linéaires peuvent également être mises en mémoire tampon de sorte que les extrémités du polygone. la ligne est arrondie (se terminant par un demi-cercle) ou plate (se terminant par un rectangle). 7. Une zone tampon autour d'une entité surfacique qui s'étend uniquement à l'intérieur de la limite du polygone. 7.1 Analyse à couche unique 166

Chapitre 7 Analyse géospatiale I : Opérations vectorielles Figure 7.2 Options de tampon supplémentaires autour des éléments rouges : (a) Tampons à largeur variable, (b) Tampons à anneaux multiples, (c) Tampon en anneau, (d) Tampon de retrait, (e) Tampon non dissous, ( f) Opérations de géotraitement de tampon dissous « Géotraitement » est un terme chargé dans le domaine des SIG. Le terme peut (et devrait) être largement appliqué à toute tentative de manipulation de données SIG. Cependant, le terme est entré dans l'usage courant en raison de son application à une suite quelque peu arbitraire de techniques analytiques à couche unique et à couches multiples dans l'assistant de géotraitement du progiciel ArcView d'ESRI au milieu des années 90. Quoi qu'il en soit, la suite d'outils de géotraitement disponibles dans un SIG étend et simplifie considérablement de nombreux processus de gestion et de manipulation associés aux jeux de données d'entités vectorielles. L'utilisation principale de ces outils est d'automatiser les besoins de prétraitement répétitifs des analyses spatiales typiques et d'assembler des représentations graphiques exactes pour une analyse ultérieure et/ou une inclusion dans les présentations et les produits cartographiques finaux. Les méthodes d'union, d'intersection, de différence symétrique et de superposition d'identité décrites à la Section 7.2.2 \"Autres options de géotraitement multicouche\" sont souvent utilisées avec ces outils de géotraitement. Ce qui suit représente les outils de géotraitement les plus courants. 7.1 Analyse à couche unique 167

Chapitre 7 Analyse géospatiale I : Opérations vectorielles 8 L'opération de fusion combine des entités surfaciques adjacentes dans un jeu de données d'entité unique basé sur un seul attribut prédéterminé. Par exemple, la partie (a) de la figure 7.3 \"Fonctions de géotraitement à couche unique\" montre les limites de sept parcelles de terre différentes, appartenant à quatre familles différentes (étiquetées 1 à 4). L'outil de fusion combine automatiquement toutes les entités adjacentes avec les mêmes valeurs attributaires. Le résultat est une couche de sortie avec la même étendue que l'original mais sans tous les segments de ligne intermédiaires inutiles. La couche de sortie dissoute est beaucoup plus facile à interpréter visuellement lorsque la carte est classée selon le champ dissous. 9 L'opération d'ajout crée une couche de polygone en sortie en combinant l'étendue spatiale de deux ou plusieurs couches (partie (d) de la figure 7.3 \"Fonctions de géotraitement à couche unique\"). Pour une utilisation avec des jeux de données de points, de lignes et de polygones, la couche en sortie sera du même type d'entité que les couches en entrée (qui doivent également être chacune du même type d'entité). Contrairement à l'outil de fusion, l'ajout ne supprime pas les lignes de délimitation entre les couches ajoutées (dans le cas des lignes et des polygones). Par conséquent, il est souvent utile d'effectuer un fondu après l'utilisation de l'outil d'ajout pour supprimer ces lignes de séparation potentiellement inutiles. Append est fréquemment utilisé pour mosaïquer des couches de données, telles que des cartes topographiques numériques de 7,5 minutes de l'US Geological Survey (USGS), pour créer une carte unique à analyser et/ou à afficher. 10 L'opération de sélection crée une couche de sortie basée sur une requête définie par l'utilisateur qui sélectionne des entités particulières de la couche d'entrée (partie (f) de la figure 7.3 \"Fonctions de géotraitement à couche unique\"). La couche en sortie contient uniquement les entités sélectionnées lors de la requête. Par exemple, un urbaniste peut choisir d'effectuer une sélection sur toutes les zones zonées « résidentielles » afin qu'il puisse rapidement évaluer les zones de la ville qui conviennent à un projet de développement de logements. 11 Enfin, l'opération de fusion combine des entités au sein d'une couche de points, de lignes ou de polygones en une seule entité avec des informations attributaires identiques. Souvent, les caractéristiques d'origine auront des valeurs différentes pour un attribut donné. Dans ce cas, le premier attribut rencontré est reporté dans la table attributaire, et les 8 autres. Une technique de géotraitement qui supprime la limite entre les attributs est perdue. Cette opération est particulièrement utile lorsque des polygones se trouvent sur des polygones adjacents qui se chevauchent involontairement. Merge combinera commodément ces caractéristiques à des valeurs identiques. en une seule entité. 9. Une technique de géotraitement qui combine des jeux de données de polygones adjacents en un seul jeu de données. 10. Pour définir un sous-ensemble du plus grand ensemble de points de données ou de paramètres régionaux. 11. Combiner des entités spatiales adjacentes ou se chevauchant en une seule entité. 7.1 Analyse à couche unique 168

Chapitre 7 Analyse géospatiale I : Opérations vectorielles Figure 7.3 Fonctions de géotraitement à couche unique POINTS À RETENIR • Les tampons sont fréquemment utilisés pour créer des zones d'une largeur spécifiée autour de points, de lignes et de polygones. • Les options de mise en mémoire tampon vectorielle incluent des largeurs constantes ou variables, des anneaux multiples, des beignets, des retraits et des fondus enchaînés. • Les opérations courantes de géotraitement à couche unique sur les couches vectorielles incluent la dissolution, la fusion, l'ajout et la sélection. EXERCICES 1. Énumérez et décrivez les différentes options de mise en mémoire tampon disponibles dans un SIG. 2. Pourquoi pourriez-vous utiliser les diverses opérations de géotraitement pour répondre à des questions spatiales liées à votre domaine d'études particulier ? 7.1 Analyse à couche unique 169

Chapitre 7 Analyse géospatiale I : Opérations vectorielles 7.2 Analyse multicouche OBJECTIF D'APPRENTISSAGE 1. L'objectif de cette section est de se familiariser avec les concepts et les termes liés à la mise en œuvre d'opérations multicouches de base et de méthodologies utilisées sur les jeux de données d'entités vectorielles. Parmi les outils les plus puissants et les plus couramment utilisés dans un système d'information géographique (SIG) 12 se trouve la superposition d'informations cartographiques. Dans un SIG, une superposition est le processus consistant à prendre deux ou plusieurs cartes thématiques différentes de la même zone et à les placer l'une sur l'autre pour former une nouvelle carte Couches vectorielles polygonales, ainsi que couches raster\"). Inhérente à ce processus, la fonction de superposition combine non seulement les caractéristiques spatiales de l'ensemble de données, mais également les informations attributaires. Figure 7.4 Une superposition de carte combinant des informations provenant de couches vectorielles de points, de lignes et de polygones, ainsi que des couches raster 12. Le processus consistant à prendre deux ou plusieurs cartes thématiques différentes de la même zone et à les placer les unes sur les autres pour former une nouvelle carte. 170

Chapitre 7 Analyse géospatiale I : Opérations vectorielles Un exemple courant utilisé pour illustrer le processus de superposition est le suivant : « Où est le meilleur endroit pour installer un centre commercial ? » Imaginez que vous êtes un gros bonnet d'entreprise et que vous êtes chargé de déterminer où sera situé le prochain centre commercial de votre entreprise. Comment attaqueriez-vous ce problème ? Avec un SIG à votre disposition, répondre à de telles questions spatiales commence par l'accumulation et la superposition de couches de données spatiales pertinentes. Par exemple, vous voudrez peut-être d'abord déterminer quelles zones peuvent supporter le centre commercial en accumulant des informations sur les parcelles de terrain à vendre et celles qui sont zonées pour le développement commercial. Après avoir collecté et superposé les informations de base sur les zones de développement disponibles, vous pouvez commencer à déterminer quelles zones offrent le plus d'opportunités économiques en collectant des informations régionales sur le revenu moyen des ménages, la densité de population, l'emplacement des centres commerciaux proches, les habitudes d'achat locales, etc. Ensuite, vous souhaiterez peut-être collecter des informations sur les restrictions ou les obstacles au développement tels que le coût du terrain, le coût de développement du terrain, la réponse de la communauté au développement, l'adéquation des couloirs de transport vers et depuis le centre commercial proposé, les taux d'imposition, etc. En effet, le simple fait de collecter et de superposer des ensembles de données spatiales fournit un outil précieux pour visualiser et sélectionner le site optimal pour une telle entreprise commerciale. Opérations de superposition Plusieurs processus de superposition de base sont disponibles dans un SIG pour les jeux de données vectorielles : point sur polygone, polygone sur point, ligne sur ligne, ligne sur polygone, polygone sur ligne et polygone sur polygone. Comme vous pouvez le deviner à partir des noms, l'un des jeux de données superposés doit toujours être une couche de ligne ou de polygone, tandis que le second peut être un point, une ligne ou un polygone. La nouvelle couche produite suite à l'opération de superposition est appelée couche « de sortie ». 13 L'opération de superposition de point dans un polygone nécessite une couche d'entrée de point et une couche de superposition de polygone. Lors de l'exécution de cette opération, une nouvelle couche de points en sortie est renvoyée qui inclut tous les points qui se produisent dans l'étendue spatiale de la superposition Couches\"). De plus, tous les points de la couche de sortie contiennent leurs informations d'attribut d'origine ainsi que les informations d'attribut de la superposition. Par exemple, supposons que vous ayez été chargé de déterminer si une espèce en voie de disparition résidant dans un parc national se trouvait principalement dans une communauté végétale particulière. La première étape consisterait à acquérir les lieux d'occurrence ponctuelle de l'espèce en question, ainsi qu'une couche de superposition de polygones montrant les communautés végétales à l'intérieur des limites du parc national. Lors de l'exécution de l'opération de superposition de point dans un polygone, un nouveau fichier de points est créé 13. Une technique de superposition qui contient tous les points qui se produisent dans le parc national. La table attributaire crée une couche de points de sortie de ce fichier de points de sortie qui contiendrait également des informations sur la végétation qui incluent toutes les communautés de points utilisées par l'espèce au moment de l'observation. Une analyse rapide se produisant dans l'espace de cette couche de sortie et de sa table attributaire vous permettrait de déterminer où se situe l'étendue de la couche de superposition. 7.2 Analyse multicouche 171

Chapitre 7 Analyse géospatiale I : Opérations vectorielles a été trouvée dans le parc et pour examiner les communautés végétales dans lesquelles elle se trouvait. Ce processus permettrait aux employés du parc de prendre des décisions de gestion éclairées concernant les habitats du site à protéger pour assurer l'utilisation continue du site par l'espèce. Figure 7.5 Superposition point dans polygone 14 Comme son nom l'indique, l'opération de superposition polygone sur point est l'opposé de l'opération point dans polygone. Dans ce cas, la couche de polygones est l'entrée, tandis que la couche de points est la superposition. Les entités surfaciques qui recouvrent ces points sont sélectionnées et ensuite conservées dans la couche en sortie. Par exemple, étant donné un ensemble de données ponctuelles contenant les lieux d'un certain type de crime et un ensemble de données polygonales représentant des îlots urbains, une opération de superposition polygone sur point permettrait à la police de sélectionner les îlots urbains dans lesquels des crimes ont été commis et donc de déterminer les endroits où une présence policière accrue peut être justifiée. Figure 7.6 Superposition de polygones sur des points 14. Une technique de superposition qui crée une couche de polygones à partir des polygones en entrée qui superposent des entités dans une couche de points. 7.2 Analyse multicouche 172

Chapitre 7 Analyse géospatiale I : Opérations vectorielles 15 Une opération de superposition ligne sur ligne nécessite des entités linéaires à la fois pour la couche d'entrée et la couche de superposition. Le résultat de cette opération est un ou des points situés précisément à l'intersection des deux ensembles de données linéaires (Figure 7.7 \"Line-on-Line Overlay\"). Par exemple, un jeu de données d'entités linéaires contenant des voies ferrées peut être superposé sur un réseau routier linéaire. Le jeu de données de points résultant contient tous les lieux des passages à niveau sur le réseau routier d'une ville. La table attributaire de cet ensemble de données sur les points de passage à niveau contiendrait des informations à la fois sur le chemin de fer et la route sur laquelle il est passé. Figure 7.7 Superposition ligne sur ligne 16 L'opération de superposition ligne dans polygone est similaire à la superposition point dans polygone, à l'exception évidente qu'une couche d'entrée de ligne est utilisée au lieu d'une couche d'entrée de point. Dans ce cas, chaque ligne qui a une partie de son étendue dans la couche de polygone de superposition sera incluse dans la couche de lignes en sortie, bien que ces lignes soient tronquées à la limite de la superposition (Figure 7.9 \"Superposition de polygones en ligne& #92"). Par exemple, une superposition de ligne dans un polygone peut prendre une couche d'entrée de segments de ligne interétatique et une superposition de polygone représentant les limites de la ville et produire une couche de sortie linéaire de segments d'autoroute qui se trouvent dans la limite de la ville. La table attributaire du segment de ligne interétatique de sortie contiendra des informations sur le nom de l'autoroute ainsi que la ville par laquelle ils passent. 15. Une technique de superposition dans laquelle la sortie de cette opération est un ou plusieurs points situés à l'intersection des deux ensembles de données linéaires. 16. Une technique de superposition dans laquelle chaque ligne qui a une partie de son étendue dans la couche de polygone de superposition sera incluse dans une couche de lignes de sortie. 7.2 Analyse multicouche 173

Chapitre 7 Analyse géospatiale I : Opérations vectorielles Figure 7.8 Superposition de ligne dans un polygone 17 L'opération de superposition de polygone en ligne est l'opposé de l'opération de ligne dans un polygone. Dans ce cas, la couche de polygones est l'entrée, tandis que la couche de lignes est la superposition. Les entités surfaciques qui recouvrent ces lignes sont sélectionnées et ensuite conservées dans la couche en sortie. Par exemple, étant donné qu'une couche contenant le chemin d'une série de poteaux/fils téléphoniques et qu'une carte polygonale contient des parcelles urbaines, une opération de superposition de polygones en ligne permettrait à un évaluateur foncier de sélectionner les parcelles contenant des fils téléphoniques aériens. Figure 7.9 Superposition de polygones en ligne 17. Une technique de superposition dans laquelle des entités surfaciques se superposent Enfin, l'opération de superposition de polygones dans des polygones utilise une entrée de polygone et 18 lignes sont sélectionnées puis conservées dans une superposition de polygones. C'est l'opération de superposition la plus couramment utilisée. Utilisation de cette couche de sortie. méthode, les couches de polygone en entrée et de superposition sont combinées pour créer une couche de polygone en sortie avec l'étendue de la superposition. La table attributaire contiendra spatiale 18. Une technique de superposition dans laquelle un polygone d'entrée et des données de superposition et des informations d'attributs à la fois des couches d'entrée et de superposition (les couches de la figure 7.10 sont combinées pour créer \"Polygon-in-Polygon Overlay\"). Par exemple, vous pouvez choisir un polygone d'entrée une couche de polygone de sortie avec une couche de types de sols avec une superposition de champs agricoles dans un comté donné. L'étendue de la superposition. 7.2 Analyse multicouche 174

Chapitre 7 Analyse géospatiale I : Opérations vectorielles La couche de polygone en sortie contiendrait des informations sur l'emplacement des champs agricoles et les types de sol dans tout le comté. Figure 7.10 Superposition de polygone dans un polygone Les opérations de superposition décrites précédemment supposent que l'utilisateur souhaite que les couches superposées soient combinées. Ce n'est pas toujours le cas. Les méthodes de superposition peuvent être plus complexes que cela et utilisent donc les opérateurs booléens de base : ET, OU et XOR (voir Section 6.1.2 \"Measures of Central Tendency\"). Selon le ou les opérateurs utilisés, la méthode de superposition employée entraînera une intersection, une union, une différence symétrique ou une identité. 19 Plus précisément, la méthode de superposition d'unions utilise l'opérateur OR. Une union ne peut être utilisée que dans le cas de deux couches polygonales en entrée.Il préserve toutes les entités, informations attributaires et étendues spatiales des deux couches en entrée (partie (a) de la figure 7.11 \"Méthodes de superposition vectorielle \"). Cette méthode de superposition est basée sur l'opération polygone dans polygone décrite dans la section 7.1.1 \"Buffering\". 20 Alternativement, la méthode de superposition d'intersection utilise l'opérateur AND. Un 19. Une méthode de superposition qui intersection nécessite une superposition de polygones, mais peut accepter un point, une ligne ou un polygone préserve toutes les entités, les informations attributaires et l'entrée spatiale. La couche en sortie couvre l'étendue spatiale de la superposition et contient les étendues d'une couche en entrée. caractéristiques et attributs de l'entrée et de la superposition (partie (b) de la figure 7.11 \"Méthodes de superposition vectorielle \"). 20. Une méthode de superposition qui contient des caractéristiques et des attributs communs des couches d'entrée 21 et de superposition. La méthode de superposition de différence symétrique utilise l'opérateur XOR, ce qui entraîne la sortie opposée sous forme d'intersection. Cette méthode nécessite à la fois l'entrée 21. Une méthode de superposition qui couches pour être des polygones. La couche de polygones en sortie produite par le symétrique contient les zones communes à un seul des jeux de données d'entités représente les zones communes à un seul des jeux de données d'entités. ensembles de données (partie (c) de la figure 7.11 \"Méthodes de superposition vectorielle \"). 7.2 Analyse multicouche 175

Chapitre 7 Analyse géospatiale I : Opérations vectorielles 22 En plus de ces opérations simples, la méthode de superposition d'identité (également appelée « moins ») crée une couche de sortie avec l'étendue spatiale de la couche d'entrée (partie (d) de la Figure 7.11 & #92"Vector Overlay Methods \") mais inclut les informations d'attribut de la superposition (appelée couche « identité », dans ce cas). La couche en entrée peut être des points, des lignes ou des polygones. La couche d'identité doit être un jeu de données surfaciques. Figure 7.11 Méthodes de superposition vectorielle Autres options de géotraitement multicouche En plus des méthodes de superposition vectorielle susmentionnées, d'autres options courantes de géotraitement multicouche sont disponibles pour l'utilisateur. Ceux-ci comprenaient le clip, l'effacement, 22. Une méthode de superposition qui crée et divise les outils. L'opération de géotraitement de découpage est utilisée pour extraire ces entités 23 d'une couche en sortie avec l'étendue spatiale de la couche en entrée mais à partir d'une couche de points, de lignes ou de polygones en entrée qui se situe dans l'étendue spatiale de la couche de découpage d'informations d'attributs inclus (partie (e ) de la Figure 7.11 \"Méthodes de superposition de vecteurs \"). Suite du clip, le tout à partir d'une superposition. les attributs de la partie préservée de la couche d'entrée sont inclus dans la sortie. 23. Une opération de géotraitement qui, si des entités sont sélectionnées au cours de ce processus, seules les entités sélectionnées dans les extraits de ces entités d'une limite de découpage seront incluses dans la sortie. Par exemple, l'outil de découpage peut être un point d'entrée, une ligne ou un polygone utilisé pour découper l'étendue d'une plaine inondable de rivière par l'étendue d'une limite de comté. Couche qui se situe dans l'étendue spatiale d'une couche de découpage. fournirait aux gestionnaires de comté un aperçu des portions de la plaine inondable 7.2 Analyse à couches multiples 176

Chapitre 7 Analyse géospatiale I : Opérations vectorielles qu'ils sont chargés de maintenir. Ceci est similaire à la méthode de superposition d'intersection, cependant, les informations d'attribut associées à la couche de découpage ne sont pas transportées dans la couche de sortie après la superposition. 24 L'opération de géotraitement d'effacement est essentiellement l'opposé d'un clip. Alors que l'outil de découpage préserve les zones d'un calque d'entrée, l'outil d'effacement ne conserve que les zones situées en dehors de l'étendue du calque d'effacement analogue (partie (f) de la figure 7.11 \"Méthodes de superposition de vecteurs \"). Alors que la couche en entrée peut être un jeu de données de point, de ligne ou de polygone, la couche d'effacement doit être un jeu de données de polygone. Poursuivant notre exemple de clip, les gestionnaires de comté pourraient ensuite utiliser l'outil d'effacement pour effacer les zones de propriété privée dans la zone de plaine inondable du comté. Les fonctionnaires pourraient alors se concentrer spécifiquement sur les parties publiques de la plaine inondable du comté pour leurs responsabilités d'entretien et de maintenance. 25 L'opération de géotraitement fractionné est utilisée pour diviser une couche en entrée en deux ou plusieurs couches sur la base d'une couche fractionnée (partie (g) de la Figure 7.11 \"Méthodes de superposition vectorielle \"). La couche fractionnée doit être un polygone, tandis que les couches en entrée peuvent être des points, des lignes ou des polygones. Par exemple, une association de propriétaires peut choisir de diviser une carte de séries de sols à l'échelle du comté par limites de parcelle afin que chaque propriétaire dispose d'une carte de sol spécifique pour sa propre parcelle. Jointure spatiale Une jointure spatiale est un hybride entre une opération d'attribut et une opération de superposition vectorielle. À l'instar de l'opération d'attribut « joindre » décrite dans la Section 5.2.2 \"Jointures et relations\", une jointure spatiale entraîne la combinaison de deux tables de jeux de données d'entités par un champ attributaire commun. Contrairement à l'opération attributaire, une jointure spatiale détermine quels champs de la table attributaire d'une couche source sont ajoutés à la table attributaire de la couche de destination en fonction des emplacements relatifs des entités sélectionnées. Cette relation est explicitement basée sur la propriété de proximité ou de confinement entre les couches source et destination, plutôt que sur les clés primaires ou secondaires. L'option de proximité est utilisée lorsque la couche source est un jeu de classes d'entités ponctuelles ou linéaires, tandis que l'option de confinement est utilisée lorsque la couche source est un jeu de classes d'entités surfaciques. Lors de l'utilisation de l'option de proximité (ou « la plus proche »), un enregistrement pour chaque entité sur 24. Une opération de géotraitement qui ne conserve que les zones de la table attributaire de la couche source est ajoutée à l'entité donnée la plus proche à l'extérieur de l'étendue d'une couche de destination d'effacement table attributaire. L'option de proximité ajoutera généralement une couche. champ numérique à la table attributaire de la couche de destination, appelée « Distance », dans les 25 %. Une opération de géotraitement qui consiste à placer la distance mesurée entre l'entité source et l'entité de destination. divise une couche d'entrée en deux Par exemple, supposons qu'une agence municipale dispose d'un ensemble de données ponctuelles montrant tous les pollueurs connus ou plusieurs couches basées sur une division de la ville et un ensemble de données linéaires de tous les segments de rivière à l'intérieur des limites municipales. couche. 7.2 Analyse multicouche 177

Chapitre 7 Analyse géospatiale I : Opérations vectorielles Cette agence pourrait alors effectuer une jointure spatiale basée sur la proximité pour déterminer le segment de rivière le plus proche qui serait le plus probablement affecté par chaque pollueur. Lorsque vous utilisez l'option de confinement (ou « à l'intérieur »), un enregistrement pour chaque entité dans la table attributaire de la couche source de polygones est ajouté à l'enregistrement dans la table attributaire de la couche de destination qu'elle contient. Si une entité de couche de destination (point, ligne ou polygone) n'est pas entièrement contenue dans un polygone source, aucune valeur ne sera ajoutée. Par exemple, supposons qu'une entreprise de nettoyage de piscine souhaite perfectionner ses services marketing en fournissant des dépliants uniquement aux foyers qui possèdent une piscine. Ils pourraient obtenir un ensemble de données ponctuelles contenant l'emplacement de chaque mare du comté et une carte parcellaire polygonale pour cette même zone. Cette entreprise pourrait ensuite effectuer une jointure spatiale pour ajouter les informations de parcelle aux paramètres régionaux du pool. Cela leur fournirait des informations sur chaque parcelle de terrain qui contenait un pool et ils pourraient ensuite envoyer leurs courriers uniquement à ces maisons. Erreurs de superposition Bien que les superpositions soient l'un des outils les plus importants de la boîte à outils d'un analyste SIG, certains problèmes peuvent survenir lors de l'utilisation de cette méthodologie. En particulier, 26 éclats sont une erreur courante produite lorsque deux couches vectorielles légèrement désalignées sont superposées (Figure 7.12 \"Slivers\"). Ce désalignement peut provenir de plusieurs sources, notamment des erreurs de numérisation, des erreurs d'interprétation ou des erreurs de carte source (Chang 2008).Chang, K. 2008. Introduction aux systèmes d'information géographique. New York : McGraw-Hill. Par exemple, la plupart des cartes de la végétation et des sols sont créées à partir de données d'enquête sur le terrain, d'images satellite et de photographies aériennes. Bien que vous puissiez imaginer que les limites des sols et de la végétation coïncident fréquemment, le fait qu'elles aient été très probablement créées par différents chercheurs à des moments différents suggère que leurs limites ne se chevaucheront pas parfaitement. Pour remédier à ce problème, le logiciel GIS 27 intègre une option de tolérance d'agrégat qui force les lignes voisines à s'aligner si elles se situent à une distance spécifiée par l'utilisateur. Des précautions doivent être prises lors de l'attribution de la tolérance de cluster. Un réglage trop strict n'accrochera pas les frontières partagées, alors qu'un réglage trop clément emboîtera les frontières voisines involontaires (Wang et Donaghy 1995). Wang, F. et P. Donaghy. 1995. « Une étude de l'impact de l'édition automatisée sur la précision de l'analyse de superposition de polygones ». Informatique et géosciences 21 : 1177–85. 26. Un écart étroit formé lorsque la limite partagée de deux polygones ne se rencontrent pas exactement. 27. Un paramètre de géotraitement qui force les sommets proches à être alignés s'ils se trouvent à une distance spécifiée par l'utilisateur. 7.2 Analyse multicouche 178

Chapitre 7 Analyse géospatiale I : Opérations vectorielles Figure 7.12 Éclats Une deuxième source potentielle d'erreur associée au processus de superposition est la propagation de l'erreur 28. La propagation des erreurs se produit lorsque des inexactitudes sont présentes dans les couches d'entrée et de superposition d'origine et se propagent jusqu'à la couche de sortie (MacDougall 1975).MacDougall, E. 1975. « The Accuracy of Map Overlays ». Aménagement du paysage 2 : 23–30. Ces erreurs peuvent être liées à des inexactitudes de position des points, des lignes ou des polygones. Alternativement, ils peuvent provenir d'erreurs d'attributs dans le(s) tableau(s) de données d'origine. Quelle que soit la source, la propagation d'erreurs représente un problème courant dans l'analyse de superposition, dont l'impact dépend largement des exigences d'exactitude et de précision du projet en cours. PRINCIPAUX POINTS À RETENIR • Les processus de superposition placent deux ou plusieurs cartes thématiques l'une sur l'autre pour former une nouvelle carte. • Les opérations de superposition disponibles pour une utilisation avec des données vectorielles incluent les modèles point dans polygone, polygone sur point, ligne sur ligne, ligne dans polygone, polygone en ligne et polygone dans polygone. • L'union, l'intersection, la différence symétrique et l'identité sont des opérations courantes utilisées pour combiner des informations provenant de divers ensembles de données superposés. 28. Lorsque des inexactitudes sont présentes dans les couches d'entrée et de superposition d'origine et sont transmises à une couche de sortie. 7.2 Analyse multicouche 179

Chapitre 7 Analyse géospatiale I : Opérations vectorielles EXERCICES 1. À partir de votre propre domaine d'étude, décrivez trois couches de données théoriques qui pourraient être superposées pour créer une nouvelle carte en sortie qui répond à une question spatiale complexe telle que « Où est le meilleur endroit pour mettre un centre commercial ? » 2. Allez en ligne et recherchez les ensembles de données vectorielles liés à la question que vous venez de proposer. 7.2 Analyse multicouche 180

Chapitre 8 Analyse géospatiale II : Données raster Suite à notre discussion sur l'analyse des données attributaires et vectorielles, l'analyse des données raster présente le dernier outil puissant d'exploration de données disponible pour les géographes. Les données raster sont particulièrement adaptées à certains types d'analyses, telles que le géotraitement de base (Section 8.1 \"Géotraitement de base avec rasters\"), l'analyse de surface (Section 8.2 \"Scale of Analysis\") et la cartographie du terrain (Section 8.3 &# 92"Analyse de surface : interpolation spatiale\"). Bien que ce ne soit pas toujours vrai, les données raster peuvent simplifier de nombreux types d'analyses spatiales qui seraient autrement trop lourdes à effectuer sur des jeux de données vectorielles. Certaines des techniques les plus courantes sont présentées dans ce chapitre. 181

Chapitre 8 Analyse géospatiale II : Données raster 8.1 Géotraitement de base avec des rasters OBJECTIF D'APPRENTISSAGE 1. L'objectif de cette section est de se familiariser avec les techniques de base de géotraitement de raster simple et multiple. Comme les outils de géotraitement disponibles pour une utilisation sur des jeux de données vectorielles (Section 8.1 \"Géotraitement de base avec rasters\"), les données raster peuvent subir des opérations spatiales similaires. Bien que le calcul réel de ces opérations soit significativement différent de leurs homologues vectoriels, leur fondement conceptuel est similaire. Les techniques de géotraitement couvertes ici incluent à la fois des opérations à couche unique (Section 8.1.1 \"Analyse à couche unique\") et à couches multiples (Section 8.1.2 \"Analyse à couches multiples\"). Analyse à couche unique La reclassification, ou le recodage, d'un jeu de données est généralement l'une des premières étapes entreprises lors de l'analyse raster. La reclassification est essentiellement le processus à couche unique consistant à attribuer une nouvelle valeur de classe ou de plage à tous les pixels du jeu de données en fonction de leurs valeurs d'origine (Figure 8.1 \"Raster Reclassification\". Par exemple, une grille d'altitude contient généralement une valeur différente pour presque chaque cellule dans son étendue. Ces valeurs pourraient être simplifiées en agrégeant chaque valeur de pixel en quelques classes discrètes (c. Cette simplification permet moins de valeurs uniques et des besoins de stockage moins coûteux. De plus, ces couches reclassées sont souvent utilisées comme entrées dans les analyses secondaires, telles que celles abordées plus loin dans cette section.182

Chapitre 8 Analyse géospatiale II : Données raster Figure 8.1 Reclassification raster une caractéristique d'entrée. Dans le cas des jeux de données raster, ces entités en entrée sont données sous la forme d'une cellule de grille ou d'un groupe de cellules de grille contenant une valeur uniforme (par exemple, mettre en mémoire tampon toutes les cellules dont la valeur = 1). Les tampons sont particulièrement adaptés pour déterminer la zone d'influence autour des caractéristiques d'intérêt. Alors que la mise en mémoire tampon des données vectorielles aboutit à une zone d'influence précise à une distance spécifiée de l'entité cible, les tampons raster ont tendance à être des approximations représentant les cellules qui se trouvent dans la plage de distance spécifiée de la cible (Figure 8.2 \"Tampon raster autour d'une cellule cible (s)\"). La plupart des programmes de système d'information géographique (SIG) calculent les tampons raster en créant une grille de valeurs de distance du centre de la (des) cellule(s) cible(s) au centre des cellules voisines, puis en reclassant ces distances de telle sorte qu'un « 1 » représente les cellules qui composent cible d'origine, un « 2 » représente les cellules dans la zone tampon définie par l'utilisateur et un « 0 » représente les cellules en dehors des zones cible et tampon. Ces cellules pourraient également être classées davantage pour représenter plusieurs tampons en anneau en incluant des valeurs de « 3 », « 4 », « 5 », et ainsi de suite, pour représenter des distances concentriques autour de la ou des cellules cibles. 8.1 Géotraitement de base avec des rasters 183

Chapitre 8 Analyse géospatiale II : Données raster Figure 8.2 Tampon raster autour d'une ou plusieurs cellules cibles Analyse à plusieurs couches Un jeu de données raster peut également être découpé de la même manière qu'un jeu de données vectorielles (Figure 8.3 \"Coupe d'un raster à une couche de polygones vectoriels\") . Ici, le raster en entrée est recouvert par une couche de découpage de polygone vectoriel. Le processus de découpage de raster produit un seul raster identique au raster en entrée mais partage l'étendue de la couche de découpage de polygone. 8.1 Géotraitement de base avec des rasters 184

Chapitre 8 Analyse géospatiale II : Données raster Figure 8.3 Découpage d'un raster sur une couche de polygones vectoriels Les superpositions de raster sont relativement simples par rapport à leurs homologues vectorielles et nécessitent beaucoup moins de puissance de calcul (Burroughs 1983). Burroughs, P. 1983. Geographical Information Systems for Natural Évaluation des ressources. New York : Oxford University Press. Malgré leur simplicité, il est important de s'assurer que tous les rasters superposés sont co-enregistrés (c'est-à-dire alignés dans l'espace), couvrent des zones identiques et maintiennent une résolution égale (c'est-à-dire la taille des cellules). Si ces hypothèses sont violées, l'analyse échouera ou la couche de sortie résultante sera défectueuse. Dans cet esprit, il existe plusieurs méthodologies différentes pour effectuer une superposition de trames (Chrisman 2002).Chrisman, N. 2002. Exploring Geographic Information Systems. 2e éd. New York : John Wiley et fils. 1 La superposition matricielle mathématique est la méthode de superposition la plus courante. Les nombres dans les cellules alignées des grilles d'entrée peuvent subir n'importe quelle transformation mathématique spécifiée par l'utilisateur. Après le calcul, un raster en sortie est produit qui contient une nouvelle valeur pour chaque cellule (Figure 8.4 \"Mathematical Raster 1. Valeurs de cellule de pixel ou de grille dans chaque superposition\"). Comme vous pouvez l'imaginer, il existe de nombreuses utilisations pour une telle fonctionnalité. Dans la carte, la superposition de raster est souvent utilisée dans les études d'évaluation des risques où divers opérateurs mathématiques à des couches sont combinés pour produire une carte de résultats montrant les zones à haut risque/produisant une nouvelle valeur dans la récompense. carte composite. 8.1 Géotraitement de base avec des rasters 185

Chapitre 8 Analyse géospatiale II : Données raster Figure 8.4 Superposition de raster mathématique Deux couches raster en entrée sont superposées pour produire un raster en sortie avec des valeurs de cellule additionnées. 2 La méthode de superposition de trames booléennes représente une deuxième technique puissante. Comme indiqué au chapitre 6 \"Caractéristiques et visualisation des données\", les connecteurs booléens AND, OR et XOR peuvent être utilisés pour combiner les informations de deux jeux de données raster en entrée superposés en un seul raster en sortie. De même, la méthode de superposition de raster relationnelle 3 utilise des opérateurs relationnels (<, <=, =, <>, > et =>) pour évaluer les conditions des jeux de données raster en entrée. Dans les deux méthodes de superposition booléenne et relationnelle, les cellules qui répondent aux critères d'évaluation sont généralement codées dans la couche raster en sortie avec un 1, tandis que celles évaluées comme fausses reçoivent une valeur de 0. 2. Les valeurs de cellule de pixel ou de grille dans chaque carte sont combinées Cependant, la simplicité de cette méthodologie peut également conduire à des opérateurs booléens facilement négligés pour produire une nouvelle valeur dans les erreurs composites d'interprétation si la superposition n'est pas conçue correctement. Supposons qu'une carte. Le gestionnaire des ressources naturelles a deux jeux de données raster en entrée qu'elle prévoit de superposer l'un montrant l'emplacement des arbres (« 0 » = aucun arbre « 1 » = arbre) et l'autre montrant les 3. Les valeurs de pixels ou de cellules de grille dans chaque carte sont combinées à l'aide de l'emplacement de zones urbaines (« 0 » = non urbain « 1 » = urbain). Si elle espère trouver les opérateurs relationnels pour produire l'emplacement des arbres dans les zones urbaines, une simple somme mathématique de ces ensembles de données donnera une nouvelle valeur dans le composite un « 2 » dans tous les pixels contenant un arbre dans une zone urbaine. De même, si elle espère cartographier. 8.1 Géotraitement de base avec des rasters 186

Chapitre 8 Analyse géospatiale II : Les données raster trouvent l'emplacement de toutes les zones sans arbres (ou « sans arbres », non urbaines), elle peut examiner le raster en sortie additionné pour toutes les entrées « 0 ». Enfin, si elle espère localiser les zones urbaines sans arbres , elle recherchera toutes les cellules contenant un « 1 ». Malheureusement, la valeur de cellule « 1 » est également codée dans chaque pixel pour les cellules arborescentes non urbaines.En effet, le choix des valeurs de pixel d'entrée et de l'équation de superposition dans cet exemple produira des résultats déconcertants en raison du schéma de superposition mal conçu. PRINCIPAUX POINTS À RETENIR • Les processus de superposition placent deux ou plusieurs cartes thématiques l'une sur l'autre pour former une nouvelle carte. • Les opérations de superposition disponibles pour une utilisation avec des données vectorielles incluent les modèles point dans polygone, ligne dans polygone ou polygone dans polygone. • L'union, l'intersection, la différence symétrique et l'identité sont des opérations courantes utilisées pour combiner des informations provenant de divers ensembles de données superposés. • Les opérations de superposition de raster peuvent utiliser de puissants opérateurs mathématiques, booléens ou relationnels pour créer de nouveaux jeux de données en sortie. EXERCICES 1. À partir de votre propre domaine d'études, décrivez trois couches de données théoriques qui pourraient être superposées pour créer une nouvelle carte de sortie qui répond à une question spatiale complexe telle que « où est le meilleur endroit pour installer un centre commercial ? » 2. Allez en ligne et recherchez des jeux de données vectorielles ou raster liés à la question que vous venez de poser. 8.1 Géotraitement de base avec des rasters 187

Chapitre 8 Analyse géospatiale II : Données raster 8.2 Échelle d'analyse OBJECTIF D'APPRENTISSAGE 1. L'objectif de cette section est de comprendre comment les analyses locales, de voisinage, zonales et globales peuvent être appliquées aux jeux de données raster. Les analyses raster peuvent être entreprises à quatre échelles de fonctionnement différentes : locale, de voisinage, zonale et globale. Chacun d'eux présente des options uniques à l'analyste SIG et est présenté ici dans cette section. Opérations locales 4 Les opérations locales peuvent être effectuées sur un ou plusieurs rasters. Lorsqu'elle est utilisée sur un seul raster, une opération locale prend généralement la forme d'une transformation mathématique appliquée à chaque cellule individuelle de la grille. Par exemple, un chercheur peut obtenir un modèle numérique d'élévation (MNE) avec chaque valeur de cellule représentant l'élévation en pieds. S'il est préférable de représenter ces élévations en mètres, une simple transformation arithmétique (élévation d'origine en pieds * 0,3048 = nouvelle élévation en mètres) de chaque valeur de cellule peut être effectuée localement pour accomplir cette tâche. Lorsqu'il est appliqué à plusieurs rasters, il devient possible d'effectuer des analyses telles que les changements au fil du temps. Étant donné deux rasters contenant des informations sur la profondeur des eaux souterraines sur une parcelle de terre à l'an 2000 et à l'an 2010, il est simple de soustraire ces valeurs et de placer la différence dans un raster en sortie qui notera le changement d'eau souterraine entre ces deux moments (Figure 8.5 et #92"Opération locale sur un jeu de données raster\"). Ces analyses locales peuvent toutefois devenir un peu plus compliquées, à mesure que le nombre de rasters en entrée augmente. Par exemple, l'équation universelle de perte de sol (USLE) applique une formule mathématique locale à plusieurs rasters superposés, y compris l'intensité des précipitations, l'érodabilité du sol, la pente, le type de culture et le type de végétation pour déterminer la perte moyenne de sol (en tonnes) dans une grille cellule. 4. Opérations effectuées sur une seule cellule cible. 188

Chapitre 8 Analyse géospatiale II : Données raster Figure 8.5 Opération locale sur un jeu de données raster Opérations de voisinage La première loi de géographie de Tobler stipule que « tout est lié à tout le reste, mais les choses proches sont plus liées que les choses éloignées ». Les opérations de quartier 5 représentent un groupe de techniques d'analyse spatiale fréquemment utilisées qui reposent fortement sur ce concept. Les fonctions de voisinage examinent la relation d'un objet avec des objets environnants similaires. Ils peuvent être effectués sur des jeux de données vectorielles ponctuelles, linéaires ou surfaciques ainsi que sur des jeux de données raster. Dans le cas des ensembles de données vectorielles, l'analyse de voisinage est le plus souvent utilisée pour effectuer des recherches de base. Par exemple, étant donné un ensemble de données ponctuelles contenant l'emplacement des magasins de proximité, un SIG pourrait être utilisé pour déterminer le nombre de magasins à moins de 5 miles d'une entité linéaire (c'est-à-dire l'Interstate 10 en Californie). Les analyses de voisinage sont souvent plus sophistiquées lorsqu'elles sont utilisées avec des jeux de données raster. Les analyses raster utilisent des fenêtres mobiles, également appelées filtres ou noyaux, pour calculer de nouvelles valeurs de cellule pour chaque emplacement dans l'étendue de la couche raster. Ces fenêtres mobiles peuvent prendre de nombreuses formes différentes selon le type de 5. Opérations effectuées sur une sortie souhaitée et les phénomènes examinés. Par exemple, une cellule cible rectangulaire, centrale et des cellules environnantes. La fenêtre mobile 3 par 3 est couramment utilisée pour calculer la moyenne, l'écart type, 8.2 Échelle d'analyse 189

Chapitre 8 Analyse géospatiale II : Somme des données raster, minimum, maximum ou plage de valeurs entourant immédiatement une cellule « cible » donnée (Figure 8.6 \"Types de quartiers communs autour de la cellule cible « x » : b) Cercle, (c) Anneau, (d) Coin & 92 "). La cellule cible est la cellule qui se trouve au centre de la fenêtre mobile 3-en-3. La fenêtre mobile passe sur chaque cellule du raster. Lorsqu'il passe chaque cellule cible centrale, les neuf valeurs de la fenêtre 3 par 3 sont utilisées pour calculer une nouvelle valeur pour cette cellule cible. Cette nouvelle valeur est placée à l'emplacement identique dans le raster en sortie. Si l'on voulait examiner une plus grande sphère d'influence autour des cellules cibles, la fenêtre mobile pourrait être étendue à 5 par 5, 7 par 7, et ainsi de suite. De plus, la fenêtre mobile n'a pas besoin d'être un simple rectangle. D'autres formes utilisées pour calculer les statistiques de quartier incluent l'anneau, le coin et le cercle (Figure 8.6 \"Types de quartiers communs autour de la cellule cible « x » : (a) 3 par 3, (b) Cercle, (c) Anneau, (d) Coin & 92"). Figure 8.6 Types de voisinage courants autour de la cellule cible « x » : (a) 3 par 3, (b) cercle, (c) anneau, (d) les opérations de voisinage en coin sont couramment utilisées pour la simplification des données sur les jeux de données raster. Une analyse qui fait la moyenne des valeurs de voisinage se traduirait par un raster en sortie lissé avec des hauts et des bas atténués car l'influence des valeurs de données aberrantes est réduite par le processus de moyennage. Alternativement, les analyses de voisinage peuvent être utilisées pour exagérer les différences dans un ensemble de données. L'amélioration des contours est un type de 6. Cellule située au centre de l'analyse de voisinage qui examine la plage de valeurs dans la fenêtre mobile. Une fenêtre mobile 3 par 3. 8.2 Échelle d'analyse 190

Chapitre 8 Analyse géospatiale II : Données raster Une valeur de plage étendue indiquerait qu'un bord se produit dans l'étendue de la fenêtre, tandis qu'une plage petite indique l'absence d'un bord. Opérations zonales Une opération zonale est utilisée sur des groupes de cellules de valeur similaire ou de caractéristiques similaires, sans surprise appelées zones (par exemple, parcelles de terrain, unités politiques/municipales, plans d'eau, types de sol/végétation). Ces zones pourraient être conceptualisées comme des versions matricielles de polygones. Les rasters zonaux sont souvent créés en reclassant un raster en entrée en quelques catégories seulement (voir Section 8.2.2 \"Opérations de voisinage\"). Les opérations zonales peuvent être appliquées à un seul raster ou à deux rasters superposés. Étant donné un seul raster en entrée, les opérations zonales mesurent la géométrie de chaque zone du raster, telle que la surface, le périmètre, l'épaisseur et le centroïde. Étant donné deux rasters dans une opération zonale, un raster en entrée et un raster zonal, une opération zonale produit un raster en sortie, qui résume les valeurs de cellule dans le raster en entrée pour chaque zone dans le raster zonal (Figure 8.7 \"Opération zonale sur un raster Ensemble de données\"). Figure 8.7 Opération zonale sur un jeu de données raster Les opérations et analyses zonales sont précieuses dans des domaines d'étude tels que l'écologie du paysage où la géométrie et l'agencement spatial des parcelles d'habitat peuvent 8.2 Échelle d'analyse 191

Chapitre 8 Analyse géospatiale II : Les données raster affectent de manière significative le type et le nombre d'espèces qui peuvent y résider. De même, les analyses zonales peuvent quantifier efficacement les corridors d'habitat étroits qui sont importants pour le mouvement régional des espèces animales migratrices incapables de voler qui traversent des zones autrement densément urbanisées. Opérations globales 7 Les opérations globales sont similaires aux opérations zonales dans lesquelles l'étendue du jeu de données raster entier représente une zone unique. Les opérations globales typiques incluent la détermination des valeurs statistiques de base pour le raster dans son ensemble. Par exemple, le minimum, le maximum, la moyenne, la plage, etc. peuvent être calculés rapidement sur toute l'étendue du raster en entrée et être ensuite générés dans un raster dans lequel chaque cellule contient cette valeur calculée (Figure 8.8 \"Fonctionnement global sur un jeu de données raster\"). Figure 8.8 Opération globale sur un jeu de données raster 7. Opérations effectuées sur toute l'étendue d'un jeu de données. 8.2 Échelle d'analyse 192

Chapitre 8 Analyse géospatiale II : Données raster PRINCIPAUX POINTS À RETENIR • Les opérations raster locales n'examinent qu'une seule cellule cible pendant l'analyse. • Les opérations raster de voisinage examinent la relation d'une cellule cible à proximité des cellules environnantes. • Les opérations raster zonales examinent les groupes de cellules qui se produisent dans un type d'entité uniforme. • Les opérations raster globales examinent l'étendue de la zone entière du jeu de données. EXERCICE 1. Quelles sont les quatre formes de quartier décrites dans ce chapitre ? Bien que cela ne soit pas abordé ici, pouvez-vous penser à des situations spécifiques pour lesquelles chacune de ces formes pourrait être utilisée ? 8.2 Échelle d'analyse 193

Chapitre 8 Analyse géospatiale II : Données raster 8.3 Analyse de surface : Interpolation spatiale OBJECTIF D'APPRENTISSAGE 1. L'objectif de cette section est de se familiariser avec les concepts et les termes liés aux surfaces SIG, comment les créer et comment elles sont utilisées pour répondre à des des questions. 8 Une surface est un jeu de données vectorielles ou raster qui contient une valeur d'attribut pour chaque paramètre régional sur l'ensemble de son étendue. Dans un sens, tous les jeux de données raster sont des surfaces, mais tous les jeux de données vectorielles ne sont pas des surfaces. Les surfaces sont couramment utilisées dans un système d'information géographique (SIG) pour visualiser des phénomènes tels que l'altitude, la température, la pente, l'aspect, les précipitations, etc. Dans un SIG, les analyses de surface sont généralement effectuées sur des jeux de données raster ou des TIN (Triangular Irregular Network Chapter 5 \"Geospatial Data Management\", Section 5.3.1 \"Vector File Formats\"), mais les isolignes ou les tableaux de points peuvent également être utilisé. L'interpolation est utilisée pour estimer la valeur d'une variable à un emplacement non échantillonné à partir de mesures effectuées dans des lieux proches ou voisins. Les méthodes d'interpolation spatiale s'appuient sur le credo théorique de la première loi de géographie de Tobler, qui stipule que « tout est lié à tout le reste, mais les choses proches sont plus liées que les choses éloignées ». En effet, ce 9 principe de base de l'autocorrélation spatiale positive constitue l'épine dorsale de nombreuses analyses spatiales (Figure 8.9 \"Positive and Negative Spatial Autocorrelation\"). Figure 8.9 Autocorrélation spatiale positive et négative 8. Un jeu de données vectorielles ou raster qui contient une valeur d'attribut pour chaque paramètre régional dans toute son étendue. 9. Le résultat de valeurs similaires se produisant à proximité les unes des autres. 194

Chapitre 8 Analyse géospatiale II : Données raster Création de surfaces La possibilité de créer une surface est un outil précieux dans un SIG. Cependant, la création de surfaces raster commence souvent par la création d'une surface vectorielle. Une méthode courante pour créer une telle surface vectorielle à partir de données ponctuelles consiste à générer des polygones de Thiessen (ou de Voronoi). Les polygones de Thiessen sont des zones générées mathématiquement qui définissent la sphère d'influence autour de chaque point de l'ensemble de données par rapport à tous les autres points (Figure 8.10 \"Une surface vectorielle créée à l'aide des polygones de Thiessen\"). Plus précisément, les limites des polygones sont calculées comme les bissectrices perpendiculaires des lignes entre chaque paire de points voisins. Les polygones de Thiessen dérivés peuvent ensuite être utilisés comme surfaces vectorielles brutes qui fournissent des informations attributaires sur l'ensemble de la zone d'intérêt. Un exemple courant de polygones de Thiessen est la création d'une surface de pluie à partir d'un ensemble d'emplacements de points de pluviomètre. En utilisant certaines techniques de reclassification de base, ces polygones de Thiessen peuvent être facilement convertis en représentations raster équivalentes. Figure 8.10 Une surface vectorielle créée à l'aide de polygones de Thiessen Alors que la création de polygones de Thiessen aboutit à une couche de polygones dans laquelle chaque 10 polygone, ou zone raster, conserve une valeur unique, l'interpolation est une technique statistique potentiellement complexe qui estime la valeur de tous les points inconnus 10 Un complexe potentiellement entre les points connus. Les trois méthodes de base utilisées pour créer une technique statistique interpolée que les surfaces sont la spline, la pondération de distance inverse (IDW) et la surface de tendance. La spline estime la valeur de tous les points inconnus entre la méthode d'interpolation force une courbe lissée à travers l'ensemble des points connus d'entrée connus. points pour estimer les valeurs intermédiaires inconnues. Estimations d'interpolation IDW 8.3 Analyse de surface : interpolation spatiale 195


COUCHE¶

A l'intérieur d'une couche, une seule classe sera utilisée pour le rendu d'une entité. Chaque caractéristique est testée par rapport à chaque classe dans l'ordre dans lequel elles sont définies dans le mapfile. La première classe qui correspond à ses contraintes d'échelle min/max et à ses EXPRESSION vérifier que la fonctionnalité actuelle sera utilisée pour le rendu.

CLASSGROUP [chaîne] Spécifiez le groupe de classe’s qui serait pris en compte au moment du rendu. Le CLASSER Le paramètre GROUP de l'objet doit être utilisé en combinaison avec CLASSGROUP. CLASSITEM [attribut] Nom de l'élément dans la table attributaire à utiliser pour les recherches de classe. GROUPE

Signale le début d'un GROUPE objet.

L'option de configuration CLUSTER permet de combiner plusieurs entités de la couche en entités uniques (agrégées) en fonction de leurs positions relatives. Pris en charge uniquement pour les couches POINT.

Chaîne de connexion à la base de données pour récupérer les données distantes.

Une chaîne de connexion SDE se compose d'un nom d'hôte, d'un nom d'instance, d'un nom de base de données, d'un nom d'utilisateur et d'un mot de passe séparés par des virgules.

Une chaîne de connexion PostGIS est essentiellement une chaîne de connexion PostgreSQL standard, elle prend la forme de “user=nobody password=****** dbname=dbname host=localhost port=5432”

Une chaîne de connexion Oracle : user/pass[@db]

Voir Données vectorielles pour des informations de connexion spécifiques pour diverses sources de données.

Type de connexion. La valeur par défaut est locale. Voir la documentation supplémentaire pour tout autre type.

Voir Données vectorielles pour des informations de connexion spécifiques pour diverses sources de données. Voir Couche d'union pour combiner des couches, ajouté dans MapServer 6.0

mygis est un autre type de connexion, mais il est obsolète, veuillez consulter le Section MySQL du document de données vectorielles pour les détails de connexion.

Nom de fichier complet des données spatiales à traiter. Aucune extension de fichier n'est nécessaire pour les fichiers de formes. Peut être spécifié par rapport à l'option SHAPEPATH de l'objet Map.

S'il s'agit d'un calque SDE, le paramètre doit inclure le nom du calque ainsi que la colonne de géométrie, c'est-à-dire “mylayer,shape,myversion”.

S'il s'agit d'une couche PostGIS, le paramètre doit être sous la forme “<columnname> de <tablename>”, où “columnname” est le nom de la colonne contenant les objets géométriques et “tablename” est le nom de la table à partir de laquelle les données géométriques seront lues.

Pour Oracle, utilisez “shape FROM table” ou “shape FROM (instruction SELECT)” ou même des requêtes compatibles Oracle plus complexes ! Notez qu'il y a cependant des impacts importants sur les performances lors de l'utilisation de sous-requêtes spatiales. Essayez d'utiliser le FILTRE de MapServer dans la mesure du possible à la place. Vous pouvez également voir le SQL soumis en forçant une erreur, par exemple en soumettant un paramètre DATA dont vous savez qu'il ne fonctionnera pas, en utilisant par exemple un mauvais nom de colonne.

Voir Données vectorielles pour des informations de connexion spécifiques pour diverses sources de données.

Active le débogage d'une couche dans la carte actuelle.

Débogage avec les versions MapServer >= 5.0 :

La sortie détaillée est générée et envoyée à la sortie d'erreur standard (STDERR) ou au fichier d'erreur MapServer s'il est défini à l'aide de la variable d'environnement “MS_ERRORFILE”. Vous pouvez définir la variable d'environnement en utilisant le paramètre CONFIG au niveau MAP du mapfile, par exemple :

Vous pouvez également définir la variable d'environnement dans Apache en ajoutant ce qui suit à votre httpd.conf :

Une fois la variable d'environnement définie, le paramètre DEBUG mapfile peut être utilisé pour contrôler le niveau de sortie de débogage. Voici une description des valeurs DEBUG possibles :

  • DEBUG O ou OFF - seuls les appels msSetError() sont enregistrés dans MS_ERRORFILE. Aucune sortie msDebug() du tout. Ceci est la valeur par défaut et correspond au comportement d'origine de MS_ERRORFILE dans MapServer 4.x
  • DEBUG 1 ou ON - inclut toutes les sorties de DEBUG 0 plus les avertissements msDebug() sur les pièges courants, les échecs d'assertions ou les situations d'erreur non fatales (par exemple, valeurs manquantes ou invalides pour certains paramètres, fichiers de formes manquants dans tileindex, erreur de délai d'attente des serveurs WMS/WFS distants, etc. )
  • DÉBOGUER 2 - comprend toutes les sorties de DEBUG 1 ainsi que des avis et des informations de synchronisation utiles pour le réglage des fichiers de mappage et des applications
  • DÉBOGUER 3 - tout DEBUG 2 plus quelques sorties de débogage utiles pour résoudre les problèmes tels que les URL de connexion WMS appelées, les appels de connexion à la base de données, etc. C'est le niveau recommandé pour le débogage des mapfiles.
  • DÉBOGUER 4 - DEBUG 3 et encore plus de détails.
  • DÉBOGUER 5 - DEBUG 4 plus toute sortie msDebug() qui pourrait être plus utile aux développeurs qu'aux utilisateurs.

Vous pouvez également définir le niveau de débogage en utilisant la variable d'environnement “MS_DEBUGLEVEL”.

Le paramètre DEBUG peut également être spécifié pour l'ensemble de la carte, en définissant le paramètre DEBUG dans le CARTE objet.

Pour plus de détails sur ce mécanisme de débogage, veuillez consulter MS RFC 28 : Refonte des mécanismes de sortie LOG/DEBUG.

Débogage avec les versions MapServer < 5:

La sortie détaillée est générée et envoyée à la sortie d'erreur standard (STDERR) ou au fichier journal MapServer s'il est défini à l'aide du paramètre LOG dans l'objet WEB. Les utilisateurs d'Apache verront les détails de la synchronisation pour le dessin dans le fichier error_log d'Apache. Nécessite que MapServer soit construit avec l'option DEBUG=MSDEBUG (–with-debug configure option).

Depuis la 6.0, DUMP n'est plus utilisé. LAYER METADATA est utilisé à la place.

Basculez pour permettre à MapServer de renvoyer des données au format GML. Utile lorsqu'il est utilisé avec les opérations WMS GetFeatureInfo. “faux” par défaut.

Obsolète depuis la version 6.0 : LAYER METADATA est utilisé à la place.

Ce paramètre permet un filtrage d'attributs spécifiques aux données qui est effectué en même temps que le filtrage spatial, mais avant que les expressions CLASS ne soient évaluées. Pour OGR et les fichiers de formes, la chaîne est simplement une expression régulière de mapserver. Pour les bases de données spatiales, la chaîne est une clause SQL WHERE qui est valide par rapport à la base de données sous-jacente.

Par exemple : FILTRE ([type]=’road’ et [taille]<2)

FILTERITEM [attribut] Élément à utiliser avec des expressions FILTER simples. OGR et fichiers de formes uniquement. FOOTER [nom de fichier] Modèle à utiliser après un ensemble de résultats de couche a été envoyé. Modes de requête multi-résultats uniquement. LA GRILLE Signale le début d'un LA GRILLE objet. Nom de groupe]

Nom d'un groupe auquel appartient cette couche.Le nom du groupe peut ensuite être référencé en tant que nom de calque normal dans les fichiers modèles, ce qui permet d'effectuer des opérations telles que l'activation et la désactivation d'un groupe de calques à la fois.

Si un nom de groupe est présent dans le paramètre LAYERS d'une requête CGI, toutes les couches du groupe sont renvoyées (le STATUS des LAYER n'a aucun effet).

HEADER [nom de fichier] Modèle à utiliser avant un ensemble de résultats de couche a été envoyé. Modes de requête multi-résultats uniquement. REJOINDRE Signale le début d'un REJOINDRE objet. LABELANGLEITEM [attribut]

(À partir de MapServer 5.0, ce paramètre n'est plus disponible. Veuillez consulter le ÉTIQUETER object’s ANGLE) Pour les versions MapServer < 5.0, il s'agit du nom de l'élément dans la table attributaire à utiliser pour les angles d'annotation de classe. Les valeurs doivent être en degrés.

Obsolète depuis la version 5.0.

LABELCACHE [on|off] Spécifie si les étiquettes doivent être dessinées lorsque les entités de cette couche sont dessinées, ou si elles doivent être mises en cache et dessinées une fois que toutes les couches ont été dessinées. La valeur par défaut est activée. La suppression des chevauchements d'étiquettes, le placement automatique, etc. ne sont disponibles que lorsque le cache d'étiquettes est actif. LABELITEM [attribut] Nom de l'élément dans la table attributaire à utiliser pour l'annotation de classe (c'est-à-dire l'étiquetage). LABELMAXSCALEDENOM [double]

Échelle minimale à laquelle cette COUCHE est étiquetée. L'échelle est donnée comme dénominateur de la fraction d'échelle réelle, par exemple pour une carte à l'échelle 1:24 000, utilisez 24 000. Implémenté dans MapServer 5.0, pour remplacer le paramètre obsolète LABELMAXSCALE.

Échelle maximale à laquelle cette COUCHE est étiquetée. L'échelle est donnée comme dénominateur de la fraction d'échelle réelle, par exemple pour une carte à l'échelle 1:24 000, utilisez 24 000. Implémenté dans MapServer 5.0, pour remplacer le paramètre obsolète LABELMINSCALE.

Définit le contexte pour l'étiquetage de cette couche, par exemple :

signifie que ce calque ne sera PAS étiqueté si un calque nommé “orthoquads” est activé. L'expression consiste en une expression booléenne basée sur l'état des autres couches, chaque sous-chaîne [nom de la couche] est remplacée par un 0 ou un 1 selon l'ÉTAT de cette couche, puis évaluée comme normale. Les opérateurs logiques AND et OR peuvent être utilisés.

(À partir de MapServer 5.0, ce paramètre n'est plus disponible. Veuillez consulter le ÉTIQUETER object’s SIZE) Pour les versions MapServer < 5.0, il s'agit du nom de l'élément dans la table attributaire à utiliser pour les tailles d'annotation de classe. Les valeurs doivent être en pixels.

Obsolète depuis la version 5.0.

Les données de la couche actuelle ne seront rendues qu'à l'intersection des entités de la couche [layername]. [layername] doit référencer le NOM d'un autre LAYER défini dans le mapfile actuel. peut être n'importe quel type de couche de serveur de carte, c'est-à-dire vecteur ou raster. Si l'étiquetage du calque actuel est configuré, seules les étiquettes dont le point d'étiquette se trouve à l'intérieur de la zone non masquée seront ajoutées au cache d'étiquettes (les glyphes réels de l'étiquette peuvent être rendus au-dessus de la zone masquée.

À moins que vous ne vouliez que les caractéristiques de [layername] apparaissent réellement sur la carte générée, [layername] doit généralement être défini sur STATUS OFF.

Largeur maximale, dans les unités géographiques de la carte, à laquelle cette COUCHE est dessinée. Si MAXSCALEDENOM est également spécifié, MAXSCALEDENOM sera utilisé à la place. (ajouté dans MapServer 5.4.0)

La largeur d'une carte en unités géographiques peut être trouvée en calculant les éléments suivants à partir des étendues :

Échelle minimale à laquelle cette COUCHE est dessinée. L'échelle est donnée comme dénominateur de la fraction d'échelle réelle, par exemple pour une carte à l'échelle 1:24 000, utilisez 24 000. Implémenté dans MapServer 5.0, pour remplacer le paramètre MAXSCALE obsolète.

Ce mot-clé permet de stocker des données arbitraires sous forme de paires nom-valeur. Ceci est utilisé avec OGC WMS pour définir des éléments tels que le titre du calque. Cela peut également permettre plus de flexibilité dans la création de modèles, car tout ce que vous mettez ici sera accessible via les balises de modèle.

Largeur minimale, dans les unités géographiques de la carte, à laquelle cette COUCHE est dessinée. Si MINSCALEDENOM est également spécifié, MINSCALEDENOM sera utilisé à la place. (ajouté dans MapServer 5.4.0)

La largeur d'une carte en unités géographiques peut être trouvée en calculant les éléments suivants à partir des étendues :

Échelle maximale à laquelle cette COUCHE est dessinée. L'échelle est donnée comme dénominateur de la fraction d'échelle réelle, par exemple pour une carte à l'échelle 1:24 000, utilisez 24 000. Implémenté dans MapServer 5.0, pour remplacer le paramètre MINSCALE obsolète.

Définit le niveau d'opacité (ou l'impossibilité de voir à travers le calque) de tous les pixels classés pour un calque donné. La valeur peut être soit un entier compris entre 0 et 100, soit le symbole nommé “ALPHA”. Une valeur de 100 est opaque et 0 est entièrement transparent. Implémenté dans MapServer 5.0, pour remplacer le paramètre TRANSPARENCY obsolète.

Le symbole “ALPHA” indique au code de rendu MapServer d'honorer la transparence indexée ou alpha des symboles pixmap utilisés pour styliser une couche. Ceci n'est nécessaire que dans le cas des formats de sortie RVB et ne doit être utilisé que lorsque cela est nécessaire car il est coûteux de rendre des symboles de pixmap transparents sur une image de carte RVB.

Bibliothèque supplémentaire à charger par MapServer, pour cette couche. Ceci est couramment utilisé pour charger un support spécifique pour les couches SDE et Microsoft SQL Server, telles que :

Passe une directive de traitement à utiliser avec cette couche. Les directives de traitement prises en charge varient selon le type de couche et le pilote sous-jacent qui les traite.

Directive Attributs - L'option de traitement ITEMS permet de spécifier le nom des attributs pour les couches en ligne ou de spécifier le sous-ensemble d'attributs à utiliser par la couche, tels que :

Directive de mise en commun des connexions - C'est ici que vous pouvez activer le regroupement de connexions pour certains types de couches. Le regroupement de connexions permettra à MapServer de partager le handle vers une base de données ouverte ou une connexion de couche tout au long d'un processus de dessin de carte unique. De plus, si FastCGI est activé, le handle de connexion restera ouvert indéfiniment, ou selon les options spécifiées dans le FastCGI configuration. Oracle spatial, ArcSDE, OGR et PostGIS/PostgreSQL soutiennent actuellement cette approche.

Directive sur l'étiquetage - L'option de traitement LABEL_NO_CLIP peut être utilisée pour ignorer le découpage des formes lors de la détermination des points d'ancrage des étiquettes associées. Cela évite les changements de position de l'étiquette lorsque les étendues changent entre les tracés de carte. Cela évite également les étiquettes en double lorsque les entités apparaissent dans plusieurs tuiles adjacentes lors de la création de cartes tuilées.

Directive de rendu de ligne - L'option de traitement POLYLINE_NO_CLIP peut être utilisée pour ignorer le découpage des formes lors du rendu des lignes stylisées (en pointillés ou stylisées avec des symboles). Cela évite de modifier le style des lignes lorsque les étendues changent entre les tracés de carte. Il évite également les effets de bord lorsque les entités apparaissent dans plusieurs tuiles adjacentes lors de la création de cartes en tuiles.

Directive sur les styles OGR - Cette directive peut être utilisée pour obtenir des styles d'étiquette via MapScript. Pour plus d'informations, consultez le Document OGR de MapServer’s.

Directives raster - Toutes les options de traitement raster sont décrites dans Données raster. Ici, nous voyons les directives SCALE et BANDs utilisées pour mettre à l'échelle automatiquement les données raster et modifier le mappage des bandes.

Définit l'état actuel du calque. Souvent modifié par MapServer lui-même. Par défaut, le calque est activé en permanence.

Dans CGI mode, les calques avec STATUS DEFAULT ne peuvent pas être désactivés à l'aide des mécanismes normaux. Il est recommandé de définir les couches sur STATUS DEFAULT lors du débogage d'un problème, mais de les remettre sur ON/OFF en utilisation normale.

Pour WMS, les couches dans le mapfile du serveur avec STATUS DEFAULT sont toujours envoyées au client.

Le STATUS des couches individuelles d'un GROUPE n'a aucun effet lorsque le nom du groupe est présent dans le paramètre LAYERS d'une requête CGI - toutes les couches du groupe seront renvoyées.

Article à utiliser pour un style spécifique à une fonction. Les informations de style peuvent être représentées par un attribut séparé (chaîne de style) attaché à l'entité. MapServer prend en charge les représentations de chaîne de style suivantes :

Définition de STYLE MapServer - La chaîne de style peut être représentée comme un MapServer STYLE bloc selon l'exemple suivant :

MapServer CLASS définition - En précisant l'intégralité CLASSER au lieu d'un style unique, il permet d'utiliser d'autres options (comme la définition d'expressions, les attributs d'étiquette, plusieurs styles) sur une base par caractéristique.

Chaîne de style OGR - MapServer prend en charge le rendu du format de chaîne de style OGR conformément à la documentation OGR - Feature Style Specification. Actuellement, seules quelques sources de données prennent en charge le stockage des styles avec les fonctionnalités (comme MapInfo, AutoCAD DXF, Microstation DGN), mais ces styles peuvent facilement être transférés vers de nombreuses autres sources de données en tant qu'attribut distinct en utilisant l'outil de ligne de commande ogr2ogr comme suit :

La valeur : AUTO peut être utilisée pour le coiffage automatique.

  • Le style automatique peut être fourni par le conducteur. Actuellement, seul le pilote OGR prend en charge le style automatique.
  • Lorsqu'il est utilisé pour un Couche d'union, les styles des calques sources seront utilisés.

L'échelle à laquelle les symboles et/ou le texte apparaissent en taille réelle. Cela permet une mise à l'échelle dynamique des objets en fonction de l'échelle de la carte. S'il n'est pas défini, ce calque apparaîtra toujours à la même taille. La mise à l'échelle n'a lieu que dans les limites de MINSIZE et MAXSIZE comme décrit ci-dessus. L'échelle est donnée comme dénominateur de la fraction d'échelle réelle, par exemple pour une carte à l'échelle 1:24 000, utilisez 24 000. Implémenté dans MapServer 5.0, pour remplacer le paramètre obsolète SYMBOLSCALE.

Nom du fichier ou de la couche tileindex. Un index de tuile est similaire à un index de bibliothèque ArcInfo. Le tileindex contient des entités surfaciques pour chaque tuile. L'élément qui contient l'emplacement des données tuilées est donné à l'aide du paramètre TILEITEM. Lorsqu'un fichier est utilisé comme index de tuile pour un fichier de formes ou des couches raster, l'index de tuile doit être un fichier de formes. Pour les couches OGR CONNECTIONTYPE, toute source de données prise en charge par OGR peut être un index de tuile. Normalement, l'emplacement doit contenir le chemin d'accès au fichier de tuiles par rapport au chemin de forme, et non par rapport à l'index de tuile lui-même. Si le paramètre DATA contient une valeur, elle est ajoutée à la fin de l'emplacement. Lorsqu'une couche tileindex est utilisée, elle fonctionne de la même manière qu'une référence directe à un fichier, mais n'importe quelle source d'entités prise en charge peut être utilisée (c'est-à-dire postgres, oracle).

Tous les fichiers du tileindex doivent avoir le même système de coordonnées et pour les fichiers vectoriels le même ensemble d'attributs dans le même ordre.

Depuis MapServer 5.0, le paramètre approprié à utiliser est OPACITY. Le paramètre déconseillé TRANSPARENCE définit le niveau de transparence de tous les pixels classés pour un calque donné. La valeur peut être soit un entier compris entre 0 et 100, soit le symbole nommé “ALPHA”. Bien que ce paramètre soit nommé “transparency”, les valeurs entières paramétrent en fait l'opacité du calque. Une valeur de 100 est opaque et 0 est entièrement transparent.

Le symbole “ALPHA” indique au code de rendu MapServer d'honorer la transparence indexée ou alpha des symboles pixmap utilisés pour styliser une couche. Ceci n'est nécessaire que dans le cas des formats de sortie RVB et ne doit être utilisé que lorsque cela est nécessaire car il est coûteux de rendre des symboles de pixmap transparents sur une image de carte RVB.

Obsolète depuis la version 5.0.

Indique à MapServer si une couche particulière doit être transformée ou non d'un système de coordonnées en coordonnées d'image. La valeur par défaut est true. Cela vous permet de créer des fichiers de formes en coordonnées image/graphique et donc d'avoir des caractéristiques qui seront toujours affichées au même endroit sur chaque carte. Idéal pour placer des logos ou du texte dans des cartes. N'oubliez pas que le système de coordonnées graphiques a une origine dans le coin supérieur gauche de l'image, contrairement à la plupart des systèmes de coordonnées cartographiques.

La version 4.10 introduit la possibilité de définir des caractéristiques avec des coordonnées données en pixels (ou pourcentages, voir UNITS), le plus souvent des caractéristiques en ligne, par rapport à autre chose que le coin UL d'une image. C'est ce que signifie ‘TRANSFORMER FAUX’. En définissant une origine alternative, cela vous permet d'ancrer quelque chose comme une déclaration de droit d'auteur à une autre partie de l'image d'une manière indépendante de la taille de l'image.

Spécifie comment les données doivent être dessinées. N'a pas besoin d'être le même que le type de fichier de formes. Par exemple, un fichier de formes de polygones peut être dessiné comme une couche de points, mais un fichier de formes de points ne peut pas être dessiné comme une couche de polygones. Règles de bon sens.

Afin de différencier les POLYGONES et les POLYLINES (qui n'existent pas en tant que type), il suffit d'utiliser ou d'omettre respectivement le mot-clé COLOR lors de la classification. Si vous l'utilisez, c'est un polygone avec une couleur de remplissage, sinon c'est une polyligne avec seulement OUTLINECOLOR.

Un cercle doit être défini par un rectangle englobant minimum. C'est-à-dire deux points qui définissent le plus petit carré pouvant le contenir. Ces deux points sont les deux coins opposés de ladite boîte. Voici un exemple utilisant des points en ligne pour tracer un cercle :

La requête TYPE signifie que la couche peut être interrogée mais pas dessinée.

L'annotation TYPE est dépréciée depuis la version 6.2. Une fonctionnalité identique peut être obtenue en ajoutant ÉTIQUETER niveau STYLE blocs, et ne nécessitent pas de charger les jeux de données deux fois dans deux couches différentes comme c'était le cas avec les couches d'annotation TYPE .

Signale le début d'un bloc VALIDATION.

Depuis MapServer 5.4.0, les blocs VALIDATION sont le mécanisme préféré pour spécifier des modèles de validation pour les substitutions de paramètres d'exécution CGI. Voir Substitution à l'exécution.


Derniers brevets de Synopsys, Inc. :

Cette demande revendique le bénéfice des demandes de brevet provisoires américaines "Virtual Hierarchical Layer Usage" Ser. n° 62/002,808, déposé le 24 mai 2014, « Virtual Hierarchical Layer Patterning », Ser. n° 62/006.069, déposé le 31 mai 2014, « Virtual Cell Model Geometry Compression », Ser. n° 62/006 657, déposé le 2 juin 2014, « Negative Plane Usage with a Virtual Hierarchical Layer » Ser. n° 62/006.083, déposé le 31 mai 2014, « Virtual Cell Model Usage », Ser. n° 62/006.607, déposé le 2 juin 2014, et « Virtual Hierarchical Layer Propagation » Ser. n° 62/006.092, déposé le 31 mai 2014. Chacune des demandes précédentes est incorporée ici par référence dans son intégralité.

DOMAINE DES ARTS

Cette application concerne généralement la conception de circuits semi-conducteurs et plus particulièrement la vérification physique des conceptions de semi-conducteurs et l'utilisation du plan négatif avec une couche hiérarchique virtuelle.

Le processus de conception de circuits intégrés (CI) modernes complexes implique de nombreuses étapes différentes pour aider à gérer la complexité et produire un CI qui fonctionne comme prévu. Les circuits intégrés peuvent contenir plusieurs millions, voire des milliards de transistors et autres structures électroniques telles que des résistances, des condensateurs, des diodes et des conducteurs d'interconnexion. Par conséquent, la gestion de la complexité des circuits intégrés est cruciale pour créer des conceptions électroniques qui fonctionnent comme prévu. L'une des étapes du processus de conception d'un circuit intégré est le processus de vérification physique, qui est généralement hautement automatisé. Le processus de vérification physique d'un circuit intégré (CI) est une étape de conception prise par les fabricants de semi-conducteurs avant de commencer la fabrication d'un CI. Afin de pouvoir vérifier une conception, les fonderies de semi-conducteurs définissent d'abord un ensemble de règles de conception pour la fabrication (DRM) pour les concepteurs de circuits intégrés, qui, lorsqu'elles sont suivies, garantissent une fabrication réussie et un rendement élevé d'une conception pendant le processus de fabrication. Le DRM fournit une référence par rapport à laquelle la conception peut être testée. Les DRM sont définis comme un ensemble de relations géométriques entre les couches de fabrication, couches qui à leur tour sont utilisées pour créer un circuit intégré. Une disposition de conception physique peut inclure des centaines de couches utilisées pendant le processus de fabrication pour créer des transistors et une interconnexion électrique dans le circuit intégré. Le processus des semi-conducteurs est devenu de plus en plus complexe et une disposition de conception physique doit respecter des milliers de règles de conception avant qu'une conception puisse être fabriquée avec succès. L'utilisation d'un outil de vérification physique de vérification des règles de conception (DRC) est un processus standard de l'industrie pour la mise en œuvre du DRM du semi-conducteur.

Le DRM peut définir de nombreux paramètres différents, tels que la largeur, l'espacement, l'angle, l'enceinte, la densité et les règles de connectivité électrique pour les couches de conception, qui à leur tour sont traduits en un ensemble DRC. Un runset DRC est défini comme un ensemble d'opérations DRC qui vérifient les règles DRM requises. Un outil DRC fournit un ensemble d'opérations, ou de commandes, à partir desquelles un concepteur sélectionne et combine pour former une séquence de commandes DRC pour satisfaire chaque règle DRM. La complexité des règles DRM modernes signifie qu'un ensemble de séquences DRC avec 20 000 commandes DRC ou plus est souvent nécessaire pour vérifier les nœuds technologiques inférieurs à 28 nanomètres (nm). Les outils modernes de vérification physique de la RDC disposent d'une large gamme de commandes géométriques et électriques pour mettre en œuvre efficacement les règles DRM complexes. Bon nombre de ces commandes géométriques et électriques entraînent la mise en œuvre d'un algorithme unique qui n'est pas partagé entre les commandes individuelles, résultant ainsi en un outil DRC très complexe avec de nombreux algorithmes sélectionnés.

Les grands circuits intégrés sont généralement construits à l'aide d'une méthode hiérarchique qui commence par la création de petites cellules enfants qui sont à leur tour combinées en cellules parents plus grandes, qui sont ensuite successivement utilisées pour créer des cellules de plus en plus grandes afin de créer une conception hiérarchique de circuits intégrés. La nature hiérarchique de la conception permet aux outils de vérification physique d'accéder de manière sélective à des parties de la conception de manière efficace, une nécessité dans le traitement de conceptions de pointe extrêmement volumineuses. Diverses formes de processus d'aplatissement présentent une alternative au traitement hiérarchique, mais les processus d'aplatissement peuvent entraîner des augmentations très importantes du temps de traitement et ne sont souvent pas réalisables pour la vérification de la conception.

Une couche hiérarchique virtuelle (VHL) peut être construite pour une conception de semi-conducteur afin de réduire les exigences de calcul des procédures de vérification des règles de conception (DRC) et des règles de conception pour la fabrication (DRM). Afin de former le VHL, un plan négatif est créé. Une cellule et plusieurs instances de la cellule sont ensuite identifiées dans la conception du semi-conducteur et les polygones qui chevauchent la cellule et ses instances sont déterminés. Les polygones sont poussés dans le plan négatif pour créer des trous dans le plan. Les formes chevauchant d'autres instances de la cellule qui tombent sur des trous dans le plan de cellule virtuel solide sont ignorées. Le plan de cellule virtuel solide percé résultant peut ensuite être inversé pour créer un VHL à utiliser pour la simulation et la vérification de la conception. L'invention concerne un procédé implémenté par ordinateur pour l'analyse de conception comprenant : la création d'un plan de cellule virtuel solide basé sur une conception de semi-conducteur comprenant une pluralité de cellules et une pluralité de niveaux de conception identifiant une cellule et de multiples instances de la cellule à partir de la pluralité de cellules déterminant, pour les multiples instances, les polygones qui chevauchent la cellule poussant un polygone des polygones déterminés dans le plan de la cellule virtuelle solide pour créer un trou dans le plan de la cellule virtuelle solide et en ignorant les autres formes qui tombent dans le trou. Le procédé peut en outre consister à pousser un deuxième polygone des polygones dans le plan cellulaire virtuel solide pour créer un deuxième trou dans le plan cellulaire virtuel solide, le trou et le deuxième trou comprenant des trous dans le plan cellulaire virtuel solide.Dans des modes de réalisation, le procédé comprend en outre la poussée d'autres polygones, à partir des polygones, sur le plan de cellule virtuel solide pour créer plus de trous dans le plan de cellule virtuel solide.

Diverses caractéristiques, aspects et avantages de divers modes de réalisation deviendront plus apparents à partir de la description supplémentaire suivante.

DESCRIPTION BRÈVE DES DESSINS

La description détaillée suivante de certains modes de réalisation peut être comprise en référence aux figures suivantes dans lesquelles :

FIGUE. 1 est un flux pour un optimiseur VHL à plan négatif.

FIGUE. 2 est un écoulement pour joindre des contours proximaux.

FIGUE. 3 est un flux pour l'analyse de la taille des polygones.

FIGUE. 4 montre un exemple de hiérarchie simple avec une cellule parent A, un emplacement de cellule B et deux emplacements de cellule C.

FIGUE. 5 montre un exemple de plan de cellule virtuelle solide troué créé en poussant des polygones de la cellule A à la cellule B.

FIGUE. 6 montre un exemple de plan de cellule virtuelle solide troué créé par l'interaction de cellules sœurs (cellule B et cellule C).

FIGUE. 7 montre un exemple de polygones non chevauchants de cellules enfants B dans la cellule parent A.

FIGUE. 8 montre un exemple de polygones sans chevauchement poussés dans le plan de cellule de la cellule B.

FIGUE. 9 montre un exemple de plan de cellule recevant des polygones non chevauchants poussés vers le bas par le haut.

FIGUE. 10 montre un exemple d'un VHL consolidé dans un plan cellulaire.

FIGUE. 11 montre un exemple de plan de cellule recevant des polygones superposés par le haut.

FIGUE. 12 montre un exemple d'un plan de cellule avec des polygones superposés consolidés.

FIGUE. 13 montre des exemples d'étapes impliquées dans la création d'un VHL à l'aide d'un plan négatif.

FIGUE. 14 montre un exemple de poussée de polygones supplémentaires lors de la création d'un VHL à l'aide d'un plan négatif.

FIGUE. 15 montre des exemples de polygones tombant dans des trous existants et la génération finale de VHL.

FIGUE. 16 montre un exemple de manipulation de contour proximal.

FIGUE. 17 montre un exemple de jointure de contour proximal par manipulation de placement de cellules.

FIGUE. 18 montre un exemple de génération d'un plan de cellule consolidé avec un maillage complexe d'arêtes.

FIGUE. 19 montre un exemple de génération d'un plan cellulaire consolidé avec des formes géométriques simples.

FIGUE. 20 montre un exemple de plan de cellule pré-rempli avec des données locales.

FIGUE. 21 montre un plan négatif avec des bords tombant dans des trous.

FIGUE. 22 montre un exemple d'un plan négatif inversé avec un conservateur et un VHL réel.

FIGUE. 23 est un schéma de système pour un optimiseur VHL à plan négatif.

DESCRIPTION DÉTAILLÉE

Une couche hiérarchique virtuelle (VHL) peut être une structure utile pour divers outils utilisés dans la conception et la vérification de la conception électronique d'un circuit intégré. Le VHL peut être créé de diverses manières, mais dans certains modes de réalisation, comme décrit ici, un plan de cellule virtuelle solide est créé qui correspond à la limite de la cellule à représenter par le VHL. Les polygones qui chevauchent les instances de la cellule dans la conception électronique sont déterminés. Les polygones peuvent être trouvés dans les cellules parentes et sœurs des instances de cellule. Les polygones qui se chevauchent sont ensuite poussés dans le plan de la cellule virtuelle solide pour créer des trous dans le plan de la cellule virtuelle solide. Si un polygone, ou au moins la partie du polygone qui chevauche la cellule, tombe dans un trou existant dans le plan de cellule virtuel solide, le polygone ou la partie du polygone qui tombe avec le trou existant est ignoré pour réduire les besoins de calcul de création du VHL. Une fois que les polygones qui se chevauchent ont été traités, le plan de cellule virtuel solide troué peut être inversé pour créer le VHL de la cellule.

La vérification physique hiérarchique d'un circuit intégré (CI) est un processus complexe en raison d'une multitude de styles de conception hiérarchique créés par les sociétés de conception de circuits intégrés et d'autres outils de l'industrie des circuits intégrés. Les différents styles de conception donnent souvent lieu à des conceptions extrêmement complexes à plusieurs niveaux de profondeur et contenant des milliards de cellules et de polygones qui se chevauchent dans toute la hiérarchie. Dans de nombreuses méthodes de vérification, un outil de vérification hiérarchique réduit les hiérarchies de cellules inefficaces et fusionne les polygones en double pour créer une nouvelle hiérarchie pour les algorithmes de commande individuels de l'outil. Une fois que l'outil hiérarchique a construit sa nouvelle hiérarchie, les couches stockées à différents niveaux de la hiérarchie nouvellement construite sont traitées les unes par rapport aux autres en fonction de la définition des règles de conception et des algorithmes géométriques uniques nécessaires pour mettre en œuvre les règles de conception. Par exemple, une règle DRM pour un certain CI peut nécessiter une vérification en exécutant une séquence de commandes (algorithmes) dans un ensemble de séquences DRC, chaque algorithme de la séquence parcourant les couches proximales de la hiérarchie pour produire un résultat hiérarchique qui alimente les commandes suivantes jusqu'à ce que la règle DRM soit satisfaite. Un algorithme peut avoir de nombreuses optimisations qui ont été conçues pour éviter d'aplatir le résultat de l'algorithme (couche de sortie). Sans ces optimisations algorithmiques, l'aplatissement hiérarchique des données entraîne une perte de flexibilité des algorithmes DRC dans le traitement en forçant les données de cellule en morceaux de plus en plus gros et en créant un temps de traitement supplémentaire pour l'algorithme actuel et les algorithmes suivants dans la règle DRM.

Certaines méthodes DRC hiérarchiques dépendent du fait que la majorité des couches de conception IC sont chargées en mémoire avant de commencer les cycles algorithmiques hiérarchiques qui effectuent des opérations géométriques sur les données de conception tout au long de la hiérarchie. Une méthode DRC hiérarchique qui charge une couche de conception entière a l'avantage d'avoir toutes les données de cellules instanciées disponibles dans la mémoire de la machine tout en faisant défiler les formes géométriques dans toute la hiérarchie, ce qui peut réduire la complexité de l'algorithme. La mise en œuvre d'un tel algorithme hiérarchique implique un cycle de couches de conception à travers la hiérarchie à la recherche d'interactions algorithmiques de formes géométriques. Le cyclage hiérarchique est généralement effectué sous forme de cyclage à couche unique, de cyclage à double couche ou, pour certains algorithmes complexes, de cyclage à N couches. À mesure que le nombre de couches augmente pour un algorithme hiérarchique, les besoins en mémoire augmentent également, ce qui devient problématique pour les conceptions de plus en plus grandes. En fait, étant donné la taille explosive des conceptions de circuits intégrés modernes, le chargement d'une couche de conception entière en mémoire nécessite plus de mémoire qu'il n'est possible.

En réponse à l'exigence de mémoire massive du chargement d'une couche entière, plusieurs méthodes DRC hiérarchiques ne chargent que des couches partielles en mémoire, ce qui réduit les exigences de stockage pour les algorithmes hiérarchiques mais augmente la complexité algorithmique et le temps de chargement des données. Par exemple, le temps de chargement des données augmente si toutes les données de couche d'une cellule ne peuvent pas être conservées en mémoire et que les données doivent être rechargées chaque fois qu'une des multiples instanciations de la cellule interagit avec une forme géométrique hiérarchique en cours d'examen. De plus, recharger plusieurs fois les données en interaction devient un problème de performances CPU important. Par exemple, si la cellule A est instanciée plusieurs fois dans une conception hiérarchique et que les données de la cellule A n'ont pas été préchargées en mémoire, chaque fois qu'un polygone de couche hiérarchique est parcouru dans la hiérarchie et interagit avec une instanciation de la cellule A, la cellule Les données de A devraient être rechargées dynamiquement à partir du disque, ce qui entraînerait des E/S CPU importantes. Comme la méthode alternative de chargement de la couche de conception entière dans la mémoire de la machine a déjà été mentionnée comme étant infaisable étant donné la complexité croissante et la taille décroissante des nœuds des conceptions modernes de semi-conducteurs, les couches hiérarchiques virtuelles sont présentées ici comme une alternative. Les couches hiérarchiques virtuelles éliminent le rechargement dynamique des cellules, éliminent le besoin de charger une couche entière de conception de circuits intégrés en mémoire et fournissent un mécanisme pour les algorithmes ascendants au niveau de la cellule pour le traitement des couches hiérarchiques.

Les méthodologies DRC hiérarchiques actuelles présentent généralement un compromis de performance entre la consommation de mémoire et le temps de chargement dynamique des données. La couche hiérarchique virtuelle (VHL) décrite dans la demande de brevet américain "Virtual Hierarchical Layer Usage" Ser. Le brevet US 14/634 695 déposé le 27 février 2015, qui est incorporé ici à titre de référence dans son intégralité, décrit un procédé pour réduire à la fois la mémoire et le temps de chargement des données en proposant une technique de traitement ascendante au niveau de la cellule. Un VHL fournit un instantané du chevauchement hiérarchique des formes pour une cellule particulière dans une conception de semi-conducteur. Demande de brevet américain p "Virtual Hierarchical Layer Patterning" Ser. Le brevet US 14/673 064 déposé le 30 mars 2015, qui est incorporé ici par référence dans son intégralité, décrit un type particulier de couche hiérarchique virtuelle optimisée (VHL) appelée couche hiérarchique virtuelle identique (VHLi). Un VHLi comprend des formes géométriques qui ont la propriété de véhiculer des motifs de couches identiques qui englobent les informations hiérarchiques globales pour toutes les instances d'une cellule de conception de circuit intégré (CI). De plus, des procédés de compression de fichiers VHL sont décrits dans la demande de brevet américain « Virtual Cell Model Geometry Compression » Ser. n° 14/673 709 déposé le 30 mars 2015, qui est incorporé par la présente à titre de référence dans son intégralité. La compression des données VHL peut réduire l'empreinte mémoire et les ressources de calcul requises pour le processus DRC.

Des modes de réalisation du VHL créent une couche géométrique hiérarchique dans le but d'exécuter un processus DRC hiérarchique efficace pour la vérification d'une conception de circuit intégré avant que la conception ne passe à une étape de fabrication dans l'un des nombreux processus de fabrication de semi-conducteurs possibles. Dans un mode de réalisation, les couches géométriques hiérarchiques dans une conception de circuit intégré sont utilisées pour générer le VHL pour une cellule actuelle à partir d'une combinaison de rectangles, de trapèzes et d'autres formes qui résident dans la hiérarchie au-dessus de la cellule, ainsi qu'à partir de formes géométriques non -des cellules sœurs descendantes qui interagissent avec la cellule.

Les informations hiérarchiques sont collectées en trouvant toute forme géométrique non contenue par la cellule (c'est-à-dire pas dans la cellule actuelle ou dans l'un de ses descendants) qui chevauche tout placement hiérarchique de la cellule actuelle. Les informations hiérarchiques obtenues sont ensuite utilisées pour calculer le VHL. Pour rassembler les informations géométriques nécessaires concernant les chevauchements, toutes les cellules de la hiérarchie peuvent être traitées par rapport à la limite de la cellule actuelle. Une procédure en deux étapes est utilisée pour la propagation d'informations hiérarchiques dans certains modes de réalisation. Tout d'abord, il est déterminé si oui ou non la cellule en cours de traitement peut chevaucher la cellule actuelle. Ensuite, s'il existe un chevauchement potentiel, les formes géométriques de la cellule examinée sont vérifiées et les formes chevauchant la limite de la cellule actuelle sont collectées. Cette procédure en deux étapes tombe dans l'un des quatre cas, selon la relation d'une cellule hiérarchique avec la cellule actuelle :

1) Si la cellule en cours de traitement est l'ancêtre direct de la cellule actuelle, la cellule peut contenir des formes géométriques qui se chevauchent avec un ou plusieurs emplacements de la cellule actuelle. Par conséquent, les formes de la cellule ancêtre directe en cours de traitement qui chevauchent la cellule actuelle sont collectées pour la génération VHL.

2) Si la cellule en cours de traitement est une sœur directe de la cellule actuelle, un ou plusieurs emplacements de la cellule en cours de traitement peuvent chevaucher un ou plusieurs emplacements de la cellule actuelle. Dans ce cas, la cellule sœur en cours de traitement peut toujours contenir des formes géométriques qui se chevauchent avec la cellule actuelle, de sorte que les formes de la cellule sœur directe en cours de traitement sont collectées pour la génération VHL. Certains modes de réalisation peuvent vérifier si les limites des cellules se chevauchent avant de traiter les formes géométriques des cellules sœurs.

3) Si la cellule en cours de traitement est une sœur indirecte de la cellule actuelle, la cellule sœur indirecte, par définition, partage une ou plusieurs cellules ancêtre communes avec la cellule actuelle dans la hiérarchie. Comme avec une cellule jumelle directe, les cellules ancêtres communes peuvent être utilisées pour déterminer si la cellule en cours de traitement a des emplacements qui se chevauchent avec l'un des emplacements de la cellule actuelle. En cas de chevauchement, les formes géométriques de la cellule sœur indirecte qui chevauchent la cellule actuelle sont collectées pour la génération VHL.

4) Si la cellule en cours de traitement est la descendante directe de la cellule courante, aucune de ses données n'est collectée pour la génération VHL.

Une fois les informations hiérarchiques collectées, le VHL est calculé pour la cellule. Étant donné que les procédures décrites précédemment collectent des formes géométriques à partir d'autres cellules de la hiérarchie qui peuvent avoir différentes orientations de placement par rapport à la cellule actuelle, chaque forme collectée est transformée pour refléter sa position géométrique par rapport au placement de la cellule actuelle lorsque le chevauchement se produit. Le processus peut nécessiter plusieurs transformations de coordonnées différentes. Par exemple, lorsque la forme géométrique provient d'une cellule sœur directe, les coordonnées de la forme et de la cellule actuelle peuvent être transformées en coordonnées de la cellule parent. Après la transformation des coordonnées, la partie de la forme qui tombe dans la limite de la cellule est stockée en tant que forme dans le VHL. De cette façon, les formes liées sont fusionnées et forment le VHL, qui à son tour fournit un instantané de la totalité du chevauchement hiérarchique pour la cellule.

Le mode de réalisation décrit ci-dessus génère des informations VHL pour chaque cellule uniquement à l'intérieur de sa limite de cellule. Par exemple, si une forme géométrique est contiguë à un seul emplacement d'une cellule, la forme n'apparaîtra pas dans le VHL de la cellule. Puisqu'il est important pour certains algorithmes DRC de connaître les informations entourant la cellule, un autre mode de réalisation de la génération de formes génère des formes VHL pour une zone supplémentaire entourant la limite de la cellule. Ce deuxième mode de réalisation collecte des formes de la même manière que le mode de réalisation précédent, mais au lieu de la limite de cellule d'origine, une limite de cellule surdimensionnée (une limite virtuelle) est utilisée pour le calcul VHL.

Dans les modes de réalisation où une limite virtuelle surdimensionnée est utilisée, la VHL est calculée à partir de la collecte des formes géométriques hiérarchiques chevauchant la limite virtuelle d'une cellule au lieu des limites réelles de la cellule. Dans ce cas, le VHL inclut l'accumulation des données comprenant les formes superposées qui sont poussées dans la limite virtuelle d'une cellule, puis fusionnées en formes géométriques complexes. La limite virtuelle peut inclure les limites de couche fusionnées d'une cellule plus une marge de cellule supplémentaire appelée cadre. La zone de portée peut être définie comme une zone en forme d'anneau étendue à l'extérieur de la limite de cellule d'origine créée en étendant la limite de cellule d'une petite valeur connue sous le nom de valeur de zone. La création d'une portée peut également être appelée surdimensionnement de la cellule. Dans des modes de réalisation, les données hiérarchiques qui chevauchent la cellule actuelle surdimensionnée sont poussées dans la limite virtuelle, les données chevauchantes étant poussées des cellules parentes et des cellules sœurs dans la cellule actuelle. De même, les données hiérarchiques qui ne chevauchent pas la limite de cellule actuelle mais chevauchent la partie de portée sont également poussées dans la limite virtuelle. En conséquence, les formes géométriques chevauchant la zone d'extension de la portée peuvent être collectées et, avec les formes chevauchant la limite réelle de la cellule, peuvent être calculées dans le VHL complet de la cellule. De cette façon, les informations hiérarchiques sur les formes potentiellement interactives pour une cellule sont stockées dans le VHL, même si les formes sont légèrement en dehors des limites de la cellule.

Certains modes de réalisation comprennent également un appareil qui exécute des algorithmes hiérarchiques VHL en tant que processus indépendants au niveau de la cellule. Une VHL permet aux processus au niveau de la cellule d'accomplir le traitement des données au niveau de la cellule dans la cellule sans aplatir les données hors de la cellule. Les performances du traitement des données au niveau de la cellule pour chaque algorithme VHL éliminent le besoin de recharger les données et limitent la consommation de mémoire, puisque toute la hiérarchie des couches n'est pas chargée en mémoire. Dans un mode de réalisation supplémentaire, une seule cellule est traitée, du début à la fin, par une instance du processus au niveau de la cellule VHL, ce qui permet une parallélisation et un multithreading significatifs sur toutes les cellules d'une conception de circuit intégré.

Un algorithme DRC qui utilise un VHL prend les formes VHL pré-générées avec les couches de données d'entrée et effectue des opérations géométriques au niveau de la cellule. La création de la VHL est un processus distinct qui a lieu avant le début des algorithmes DRC. Les outils DRC existants acquièrent des informations hiérarchiques au fur et à mesure que les algorithmes DRC utilisent les formes géométriques hiérarchiques, ainsi les informations collectées dans le VHL peuvent être introduites dans les outils DRC existants. Un VHL est indépendant de tout algorithme DRC particulier, un VHL n'est pas limité à l'utilisation par un algorithme DRC spécifique. Ainsi, si deux algorithmes DRC sont exécutés sur les mêmes couches de données d'entrée, ils peuvent partager le même VHL. Le partage et la réutilisation de la VHL offre également efficacité et flexibilité pour la mise en œuvre des algorithmes DRC.

La couche hiérarchique virtuelle (VHL) d'une cellule contient des informations hiérarchiques globales sur la cellule, les informations hiérarchiques globales représentant une accumulation des données se chevauchant des cellules parent et sœur de la cellule sélectionnée. Les formes géométriques des parents et des frères et sœurs sont poussées dans la limite de la cellule actuelle où elles sont fusionnées dans un ensemble de formes VHL. Le VHL est généré pour toutes les commandes du runset et les commandes utilisent les formes VHL pour traiter les cellules de la hiérarchie de manière ascendante. Les performances de l'algorithme VHL dépendent fortement du nombre et de la complexité géométrique des formes VHL. Les modes de réalisation décrits ici proposent des procédés plus rapides de création des formes VHL et la génération de formes géométriques plus simples pour la VHL.

Dans les modes de réalisation, un plan négatif, qui peut également être appelé plan de cellule virtuelle solide, est utilisé pour recevoir les formes géométriques poussées vers le bas depuis les cellules parent et sœur. Dans certains modes de réalisation, les données locales de la cellule actuelle sont utilisées comme référence pour pré-remplir le plan négatif avec des trous avant de recevoir les formes géométriques hiérarchiques. Une fois que le plan de cellule virtuel solide a été créé pour une cellule, les formes géométriques sont poussées des cellules mères vers les cellules enfants correspondantes, cellules qui représentent diverses instanciations de la cellule dont le VHL est généré. Dans certains modes de réalisation, la structure qui reçoit les formes géométriques poussées vers le bas est une boîte vide appelée plan cellulaire. Les formes géométriques qui sont hiérarchiquement au-dessus de tous les emplacements de la cellule et/ou proviennent des cellules sœurs de la cellule actuelle sont poussées vers le bas dans ce plan de cellule vide. Dans certains modes de réalisation, une version négative du plan vide ou un plan de cellule virtuelle solide, c'est-à-dire un rectangle plein, est utilisé comme plan de réception pour les données poussées. Le plan de cellule commence vide, ou le plan de cellule virtuel solide commence plein et reçoit des formes géométriques de ses cellules parentes et sœurs pour créer des trous dans le plan de réception.

Un mode de réalisation de la présente divulgation implique le démarrage du processus de création VHL avec un plan de cellule virtuel solide. Lorsque chaque forme tombe dans le plan, elle découpe un trou dans le plan. Un avion avec un trou coupé peut être visualisé comme un VHL inversé.Après avoir poussé tous les polygones, tout le plan de la cellule est nié (inversé) pour obtenir la forme géométrique VHL réelle. L'utilisation de plans négatifs permet une génération plus rapide d'un VHL pour une situation avec un grand nombre de polygones chevauchant les emplacements d'une cellule. Lorsque les polygones tombent dans le plan négatif, ils découpent des trous qui permettent à l'algorithme d'ignorer toute autre forme tombant dans les trous découpés. Dans ce mode de réalisation, les trous découpés dans le plan de la cellule sont utilisés pour ignorer les formes qui se chevauchent.

Un mode de réalisation supplémentaire prévoit une optimisation en utilisant une version étendue du concept de plan solide. La méthode modifiée préremplit un plan de cellule avec les données locales de la cellule, puis utilise la cellule préremplie comme plan négatif. Le plan négatif ne conserve que les formes géométriques qui tombent sur les formes préremplies et ignore les autres formes qui tombent dans les trous. En effet, le processus ignore les formes géométriques qui ne touchent pas les formes préremplies.

Dans un autre mode de réalisation, les données locales d'une cellule sont utilisées pour résoudre la forme de maillage complexe générée dans une couche de bord VHL. Ce mode de réalisation est basé sur l'idée que toute forme VHL au-delà d'une valeur d'étendue à partir des données locales d'une cellule n'a pas d'impact sur le traitement hiérarchique. En d'autres termes, l'algorithme VHL ignore les polygones qui sont à plus d'une distance de portée des données de la cellule. Ce mode de réalisation utilise les données locales d'une cellule comme référence pour ignorer les formes à plus d'une certaine distance des données locales lorsque les polygones sont poussés vers le bas. Le fait d'éviter le maillage entrecroisé permet d'économiser le temps CPU consacré au cycle de toutes les formes dans les zones « indifférent » d'une cellule. Le pré-remplissage des zones « indifférent » avec des polygones VHL permet d'éviter l'allocation de ressources qui seraient autrement dépensées pour créer un maillage dans ces zones.

Les modes de réalisation décrits réduisent le temps de création de VHL et la complexité de sa forme géométrique. Un temps de création VHL simple et plus rapide améliore le temps d'exécution et la mémoire des commandes DRC.

FIGUE. 1 est un organigramme pour un optimiseur VHL à plan négatif. Le flux 100 décrit une méthode implémentée par ordinateur pour l'analyse de conception. Le flux 100 comprend l'obtention d'une conception de semi-conducteur 110 comprenant une pluralité de cellules et une pluralité de niveaux de conception. Les cellules peuvent être n'importe laquelle d'une variété de cellules comprenant des cellules logiques, des cellules de mémoire, des cellules de commutation, des cellules de routage, etc. Les niveaux de conception peuvent inclure des niveaux de conception hiérarchiques, des niveaux d'abstraction, etc. Les niveaux de conception hiérarchiques peuvent inclure des niveaux de cellule, des niveaux de sous-module, des niveaux de module, des niveaux de sous-système, des niveaux de système, etc. Les niveaux d'abstraction peuvent inclure des niveaux comportementaux, des niveaux de transfert de registre (RTL), des niveaux de circuit, des niveaux de conception physique, etc. La conception du semi-conducteur peut être obtenue à partir d'une bibliothèque de schémas de conception qui sont stockés dans des formats lisibles par ordinateur. La conception peut être obtenue en lisant un ou plusieurs des fichiers informatiques à partir d'un ou plusieurs supports de stockage, en étant lue à partir de la mémoire de l'ordinateur, en utilisant une conception RTL pour générer une conception de circuit, en recevant des données de conception saisies par un utilisateur, en recevant communications filaires ou sans fil, en scannant des images de mise en page, etc.

Le flux 100 comprend la création d'un plan de cellule virtuel solide 120 sur la base d'une conception de semi-conducteur comprenant une pluralité de cellules et une pluralité de niveaux de conception. Le plan cellulaire virtuel solide peut faire partie d'une couche hiérarchique virtuelle (VHL). Le VHL peut être utilisé à diverses fins de conception, y compris, mais sans s'y limiter, la simulation de conception, la vérification de conception et la validation de conception, chacune pouvant être effectuée pour un circuit, un sous-système ou un système, et peut être une partie de la RDC, DRM, ou similaire. La VHL peut représenter une couche de conception, une couche logique, une couche abstraite, une couche de mise en page ou tout autre type de couche approprié à la conception du semi-conducteur. Un mode de réalisation de la création du plan de cellule virtuel solide comprend l'annulation d'un plan de cellule vide 122.

Le flux 100 comprend l'identification d'une cellule et de plusieurs instances de la cellule 130 de la pluralité de cellules. La cellule identifiée peut être une cellule logique, une cellule de conception, une cellule physique, etc. La cellule peut être une cellule unique, une cellule répétée, etc. La cellule peut faire partie d'une hiérarchie de conception. La cellule peut apparaître tout au long de la conception à différents niveaux de conception. Les instances identifiées de la cellule peuvent être des versions pivotées de la cellule, des versions en miroir de la cellule, des versions mises à l'échelle de la cellule, etc. La cellule et les instances de la cellule peuvent être identifiées à diverses fins, y compris la simulation logique telle que la vérification et la validation, la simulation de conception telle que la vérification, la validation et la vérification des règles de conception (DRC) les règles de conception pour la vérification de fabrication (DRM) ou tout autre autre but.

Le système 100 comprend la détermination, pour les instances multiples, des polygones qui chevauchent la cellule 140. Les polygones peuvent inclure des rectangles, des polygones simples, des polygones complexes et d'autres formes appropriées à la conception du semi-conducteur, au nœud technologique et à d'autres aspects du processus de conception et de fabrication du semi-conducteur. Les polygones peuvent résider dans l'un quelconque des niveaux de conception de la conception de semi-conducteur. Les polygones qui chevauchent la cellule et les instances de la cellule peuvent interagir avec la cellule et les instances de la cellule. Les polygones qui sont déterminés peuvent chevaucher la cellule en tout ou en partie. Dans certains cas, certaines parties d'un polygone ou des formes à l'intérieur du polygone chevauchent la cellule. Ainsi, dans des modes de réalisation, les polygones comprennent des formes qui interagissent avec la cellule. Les formes à l'intérieur du polygone qui interagissent avec la cellule peuvent être le polygone entier ou une partie du polygone, selon l'interaction entre le polygone et la cellule. Les interactions entre les polygones et les données de cellule peuvent inclure des règles de conception, des règles de fabrication, etc. Les polygones qui se chevauchent peuvent se connecter aux données de conception dans la cellule et les instances de cellule, peuvent chevaucher les données de conception, peuvent être adjacents aux données de conception ou peuvent être près des données de conception.

Le système 100 comprend la poussée d'un polygone à partir des polygones, qui ont été déterminés, dans le plan de cellule virtuel solide pour créer un trou dans le plan de cellule virtuel solide 150. Les polygones qui sont poussés peuvent inclure des rectangles, des polygones complexes ou toute autre forme appropriée. La poussée de polygones peut continuer pour plusieurs instances de cellule. Dans des modes de réalisation, le plan de cellule virtuelle solide avec les trous, qui ont été créés, peut être coupé par des polygones poussés pour aboutir à un plan de cellule virtuelle solide troué. Le plan de cellule virtuelle solide troué, qui, s'il est inversé, peut être appelé couche hiérarchique virtuelle (VHL), peut être utilisé à diverses fins, notamment la vérification du système d'analyse de circuit, de logique et de système DRC DRM, etc. Dans certains modes de réalisation, le les polygones qui sont poussés n'incluent pas les formes qui sont en dehors des données locales de la cellule. Les polygones qui sont poussés peuvent représenter des données superposées différentes des données de la cellule. Les polygones peuvent représenter des interactions pour les instances de cellule, où les polygones sont extraits de la conception en fonction de leur interaction avec une instance de la cellule, puis poussés dans le plan de cellule virtuelle solide. Dans certains modes de réalisation, les polygones qui sont poussés sont à l'extérieur des données locales dans la cellule, tels que des polygones situés à l'extérieur de la cellule mais dans une valeur de portée de la limite de cellule. Dans certains modes de réalisation, les polygones qui sont poussés n'incluent pas de formes qui sont en dehors des données locales d'une valeur d'étendue. Une valeur d'ambition peut être une petite valeur et peut être basée sur les règles de conception d'une technologie de processus de semi-conducteur particulière. La valeur de portée peut être sélectionnée pour une variété d'objectifs, y compris la commodité de la modélisation, de la simulation, de l'analyse, etc. Dans au moins certains modes de réalisation, les trous qui sont créés ne sont créés qu'à des emplacements où il n'y a pas de données locales pour la cellule. Encore une fois, ces trous peuvent indiquer des interactions supplémentaires entre les instances de cellules et les polygones dans les couches de la conception du semi-conducteur.

Dans des modes de réalisation, le procédé continue en poussant un deuxième polygone des polygones dans le plan de cellule virtuel solide pour créer un deuxième trou dans le plan de cellule virtuel solide, le trou et le deuxième trou comprenant des trous dans le plan de cellule virtuel solide. Dans certains cas, le deuxième trou comprend un élargissement du trou. Cela peut être répété un nombre quelconque de fois avec un nombre quelconque de polygones poussés dans le plan de la cellule virtuelle solide pour créer plus de trous et/ou des trous agrandis. Par conséquent le flux 100 peut inclure pousser d'autres polygones des polygones sur le plan de cellule virtuel solide 152 pour créer plus de trous dans le plan de cellule virtuel solide. Les polygones de poussée supplémentaires peuvent inclure des interactions de poussée entre les instances de la cellule et les niveaux de conception de la conception de semi-conducteur. La poussée de polygones supplémentaires peut inclure des trous de fusion sur le plan de cellule virtuelle solide. Les trous de fusion peuvent représenter les différents polygones qui chevauchent la cellule et les instances de la cellule. Les trous fusionnés peuvent être représentés par des rectangles, des polygones simples, des polygones complexes ou toute autre forme. Au fur et à mesure que des trous sont créés dans le plan de cellule virtuel solide, certains des autres polygones peuvent tomber complètement ou partiellement dans les trous existants.

Dans certains modes de réalisation, le débit 100 comprend le remplacement du plan de cellule virtuel solide par un plan rempli de données locales 154. Le pré-remplissage peut simplifier la création de trous dans le plan cellulaire virtuel solide en permettant à davantage d'interactions supplémentaires de tomber dans les trous créés par les données pré-remplies. Le flux 100 peut en outre inclure le surdimensionnement des données locales de la cellule 156 et pré-remplir le plan de cellule virtuelle solide 158 avec les données locales surdimensionnées. Dans au moins un mode de réalisation, le surdimensionnement est d'une valeur ambitieuse. Comme mentionné ci-dessus, le surdimensionnement peut servir à diverses fins, y compris la commodité de la modélisation, de la simulation, de l'analyse, de la vérification ou à toute autre fin. Le surdimensionnement des données locales peut être de n'importe quelle valeur appropriée. Dans des modes de réalisation, le pré-remplissage crée des zones « indifférent » dans le plan de cellule virtuelle solide. Les zones « indifférent » peuvent être utilisées pour simplifier une variété de tâches de modélisation, de simulation, de vérification et de validation, par exemple, en réduisant la complexité et les besoins en ressources de calcul.

Le flux 100 comprend ignorer les autres formes qui tombent dans les trous 160. Les autres formes peuvent provenir de polygones interagissant avec des instances de la cellule actuelle. La poussée d'interactions supplémentaires entre les polygones de la conception du semi-conducteur et les instances de cellule dans le plan de cellule virtuel peut entraîner une augmentation du nombre de trous dans le plan. Une nouvelle interaction de polygone peut se situer dans un trou existant dans le plan sans créer de nouveau trou ou le nouveau polygone peut chevaucher partiellement un trou existant, de sorte qu'une partie du polygone, ou une forme représentant la partie du polygone, tombe dans un trou existant. Ainsi, dans certains cas, les autres formes comprennent un polygone entier parmi les polygones, et dans d'autres cas, les autres formes comprennent une partie d'un polygone supplémentaire parmi les polygones. Dans les deux cas, les autres formes sont ignorées car elles tombent dans les trous existants 162. Ignorer les formes tombant dans les trous peut réduire la quantité de données stockées dans le plan cellulaire virtuel à des fins d'analyse, de simulation, de modélisation, de vérification et à d'autres fins. L'ignorance peut être basée sur une variété de paramètres, y compris le pourcentage de surface du plan de cellule solide consommée par les trous, le nombre d'instances de cellule incluses dans la poussée de polygones dans le plan solide ou tout autre paramètre approprié. L'ignorance peut réduire la complexité de la modélisation, les ressources de calcul requises, etc. L'ignorance peut inclure l'ignorance des formes des cellules parentes et sœurs 164 à la cellule.

Le flux 100 comprend en outre l'inversion du plan de cellule virtuelle solide troué 170. L'inversion peut, par exemple, simplifier la représentation du plan cellulaire virtuel en convertissant de nombreux trous complexes dans le plan en quelques formes de données dans le plan inversé. L'inversion peut être utilisée pour créer un VHL pour la cellule. L'inversion peut servir à diverses fins, y compris, mais sans s'y limiter, la modélisation, la simulation et la vérification de la cellule et de la conception du semi-conducteur. L'inversion peut réduire le temps requis pour effectuer des tâches telles que la modélisation, la simulation, la vérification, etc. L'inversion peut réduire la quantité de ressources de calcul requises pour effectuer la modélisation, la simulation, la vérification et d'autres tâches. Différentes étapes dans le flux 100 peut être modifié dans l'ordre, répété, omis ou similaire sans s'écarter des concepts divulgués. Divers modes de réalisation du flux 100 peut être inclus dans un produit de programme informatique incorporé dans un support lisible par ordinateur non transitoire qui comprend un code exécutable par un ou plusieurs processeurs.

FIGUE. 2 est un écoulement pour joindre des contours proximaux. Le flux 200 décrit une méthode mise en œuvre par ordinateur pour l'analyse de conception et peut être utilisé en conjonction avec des modes de réalisation du flux 100. Le flux 200 comprend pousser des polygones pour créer des trous dans un plan de cellule solide 210. Les polygones qui sont poussés peuvent inclure des rectangles, des polygones complexes ou toute autre forme appropriée. Dans des modes de réalisation, le plan de cellule virtuelle solide avec les trous créés comprend un plan de cellule virtuelle solide troué. Le plan de cellule virtuelle solide troué, qui, s'il est inversé, peut être appelé couche hiérarchique virtuelle (VHL), peut être utilisé à diverses fins, notamment l'analyse de circuits, de logique et de système, la vérification de système DRC, DRM, etc. , les polygones qui sont poussés n'incluent pas de formes éloignées des données locales de la cellule. Les polygones qui sont poussés peuvent représenter des données superposées différentes des données de la cellule. Les polygones peuvent représenter des interactions pour les instances de cellule, où les polygones sont extraits de la conception en fonction de leur interaction avec une instance de la cellule, puis poussés dans le plan de cellule virtuelle solide. Dans certains modes de réalisation, les polygones qui sont poussés ne comprennent pas les données locales dans la cellule, telles que des polygones situés à l'extérieur de la cellule mais à l'intérieur d'une valeur de portée de la limite de cellule. Dans certains modes de réalisation, les polygones qui sont poussés n'incluent pas de formes qui sont en dehors des données locales d'une valeur d'étendue. Une valeur d'ambition peut être une petite valeur et peut être basée sur les règles de conception d'une technologie de processus de semi-conducteur particulière. La valeur de portée peut être sélectionnée pour une variété d'objectifs, y compris la commodité de la modélisation, de la simulation, de l'analyse, etc. Dans au moins certains modes de réalisation, les trous qui sont créés ne sont créés qu'à des emplacements où il n'y a pas de données locales pour la cellule. Encore une fois, ces trous peuvent indiquer des interactions supplémentaires entre les instances de cellules et les polygones dans les couches de la conception du semi-conducteur.

Dans des modes de réalisation, le procédé continue en poussant d'autres polygones des polygones dans le plan de cellule virtuel solide pour créer plus de trous dans le plan de cellule virtuel solide. 220. Dans certains cas, pousser d'autres polygones dans le plan de la cellule virtuelle solide agrandit un trou existant au lieu de créer un nouveau trou. Le fait de pousser d'autres polygones des polygones dans le plan de cellule virtuelle solide peut créer un nombre quelconque de trous de n'importe quelle forme dans le plan de cellule virtuelle solide, en fonction des détails de la conception du semi-conducteur.

Le flux 200 comprend l'identification d'une paire de contours proximaux 230. Un contour, tel que le terme est utilisé ici et dans les revendications, est une partie du plan de cellule virtuelle solide qui reste après la création de trous. Dans des modes de réalisation, une paire de contours est identifiée comme étant proximale 230 si chaque contour de la paire de contours est à une distance prédéterminée l'un de l'autre 232. La distance prédéterminée peut être définie sur la base de divers paramètres du processus de fabrication du semi-conducteur, de la commodité des règles de conception pour la simulation, la vérification et similaires ou de toute autre manière de définir la distance prédéterminée pour un mode de réalisation particulier.

Le flux 200 comprend également la jonction de la paire de contours proximaux 240. La jonction peut être réalisée en élargissant simplement la paire de contours proximaux l'un vers l'autre jusqu'à ce qu'ils se rejoignent. Dans certains modes de réalisation, la paire de contours proximaux est jointe en trouvant des lignes tangentielles à la paire de contours proximaux et en définissant un nouveau trou englobant la paire de contours proximaux, puis en utilisant des sections des deux lignes tangentielles entre la paire de contours proximaux comme deux côtés du nouveau trou plus grand. Toute méthode peut être utilisée pour joindre la paire de contours proximaux, selon le mode de réalisation.

Dans certains modes de réalisation, le débit 200 comprend l'exécution d'une manipulation de placement de cellule 242. Le placement d'une cellule, dans certains cas, peut être légèrement déplacé sans affecter la fonctionnalité de la conception du semi-conducteur. En déplaçant la cellule, les deux contours proximaux peuvent être joints en un seul contour par certains modes de réalisation. En joignant les contours proximaux, la configuration des trous du plan de cellule virtuelle solide troué peut être simplifiée, ce qui peut réduire les exigences de stockage, les exigences de traitement et la complexité du VHL.

FIGUE. 3 est un flux pour l'analyse de la taille des polygones. Le flux 300 peut commencer par identifier éventuellement un plus grand polygone contributeur à partir des polygones qui ont été déterminés 310. Dans certains modes de réalisation, les polygones qui ont été déterminés pour chevaucher la cellule sont triés du plus grand au plus petit, mais dans d'autres modes de réalisation, aucun tri n'est effectué. Si aucun tri n'est effectué, les polygones qui sont déterminés à chevaucher la cellule peuvent être recherchés pour identifier le plus grand polygone contributeur. Si plusieurs polygones ont la même taille et sont liés en tant que plus grand contributeur, l'un des polygones peut être identifié comme le plus grand polygone contributeur. L'identification peut être effectuée par n'importe quel procédé, y compris, mais sans s'y limiter, la forme de polygone la plus simple, le premier polygone de cette taille à trouver, le dernier polygone de cette taille à trouver, ou de manière aléatoire. Le flux 300 continue en poussant d'abord le plus grand polygone contributeur 320. La poussée prioritaire crée le plus grand trou dans le plan de cellule virtuelle solide de l'un des polygones déterminés à chevaucher la cellule. En créant d'abord le plus grand trou, davantage de polygones ultérieurs poussés dans le plan de la cellule virtuelle solide tombent complètement dans le trou créé par le plus grand polygone contributeur, ce qui leur permet d'être ignorés. De plus, davantage de polygones poussés plus tard dans le plan de cellule virtuel solide tombent partiellement dans le trou, ce qui permet d'ignorer les formes de ces polygones et d'élargir le trou plutôt que de créer un nouveau trou. Si les autres polygones poussés dans le plan de la cellule virtuelle solide tombent complètement ou partiellement dans le trou existant, les exigences de stockage et de calcul peuvent être réduites.

Dans certains modes de réalisation, le débit 300 inclut éventuellement la création de sous-ensembles de polygones en fonction de la taille 330. Les plus grands polygones sont placés dans un sous-ensemble, tandis que les plus petits polygones sont placés dans un autre sous-ensemble.Certains modes de réalisation utilisent plus de deux sous-ensembles de polygones où chaque sous-ensemble comprend des polygones ayant une plage particulière de tailles. Dans certains modes de réalisation, un seuil de taille prédéterminé est utilisé 332 pour déterminer dans quel sous-ensemble un polygone est placé. Ainsi, au moins certains modes de réalisation comprennent l'identification d'un premier sous-ensemble de polygones à partir des polygones qui ont été poussés, dans lequel chaque polygone du premier sous-ensemble de polygones a une zone qui dépasse un seuil prédéterminé et l'identification d'un deuxième sous-ensemble de polygones à partir des polygones qui ont été poussés , dans lequel chaque polygone du deuxième sous-ensemble de polygones a une surface inférieure ou égale à un seuil prédéterminé. Dans le flux 300 le premier sous-ensemble de polygones plus grands est poussé avant de pousser le deuxième sous-ensemble de polygones plus petits 340. La poussée prioritaire des ensembles a un effet similaire à la poussée du plus grand polygone contributeur en premier en ce qu'en créant de grands trous dans le plan de la cellule virtuelle solide aussi rapidement que possible, davantage de polygones poussés tomberont dans le(s) trou(s) existant(s), réduisant les exigences de stockage et de calcul. Dans au moins un mode de réalisation, les polygones sont entièrement triés de sorte que chaque taille de polygone a son propre sous-ensemble et les sous-ensembles de polygones sont poussés dans l'ordre de taille, le plus grand en premier. Notez que les étapes 310 et 320 sont inclus dans certains modes de réalisation tandis que les étapes 330, 332, et 340 sont omis. D'autres modes de réalisation comprennent des étapes 330, 332, et 340 sans inclure les étapes 310 et 320. Encore d'autres modes de réalisation incluent l'ensemble du flux 300, selon le mode de réalisation.

FIGUE. 4 montre un exemple de hiérarchie simple avec une cellule parent A, un emplacement d'une cellule enfant B et deux emplacements de cellules enfants C. Une partie d'une conception électronique 400, qui peut être une conception de semi-conducteur, a une cellule mère 410 qui a une bordure de cellule 412. La cellule mère 410 comprend également une instanciation 422 de la cellule B 420, et deux instanciations 432 et 434 de la cellule C 430. Les deux instanciations 432 et 434 de la cellule C 430 font référence à la même cellule, ce qui est une pratique courante dans la pratique de la conception hiérarchique. Un nombre quelconque de cellules enfants peut être placé dans une cellule parent, en fonction des exigences de la conception électronique.

FIGUE. 5 montre un exemple de plan de cellule virtuelle solide troué créé en poussant des polygones de la cellule A à la cellule B. Une conception électronique 500, qui peut être une conception de semi-conducteur, comprend une instanciation 510 de la cellule A. L'instanciation 510 de la cellule A comprend plusieurs formes de polygones, dont un premier polygone 512, un deuxième polygone 514, un troisième polygone 516 et un quatrième polygone 518. L'instanciation 510 de la cellule A agit également comme une cellule parente à une instanciation 520 de la cellule B qui a une limite de cellule 522. Dans le cadre de la création d'un VHL pour la cellule B, certains modes de réalisation créent un plan de cellule virtuel solide 530 ayant une frontière équivalente à la frontière 522 de la cellule B. Les polygones qui chevauchent les instanciations de la cellule B sont ensuite déterminés. Pour l'instanciation 520 de la cellule B, les polygones 512-518 de l'instanciation 510 de la cellule A sont évaluées pour déterminer si elles chevauchent l'instanciation 520 de la cellule B. Le premier polygone 512 chevauche partiellement l'instanciation 520 de la cellule B, de sorte que la partie chevauchante est poussée 532 dans le plan de la cellule virtuelle solide 530 créer un trou 542. Le deuxième polygone 514 chevauche partiellement l'instanciation 520 de la cellule B, de sorte que la partie chevauchante est poussée 534 dans le plan de la cellule virtuelle solide 530 pour créer un autre trou 544. Le troisième polygone 516 chevauche complètement l'instanciation 520 de la cellule B, donc tout le polygone est poussé 536 dans le plan de la cellule virtuelle solide 530 pour créer un troisième trou 546. Le quatrième polygone 518 ne chevauche pas l'instanciation 520 de la cellule B, de sorte qu'elle ne soit pas poussée dans le plan de la cellule virtuelle solide 530. Ce processus peut être répété pour d'autres instanciations de la cellule B dans la conception électronique.

FIGUE. 6 montre un exemple de plan d'appel virtuel solide troué créé par l'interaction d'une cellule sœur (cellule B et cellule C). Une conception électronique 600 peut être une conception de semi-conducteur qui inclut une instanciation 610 de la cellule A. L'instanciation 610 de la cellule A agit comme une cellule parente d'une instanciation 620 de la cellule B qui a une limite de cellule 622 et une instanciation 630 de la cellule C qui a une limite de cellule 632. La cellule B comprend un polygone complexe 624 et un rectangle 626. La cellule B comprend un polygone complexe 634.

FIGUE. 6 montre des polygones poussés de la cellule sœur B à la cellule C et vice versa. Un solide plan cellulaire virtuel B 640 est créé qui a une frontière équivalente à la frontière 622 de la cellule B. Les polygones qui chevauchent une instanciation de la cellule B sont déterminés, tels que le polygone complexe 634 de l'instanciation de la fratrie 630 de la cellule C qui chevauche partiellement l'instanciation 620 de la cellule B. La partie chevauchante du polygone complexe 634 est ensuite poussé dans le plan de cellule virtuel solide B 640 créer un trou 636. Les polygones qui chevauchent une instanciation de la cellule C sont déterminés, tels que le polygone complexe 624 et le rectangle 626 de l'instanciation de la fratrie 620 de la cellule B. La partie chevauchante du polygone complexe 624 et la partie chevauchante du rectangle 626 sont ensuite poussés dans le plan de cellule virtuelle solide C 650 créer un trou 644 et un autre trou 643 respectivement. Le plan de cellule virtuelle solide troué 640, y compris le trou 636 peut être utilisé pour créer le VHL de la cellule B et le plan de cellule virtuel de maintien solide 650 y compris les trous 642 et 644 peut être utilisé pour créer le VHL pour la cellule C.

FIGUE. 7 montre un exemple de polygones non chevauchants de cellules enfants B dans la cellule parent A. Une partie d'une conception électronique 700, qui peut être une conception de semi-conducteur, comprend une instanciation 710 de la cellule A qui comprend plusieurs polygones, un premier polygone 712, un deuxième polygone 714, un troisième polygone 716, un quatrième polygone 718, un cinquième polygone 722, un sixième polygone 724, un septième polygone 726, et un huitième polygone 728. La cellule A a également trois instanciations de la cellule B, une première instanciation 732, une seconde instanciation 734 et une troisième instanciation 736. La cellule A peut être placée dans une conception où les polygones poussés peuvent mettre en évidence peu de chevauchements avec des polygones d'autres cellules, bien que dans certaines conceptions, la cellule A puisse avoir de nombreux autres polygones qui se chevauchent à partir de cellules parentes ou sœurs.

FIGUE. 8 montre un exemple de polygones superposés poussés dans le plan cellulaire de la cellule B. FIGUE. 8 montre la même partie d'une conception électronique 700 comme le montre la fig. 7, y compris les polygones poussés pour créer un VHL pour la cellule B. La cellule B est identifiée pour créer un VHL et plusieurs instances de la cellule B, y compris la première instanciation 732, la deuxième instanciation 734, et la troisième instanciation 736, sont identifiés. Les polygones qui chevauchent la cellule B sont déterminés pour les instances multiples 732, 734, et 736. Une première frontière 832 montre les polygones qui sont poussés à partir de l'instance de cellule parent 710 en première instance 732 de la cellule B. La première limite 832 comprend une partie chevauchante 812 du premier polygone 712, une partie chevauchante 814 du deuxième polygone 714, et une partie chevauchante 828 du huitième polygone 728. Une deuxième frontière 834 montre les polygones qui sont poussés à partir de l'instance de cellule parent 710 dans la seconde instance 734 de la cellule B. La deuxième limite 834 comprend une partie chevauchante 816 du troisième polygone 716 et une partie chevauchante 818 du quatrième polygone 718. Une troisième frontière 836 montre les polygones qui sont poussés à partir de l'instance de cellule parent 710 dans la troisième instance 736 de la cellule B. La troisième limite 836 comprend une partie chevauchante 822 du cinquième polygone 722, une partie chevauchante 824 du sixième polygone 724, et une partie chevauchante 826 du septième polygone 726. Une partie chevauchante d'un polygone peut également être appelée forme.

Les huit formes superposées 812-828 sont combinés en un seul ensemble de formes géométriques consolidées 840. Un plan cellulaire virtuel solide 840 est créé qui correspond à la limite de la cellule B, et les formes consolidées 840 sont ensuite poussés dans le plan de la cellule virtuelle solide 842 pour créer des trous. La poussée crée un plan de cellule virtuel solide troué 850 qui comprend un trou 854 couvrant les bords extérieurs du plan de cellule virtuelle solide percé 850, avec une partie solide 852, ou contour, restant au centre.

FIGUE. 9 montre un exemple de plan de cellule recevant des polygones non chevauchants poussés vers le bas par le haut. Le diagramme 900 montre des formes géométriques poussées vers le bas à partir de niveaux supérieurs dans une hiérarchie de conception pour former des trous consolidés dans un plan de cellule virtuel solide 902. Le diagramme 900 montre des polygones poussés vers le bas qui sont similaires à ces polygones montrés sur la Fig. 8 . Huit polygones différents, qui sont représentés légèrement hachurés et qui comprennent un premier polygone 910, un deuxième polygone 912, et un troisième polygone 914, sont poussés dans le plan de la cellule virtuelle solide 902. Les huit polygones ne se chevauchent pas mais sont contigus de sorte que les polygones consolidés forment un trou annulaire carré autour de l'extérieur du plan de cellule virtuel solide 902 entourant un contour au milieu du plan de cellule virtuel solide 902. Le trou annulaire carré comprend une première partie 920 qui a été formé par le premier polygone 910, une deuxième partie 922 qui a été formé par le deuxième polygone 912, et une troisième partie 924 qui a été formé par le troisième polygone 914, ainsi que cinq autres portions formées par les cinq autres polygones. Ainsi, le diagramme 900 montre une vue isométrique d'un plan de cellule recevant des polygones où les polygones sont fusionnés en une forme géométrique. De nombreux polygones dans une conception électronique ne se chevauchent pas, donc le diagramme 900 illustre comment fusionner des formes qui ne se chevauchent pas.

FIGUE. 10 montre un exemple d'un VHL consolidé dans un plan cellulaire. Les données VHL consolidées 1000, représenté graphiquement, est basé sur le plan de cellule virtuel solide percé 900 de la fig. 9 . Le VHL consolidé 1000 représente une version inversée du plan de cellule virtuelle solide troué montré dans le diagramme 900. Le VHL consolidé 1000 comprend une limite 1010 qui correspond à la cellule identifiée sur laquelle le VHL consolidé 1000 est basé. Dans l'exemple illustré, le VHL consolidé 1000 a un trou 1020 au milieu. Les données VHL peuvent avoir n'importe quel nombre de zones pleines et perforées à l'intérieur de la limite, en fonction de la conception du semi-conducteur.

FIGUE. 11 montre un exemple de plan de cellule recevant des polygones superposés par le haut. Dans une conception typique de semi-conducteur, un plan de cellule peut recevoir un très grand nombre de polygones qui se chevauchent, comme le montre le schéma 1100. L'algorithme de création VHL peut dépenser des ressources CPU substantielles en poussant plusieurs polygones qui chevauchent des trous existants dans le plan. Chaque fois que cela se produit, l'algorithme passe également du temps à consolider chaque forme supplémentaire pour créer la forme fusionnée finale, même si la forme finale se trouve totalement dans un trou existant. Le nombre de polygones qui sont poussés dans un plan cellulaire peut aller de quelques centaines à des milliards en fonction de divers facteurs tels que la profondeur à laquelle la cellule est placée dans la hiérarchie, le nombre de placements de la cellule, le nombre de parents et frères et sœurs et le nombre de polygones qui se chevauchent chez les parents et les frères et sœurs. Une vue isométrique d'un plan cellulaire 1110 représente la réception de plusieurs formes qui se chevauchent 1120 à partir des niveaux supérieurs dans la hiérarchie. Dans l'exemple montré dans le schéma 1100, les formes superposées 1120 combiner pour former un simple rectangle 1130, mais de nombreuses ressources de calcul sont nécessaires si chaque polygone est entièrement analysé.

FIGUE. 12 montre un exemple d'un plan de cellule avec des polygones superposés consolidés. Dans certains modes de réalisation, les bords sont traités à la place des formes comme indiqué dans le diagramme 1200. Si un grand nombre de polygones qui se chevauchent sont poussés dans le plan de la cellule 1210, un maillage complexe d'arêtes 1220 peut résulter. Les bords ne peuvent pas être consolidés aussi facilement que les polygones peuvent l'être pour former une seule forme simple comme indiqué dans le diagramme 1100.

FIGUES. 13-15 montrent des exemples d'étapes impliquées dans la création d'un VHL. FIGUE. 13 montre des exemples d'étapes impliquées dans la création d'un VHL à l'aide d'un plan négatif. Le diagramme 1300 montre le processus d'utilisation d'un plan de cellule virtuel solide et de poussée de polygones dans le plan de cellule virtuel solide. Étant donné qu'une version négative du plan est utilisée dans la construction du plan cellulaire virtuel solide, elle peut également être appelée « plan négatif ». Un plan cellulaire virtuel solide 1310 peut être créé sur la base d'une conception de semi-conducteur comprenant une pluralité de cellules et une pluralité de niveaux de conception. Une cellule peut être identifiée dans la conception du semi-conducteur et le plan de cellule virtuelle solide peut être créé avec une limite qui correspond à la cellule identifiée. Les polygones qui chevauchent la cellule peuvent être déterminés. Les polygones peuvent être trouvés dans les cellules parentes ou sœurs de la cellule identifiée. Le premier polygone 1312 peut être déterminé comme étant un polygone chevauchant comme indiqué dans le diagramme 1300. Le premier polygone 1312 est mappé sur le plan de cellule virtuel solide 1310 dans l'exemple illustré sur la base de la position du polygone par rapport à la cellule identifiée dans la conception du semi-conducteur, puis utilisé pour créer un premier plan de cellule virtuel solide troué 1320 avec un trou 1322 qui correspond au polygone 1312.

Un deuxième polygone 1332 est également déterminé comme étant un polygone chevauchant dans le diagramme 1300. Le deuxième polygone 1332 peut être mappé sur le plan de cellule virtuelle solide percé 1320 en fonction de sa position par rapport à la cellule identifiée dans la conception du semi-conducteur et peut ensuite être utilisé pour créer un deuxième plan de cellule virtuelle solide troué 1340 avec un trou élargi 1342. Le trou élargi 1342 est façonné par la fusion du premier polygone 1312 et le deuxième polygone 1332. Si aucun autre polygone ne se chevauche, le deuxième plan de cellule virtuel solide percé 1340 peut être utilisé pour créer un VHL pour la cellule identifiée.

FIGUE. 14 montre un exemple de poussée de polygones supplémentaires lors de la création d'un VHL à l'aide d'un plan négatif. Le diagramme 1400 montre une pluralité de polygones 1420, 1422, 1424, et 1426, étant poussé dans le deuxième plan de cellule virtuelle solide troué 1340 comme indiqué sur le schéma 1300. Dans certains modes de réalisation, un plus grand polygone contributeur 1422 de la pluralité de polygones 1420-1426 est identifié. Le plus grand polygone contributeur 1422 est un polygone qui couvre la plus grande partie d'un plan virtuel solide. L'identification du plus grand polygone contributeur peut se produire sur n'importe quel sous-ensemble des polygones qui sont déterminés à chevaucher la cellule, tels que les polygones chevauchants d'une cellule parente ou sœur particulière ou sur tous les polygones qui chevauchent la cellule, selon le mode de réalisation . Dans certains modes de réalisation, le plus grand polygone contributeur 1422 est poussé dans le deuxième plan de cellule virtuelle solide percé 1340 première. Dans les modes de réalisation, en poussant le plus grand polygone contributeur 1422 tout d'abord, un trou plus grand est créé plus tôt dans le processus de poussée des polygones, ce qui augmente la probabilité que les polygones suivants soient poussés dans le trou fait par le plus grand polygone contributeur 1422, permettant d'ignorer les polygones suivants et donc de réduire les opérations de traitement. Après le plus grand polygone contributeur 1422 est poussé dans le deuxième plan de cellule virtuelle solide percé 1340, ce qui élargit le trou 1342 pour créer un nouveau plan de cellule virtuel solide troué, un autre polygone 1420 est poussé dans le nouveau plan de cellule virtuelle troué dans l'exemple 1400 illustré, en élargissant à nouveau le trou. Cette poussée peut être répétée pour le reste de la pluralité de polygones qui ont été déterminés pour chevaucher la cellule, y compris le polygone 1426. Notez que dans l'exemple présenté 1400, le polygone 1426 ne chevauche que partiellement la cellule, par conséquent, seule la forme qui correspond à la portion du polygone 1426 qui chevauche la cellule est poussé et élargit le trou. Le polygone 1424 s'intègre parfaitement dans le trou 1342 il est donc ignoré. Une fois la pluralité de polygones 1420-1426 ont été poussés dans le deuxième plan de cellule virtuelle troué 1340, un troisième plan de cellule virtuelle solide troué 1430 est créé à l'aide du trou élargi 1432. Le trou élargi 1432 dans le schéma 1400 est défini comme l'union du premier polygone 1312, le deuxième polygone 1332, et la pluralité de polygones 1420-1426 intersecté avec le plan de cellule virtuel solide d'origine 1310.

Dans encore d'autres modes de réalisation, des procédés identifiant un premier sous-ensemble de polygones à partir des polygones qui ont été poussés, dans lesquels chaque polygone du premier sous-ensemble de polygones a une zone qui dépasse un seuil prédéterminé, et identifiant un deuxième sous-ensemble de polygones à partir des polygones qui ont été poussés , dans lequel chaque polygone du deuxième sous-ensemble de polygones a une surface inférieure ou égale à un seuil prédéterminé, sont utilisés. Par exemple, dans un mode de réalisation, un seuil prédéterminé de 2500 nanomètres carrés est établi. Les polygones d'une superficie supérieure à 2500 nanomètres carrés sont placés dans un premier sous-ensemble, et les polygones restants (ayant une superficie inférieure ou égale à 2500 nanomètres carrés) sont placés dans un deuxième sous-ensemble. Dans des modes de réalisation, le premier sous-ensemble est poussé en premier, suivi du deuxième sous-ensemble. De cette façon, de gros trous sont créés en premier, augmentant le risque que les polygones suivants tombent à travers l'un des trous. Lorsque des polygones tombent à travers les trous, ces polygones deviennent une condition « indifférent » et, par conséquent, ne sont pas traités, économisant ainsi les ressources de traitement.

FIGUE. 15 montre des exemples de polygones tombant dans des trous existants et la génération finale de VHL. Polygones supplémentaires 1520 et 1522 sont déterminés à chevaucher la cellule dans l'exemple illustré dans le diagramme 1500. Les polygones supplémentaires 1520 et 1522 sont analysés et se trouvent complètement à l'intérieur du trou élargi 1432 du troisième plan de cellule virtuelle solide troué 1430. La chute permet aux polygones supplémentaires 1520 et 1522 à ignorer comme le trou élargi 1432 n'a pas besoin d'être étendu pour inclure les polygones supplémentaires 1520 et 1522, et ni l'un ni l'autre n'a besoin d'être modifié pour créer le plan de cellule virtuel solide percé final 1530 en transformant le trou 1532. Les polygones supplémentaires 1520 et 1522 qui tombent dans le trou élargi existant 1432 peuvent être appelées formes supplémentaires, bien que dans certains cas, d'autres formes puissent faire référence à la partie des polygones qui se trouvent dans un trou existant.

Une fois les polygones 1312, 1332, 1420-1426, et 1520 et 1522 qui ont été déterminés à chevaucher la cellule ont été poussés dans le plan de la cellule virtuelle solide 1310, le dernier plan de cellule virtuelle troué 1530 a été créé. Le dernier plan de cellule virtuel troué 1530, à ce stade un plan négatif, peut alors être inversé pour créer un VHL 1540 pour la cellule avec une forme 1542.

FIGUE. 16 montre un exemple de manipulation de contour proximal. Un contour est une partie du plan de cellule virtuelle solide qui reste après la création des trous. Dans l'exemple montré dans le schéma 1600, une instanciation 1610 de la cellule A comprend une pluralité de polygones 1620, représenté légèrement hachuré, et trois instanciations de la cellule B : une première instanciation 1632, une seconde instanciation 1634, et une troisième instanciation 1636. Parties de la pluralité de polygones 1620 chevaucher les trois instanciations 1632-1636 de la cellule B et sont représentés par des formes hachurées plus sombres dans le premier plan de cellule 1642, le deuxième plan de cellule 1644, et le troisième plan de cellule 1646, représentant ainsi les formes qui se chevauchent pour la première instanciation 1632, la deuxième instanciation 1634, et la troisième instanciation 1636 de la cellule B respectivement.Après les formes superposées affichées dans le premier plan de cellule 1642, le deuxième plan de cellule 1644, et le troisième plan de cellule 1646 sont poussés dans un plan de cellule virtuelle solide ayant une limite correspondant à la cellule B, un plan de cellule virtuelle solide troué 1650 peut être créé. Les lignes brisées correspondant aux formes qui se chevauchent sont incluses dans le plan de cellule virtuel solide troué 1650 pour référence. Le plan de cellule virtuelle solide troué 1650 a une portion étroite 1652 d'un trou séparant un premier contour 1654 et un deuxième contour 1656. Si la largeur de la partie étroite 1652 est inférieur à un seuil prédéterminé, alors les contours sont considérés comme proximaux. Ainsi, des modes de réalisation comprennent l'identification d'une paire de contours proximaux. Dans des modes de réalisation, le seuil de distance prédéterminé est une valeur constante (par exemple 100 nanomètres), ou dans certains modes de réalisation, est défini en termes de valeur d'ambit (par exemple 0,5 x valeur d'ambit, 1 x valeur d'ambit, et ainsi de suite). Ainsi, dans des modes de réalisation, l'identification d'une paire de contours proximaux comprend l'identification d'une paire de contours, chaque contour de la paire de contours se trouvant à une distance prédéterminée l'un de l'autre. Les contours proximaux 1654 et 1656 sont séparés par la partie 1652 d'un trou. Les contours proximaux 1654 et 1656 peut empêcher d'autres polygones de tomber à travers un trou et, par conséquent, peut réduire le nombre de formes, c'est-à-dire les polygones et les portions de polygones qui chevauchent la cellule, qui peuvent être ignorés. Par conséquent, les contours proximaux représentent un gaspillage potentiel de ressources de traitement.

FIGUE. 17 montre un exemple de jointure de contour proximal par manipulation de placement de cellules. Des modes de réalisation détectent des contours proximaux dans le plan virtuel et tentent une manipulation de placement de cellules afin de joindre les contours proximaux pour créer un trou contigu plus grand. Ainsi, les modes de réalisation comprennent la jonction de la paire de contours proximaux. La jonction des contours proximaux donne un trou contigu plus grand et permet d'améliorer le temps de traitement. L'exemple montré dans le diagramme 1700 utilise les informations indiquées dans le diagramme 1600 de la fig. 16 où une paire de contours proximaux 1653 et 1656 ont été trouvés. Le diagramme 1700 montre la même instanciation 1610 de la cellule A avec une pluralité de polygones 1620, représenté légèrement hachuré, et deux instanciations identiques de la cellule B, une première instanciation 1632, et une seconde instanciation 1634. La troisième instanciation 1736 de la cellule B, cependant, a été déplacée d'une petite distance 1740 utilisant des techniques de manipulation de placement de cellules basées sur l'identification des contours proximaux 1654 et 1656 avec la position de la troisième instanciation 1636 de la cellule B comme indiqué dans le diagramme 1600. Parties de la pluralité de polygones 1620 chevaucher les trois instanciations 1632, 1634, et 1736 de la cellule B et sont représentés par des formes hachurées plus sombres dans le premier plan de cellule 1642, le deuxième plan de cellule 1644, et le troisième plan de cellule 1746, représentant les formes superposées pour la première instanciation 1632, la deuxième instanciation 1634, et la troisième instanciation 1736 de la cellule B respectivement. Après les formes superposées affichées dans le premier plan de cellule 1642, le deuxième plan de cellule 1644, et le troisième plan de cellule 1746 sont poussés dans un plan de cellule virtuelle solide ayant une limite correspondant à la cellule B, un plan de cellule virtuelle solide troué 1750 peut être créé. Les lignes brisées correspondant aux formes qui se chevauchent sont incluses dans le plan de cellule virtuel solide troué 1750 pour référence.

Dans l'exemple illustré, lors de la détection du couple de contours proximaux (1654 et 1656 dans le diagramme 1600), les modes de réalisation tentent de voir si une quelconque manipulation du placement des cellules est possible afin de combiner les contours proximaux dans une région contiguë, tout en permettant la conception de circuit intégré prévue. Dans l'exemple illustré, la troisième instanciation 1636 (comme indiqué sur le schéma 1600) est déplacé vers la droite par un facteur de correction 1740 à une nouvelle troisième instanciation 1736. En déplaçant la troisième instanciation 1636 (comme indiqué sur le schéma 1600) légèrement pour créer une nouvelle troisième instanciation 1736, les formes qui se chevauchent dans le troisième plan de cellule 1746 sont rapprochés du bord du plan de cellule virtuel solide 1750, et les polygones poussés sont maintenant disposés dans le plan de cellule virtuel solide 1750 tel qu'un contour contigu 1754 est formé. Ainsi, les contours proximaux 1654 et 1656 sont joints pour former le contour contigu 1754. Notez que le contour contigu n'est pas nécessairement de la même forme que la paire de contours joints. Par conséquent, dans des modes de réalisation, la jonction de la paire de contours proximaux comprend l'exécution d'une manipulation de placement de cellule. Le trou 1752 dans le plan de la cellule virtuelle solide 1750 n'est pas interrompu par des contours proximaux séparés et n'a donc pas de partie étroite (par exemple, une partie étroite 1652 montré dans le diagramme 1600). Le trou 1752 peut donc accueillir des polygones plus grands qu'auparavant, ce qui permet de supprimer plus de formes et de réaliser ainsi des économies supplémentaires de ressources de calcul. Dans des modes de réalisation, chaque plan virtuel est analysé avec un algorithme de notation pour déterminer s'il vaut la peine de tenter une manipulation de placement de cellule. Par exemple, une situation où les deux contours d'une paire de contours proximaux sont approximativement de la même taille peut augmenter le score, augmentant ainsi la probabilité que le plan virtuel soit éligible pour la manipulation de placement de cellule. Une situation où l'un des contours proximaux est significativement plus grand que l'autre contour proximal peut diminuer le score, diminuant ainsi la probabilité que le plan virtuel soit éligible pour la manipulation de placement de cellules. Cette méthode de notation est mise en œuvre car si un contour est significativement plus grand que le contour proximal voisin, le potentiel d'une augmentation significative de la taille du trou en formant un contour contigu est réduit, et la manipulation des cellules peut donc être considérée comme un gaspillage de ressources de traitement. D'autres facteurs peuvent également être pris en compte dans la notation du plan virtuel, notamment, mais sans s'y limiter, l'aire absolue de chaque contour, le rapport d'aire du plus petit contour au plus grand contour et la distance séparant chaque contour du contour proximal. paire.

FIGUE. 18 montre un exemple de génération d'un plan de cellule consolidé avec un maillage complexe d'arêtes. Le diagramme 1800 montre la complexité qui peut être créée en consolidant les arêtes d'une pluralité de polygones. L'instanciation 1810 de la cellule A comprend une pluralité de polygones qui sont chacun définis par un ensemble d'arêtes. L'instanciation 1810 de la cellule A comprend également trois instanciations de la cellule B. La vue alternative 1820 d'instanciation 1810 de la cellule A montre les bords des polygones qui se chevauchent avec les trois instanciations de la cellule B en utilisant des lignes plus sombres. La vue 1830 montre trois plans de cellule représentant les trois instanciations de la cellule B avec les bords qui chevauchent ces instanciations. Le maillage des bords 1840 montre la complexité qui peut être générée en combinant des bords qui chevauchent les instanciations de la cellule B.

FIGUE. 19 montre un exemple de génération d'un plan cellulaire consolidé avec des formes géométriques simples. Le diagramme 1900 montre la même instanciation 1910 de la cellule A comme indiqué sur le schéma 1800 sauf que la pluralité de polygones sont définis comme des zones au lieu d'arêtes. L'instanciation 1910 de la cellule A comprend une pluralité de polygones qui sont chacun définis comme des zones. L'instanciation 1910 de la cellule A comprend également trois instanciations de la cellule B. La vue alternative 1920 d'instanciation 1910 de la cellule A montre les formes dans les polygones qui se chevauchent avec les trois instanciations de la cellule B par des hachures plus sombres. La vue 1930 montre trois plans de cellule représentant les trois instanciations de la cellule B, ainsi que les formes du polygone qui chevauchent ces instanciations. Le plan cellulaire consolidé 1940 avec des formes géométriques simples montre qu'en combinant les zones des formes, c'est-à-dire en réalisant une union des formes, une solution plus simple que la combinaison d'arêtes peut être mise en œuvre.

FIGUE. 20 montre un exemple de plan de cellule pré-rempli avec des données locales. Le diagramme 2000 montre un plan de cellule virtuel solide 2010 qui a été préremplie avec les données locales 2020 et 2022 créer un trou 2030 à travers le plan de cellule virtuelle solide dans toutes les zones où la cellule n'inclut pas de données locales. Dans l'exemple montré dans le diagramme 2000, la cellule identifiée pour la création d'un VHL a deux polygones inclus sur la couche utilisée pour créer le VHL. Les deux polygones dans les données locales de la cellule correspondent au premier polygone 2020 et le deuxième polygone 2022. Le plan cellulaire virtuel solide 2010 est ensuite préremplie de sorte que les contours correspondant aux données locales de la cellule soient laissés dans le plan de cellule virtuel solide 2010 et que toutes les autres zones du plan de cellule virtuelle solide 2010 sont inclus dans un ou plusieurs trous, tels que le trou 2030 à travers le plan cellulaire virtuel solide 2010. Dans certains modes de réalisation, les données locales sont légèrement surdimensionnées avant d'être utilisées pour créer les contours dans le plan de cellule virtuel solide.

Le mode de réalisation illustré manipule le plan de cellule virtuelle solide pour ignorer les formes poussées par les cellules parentes et sœurs dans des zones qui ne sont pas importantes pour la RDC ou la vérification, c'est-à-dire des zones à l'intérieur de la cellule qui n'incluent pas de formes locales. Tout d'abord, des trous sont découpés dans un plan de cellule solide sur des zones où il n'y a pas de données locales. Ensuite, en utilisant le plan cellulaire virtuel solide pré-rempli avec des données locales pour pousser les polygones qui se chevauchent des cellules parentes et sœurs dans le plan, l'algorithme est capable d'ignorer les formes qui tombent dans les trous, réduisant ainsi les exigences de calcul. En d'autres termes, avant d'abaisser les formes VHL, l'algorithme pré-remplit le plan de cellule avec les données locales de la cellule, qui sont surdimensionnées dans certains modes de réalisation. Le surdimensionnement peut tenir compte de la distance de portée qu'un algorithme utilise lors de l'utilisation du VHL. Remplacer un plan de cellule virtuel solide par des données locales préremplies équivaut à utiliser un plan négatif avec des trous prédécoupés. Si une forme d'un polygone superposé tombe dans un trou, elle peut être ignorée.

FIGUE. 21 montre un plan négatif avec des bords tombant dans des trous. Un plan négatif peut recevoir des arêtes de cellules parentes et sœurs. Les bords qui tombent dans un trou peuvent être ignorés par les modes de réalisation, et les bords qui chevauchent les données locales peuvent être utilisés par les modes de réalisation pour créer des données VHL. Le diagramme 2100 montre le plan de cellule virtuel solide 2010 préremplie avec des données locales 2020 et 2022 créer un trou 2030. Les bords, comme un bord 2140 et un groupe d'arêtes 2142 peut être poussé dans le plan de cellule virtuelle solide pré-rempli 2010. Le bord 2140 chevauche la forme 2022 à partir des données locales et est conservé. Les bords 2142 ne pas chevaucher les données locales et tomber dans le trou 2030 dans le plan de cellule virtuelle solide préremplie 2010. La chute signifie que les modes de réalisation peuvent ignorer les bords 2142.

FIGUE. 22 montre un exemple d'un plan négatif inversé avec un conservateur et un VHL réel. Le diagramme 2200 montre un VHL 2210 pour la cellule identifiée. Le VHL est généré en niant la couche virtuelle solide préremplie 2010 de la fig. 20 . Les trous découpés dans le plan inversé deviennent des formes VHL 2230 après avoir nié le plan cellulaire. Les formes géométriques créées par les trous sont appelées « un VHL conservateur ». Les formes de polygones VHL conservatrices créées en raison de trous prédécoupés sont éloignées des données de cellules locales et sont donc ignorées par les commandes qui utilisent le VHL. En d'autres termes, cette méthode pré-crée des formes de polygones VHL (formes conservatrices) dans le plan de la cellule et évite donc d'abaisser les bords entrecroisés dans la zone des formes. Les bords qui interagissent avec les données locales de la cellule, comme le bord 2240, peuvent être conservées en tant que données VHL réelles pour être utilisées par divers outils.

FIGUE. 23 est un schéma de système pour un optimiseur VHL à plan négatif. Le système 2300 est un mode de réalisation d'un système informatique pour l'analyse de conception. Le système 2300 peut inclure un ou plusieurs processeurs 2310 qui sont couplés à une mémoire 2312. La mémoire 2312 peut être utilisé pour stocker temporairement ou définitivement des instructions, telles que du code informatique, ainsi que des données informatiques calculées, temporaires, partielles, intermédiaires et/ou permanentes. Les données peuvent comprendre n'importe quel type ou types de données appropriés, y compris des données pour une ou plusieurs conceptions de semi-conducteurs. Les données de conception de semi-conducteur peuvent comprendre des informations de cellule des informations de niveau hiérarchique des informations de mise en page des informations de couche des informations de masque des informations optiques de conception, de configuration et des instructions de test de données de test et ainsi de suite. Les données peuvent inclure et décrire divers niveaux de conception. Les données peuvent inclure d'autres types de données telles que des informations de support du système, des résultats d'analyse, etc. Un affichage 2314 peut également être présent. L'affichage 2314 peut être n'importe lequel d'une variété de projecteurs, moniteurs, écrans et écrans électroniques, y compris, mais sans s'y limiter, un écran ou un écran d'ordinateur, un écran d'ordinateur portable, un écran de tablette, un écran de smartphone, un écran d'assistant numérique personnel (PDA) , un écran de poche, un écran à distance, un projecteur numérique ou un téléviseur numérique.

Le système 2300 peut également inclure une conception de semi-conducteur 2320. La conception des semi-conducteurs 2320 peut inclure une pluralité de niveaux de conception. La conception des semi-conducteurs 2320 peut être stocké sur tout périphérique et support de stockage approprié, y compris un disque dur (HDD), un lecteur à semi-conducteurs (SSD), un lecteur de disque optique (ODD) ou un autre support de stockage lisible par ordinateur. La conception des semi-conducteurs 2320 peut inclure des descriptions de niveaux, des hiérarchies de niveaux, des niveaux hiérarchiques virtuels, des descriptions de rectangles et de polygones, etc. Le système 2300 comprend un module de création 2330. Le module de création 2330 peut être utilisé pour créer un plan de cellule virtuel solide basé sur une conception de semi-conducteur comprenant une pluralité de cellules et une pluralité de niveaux de conception. Le plan de cellule virtuel solide peut être inclus dans un plan de cellule de couche hiérarchique virtuelle (VHL) pour la conception de semi-conducteur 2320. Le plan de cellule virtuelle solide peut être un plan négatif. Le plan de cellule virtuel solide peut inclure des informations d'interaction. Un module d'identification 2340 peut également être inclus dans le système 2300. Le module d'identification 2340 peut être utilisé pour identifier une cellule et plusieurs instances de la cellule à partir de la pluralité de cellules. La cellule identifiée peut être l'une quelconque d'une variété de cellules comprenant des cellules analogiques, des cellules numériques, des cellules logiques, des cellules de stockage, des cellules de traitement, des cellules de communication et similaires. La cellule peut être une cellule parent, une cellule enfant contenue dans une cellule parent, une cellule sœur d'une cellule contenue dans la cellule parent, etc. Un module déterminant 2350 peut également être inclus dans le système 2300. Le module déterminant 2350 peut déterminer, pour les instances multiples, les polygones qui chevauchent la cellule. Les polygones peuvent être inclus dans les niveaux de conception de la conception du semi-conducteur 2320. Les polygones peuvent inclure des rectangles, des polygones complexes et/ou toute autre forme. Les polygones déterminés dans les couches de conception peuvent se connecter, peuvent se chevaucher, peuvent être adjacents ou peuvent être proches des polygones de la cellule identifiée et des instances de la cellule. Un modèle poussant 2360 peut être inclus dans le système 2300. Le module de poussée 2360 peut pousser un polygone à partir des polygones déterminés dans le plan de la cellule virtuelle solide pour créer un trou dans le plan de la cellule virtuelle solide. Les polygones qui sont poussés peuvent inclure des formes au niveau de la conception qui chevauchent les données locales de la cellule. Dans certains modes de réalisation, les polygones qui sont poussés peuvent inclure des formes au niveau de la conception qui sont éloignées des données locales de la cellule jusqu'à une valeur de portée. Le système 2300 peut inclure un module d'ignorance 2370. Le module ignorant 2370 peut ignorer d'autres formes qui tombent dans le trou. Les formes qui sont poussées qui tombent dans les trous peuvent être ignorées.

Le système 2300 peut inclure un produit de programme informatique pour l'analyse de conception. Le produit programme informatique est incorporé dans un support lisible par ordinateur non transitoire et peut comprendre un code pour créer un plan de cellule virtuel solide basé sur une conception de semi-conducteur comprenant une pluralité de cellules et une pluralité de codes de niveaux de conception pour identifier une cellule et de multiples instances de la cellule de la pluralité de cellules code pour déterminer, pour les multiples instances, des polygones qui chevauchent le code de cellule pour pousser un polygone à partir des polygones, qui ont été déterminés, dans le plan de cellule virtuel solide pour créer un trou dans le plan de cellule virtuel solide et le code pour ignorer les autres formes qui tombent dans le trou.

Chacun des procédés ci-dessus peut être exécuté sur un ou plusieurs processeurs sur un ou plusieurs systèmes informatiques. Des modes de réalisation peuvent comprendre diverses formes d'informatique distribuée, d'informatique client/serveur et d'informatique en nuage. En outre, on comprendra que les étapes ou encadrés représentés contenus dans les organigrammes de cette divulgation sont uniquement illustratifs et explicatifs. Les étapes peuvent être modifiées, omises, répétées ou réorganisées sans s'écarter de la portée de cette divulgation. En outre, chaque étape peut contenir une ou plusieurs sous-étapes. Bien que les dessins et la description précédents présentent des aspects fonctionnels des systèmes divulgués, aucune mise en œuvre ou agencement particulier de logiciel et/ou de matériel ne doit être déduit de ces descriptions à moins que cela ne soit explicitement indiqué ou autrement clair du contexte. Tous ces agencements de logiciels et/ou de matériel sont destinés à entrer dans le cadre de cette divulgation.

Les schémas fonctionnels et les illustrations d'organigrammes décrivent des méthodes, des appareils, des systèmes et des produits de programme informatique. Les éléments et combinaisons d'éléments dans les schémas fonctionnels et les organigrammes montrent des fonctions, des étapes ou des groupes d'étapes des procédés, appareils, systèmes, produits de programme informatique et/ou procédés mis en œuvre par ordinateur. Toutes ces fonctions, généralement appelées ici « circuit », « module » ou « système », peuvent être mises en œuvre par des instructions de programme informatique, par des systèmes informatiques basés sur du matériel à usage spécial, par des combinaisons de matériel à usage spécial et des instructions informatiques, par des combinaisons de matériel à usage général et d'instructions informatiques, et ainsi de suite.

Un appareil programmable qui exécute l'un des produits de programme informatique mentionnés ci-dessus ou des procédés mis en œuvre par ordinateur peut comprendre un ou plusieurs microprocesseurs, microcontrôleurs, microcontrôleurs intégrés, processeurs de signaux numériques programmables, dispositifs programmables, réseaux de portes programmables, logique de réseau programmable, dispositifs de mémoire, applications circuits intégrés spécifiques, ou similaires. Chacun peut être utilisé ou configuré de manière appropriée pour traiter des instructions de programme informatique, exécuter une logique informatique, stocker des données informatiques, etc.

On comprendra qu'un ordinateur peut comporter un produit programme d'ordinateur issu d'un support de stockage lisible par ordinateur et que ce support peut être interne ou externe, amovible et remplaçable, ou fixe. De plus, un ordinateur peut inclure un système d'entrée/sortie de base (BIOS), un micrologiciel, un système d'exploitation, une base de données ou similaire qui peut inclure, s'interfacer ou prendre en charge le logiciel et le matériel décrits ici.

Les modes de réalisation de la présente invention ne sont ni limités aux applications informatiques classiques ni à l'appareil programmable qui les exécutent. A titre d'illustration : les modes de réalisation de l'invention actuellement revendiquée pourraient comprendre un ordinateur optique, un ordinateur quantique, un ordinateur analogique ou similaire.Un programme informatique peut être chargé sur un ordinateur pour produire une machine particulière qui peut exécuter toutes les fonctions décrites. Cette machine particulière fournit un moyen d'exécuter toutes les fonctions décrites.

Toute combinaison d'un ou plusieurs supports lisibles par ordinateur peut être utilisée, y compris, mais sans s'y limiter : un support lisible par ordinateur non transitoire pour le stockage un support de stockage lisible par ordinateur électronique, magnétique, optique, électromagnétique, infrarouge ou semi-conducteur ou toute combinaison appropriée des une disquette d'ordinateur portable un disque dur une mémoire vive (RAM) une mémoire morte (ROM), une mémoire morte programmable effaçable (EPROM, Flash, MRAM, FeRAM ou mémoire à changement de phase) une fibre optique un portable disque compact un dispositif de stockage optique un dispositif de stockage magnétique ou toute combinaison appropriée de ce qui précède. Dans le contexte de ce document, un support de stockage lisible par ordinateur peut être tout support tangible qui peut contenir ou stocker un programme destiné à être utilisé par ou en relation avec un système, un appareil ou un dispositif d'exécution d'instructions.

On comprendra que les instructions de programme informatique peuvent inclure un code exécutable informatique. Une variété de langages pour exprimer des instructions de programme informatique peut inclure, sans limitation, C, C++, Java, JavaScript™, ActionScript™, langage d'assemblage, Lisp, Perl, Tcl, Python, Ruby, langages de description de matériel, langages de programmation de base de données, langages de programmation fonctionnels, langages de programmation impératifs, etc. Dans des modes de réalisation, des instructions de programme informatique peuvent être stockées, compilées ou interprétées pour s'exécuter sur un ordinateur, un appareil de traitement de données programmable, une combinaison hétérogène de processeurs ou d'architectures de processeur, et ainsi de suite. Sans limitation, les modes de réalisation de la présente invention peuvent prendre la forme d'un logiciel informatique basé sur le Web, qui comprend un logiciel client/serveur, un logiciel en tant que service, un logiciel poste à poste, ou similaire.

Dans des modes de réalisation, un ordinateur peut permettre l'exécution d'instructions de programme informatique comprenant plusieurs programmes ou fils. Les multiples programmes ou fils peuvent être traités approximativement simultanément pour améliorer l'utilisation du processeur et pour faciliter des fonctions sensiblement simultanées. A titre de mise en œuvre, tous les procédés, codes de programme, instructions de programme et similaires décrits ici peuvent être mis en œuvre dans un ou plusieurs threads qui peuvent à leur tour engendrer d'autres threads, qui peuvent eux-mêmes avoir des priorités qui leur sont associées. Dans certains modes de réalisation, un ordinateur peut traiter ces fils en fonction de la priorité ou d'un autre ordre.

Sauf indication explicite ou autrement clair du contexte, les verbes « exécuter » et « processus » peuvent être utilisés de manière interchangeable pour indiquer exécuter, traiter, interpréter, compiler, assembler, lier, charger ou une combinaison de ce qui précède. Par conséquent, les modes de réalisation qui exécutent ou traitent des instructions de programme informatique, un code exécutable par ordinateur ou similaire peuvent agir sur les instructions ou le code de n'importe laquelle et de toutes les manières décrites. En outre, les étapes de procédé illustrées sont destinées à inclure tout procédé approprié pour amener une ou plusieurs parties ou entités à exécuter les étapes. Les parties exécutant une étape, ou une partie d'une étape, n'ont pas besoin d'être situées à l'intérieur d'un emplacement géographique ou d'une frontière de pays particulier. Par exemple, si une entité située aux États-Unis fait en sorte qu'une étape de la méthode, ou une partie de celle-ci, soit exécutée en dehors des États-Unis, la méthode est considérée comme étant exécutée aux États-Unis en raison de l'entité causale.

Bien que l'invention ait été divulguée en relation avec des modes de réalisation préférés représentés et décrits en détail, diverses modifications et améliorations de celle-ci deviendront apparentes à l'homme de l'art. Par conséquent, les exemples qui précèdent ne doivent pas limiter l'esprit et la portée de la présente invention mais doivent plutôt être compris dans le sens le plus large autorisé par la loi.


Au cours de cette étape, le réseau doit être alimenté par un grand nombre d'exemples de vecteurs qui représentent les types de vecteurs attendus lors de la cartographie. 3. Dans la 3ème étape, nous w.

(1 point) Bonne réponse DSUM 13) L'utilisation de deux ou plusieurs conditions sur la même ligne—qui doivent toutes être remplies pour que les enregistrements soient inclus dans les résultats.

La fonction de diffusion ‘g’ est décroissante pour que le lissage puisse se faire dans les régions homogènes (ΙΔuΙ < k, k est un seuil) et arrêté dans un proche de un e.

Après cela, la variance est trouvée pour toutes les classes en utilisant cette valeur moyenne. Sigma2 = 1 / (n-k) * somme((x-mu)2). Il y a deux étapes supplémentaires requises avant.

La vision par ordinateur est couramment étudiée dans trois catégories selon le degré d'abstraction de l'image : bas niveau, moyen niveau et haut niveau. Bas niveau.

Chaque zone est construite comme une hiérarchie virtuelle spécifique à la géographie. Chaque zone a un nombre prédéfini de nœuds et un coordinateur 〖C(i)〗_11^1à t.

Les trois fonctions principales de __________ sont les requêtes, les rapports et les analyses. a) BI b) OLTP c) entreposage de données d) OLAP 19. Outils d'exploration de données et __________ ar.

Gardez-le comme -1 prendra le nombre total de fonctionnalités indépendantes comme composants. J'ai défini cette valeur sur 3. ISCA L'analyse des composants insignifiants est opposée.

Divide and Conquer Strategies: Divide and Conquer est un algorithme qui conçoit un paradigme basé sur la récursivité multi-branches. Ce paradigme conçu consiste o.

Le nombre de paires de bases pour le plasmide PGEX-KG (original) et PGEX-KG SAW1 (gène clone) est différent. PGEX-KG-Saw1 a 794 pb de plus que le plasmide original. .


Libgdx utilisant Box2d avec TiledMap pour créer une détection de collision

Je suis assez nouveau sur Libgdx et j'ai de bonnes connaissances de base sur Java. En ce moment, je suis bloqué sur la façon d'ajouter une collision à mon TiledMap, j'utilise le Mapeditor pour créer le tilemap. J'ai lu tellement de façons différentes d'aborder ce problème, mais il est très difficile de comprendre comment cela fonctionne exactement.

Ensuite, j'ai lu sur l'utilisation de Box2d pour la détection de collision. Transformer les tuiles que je veux en corps statiques et créer un corps dynamique pour mon joueur.

En ce moment, j'ai créé un MapBodyBuilder, qui devrait transformer une couche de tuiles en un objet box2d spécifique. Mon problème est maintenant, je ne sais pas où je charge ce mapBuilder, comment je peux faire de mon Player déjà configuré un corps dynamique, où créer le joueur et comment combiner les corps de tuiles statiques et le corps du joueur.

J'espère que quelqu'un pourra m'aider !

Comme vous pouvez le voir, j'ai déjà essayé moi-même, mais cela n'a pas fonctionné. Je n'ai pas posté toute la classe de joueur, car la plupart sont pour l'animation et userInput.


Partager l'application

Ensuite, vous partagerez votre application avec le public. Cette application sera utile non seulement pour informer les citoyens sur les efforts de protection du littoral du comté de Palm Beach, mais aussi pour donner aux décideurs les informations nécessaires pour faire des plans pour l'avenir. Avant de partager l'application, vous devez vous assurer que les métadonnées de l'application ont été correctement saisies.

Les détails de l'élément de l'application Web incluent déjà un résumé et des balises, car vous les avez ajoutés lors de la création de l'application. Cependant, l'application a une vignette générique par défaut qui ne donne pas grand-chose sur l'application. Vous allez remplacer la miniature par une image de l'application.

Les miniatures doivent avoir une taille d'environ 600 pixels sur 400 pixels.

La fenêtre Télécharger une miniature s'ouvre.

La nouvelle vignette est téléchargée et la vignette par défaut est mise à jour.

Vous ajouterez également une description. Les descriptions sont généralement de bons moyens d'expliquer le but d'une carte, d'une scène ou d'une application. Ils peuvent également inclure des informations sur le contenu de l'élément ou des liens externes vers plus d'informations.

Cette application Web représente le littoral du comté de Palm Beach, en Floride. Il contient des couches de données qui montrent l'emplacement des récifs naturels et artificiels. Il décrit également l'emplacement des sédiments non consolidés et des activités de dragage, en mettant particulièrement l'accent sur ces activités dans les principaux bras de mer. Cette information est essentielle pour la protection et l'entretien des rives.

Ensuite, vous partagerez votre application.

La fenêtre Partager s'ouvre. Vous pouvez choisir de partager l'application Web avec tout le monde, votre organisation ou tout groupe pour lequel vous disposez de privilèges de partage. Vous voulez que le public puisse voir votre application, vous la partagerez donc avec tout le monde.

Une fois la fenêtre Partager fermée, la fenêtre Mettre à jour le partage s'ouvre. Cette fenêtre vous informe que, bien que vous ayez partagé l'application Web, vous n'avez pas encore partagé la scène Web que vous avez utilisée pour créer l'application Web. Tant que la scène n'est pas également partagée, les utilisateurs ne pourront pas voir tout le contenu de votre application Web.

Votre scène et votre application sont désormais partagées.

Cette URL fournit un lien direct vers votre application Web. Il utilise le format suivant : http://[URL de votre organisation].arcgis.com/apps/webappviewer3d/index.html?id=[numéro d'identification] .

Par défaut, l'URL contient le nom de domaine de votre organisation. Si vous souhaitez partager cette URL avec des membres extérieurs à votre organisation, vous devez supprimer le domaine de votre organisation avant d'envoyer le lien.

Dans cette leçon, vous avez créé une scène montrant le littoral du comté de Palm Beach, transformé la scène en une application et partagé l'application avec le public. Ce faisant, vous avez exploré de nombreuses fonctionnalités de Scene Viewer et travaillé avec des données en 3D. Pour plus de projets impliquant des données 3D sur la plate-forme ArcGIS, essayez Map Venice en 2D et 3D et Premiers pas avec ArcGIS Drone2Map.


Voir la vidéo: Kurssi 2: Kuvioiden geometria, osa16: Monikulmio (Octobre 2021).