Suite

Cache de tuiles d'exportation ArcGIS Android pour les niveaux supérieurs (uniquement le niveau 9 dans les exemples)


J'ai besoin de mettre en cache quelques tuiles pour la partie hors ligne de mon application. Bien que dans les exemples fournis pour Android, le lien serveur suivant ait été utilisé pour exporter le cache de tuiles local :

http://sampleserver6.arcgisonline.com/arcgis/rest/services/World_Street_Map/MapServer

l'échantillon lui-même peut être trouvé ici:

https://developers.arcgis.com/android/sample-code/export-tile-cache/

Où seuls les niveaux 1 à 9 sont pris en charge. Comment puis-je télécharger pour des niveaux supérieurs ? Ou, quel est le lien du serveur ESRI pour exporter des packages de tuiles de niveau supérieur ?

P.S. J'ai déjà essayé d'autres services REST


Le niveau de détail est défini par le service et l'échantillon est basé sur le service que vous avez référencé qui comporte 10 niveaux de détail. Voici le service de fond de carte Esri qui prend en charge 20 niveaux de détail > http://services.arcgisonline.com/ArcGIS/rest/services/World_Street_Map/MapServer. En ce qui concerne l'échantillon que vous avez référencé, vous pouvez mettre à jour leélémentsListe des tableauxet leAlertDialog.Builderpour adapter la taille du tableau aux niveaux de détail :

Par exemple.

// mettre à jour l'ArrayList avec le niveau de détail final CharSequence[] items = { "Level ID:0", "Level ID:1", "Level ID:2", "Level ID:3", "Level ID:4" , "Identifiant de niveau :5", "Identifiant de niveau :6", "Identifiant de niveau :7", "Identifiant de niveau :8", "Identifiant de niveau :9", "Identifiant de niveau :10", "Identifiant de niveau :11", « ID de niveau :12 », « ID de niveau :13 », « ID de niveau :14 », « ID de niveau :15 », « ID de niveau :16 », « ID de niveau :17 », « ID de niveau :18 », " ID de niveau : 19", } ; // mettre à jour la résolution des niveaux de détail à double [] = {mapResolution 156543,03392800014, 78271,51696399994, 39135,75848200009, 19567,87924099992, 9783,93962049996, 4891,96981024998, 2445,98490512499, 1222,992452562495, 611,4962262813797, 305,74811314055756, 152,87405657041106, 76,43702828507324, 38,21851414253662, 19,10925707126831, 9,554628535634155, 4,77731426794937, 2,388657133974685, 1,1943285668550503 , 0,5971642835598172, 0,29858214164761665} ; // mettre à jour la boîte de dialogue pour prendre en charge les niveaux // dans la méthode showDialog() builder.setMultiChoiceItems(items, new boolean[] { false, false, false, false, false, false, false, false, false, false, false, false , faux, faux, faux, faux, faux, faux, faux, faux },

Le système Altus Metrum : un manuel d'utilisation pour l'électronique de fusée Altus Metrum

Merci à Bob Finch, W9YA, NAR 12965, TRA 12350 pour avoir écrit « Le guide de démarrage/d'utilisation rapide de Mere-Mortals pour le kit de démarrage Altus Metrum » qui a constitué la base du chapitre de démarrage original de ce manuel. Bob a été l'un de nos premiers clients pour une production TeleMetrum, et son enthousiasme et ses contributions continus sont extrêmement gratifiants et très appréciés !

Et merci à Anthony (AJ) Towns pour ses contributions majeures, notamment le code graphique AltosUI et le plan du site et la documentation associée. Le logiciel libre signifie que nos clients et amis peuvent devenir nos collaborateurs, et nous apprécions certainement ce niveau de contribution !

Amusez-vous à utiliser ces produits, et nous espérons vous rencontrer quelque part sur la ligne de vol des fusées.


Slash of Sword 2 - Stratégie d'action RPG hors ligne Mod APK

Slash of Sword : Joutes rebelles

Suite du jeu de rôle mobile Slash of Sword. Des graphismes améliorés, de nouveaux niveaux et un scénario passionnant.

Vous avez été accusé d'un crime que vous n'avez pas commis et avez été envoyé combattre dans l'arène en guise de punition. Des combats sanglants et tactiques pour la survie de complexité variable avec de nombreux rivaux vous attendent. Essayez d'acquérir des compétences pour devenir plus compétent, explorez des lieux et interagissez avec les personnages pour obtenir justice !
Allez-vous essayer de prendre des décisions sur l'opportunité d'aider un homme blessé qui était récemment un bandit et a volé des voyageurs ordinaires ? Faut-il parler au propriétaire du trésor que vous avez trouvé ? Ou peut-être laisser la fille partir avec le voleur qui l'a kidnappée, ou s'occuper de lui et rendre la fille à son père ? Tu décides…

▣ Plongez-vous dans l'histoire avec de nombreuses options sur la façon dont les événements se dérouleront.

▣ Prenez des décisions qui affecteront le scénario et les attitudes des personnages envers vous plus tard.

Familiarisez-vous avec le système de combat tactique, dans lequel vous devez choisir le moment pour attaquer, ainsi que pour bloquer ou esquiver à temps.

Inscrivez-vous pour participer aux combats au poing dans la taverne.

Explorez des lieux en visitant diverses villes, colonies, forêts et grottes.

L'histoire - Enquêtez sur un enchevêtrement d'événements avec votre frère Richard. Passez du statut de voyageur ordinaire à celui de guerrier légendaire et découvrez qui vous a piégé et pourquoi. Rencontrez des personnages intéressants avec leurs propres histoires et aidez-les, ou combattez des adversaires uniques et gagnez des bonus spéciaux pour les vaincre.

Personnalisation - Vous avez accès à un grand nombre d'armes différentes, des épées à une ou deux mains, ainsi que des boucliers et des armures. Vous pouvez aller chez le coiffeur pour changer l'apparence de votre personnage. Faites pousser une barbe ou une queue de cheval. Portez une capuche quand il pleut ou enveloppez-vous dans une cape pour ajouter de la profondeur à votre personnage.
Niveau de puissance - Devenez un guerrier plus expérimenté combattant dans l'arène ou contre des bandits tout en parcourant le monde du jeu. Devenez un maître de l'épée ou du bouclier, ou améliorez progressivement toutes vos compétences. Apprenez à fatiguer votre adversaire avec des contre-attaques ou à gagner avec des séries de coups ultra-rapides.

Des créateurs de Glory Ages - Samurais.
Le jeu est pris en charge par un appareil sans Internet.


Qu'est-ce qu'il y a dans un nom?

Qu'est-ce qu'il y a dans un nom? Il s'avère que tout. Tous les deux ans, Esri publie une version majeure de sa plate-forme ArcGIS, 2017 étant justement cette année-là. Eh bien, techniquement, ArcGIS 10.5 est sorti à la mi-décembre 2016, mais si vous êtes comme moi, vous avez attendu la fin des vacances pour passer à la nouvelle version. À mon avis, ArcGIS 10.5 apporte les intégrations les plus importantes avec les composants de bureau, en ligne et de serveur à ce jour. Qu'est-ce que cela signifie pour GISinc et nos clients ? Heureux, vous avez demandé.

Commençons par un changement de nom. Avec une sortie aussi importante, Esri en a profité pour simplifier le nommage de ses produits. Cela aidera à coordonner les composants avec les plates-formes et à concevoir la bonne plate-forme pour votre organisation.

ArcGIS for Server devient désormais ArcGIS Enterprise avec ses 4 composants :

Cela constitue le déploiement de base de maintenant, ArcGIS Enterprise. Ne vous inquiétez pas, la technologie sous-jacente est la même, juste améliorée avec la version 10.5. Et vous avez toujours des options standard ou avancées. Naturellement, ArcGIS for Desktop devient alors ArcGIS Desktop, simple et concis.

Cela serait alors vrai, si ArcGIS for Server change de nom en ArcGIS Enterprise, alors ce qui était auparavant des extensions suivrait la suite.

Serveur de géoanalyse

Les extensions deviennent désormais des rôles de serveur et, avec la version 10.5, Esri introduit le nouveau rôle de serveur ArcGIS GeoAnalytics. Ce nouveau rôle de serveur introduit la possibilité de répartir le traitement et l'analyse de données vectorielles volumineuses sur plusieurs serveurs. Des données qui étaient autrefois trop volumineuses pour être traitées sur un seul ArcGIS Desktop et qui peuvent désormais être distribuées sur plusieurs services GeoAnalytics avec un accès direct depuis ArcGIS Pro, Portal et Insights for ArcGIS.

Informations pour ArcGIS

ArcGIS Enterprise est également livré avec une série d'applications qui sont continuellement améliorées, telles que les nombreux modèles et solutions tels que Survey123, Collector et Web AppBuilder. Avec 10.5, Esri présente une nouvelle application appelée Insights for ArcGIS.

J'utilise la technologie Esri depuis 26 ans maintenant et je peux dire en toute honnêteté qu'Insights for ArcGIS est mon premier choix pour des rapports et des analyses de veille stratégique innovants. Insights est un atelier analytique basé sur le Web qui s'intègre aux bases de données d'entreprise. Vous avez remarqué que je n'ai pas distingué les géodatabases. C'est vrai, Insights for ArcGIS exploite les deux de manière transparente. C'est ce que j'appelle le 3 ème pilier d'une plateforme qui prend désormais entièrement en charge l'IoT (Internet des Objets). Comment? Laisse-moi expliquer. ArcGIS Enterprise offre une surveillance en temps réel avec GeoEvent Server, l'analyse et le traitement de Big Data avec GeoAnalytical Server et un tableau de bord analytique interactif par glisser-déposer avec Insights for ArcGIS, les 3 éléments dont vous avez besoin pour collecter, agréger et afficher les informations IoT. J'attends avec impatience les mois à venir pour mettre en œuvre cette nouvelle technologie pour nos clients de GISinc.

Avec la sortie d'ArcGIS 10.5, Esri a également profité de l'occasion pour simplifier la nomenclature sur la meilleure façon de catégoriser l'utilisation du SIG par une organisation. Cette simplification nous aide, en tant que partenaire commercial Platinum, à aider nos clients à déterminer rapidement un modèle de déploiement qui prend en charge au mieux les activités SIG dans toute l'organisation. Pendant des années, chez GISinc, nous avons fourni à nos clients des analyses approfondies et des stratégies de conception de systèmes pour la mise en œuvre de la plate-forme ArcGIS. Cette nouvelle nomenclature simple nous aide, nous et Esri, à mieux communiquer une stratégie de déploiement corporative. Voici une liste des 5 personnalités fondamentales des utilisateurs de SIG.

Les personas sont un moyen de haut niveau de regrouper les utilisateurs et ne doivent pas être confondus avec les licences réelles et les rôles spécifiques appliqués aux utilisateurs dans ArcGIS Enterprise.

Collaboration de portail à portail

ArcGIS Enterprise 10.5 introduit une véritable collaboration avec la possibilité de configurer désormais la collaboration de portail à portail dans les paramètres d'administration de Portal.

C'est une excellente nouvelle pour nos clients, en particulier nos programmes fédéraux. Ces organisations à grande échelle sont l'endroit où la collaboration de portail à portail peut briller. Les régions ou les départements individuels peuvent avoir leurs propres portails privés, qui peuvent ensuite être partagés avec le portail faisant autorité pour faciliter la collaboration et le partage d'informations entre les régions ou les départements. Cette topologie d'ArcGIS Enterprise permet une administration régionale d'une manière qu'un portail unique ne permet pas, tout en conservant l'esprit de partage et de promotion du contenu SIG dans toute l'organisation. Plus tard en 2017, Esri commencera à publier d'autres méthodes de collaboration telles que Portal to ArcGIS Online et ArcGIS Online to ArcGIS Online.

Et enfin, les licences. Oui, il y a aussi un simple changement avec la sortie d'ArcGIS 10.5. Esri a fourni un point d'entrée beaucoup plus large dans ArcGIS Enterprise et ArcGIS Online via les niveaux de licence. Il existe désormais deux niveaux de licences d'utilisateur nommé lorsqu'elles sont associées à Online ou Enterprise.

  • Le niveau 1 ou L1 est une licence en lecture seule pour tous ceux qui souhaitent afficher et interagir avec du contenu et des services créés par quelqu'un d'autre. Par défaut, Esri accorde 30 licences L1 à la licence L2 par défaut supplémentaire.
  • Les niveaux 2 ou L2 sont des utilisateurs nommés qui peuvent créer, mettre à jour et partager des cartes et du contenu associé

Un administrateur de Portal a toujours le contrôle sur les rôles et les groupes associés à un utilisateur L1 et L2 pour donner ou restreindre l'accessibilité aux éléments de contenu d'une organisation.

GISinc est enthousiaste pour 2017 et aide ses clients à exploiter tout le potentiel d'ArcGIS 10.5.


Map Suite Services Edition Tous les exemples

Noter: La page a été créée avant Map Suite 10. Map Suite 10.0 a organisé de nombreuses classes dans de nouveaux espaces de noms et assemblys et a eu quelques ruptures mineures de compatibilité. La majorité du code précédemment construit devrait fonctionner sans modification en supposant que les nouveaux espaces de noms soient ajoutés. Pour obtenir des conseils sur la mise à niveau de votre code existant, veuillez consulter le Guide de mise à niveau de MapSuite 10.

Map Suite Services Edition Comment puis-je échantillonner

Le « Comment puis-je ? » La collection d'échantillons est un ensemble complet contenant des dizaines d'échantillons interactifs. Disponibles à la fois en C# et en VB.NET, ces exemples sont conçus pour atteindre tous les points forts de Map Suite, de la simple ajout d'une couche à une carte à l'exécution de requêtes spatiales et à l'application d'un style thématique. Considérez cette collection comme votre « encyclopédie » de toutes les bases de Map Suite et un excellent point de départ pour les nouveaux utilisateurs.

Formatage des degrés décimaux

Le but de ce projet est de compléter la classe statique DecimalDegreesHelper. Cette classe offre des fonctions pour aller vers et depuis les degrés décimaux, mais il lui manque les fonctions gérant divers formats tels que les degrés minutes décimales et les degrés minutes décimales secondes. Ces formats peuvent être générés par différents appareils GPS et il est pratique de savoir comment les manipuler et les convertir en degrés décimaux, le seul format pouvant être entré dans une application SIG ou cartographique.

Étiquette pour afficher l'emplacement

Ce projet montre comment utiliser les couches non pas pour afficher mais pour obtenir des informations de localisation sur l'étendue actuelle de la carte. Obtenir des informations sur les divisions administratives de l'étendue actuelle de la carte est pratique car cela donne un indice spatial lorsque la carte est trop rapprochée pour que les principales caractéristiques soient reconnaissables. Dans ce projet, nous utilisons le WorldMapKit comme arrière-plan et l'état et les comtés des fichiers de formes sont utilisés pour afficher l'indice spatial.

Étiquetage basé sur des colonnes

En tant que développeur développant une application de cartographie, vous pouvez rencontrer un fichier de formes basé sur des points pour l'étiquetage. Toutes les caractéristiques d'étiquetage telles que la police, la taille, l'angle, la couleur peuvent être trouvées dans les informations d'attribut du fichier de formes lui-même. Ce projet montrera comment créer un TextStyle personnalisé qui obtiendra la valeur de ces différentes colonnes et affichera chaque fonctionnalité en conséquence.

Étiquetage multi-colonnes

Dans ce projet, nous montrons quelques techniques pour étiqueter des entités en fonction de différentes colonnes. Avec la propriété CustomStyles et l'événement CustomColumnFetch, vous verrez la flexibilité dont vous disposez pour étiqueter comme vous le souhaitez en quelques lignes de code. Dans cet exemple, nous étiquetons les volcans en fonction de quatre colonnes sur deux lignes et en utilisant deux styles de police différents.

ENC Viewer pour l'affichage du fichier S-57 (*.000)

Le projet d'aujourd'hui est un outil d'ENC Viewer permettant d'afficher des cartes électroniques de navigation (ENC) non cryptées disponibles au format d'échange S-57 (*.000).
Cet outil utilise Map Suite HydrographyExtension pour afficher les données ENC conformément à la dernière version de la bibliothèque de présentation ECDIS Edition 4.0, qui est définie par l'Organisation hydrographique internationale (OHI) dans la publication spéciale S-52.

REMARQUE : le fichier de style « NauticalCharts.xml » pour le fichier de dessin S-57 (*.000) est inclus dans le package de code source.

GPS EXchange Format FeatureLayer

Cet exemple montre comment lire le fichier GPS EXchange Format (*.gpx) avec Map Suite. GPX (GPS Exchange Format) est un format de données XML léger pour l'échange de données GPS (waypoints, itinéraires et tracés) entre les applications et les services Web sur Internet, dont vous pouvez trouver plus d'informations :ici. Map Suite prend désormais en charge les schémas GPX 1.0 et 1.1. Cet exemple fonctionne avec la version quotidienne de la branche de développement de Map Suite 7.0.275.0 ou ultérieure.

Maritime S57 FeatureLayer

Cet exemple montre comment afficher des cartes électroniques de navigation (ENC) non cryptées disponibles dans le format d'échange S-57 (*.000). Il suit le schéma de style défini dans la dernière version de la bibliothèque de présentation ECDIS Edition 4.0 (S-52), qui est publiée par l'Organisation hydrographique internationale (OHI).

REMARQUE : cet exemple fonctionne avec la version 9.0.31.0 ou ultérieure de la branche de développement de Map Suite, les dépendances non gérées de Map Suite 9.0.31.0.msi ou une version ultérieure doivent être installées.

Construire des index de fichiers de formes personnalisés

Cet exemple montre comment afficher un sous-ensemble d'un fichier de formes sans fractionner le fichier de formes physique. Par exemple, vous pouvez avoir un seul fichier de formes qui contient à la fois des autoroutes et des routes locales. Pour améliorer la vitesse d'affichage, vous pouvez être tenté de le diviser en deux fichiers de formes distincts afin de pouvoir afficher rapidement les routes locales avec un style et les autoroutes avec un autre style (et éviter d'utiliser un style de valeur, qui peut être lent). Mais dans ce projet, plutôt que de diviser votre fichier de formes, vous pouvez simplement créer deux index personnalisés, un pour chaque type de route. Ensuite, lorsque vous créez votre ShapeFileFeatureLayer, vous utilisez simplement votre fichier de formes d'origine et spécifiez un index personnalisé. Chaque index personnalisé limitera les enregistrements visibles par la couche, ce qui la rendra très rapide et efficace.

CAO FeatureLayer

Cet exemple montre comment vous pouvez lire des données à partir d'un fichier CAO (*.dwg, *.dxf) dans vos applications SIG Map Suite, et comment les rendre avec un style intégré CAO ainsi qu'un style personnalisé. Il fonctionne avec la version 7.0.46.0 ou ultérieure de la build de développement quotidienne de Map Suite, et la configuration des dépendances non gérées 7.0.46.0 ou ultérieure doit être installée pour que l'exemple fonctionne. Cette prise en charge de fichier Cad fonctionnerait dans tous les contrôles Map Suite tels que WPF Desktop Edition, Silverlight Edition, Web Edition, MVC Edition. Les assemblages de dépendances CAO peuvent être téléchargés à partir de http://wiki.thinkgeo.com/wiki/File:MapSuiteCADDependencies8.0.109.0.zip

TAB FeatureLayer avec style d'intégration

Cet exemple montre comment vous pouvez lire les données d'un fichier Tab (*.tab) dans vos applications SIG Map Suite, et comment les rendre avec le style intégré Tab ainsi qu'un style personnalisé. Il fonctionne avec Map Suite Daily Development build version 8.0.208.0 ou ultérieure. Cette prise en charge du fichier d'onglet fonctionnerait dans tous les contrôles Map Suite tels que WPF Desktop Edition, Silverlight Edition, Web Edition, MVC Edition.

Boussole

Dans le projet "North Arrow", vous avez vu comment étendre AdornmentLayer pour créer un North Arrow AdormentLayer. Dans ce projet, nous développons cette idée et créons une classe plus sophistiquée. Vous verrez comment vous pouvez combiner deux images pour créer une boussole. Comparé au projet "North Arrow", nous avons également ajouté d'autres propriétés pratiques telles qu'une propriété Position. De plus, la boussole peut être de tailles variées grâce à la propriété SizePercentage. Enfin, si vous ne passez qu'une seule image, la boussole peut se comporter comme une flèche nord normale.
Nous avons également ajouté de nouveaux modèles de boussole en version plus petite. Voir le fichier joint : Boussole rotative New Smaller Designs.zip

Fichier de géodatabase

Cet exemple montre comment vous pouvez lire les données d'une base de données FileGeodatabase ESRI dans vos applications SIG Map Suite.L'exemple lira les données de 3 tables d'une FileGeodatabase, et vous trouverez le code aussi simple que de consommer n'importe quelle autre source de données dans Map Suite. Il fonctionne avec la version de développement quotidienne de Map Suite 6.0.115.0 ou une version ultérieure, et vous devrez exécuter le programme d'installation « Setup Unmanaged Dependencies » à partir de votre package de build quotidien pour que l'exemple fonctionne. L'exemple FileGeodatabase fonctionne dans tous les Map Suite contrôles tels que WPF Desktop Edition, Silverlight Edition, Web Edition, MVC Edition et ainsi de suite.

Connecter des données externes à Shapefile

Cet exemple montre comment connecter des données externes à un fichier de formes. Les formes des États américains proviennent d'un fichier de formes tandis que les valeurs de population pour Washington et New York proviennent d'une base de données externe. À partir de cet exemple, nous pouvons voir comment utiliser l'événement FeatureSource.CustomColumnFetch pour introduire une source de données externe et utiliser les objets Dictionary pour mettre en cache les données externes.

Isolines

Dans cet exemple, nous montrons comment vous pouvez utiliser Map Suite pour ajouter des isolignes (communément appelées courbes de niveau) à votre application .NET. Les isolignes sont un moyen de visualiser les ruptures entre différents groupes de données telles que les niveaux d'altitude, les propriétés du sol ou à peu près tout ce que vous pouvez imaginer. Cet exemple montre également les différentes étapes de la création d'isolignes, y compris la collecte de données ponctuelles, la création d'une grille à l'aide d'une interpolation et enfin, la sélection de vos niveaux de rupture d'isoligne. Nous nous sommes également penchés rapidement sur des options plus avancées telles que la génération d'isolignes à la volée.

Pour rassembler tout cela, consultez notre vidéo d'instructions qui vous guidera tout au long du processus de configuration et d'utilisation des isolignes dans Map Suite.

Veuillez noter que vous aurez besoin de la version 5.0.87.0 ou plus récente de Map Suite pour utiliser les isolignes. Pour plus d'informations sur la mise à niveau, consultez le guide Map Suite Daily Builds.

À partir de la version 6.0.187.0, l'échantillon a été mis à jour pour que les polygones puissent également être renvoyés en tant que résultats IsoLines. Vous avez besoin de la version 6.0.187.0 ou plus récente de Map Suite pour utiliser cet exemple.

Isolines avec Krigeage

Dans cet exemple, nous montrons comment vous pouvez générer des isolignes (communément appelées courbes de niveau) à l'aide de modèles d'interpolation de krigeage. Nous avons intégré 5 modèles d'interpolation de krigeage (circulaire, exponentiel, gaussien, linéaire, sphérique) dans Map Suite que vous pouvez voir à partir de l'échantillon sont puissants et très simples à utiliser. Il fonctionne avec Map Suite 6.0.126.0 ou version ultérieure.

MapShapes

L'une des fonctionnalités les plus demandées de Map Suite 3.0 est MapShapes. Pour ceux qui ne sont pas familiers avec MapShapes, dans Map Suite 2.0, il s'agissait d'un groupe de fonctionnalités autonomes qui avaient leurs propres styles, projections et données de colonne. Cela signifiait que chacun pouvait être unique, mais cela signifiait également que vous deviez spécifier tous les attributs de chaque MapShape.

En travaillant avec des clients utilisant MapShapes pendant plusieurs années, nous avons trouvé un modèle commun. Tout d'abord, les utilisateurs ont essayé MapShapes en en ajoutant un à l'écran. C'était très simple et les a rapidement mis en place. Ils en ont ensuite ajouté quelques-uns au fur et à mesure qu'ils commençaient à développer leur application. Après un court laps de temps, ils ont réalisé qu'il était fastidieux de définir la projection, les styles, les niveaux de zoom, etc. sur autant de MapShapes, d'autant plus que les MapShapes représentaient souvent le même type de fonctionnalité sous-jacente, comme une bouche d'incendie ou un barrage routier. Le problème était qu'il n'y avait pas de bonne solution avec Map Suite 2.0 pour gérer de nombreuses fonctionnalités dynamiques très similaires.

Lors de la conception de Map Suite 3.0, nous en avons tenu compte et avons créé InMemoryFeatureLayer et InMemoryFeatureSource. Ceux-ci vous ont permis de traiter tous les mêmes types de fonctionnalités similaires comme s'il s'agissait d'un seul groupe, ce qui a résolu de nombreux problèmes. Ce que nous avons découvert plus tard, c'est que cela rendait la tâche plus difficile pour les cas où vous aviez vraiment des dizaines ou des centaines de fonctionnalités qui étaient chacune unique et que vous deviez les représenter comme telles. N'ayant pas implémenté MapShapes, nous avons été pris avec un trou dans notre offre.

Pour combler cette lacune, nous présentons un projet de simple MapShapeLayer. Il s'agit d'une version simple d'une version plus puissante que nous inclurons dans le cadre du noyau dans un proche avenir. Ce qui nous a vraiment frappé lorsque nous avons créé ce nouveau calque, c'est à quel point c'était facile à faire ! C'est un témoignage de notre cadre 3.0 et nous avons décidé d'inclure la section ci-dessous sur la façon dont nous l'avons mis en œuvre.
Notes du développeur :

Succès! C'était à peu près aussi facile que je le pensais. Tout le gros du travail a été fait par les classes existantes et tout ce dont j'avais besoin était un petit code de colle. Rétrospectivement, j'aurais aimé faire cela en héritant de la FeatureLayer et de la FeatureSource, car cela aurait alors rendu la couche accessible par des requêtes spatiales. Pour gagner du temps, et pour pouvoir poster ça le plus vite possible sur nos forums, j'ai hérité de Layer, ce qui est vraiment simple. Vous pouvez voir que les commentaires et mes notes ici prennent plus de place que le code lui-même !

Je pense que vous constaterez que cela fonctionne presque exactement comme les MapShapes 2.0. Il ne prend pas en charge la projection cependant, je pense que cela pourrait être facilement ajouté. Nous allons créer une version de production de cette classe à inclure dans le framework dans un avenir proche, et si la projection est en effet facile à ajouter, elle prendra en charge la projection et les requêtes spatiales.

En un mot, ce que j'ai fait était de créer une classe MapShape qui abritait un ZoomLevelSet et une seule fonctionnalité. Le ZoomLevelSet contient tous les niveaux de zoom, styles, etc., de sorte que cette partie était agréable à réutiliser. J'ai associé cela à un nouveau type de calque. J'ai créé MapShapeLayer en héritant de Layer. La seule surcharge requise était Draw, ce qui était bien. J'ai ajouté à la classe une GeoCollection MapShape's pour stocker toutes vos MapShapes. Dans le Draw, j'ai simplement parcouru les MapShapes, et pour chacun d'eux, j'ai trouvé le niveau de zoom qui serait en train de dessiner et j'ai appelé sa méthode Draw. En quelques lignes de code, tout s'est mis en place.


Résultats

L'eau andine 87 Sr/ 86 Sr est liée à l'altitude, à la géologie du substratum rocheux et à la taille du bassin versant

Tracer les emplacements d'échantillonnage de l'eau (m = 262) 5 démontre que l'eau a été collectée à partir d'un large éventail de bassins versants et de géologies sous-jacentes. L'eau a été collectée dans 31 bassins versants distincts, reflétant la couverture d'échantillonnage d'environ un quart (24,4 %) des 127 bassins versants du Pérou (Figure 2). Les coordonnées géographiques, l'altitude et les caractéristiques des bassins versants des emplacements d'échantillonnage sont indiquées dans les tableaux supplémentaires S1, S4. L'eau a été collectée à des emplacements correspondant à 10 unités d'âge géologique du substratum rocheux (selon le modèle de Schenk et al., 1999), reflétant la couverture d'échantillonnage d'environ les deux tiers (66,7 %) des 15 unités d'âge du substratum rocheux au Pérou.

Figure 2. Lieux d'échantillonnage de l'eau (m = 262) dans tous les départements péruviens (étiquetés avec un contour plein) par rapport aux principaux cours d'eau et bassins versants primaires (remplissage coloré avec contour en pointillés).

Les concentrations élémentaires de 88 Sr sont suffisantes pour mesurer 87 Sr/ 86 Sr dans tous les échantillons, allant de 0,0001 à – 0,0113 (M = 0.0007, Dakota du Sud = 0.0019, m = 220) (Tableau supplémentaire S3). Nouveau 87 Sr/ 86 Sr de cette étude (m = 220) sont indiqués dans le tableau supplémentaire S4. Dans l'ensemble de l'échantillon d'eau 87 Sr/ 86 Sr varie de 0,7049 à 0,7227 (M = 0.7081, Dakota du Sud = 0.0027, m = 262). L'eau 87 Sr/ 86 Sr et les résidus ne sont pas distribués normalement selon Shapiro–Wilk, W(261) = 0.672, p < 0,001. L'analyse des tendances dans ArcMap montre une forte tendance est-ouest où 87 Sr/86 Sr augmente longitudinalement avec l'altitude et la distance par rapport à la côte. L'eau 87 Sr/ 86 Sr est la plus basse près des côtes de Lima, Moquegua et Nasca. L'eau 87 Sr/ 86 Sr augmente jusqu'au niveau le plus élevé (le plus radiogène) autour de la partie orientale du lac Junín, de l'est du bassin d'Ayacucho et de la partie nord-ouest de la vallée de Cusco près du Machu Picchu (Figure 3).

Figure 3. Résultats de l'eau péruvienne 87 Sr/ 86 Sr, arbitrairement divisés en 10 bacs de taille égale, en fonction de l'emplacement des grandes villes, des rivières et de l'altitude aux emplacements d'échantillonnage (m = 262).

Water 87 Sr/ 86 Sr varie en fonction de l'altitude, de la taille du bassin versant et de l'âge géologique du substratum rocheux sous-jacent. Les échantillons des Highlands montrent une médiane significativement différente de 87 Sr/ 86 Sr (Médian = 0.7080, Dakota du Sud = 0.0031, m = 162) que ceux de la côte (Médian = 0.7067, Dakota du Sud = 0.0016, m = 56) et yunga (Médian = 0.7068, Dakota du Sud = 0.0013, m = 44), Kruskal–Wallis H(2) = 35.97, p < 0,001 (Figure 4A). De même, les plus grands bassins versants présentent un 87 Sr/ 86 Sr significativement plus élevé et plus variable (Médian = 0.7080, Dakota du Sud = 0.0029, m = 135) que les petits (Médian = 0.7067, Dakota du Sud = 0.0011, m = 62) et moyennes [Médian = 0.7070, Dakota du Sud = 0.0029, m = 65, Kruskal–Wallis H(2) = 50.47, p &# x003C 0,001] (Figure 4B). La taille du bassin versant (hectares) représente près de 60% de la variabilité de l'eau 87 Sr/ 86 Sr (Ajusté R 2 = 0,60) à mesure que la taille du bassin versant augmente, l'écart type à l'intérieur du bassin versant augmente également. La taille du bassin versant représente 43,6 % de la variation 87 Sr/86 Sr (SD) à travers un bassin versant (Ajusté R 2 = 0,42). Ces différences d'eau 87 Sr/ 86 Sr correspondent également à l'âge géologique des unités géologiques du substratum rocheux sous-jacent (tableau complémentaire S5). Les unités d'eau sus-jacentes déposées dans le passé le plus lointain, le Paléozoïque, sont nettement plus radiogéniques (Médian = 0.7087, Dakota du Sud = 0.0034, m = 31) par rapport à ceux du Mésozoïque (Médian = 0.7076, Dakota du Sud = 0.0027, m = 134) et le Cénozoïque le plus récent [Médian = 0.7076, Dakota du Sud = 0.0022, m = 97, Kruskal–Wallis H(2) = 26.45, p < 0,001].

Figure 4. (UNE) Boxplot de 87 Sr/ 86 Sr (m = 262) du littoral, yunga, et les altitudes des hautes terres (B) Boxplot de 87 Sr/ 86 Sr de petits, moyens et grands bassins versants (hectares) et (C) Boxplot d'eau 87 Sr/ 86 Sr recouvrant les unités géologiques des ères cénozoïque, mésozoïque et paléozoïque (du substrat rocheux déposé le plus récent au plus ancien).

Le test Anselin Local Moran&# x2019s I génère 13 valeurs aberrantes spatiales 87 Sr/ 86 Sr qui ont été exclues du modèle isoscape, car elles étaient soupçonnées de refléter la contamination par le ruissellement agricole ou le stockage dans des puits de pierre non indigènes à ces emplacements d'échantillonnage. Parmi ces valeurs aberrantes, neuf sont des 87 Sr/86 Sr bas entourés de 87 Sr/86 Sr anormalement élevés. L'une d'entre elles est une valeur anormalement basse provenant d'un cours d'eau à haute altitude (3900 m d'altitude) dans le bassin d'Ayacucho. Les huit autres 87 Sr/86 Sr anormalement bas proviennent de la région ouest et nord du lac Junín collectés par Flusche et al. (2005) étude. Il y a aussi quatre points avec 87 Sr/ 86 Sr anormalement élevés entourés de 87 Sr/ 86 Sr plus bas typiques. Trois d'entre eux proviennent de la haute vallée de Colca du département d'Arequipa&# x2014, l'un provient d'une source naturelle, et deux proviennent de canaux d'irrigation artificiels. La dernière valeur aberrante élevée-faible provient d'un ruisseau à Lucanas dans le bassin d'Ayacucho. Fait intéressant, aucun des échantillons d'eau du robinet (m = 5) sont des valeurs aberrantes par rapport à l'échantillon environnant 87 Sr/ 86 Sr, et aucun des plus grands plans d'eau de surface & rivières (m = 133) et les lacs (m = 34)—produit des valeurs aberrantes spatiales.

Modèle géostatistique Eau 87 Sr/ 86 Sr

Le modèle taillé 87 Sr/ 86 Sr (m = 249, Figure 5A) montre une plage de 87 Sr/ 86 Sr = 0,7049 – 0,7227. La validation « Leave-one-out » de l'isoscape le mieux adapté obtient une erreur moyenne = < 0,0001 (d'autres paramètres et métriques du modèle sont rapportés dans le tableau supplémentaire S2). L'eau mesurée 87 Sr/ 86 Sr explique 99,1 % de la variabilité du 87 Sr/ 86 Sr prédit (ajusté R 2 = 0.99, m = 249). Comme prévu, le modèle de formation à 80 % (m = 199) fonctionne moins bien, avec l'ensemble de test aléatoire de 20 % (m = 50) des 87 Sr/ 86 Sr mesurés expliquant seulement 31,0% (R 2 = 0,31) de la variabilité du 87 Sr/ 86 Sr prédit aux emplacements correspondants. Le modèle semi-variogramme (figure 5B) ne montre aucune autocorrélation spatiale de l'eau 87 Sr/86 Sr au-delà de distances par paires d'environ 10 km de distance.

Figure 5. (UNE) Isoscape prédictif 87 Sr/ 86 Sr de l'ensemble de données sur l'eau rognée (m = 249) (remplissage solide) par rapport à l'eau mesurée 87 Sr/ 86 Sr (points en couleurs graduées), découpées dans les zones où l'erreur standard de prédiction est inférieure à 1 SD de l'ensemble de données (Dakota du Sud = 0,0027), avec modèle numérique d'élévation (250 m ASTER) pour référence. Les valeurs de données sont arbitrairement classées dans 10 cases égales. (B) Le semi-variogramme de krigeage montre l'absence d'autocorrélation spatiale entre des points éloignés les uns des autres de plus de 10 km. (C) Un remplissage plein indique une erreur entre le 87 Sr/ 86 Sr prévu et mesuré aux sites d'échantillonnage de l'eau (m = 249). Le 87 Sr/ 86 Sr prédit vs mesuré est illustré par l'augmentation de la taille des points sur les 12 sites de test archéologiques (m = 493 points de test coupés des valeurs aberrantes de l'IQR).

Les erreurs de prédiction pour le modèle vont de 87 Sr/86 Sr = 0,0004 à 0,0052 (l'erreur standard de prédiction du tableau supplémentaire S6 est illustrée à la figure 5C). La répartition géographique montre une erreur standard de prédiction plus faible sur les sites des hautes terres de Cusco, Ayacucho et Huancavelica, ainsi que autour de la côte de Lima (tableau supplémentaire S6). La distribution géographique des erreurs standard de prédiction est en partie fonction de la couverture d'échantillonnage, avec les erreurs les plus faibles dans le département bien échantillonné d'Arequipa et les départements voisins du sud du Pérou (Figure 5B). Il n'y a pas de différences statistiquement significatives dans les erreurs 87 Sr/86 Sr mesurées et prévues entre les groupes en fonction de la taille du bassin hydrographique, de la zone d'altitude ou de l'âge géologique du substratum rocheux sous-jacent.

Test de l'isoscape avec les échantillons archéologiques de 12 sites coupés des valeurs aberrantes de l'IQR (m = 493) montre des performances médiocres du modèle d'eau de surface uniquement, expliquant environ un dixième (7,0 %) de la variation du tissu squelettique humain 87 Sr/ 86 Sr (Ajusté R 2 = 0,07) (Tableau supplémentaire S7). L'erreur entre l'isoscape prédit et mesuré 87 Sr/ 86 Sr pour l'ensemble de test archéologique varie de 0,0000 &# x2013 0,0089 (M = 0.0012, m = 493, voir le tableau supplémentaire S7). L'erreur standard de prédiction (incertitude) sur chaque site varie de 0,0001 à 0,0052. Le seul site avec une erreur standard de prédiction supérieure à 1 SD (Dakota du Sud = 0,0027) est la colonie Moche de la côte nord de Huaca Colorada (EPS = 0.0031, m = 16).

Yunga les échantillons archéologiques ont une erreur de prédiction significativement plus petite (Médian = 0.0007, m = 103) que côtier (Médian = 0.0012, m = 251) et montagne (Médian = 0.0014, m = 139) échantillons archéologiques selon un test Kruskal&# x2013Wallis H(2) = 8.42, p = 0,015 (Figure 6). L'erreur de prédiction est également significativement plus faible pour les échantillons provenant de sites situés dans de grands bassins versants (Médian = 0.0004, m = 222) que pour les échantillons du milieu (Médian = 0.0013, m = 102) et les petits bassins versants (Médian = 0.0013, m = 169), selon Kruskal–Wallis [H(2) = 30.35, p < 0,001] (Figure 6). L'erreur de prédiction est également plus faible pour les échantillons provenant de sites avec des dépôts de substrat rocheux sous-jacents plus récents datant du Cénozoïque (Médian = 0.0004, m = 185) et Paléozoïque (Médian = 0.0004, m = 74) que pour les échantillons avec un substratum rocheux mésozoïque sous-jacent (Médian = 0.0014, m = 234) selon un Kruskal–Wallis, [F(2) = 112.68, p < 0,001] (Figure 6).

Figure 6. (UNE) Boxplot de l'erreur prédite-mesurée dans 87 Sr/ 86 Sr pour les échantillons archéologiques de la côte, yunga, et les altitudes des hautes terres (B) Boxplot de l'erreur prédite-mesurée dans 87 Sr/ 86 Sr pour les échantillons archéologiques de petits, moyens et grands bassins versants (en hectares) et (C) erreur prédite-mesurée dans 87 Sr/ 86 Sr pour les échantillons archéologiques recouvrant des unités géologiques datant des ères cénozoïque, mésozoïque et paléozoïque (du plus récent au plus ancien substratum rocheux déposé). Les erreurs prédites-mesurées tracées proviennent de 493 échantillons archéologiques publiés, débarrassés des valeurs aberrantes de l'IQR.

Les 87 Sr/ 86 Sr archéologiques (débarrassés de leurs valeurs aberrantes IQR) se situent dans les limites de l'erreur standard de prédiction du site de la prédiction isoscape 87 Sr/ 86 Sr de l'eau pour 90,0% (451/493) des échantillons d'essai (tableau supplémentaire S8) . Plus d'échantillons archéologiques de la côte (248/251 = 98,9%) se situent dans la plage d'erreur standard de prédiction de leur site&# x2019s de l'isoscape de l'eau que yunga (87/103 = 84,5%) ou des échantillons de hautes terres (117/139 = 84,2%), et cette différence est statistiquement significative, X 2 (2) = 35.081, p < 0,001, m = 493. Un site des hautes terres a une proportion particulièrement faible de 87 Sr/ 86 Sr squelettique dans la plage d'incertitude du modèle𠅊ucun des neuf échantillons de Turpo ne correspond à la prédiction de 0,7092 ± 0,0019 (ils sont tous moins radiogéniques que prévu sur la base sur la prédiction d'isoscape) (Tableau supplémentaire S8).


Cache de tuiles d'exportation ArcGIS Android pour les niveaux supérieurs (uniquement le niveau 9 dans les échantillons) - Systèmes d'information géographique

Titre: Fonctions pour créer des tracés de qualité publication
La description: Contient plusieurs fonctions de traçage telles que les barplots, les nuages ​​de points, les cartes thermiques, ainsi que des fonctions pour combiner les tracés et aider à la création de ces tracés. Ces fonctions offriront aux utilisateurs une grande facilité d'utilisation et des options de personnalisation largement utilisées pour les applications biomédicales, ainsi que pour les tracés à usage général. Chacune des fonctions fournit également des paramètres par défaut valides pour rendre le traçage des données plus efficace et produire des tracés de haute qualité avec des schémas de couleurs standard plus simples. Toutes les fonctions de ce progiciel sont capables de produire des graphiques de la qualité nécessaire pour être présentés dans des publications et des revues scientifiques. P'ng et al. BPG : visualisation transparente, automatisée et interactive des données scientifiques BMC Bioinformatics 2019 <doi : 10.1186/s12859-019-2610-2>.
Auteur: Paul Boutros [aut, cre], Christine P'ng [ctb], Jeff Green [ctb], Stephenie Prokopec [ctb], Ontario Institute for Cancer Research [cph], The R Core Team [cph], The R Foundation [ cph], Robert Gentleman [ctb], Ross Ihaka [ctb], Caden Bugh [ctb]
Mainteneur: Paul Boutros [email protected]>

Différence entre les versions BoutrosLab.plotting.general 6.0.1 du 05-08-2020 et 6.0.2 du 11-01-2021

Titre: Approches en ondelettes des études de la synchronie en écologie et dans d'autres domaines
La description: Outils pour une approche par ondelettes d'analyse de la synchronie spatiale, principalement dans les données écologiques. Certains outils seront utiles pour étudier la synchronie communautaire.Voir, par exemple, Sheppard et al (2016) <doi : 10.1038/NCLIMATE2991>, Sheppard et al (2017) <doi : 10.1051/epjnbp/2017000>, Sheppard et al (2019) <doi : 10.1371/journal.pcbi.1006744>.
Auteur: Daniel C. Reuman [aut, cre], Thomas L. Anderson [aut], Jonathan A. Walter [aut], Lei Zhao [aut], Lawrence W. Sheppard [aut]
Mainteneur: Daniel C. Reuman [email protected]>

Différence entre les versions de wsyn 1.0.2 du 18-12-2019 et 1.0.3 du 11-01-2121

Titre: Lire et écrire les formats de fichiers binaires « las » et « laz » utilisés pour les données de télédétection
La description: lire et écrire les formats de fichiers binaires 'las' et 'laz'. Le format de fichier LAS est un format de fichier public pour l'échange de données de nuages ​​de points tridimensionnels entre les utilisateurs de données. Les spécifications LAS sont approuvées par l'American Society for Photogrammetry and Remote Sensing <https://www.asprs.org/divisions-committees/lidar-division/laser-las-file-format-exchange-activities>. Le format de fichier LAZ est un schéma de compression ouvert et sans perte pour les versions binaires du format LAS 1.0 à 1.3 <https://laszip.org/>.
Auteur: Jean-Romain Roussel [aut, cre, cph], Florian De Boissieu [aut, ctb] (Active le support du fichier .lax et des attributs d'octets supplémentaires), Martin Isenburg [cph] (Est l'auteur des bibliothèques LASlib et LASzip ), David Auty [ctb] (Revu la documentation), Pierrick Marie [ctb] (Aidée à compiler le code LASlib en R), Tiago de Conto [ctb] (Implémenté la méthode de filtrage -thin_with_voxel)
Mainteneur: Jean-Romain Roussel [email protected]>

Différence entre les versions rlas 1.3.8 du 14-12-2020 et 1.3.9 du 11-01-2121

Titre: Modèles de mélange pour le regroupement et la classification
La description: Une implémentation de 14 modèles de mélange parcimonieux pour le clustering basé sur un modèle ou la classification basée sur un modèle. Des mélanges gaussiens, hyperboliques généralisés, variance-gamma ou skew-t sont disponibles. Toutes les approches fonctionnent avec des données manquantes. Celeux et Govaert (1995) <doi:10.1016/0031-3203(94)00125-6>, Browne et McNicholas (2014) <doi:10.1007/s11634-013-0139-1>, Browne et McNicholas (2015) <doi:10.1002/cjs. 11246>.
Auteur: Nik Pocuca [aut], Ryan P. Browne [aut], Paul D. McNicholas [aut, cre]
Mainteneur: Paul D. McNicholas [email protected]>

Différence entre les versions de mélange 1.5.1 du 2020-12-12 et 2.0.0 du 2021-01-11

Titre: Analyse de données fonctionnelles et dynamique empirique
La description: Un package polyvalent qui fournit la mise en œuvre de diverses méthodes d'analyse de données fonctionnelles (FDA) et de dynamique empirique. Le cœur de ce progiciel est l'analyse en composantes principales fonctionnelles (FPCA), une technique clé pour l'analyse de données fonctionnelles, pour des trajectoires aléatoires peu ou densément échantillonnées et des cours dans le temps, via l'algorithme d'analyse principale par estimation conditionnelle (PACE). Cet algorithme de base produit des fonctions de covariance et de moyenne, des fonctions propres et une composante principale (scores), à la fois pour les données fonctionnelles et les dérivées, pour les plans d'échantillonnage denses (fonctionnels) et clairsemés (longitudinaux). Pour les plans clairsemés, il fournit des trajectoires continues ajustées avec des bandes de confiance, même pour les sujets avec très peu d'observations longitudinales. PACE est une alternative viable et flexible à la modélisation des effets aléatoires des données longitudinales. Il existe également une version Matlab (PACE) qui contient certaines méthodes non disponibles sur fdapace et vice versa. Les mises à jour de fdapace ont été financées par des subventions de NIH Echo et NSF DMS-1712864 et DMS-2014626. Veuillez citer notre package si vous l'utilisez (vous pouvez exécuter la commande citation("fdapace") pour obtenir le format de citation et l'entrée bibtex). Références : Wang, JL, Chiou, J., Müller, HG (2016) <doi:10.1146/annurev-statistics-041715-033624> Chen, K., Zhang, X., Petersen, A., Müller, HG (2017) <doi :10.1007/s12561-015-9137-5>.
Auteur: Cody Carroll [aut, cre] (<https://orcid.org/0000-0003-3525-8653>), Alvaro Gajardo [aut], Yaqing Chen [aut], Xiongtao Dai [aut], Jianing Fan [aut], Pantelis Z. Hadjipantelis [aut], Kyunghee Han [aut], Hao Ji [aut], Shu-Chin Lin [ctb], Paromita Dubey [ctb], Hans-Georg Mueller [cph, ths, aut], Jane-Ling Wang [cph, ths, aut]
Mainteneur: Cody Carroll [email protected]>

Différence entre les versions de fdapace 0.5.5 du 29-07-2020 et 0.5.6 du 11-01-2021

Titre: Tests d'adéquation de Cramer-von Mises
La description: Il est consacré aux tests d'adéquation de Cramer-von Mises. Il implémente trois méthodes statistiques basées sur les statistiques de Cramer-von Mises pour estimer et tester un modèle de régression.
Auteur: Romain Azais, Sandie Ferrigno et Marie-José Martinez
Mainteneur: Romain Azais [email protected]>

Différence entre les versions cvmgof 1.0.0 du 03/12/2018 et 1.0.3 du 11-01-2021

Titre: Tracer les données DAS à bord du navire
La description: Un programme utilitaire orienté pour créer des cartes, tracer des données et faire des résumés de données de base des données 'DAS' <https://swfsc-publications.fisheries.noaa.gov/publications/TM/SWFSC/NOAA-TM-NMFS-SWFSC- 305.PDF> produit par 'WinCruz' du Southwest Fisheries Science Center. <https://www.fisheries.noaa.gov/west-coast/science-data/california-current-marine-mammal-assessment-program>.
Auteur: Sam Woodman [aut, cre] (<https://orcid.org/0000-0001-6071-8186>), Tim Gerrodette [aut]
Mainteneur: Sam Woodman [email protected]>

Différence entre les versions CruzPlot 1.4.2 du 07-09-2020 et 1.4.3 du 11-01-2021

Titre: Analyse de matrices massives de SNP
La description: Outils faciles à utiliser, efficaces, flexibles et évolutifs pour l'analyse de matrices SNP massives <doi:10.1093/bioinformatics/bty185>.
Auteur: Florian Privé [aut, cre], Michael Blum [ths], Hugues Aschard [ths]
Mainteneur: Florian Privé [email protected]>

Différence entre les versions bigsnpr 1.5.2 du 01-11-2020 et 1.6.1 du 11-01-2121

Titre: Booster les fichiers d'en-tête C++
La description: Boost fournit des bibliothèques sources C++ portables et évaluées par des pairs. Une grande partie de Boost est fournie sous forme de code de modèle C++ qui est entièrement résolu au moment de la compilation sans lien. Ce package vise à fournir le sous-ensemble le plus utile de bibliothèques Boost pour l'utilisation de modèles parmi les packages CRAN. En plaçant ces bibliothèques dans ce package, nous offrons un système de distribution plus efficace pour CRAN car la réplication de ce code dans les sources d'autres packages est évitée. À partir de la version 1.75.0-0, les bibliothèques Boost suivantes sont incluses : 'accumulators' 'algorithm' 'align' 'any' 'atomic' 'beast' 'bimap' 'bind' 'circular_buffer' 'compute' 'concept' ' config' 'container' 'date_time' 'detail' 'dynamic_bitset' 'exception' 'flyweight' 'foreach' 'functional' 'fusion' 'geometry' 'graph' 'heap' 'icl' 'integer' 'interprocess' 'intrusive' 'io' 'iostreams' 'itérateur' 'math' 'déplacer' 'mp11' 'mpl' 'multiprécision' 'numérique' 'en attente' 'phoenix' 'polygone' 'préprocesseur' 'propery_tree' 'aléatoire' 'plage' 'scope_exit ' 'smart_ptr' 'sort' 'esprit' 'tuple' 'type_traits' 'typeof' 'unordered' 'utility' 'uuid'.
Auteur: Dirk Eddelbuettel, John W. Emerson et Michael J. Kane
Mainteneur: Dirk Eddelbuettel [email protected]>

Différence entre les versions BH 1.72.0-3 du 08-01-2020 et 1.75.0-0 du 11-01-2021

Titre: Lissage adaptatif des poids
La description: Nous fournissons une collection de fonctions R mettant en œuvre des procédures de lissage adaptatif en 1D, 2D et 3D. Cela comprend l'approche de propagation-séparation pour le lissage adaptatif, les intervalles de confiance à intersections (ICI), les approches variationnelles et un filtre de moyennes non locales. Le package est décrit en détail dans Polzehl J, Papafitsoros K, Tabelow K (2020). Patch-Wise Adaptive Weights Smoothing dans R. Journal of Statistical Software, 95(6), 1-27. <doi:10.18637/jss.v095.i06>, L'utilisation du package en neuroimagerie est illustrée dans Polzehl et Tabelow (2019), Magnetic Resonance Brain Imaging, Annexe A, Springer, Use R! Séries. <doi:10.1007/978-3-030-29184-6_6>.
Auteur: Joerg Polzehl [aut, cre], Felix Anker [ctb]
Mainteneur: Joerg Polzehl [email protected]>

Différence entre les versions aws 2.5 du 02-10-2020 et 2.5-1 du 11-01-2121

Titre: Lissage adaptatif des images numériques
La description: Implémente des outils de manipulation d'images numériques et l'approche de séparation par propagation de Polzehl et Spokoiny (2006) <DOI:10.1007/s00440-005-0464-1> pour lisser les images numériques, voir Polzehl et Tabelow (2007) <DOI:10.18637/jss.v019 .i01>.
Auteur: Karsten Tabelow [email protected]>, Joerg Polzehl [email protected]>
Mainteneur: Karsten Tabelow [email protected]>

Différence entre les versions d'adimpro 0.9.2 du 2019-11-14 et 0.9.3 du 2021-01-11

Titre: Ajouter des info-bulles aux documents « R markdown » ou aux applications « Shiny »
La description: 'Htmlwidget' de 'Tippyjs' pour ajouter des info-bulles aux applications 'Shiny' et aux documents 'R markdown'.
Auteur: John Coene [aut, cre]
Mainteneur: John Coene [email protected]>

Différence entre les versions tippy 0.0.1 du 01-07-2018 et 0.1.0 du 11-01-2121

Titre: Créer des contrôles prédictifs visuels
La description: Les contrôles prédictifs visuels sont un tracé de diagnostic couramment utilisé en pharmacométrie, montrant comment certaines statistiques (centiles) pour les données observées se comparent à ces mêmes statistiques pour les données simulées à partir d'un modèle. Le package peut générer des VPC pour des données de durée d'événement continues, catégorielles, censurées et (répétées).
Auteur: Ron Keizer [email protected]>
Mainteneur: Ron Keizer [email protected]>

Différence entre les versions vpc 1.2.1 du 01/06/2020 et 1.2.2 du 11-01-2021

Titre: Afficher les éléments 'HTML' en plein écran dans les applications 'Shiny'
La description: Dans les applications 'Shiny', il est parfois utile de voir un tracé ou un tableau en plein écran. En utilisant 'Shinyfullscreen', vous pouvez facilement désigner les éléments 'HTML' qui peuvent être affichés en plein écran et utiliser des boutons pour déclencher la vue plein écran.
Auteur: Etienne Bacher [aut, cre, cph]
Mainteneur: Etienne Bacher [email protected]>

Différence entre les versions shinyfullscreen 1.0.0 du 16-12-2020 et 1.1.0 du 11-01-2121

Titre: Services d'authentification pour Azure Active Directory
La description: Fournit la fonctionnalité d'authentification Azure Active Directory (AAD) pour les utilisateurs R du cloud « Azure » de Microsoft <https://azure.microsoft.com/>. Utilisez ce package pour obtenir des jetons « OAuth » 2.0 pour des services tels que Azure Resource Manager, Azure Storage et d'autres. Il prend en charge à la fois AAD v1.0 et v2.0, ainsi que plusieurs méthodes d'authentification, y compris le code de l'appareil et l'attribution du propriétaire de la ressource. Les jetons sont mis en cache dans un répertoire spécifique à l'utilisateur obtenu à l'aide du package « rappdirs ». L'interface est basée sur le framework 'OAuth' dans le package 'httr', mais personnalisée et rationalisée pour Azure. Fait partie de la famille de forfaits 'AzureR'.
Auteur: Hong Ooi [aut, cre], équipe de développement httr [ctb] (Original OAuth listener code), Scott Holden [ctb] (Conseils sur l'authentification AAD), Chris Stone [ctb] (Conseils sur l'authentification AAD), Microsoft [cph]
Mainteneur: Hong Ooi [email protected]>

Différence entre les versions AzureAuth 1.2.5 du 2020-10-12 et 1.3.0 du 2021-01-11

Titre: Analyse de sensibilité globale des sorties du modèle
La description: Une collection de fonctions pour le filtrage des facteurs, l'analyse de sensibilité globale et l'analyse de robustesse. La plupart des fonctions doivent être appliquées sur un modèle avec sortie scalaire, mais plusieurs fonctions prennent en charge des sorties multidimensionnelles.
Auteur: Bertrand Iooss, Sébastien Da Veiga, Alexandre Janon et Gilles Pujol, avec des contributions de Baptiste Broto, Khalid Boumhaout, Thibault Delage, Reda El Amri, Jana Fruth, Laurent Gilquin, Joseph Guillaume, Marouane Il Idrissi, Loic Le Gratiet, Paul Lemaitre, Amandine Marrel, Anouar Meynaoui, Barry L. Nelson, Filippo Monari, Roelof Oomen, Oldrich Rakovec, Bernardo Ramos, Olivier Roustant, Eunhye Song, Jeremy Staum, Roman Sueur, Taieb Touati, Frank Weber
Mainteneur: Bertrand Iooss [email protected]>

Différence entre les versions de sensibilité 1.23.1 du 08-12-2020 et 1.24.0 du 11-01-2021

Titre: Localisez les toilettes adaptées aux trans et aux personnes intersexes
La description: Accédez à l'API « Refuge », une application Web permettant de localiser des toilettes adaptées aux personnes trans et intersexes, y compris des toilettes unisexes et accessibles. Comprend des données sur l'emplacement des toilettes, ainsi que des instructions, des commentaires, des évaluations des utilisateurs et des équipements. La couverture est mondiale, mais les données sont les plus complètes aux États-Unis. Voir <https://www.refugerestrooms.org/api/docs/> pour la documentation complète de l'API.
Auteur: Evan Odell [aut, cré] (<https://orcid.org/0000-0003-1845-808X>)
Mainteneur: Evan Odell [email protected]>

Différence entre les versions de refuge 0.3.0 du 03/12/2018 et 0.3.3 du 11-01-2021

Titre: Estimer le modèle autorégressif de vecteur de mélange gaussien
La description: Estimation du maximum de vraisemblance sans contrainte et contrainte du modèle autorégressif à vecteur de mélange gaussien structurel et réduit (GMVAR), tests de résidus quantiles, diagnostics graphiques, simulations, prévisions et estimation de la fonction de réponse impulsionnelle généralisée. Leena Kalliovirta, Mika Meitz, Pentti Saikkonen (2016) <doi:10.1016/j.jeconom.2016.02.012>, Savi Virolainen (2020) <arXiv:2007.04713>.
Auteur: Savi Virolainen [aut, cre]
Mainteneur: Savi Virolainen [email protected]>

Différence entre les versions de gmvarkit 1.3.0 du 16-12-2020 et 1.4.0 du 11-01-2121

Titre: Fonctions statistiques pour la conception d'études avec des critères composites
La description: Il a été conçu pour calculer la taille d'échantillon requise dans les essais cliniques randomisés avec des critères composites. Ce package comprend également des fonctions pour calculer la probabilité d'observer le point final composite et l'effet attendu sur le point final composite, entre autres. Les méthodes mises en œuvre se trouvent dans Bofill & Gómez (2019) <doi:10.1002/sim.8092> et Gómez & Lagakos (2013) <doi:10.1002/sim.5547>.
Auteur: Marta Bofill Roig [aut, cre], Jordi Cortes Martinez [aut], Guadalupe Gomez Melis [ctb]
Mainteneur: Marta Bofill Roig [email protected]>

Différence entre les versions CompAREdesign 1.5 du 09-12-2020 et 1.6 du 11-01-2021

Titre: Analysez les performances du cricket sur la base des données de Cricsheet
La description: Analyse des performances des joueurs de cricket et des équipes de cricket sur la base des données de match « yaml » de Cricsheet <https://cricsheet.org/>.
Auteur: Tinniam V Ganesh
Mainteneur: Tinniam V Ganesh [email protected]>

Différence entre les versions de yorkr 0.0.12 du 2020-12-12 et 0.0.17 du 2021-01-11

Titre: Calcul déterministe des métriques de zone de texte
La description: Contrairement à d'autres outils qui se lient dynamiquement à la pile 'Le Caire', 'freetypeharfbuzz' est statiquement lié à des versions spécifiques des bibliothèques 'FreeType' et 'harfbuzz' (respectivement 2.9 et 1.7.6). Cela garantit un calcul déterministe de l'étendue des zones de texte pour les situations où des résultats reproductibles sont cruciaux (par exemple, les tests unitaires des graphiques).
Auteur: Lionel Henry [aut, cre], RStudio [cph], David Turner [aut] (Bibliothèque FreeType), Robert Wilhelm [aut] (Bibliothèque FreeType), Werner Wilhelm [aut] (Bibliothèque FreeType), Behdad Esfahbod [aut] ( Bibliothèque Harfbuzz), Simon Hausmann [aut] (Bibliothèque Harfbuzz), Martin Hosken [aut] (Bibliothèque Harfbuzz), Jonathan Kew [aut] (Bibliothèque Harfbuzz), Lars Knoll [aut] (Bibliothèque Harfbuzz), Werner Lemberg [aut] ( Bibliothèque Harfbuzz), Roozbeh Pournader [aut] (Bibliothèque Harfbuzz), Owen Taylor [aut] (Bibliothèque Harfbuzz), David Turner [aut] (Bibliothèque Harfbuzz), Red Hat [cph] (Bibliothèque Harfbuzz)
Mainteneur: Lionel Henry [email protected]>

Différence entre les versions freetypeharfbuzz 0.2.5 du 30-10-2018 et 0.2.6 du 11-01-2121

Titre: Utilitaires pour les vecteurs de géométrie bien connus
La description: Fournit des utilitaires supplémentaires pour les formats bien connus dans le package 'wk' qui sont en dehors de la portée de ce package. Des utilitaires pour analyser les coordonnées à partir de blocs de données, tracer des vecteurs géométriques connus, extraire des méta-informations à partir de vecteurs géométriques connus et calculer des cadres de délimitation sont fournis.
Auteur: Dewey Dunnington [aut, cre] (<https://orcid.org/0000-0002-9415-4582>)
Mainteneur: Dewey Dunnington [email protected]>

Différence entre les versions 0.1.0 de wkutils du 30/07/2020 et 0.1.1 du 11-01-2021

Titre: Évaluation de modèle linéaire avec des résidus aléatoires dans une procédure de permutation
La description: Les calculs de modèle linéaire sont effectués pour de nombreuses versions aléatoires de données. En utilisant la randomisation résiduelle dans une procédure de permutation, des sommes de carrés sont calculées sur de nombreuses permutations pour générer des distributions de probabilité empiriques pour évaluer les effets du modèle. Cet emballage est décrit par Collyer & Adams (2018) <doi:10.1111/2041-210X.13029>. De plus, les coefficients, les statistiques, les valeurs ajustées et les résidus générés sur de nombreuses permutations peuvent être utilisés pour diverses procédures, notamment les tests par paires, la prédiction, la classification et la comparaison de modèles. Ce package devrait fournir la plupart des outils dont on pourrait avoir besoin pour l'analyse de données de grande dimension, en particulier en écologie et en biologie évolutive, mais certainement dans d'autres domaines également.
Auteur: Michael Collyer [aut, cre], Dean Adams [aut]
Mainteneur: Michael Collyer [email protected]>

Différence entre les versions RRPP 0.6.1 du 24-06-2020 et 0.6.2 du 11-01-2021

Titre: Modélisation Dynamique Empirique ('EDM')
La description: Une implémentation d'algorithmes 'EDM' basée sur un logiciel de recherche développé pour un usage interne au Sugihara Lab ('UCSD/SIO'). Le package est implémenté avec des wrappers 'Rcpp' autour de la bibliothèque 'cppEDM'. Il implémente la méthode de projection 'simplex' de Sugihara & May (1990) <doi:10.1038/344734a0>, l'algorithme 'S-map' de Sugihara (1994) <doi:10.1098/rsta.1994.0106>, la cartographie croisée convergente décrite dans Sugihara et al . (2012) <doi:10.1126/science.1227079>, et "l'intégration multivue" décrite dans Ye & Sugihara (2016) <doi:10.1126/science.aag0863>.
Auteur: Joseph Park [aut, cre] (<https://orcid.org/0000-0001-5411-1409>), Cameron Smith [aut], George Sugihara [aut, ccp] (<https://orcid.org/0000- 0002-2863-6946>), Ethan Deyle [aut] (<https://orcid.org/0000-0001-8704-8434>), Erik Saberski [ctb] (<https://orcid.org/0000-0002-6475- 6187>), Hao Ye [ctb] (<https://orcid.org/0000-0002-8630-1458>), Les régents de l'Université de Californie [cph]
Mainteneur: Joseph Park [email protected]>

Différence entre les versions rEDM 1.7.3 du 04/01/2021 et 1.7.4 du 11-01-2021

Titre: Forêts aléatoires pour les données dépendantes
La description: Ajuste les modèles de régression non linéaire sur les données dépendantes avec la forêt aléatoire basée sur les moindres carrés généralisés (GLS) (RF-GLS) détaillés dans Saha, Basu et Datta (2020) <arXiv:2007.15421>.
Auteur: Arkajyoti Saha [aut, cre], Sumanta Basu [aut], Abhirup Datta [aut]
Mainteneur: Arkajyoti Saha [email protected]>

Différence entre les versions 0.1.0 de RandomForestsGLS du 08/01/2021 et 0.1.1 du 11-01-2021

Titre: Périphériques graphiques basés sur AGG
La description: Anti-Grain Geometry (AGG) est une bibliothèque de dessins 2D de haute qualité et haute performance. Le package 'ragg' fournit un ensemble de périphériques graphiques basés sur AGG à utiliser comme alternative aux périphériques raster fournis via le package 'grDevices'.
Auteur: Thomas Lin Pedersen [cre, aut] (<https://orcid.org/0000-0002-5147-4711>), Maxim Shemanarev [aut, cph] (Auteur de AGG), Tony Juricic [ctb, cph] (Contributeur à AGG), Milan Marusinec [ctb, cph] (Contributeur à AGG), Spencer Garrett [ctb] (Contributeur à AGG), RStudio [cph]
Mainteneur: Thomas Lin Pedersen [email protected]>

Différence entre les versions ragg 0.4.0 du 05-10-2020 et 0.4.1 du 11-01-2121

Titre: Estimation séquentielle et par lots efficace des fonctions de densité de probabilité univariées et bivariées et des fonctions de distribution cumulative ainsi que des quantiles (univariés) et de la corrélation de Spearman (bivariées)
La description: Facilite l'estimation des fonctions de densité de probabilité univariées et bivariées complètes et des fonctions de distribution cumulative ainsi que des fonctions quantiles complètes (univariée) et la corrélation de rang de Spearman (bivariée) à l'aide d'estimateurs basés sur des séries d'Hermite. Ces estimateurs sont particulièrement utiles dans le cadre de l'estimation séquentielle (à la fois stationnaire et non stationnaire) et de l'estimation par lots en un seul passage pour les grands ensembles de données. D'après : Stephanou, Michael, Varughese, Melvin et Macdonald, Iain. "Quantiles séquentiels via l'estimation de la densité de la série Hermite." Journal électronique des statistiques 11.1 (2017) : 570-607 <doi:10.1214/17-EJS1245>, Stephanou, Michael et Varughese, Melvin. "Sur les propriétés des estimateurs de fonction de distribution basés sur des séries d'Hermite." Metrika (2020) <doi:10.1007/s00184-020-00785-z> et Stephanou, Michael et Varughese, Melvin. "Estimation séquentielle de la corrélation non paramétrique à l'aide d'estimateurs de la série Hermite." Préimpression arXiv (2020) <arXiv:2012.06287>.
Auteur: Michael Stephanou [aut, cre], Melvin Varughese [ctb]
Mainteneur: Michael Stéphanou [email protected]>

Différence entre les versions d'ermiter 2.0.0 du 14-12-2020 et 2.0.2 du 11-01-2121

Titre: LASSO graphique conditionnel pour les modèles graphiques gaussiens avec des valeurs censurées et manquantes
La description: L'estimateur conditionnel au lasso graphique est une extension du lasso graphique proposé pour estimer la structure de dépendance conditionnelle d'un ensemble de p variables de réponse étant donné q prédicteurs. Ce package fournit des extensions appropriées développées pour étudier des ensembles de données avec des valeurs censurées et/ou manquantes. Le lasso graphique conditionnel standard est disponible comme cas particulier. En outre, le package fournit un ensemble intégré de routines de base pour la visualisation, l'analyse et la simulation d'ensembles de données avec des valeurs censurées et/ou manquantes tirées d'un modèle graphique gaussien. Des détails sur les modèles mis en œuvre peuvent être trouvés dans Augugliaro et al. (2020b) <doi<10.1007/s11222-020-09945-7>>, Augugliaro et al. (2020a) <doi<10.1093/biostatistics/kxy043>>, Yin et al. (2001) <doi<10.1214/11-AOAS494>> et Stadler et al. (2012) <doi<10.1007/s11222-010-9219-7>>.
Auteur: Luigi Augugliaro [aut, cre] (<https://orcid.org/0000-0002-4603-7541>), Gianluca Sottile [aut] (<https://orcid.org/0000-0001-9347-7251>), Ernst C. Wit [aut] (<https://orcid.org/0000-0002-3671-9610>), Veronica Vinciotti [aut] (<https://orcid.org/0000-0002-2625-7977>)
Mainteneur: Luigi Augugliaro [email protected]>

Différence entre les versions 2.0.0 de cglasso du 05-01-21 et 2.0.1 du 11-01-2121

Titre: Applications « brillantes » prêtes pour le mobile avec des capacités autonomes
La description: Développez des applications « brillantes » exceptionnelles pour « iOS », « Android », ainsi que de beaux gadgets « brillants ». 'shinyMobile' est construit sur le dernier modèle 'Framework7' <https://framework7.io>. Découvrez 14 nouveaux widgets de saisie (curseurs, curseurs verticaux, pas à pas, boutons d'action groupés, bascules, sélecteur, sélection intelligente, . ), 2 thèmes (clair et foncé), 12 nouveaux widgets (cartes extensibles, badges, puces, timelines, jauges, barres de progression, . ) combinées à la puissance des notifications côté serveur telles que les alertes, les mods, les toasts, les feuilles d'action, les feuilles (et plus) ainsi que 3 mises en page (simple, onglets et fractionné).
Auteur: David Granjon [aut, cre], Victor Perrier [aut], John Coene [ctb], Isabelle Rudolf [aut], Marvelapp [ctb, cph] (device.css wrappers), Vladimir Kharlampidi [ctb, cph] (Framework7 HTML modèle)
Mainteneur: David Granjon [email protected]>

Différence entre les versions shinyMobile 0.7.0 du 17-06-2020 et 0.8.0 du 11-01-2021

Titre: Traitement des chiffres chinois
La description: traitement des chiffres chinois dans R, comme la conversion entre les chiffres chinois et les chiffres arabes ainsi que la détection et l'extraction de chiffres chinois dans les objets caractères et les chaînes. Ce package prend en charge le système de nommage des échelles occasionnelles et les systèmes de préfixe SI respectifs utilisés en Chine continentale et à Taïwan : « Unités de mesure statutaires de la Chine » Administration d'État pour la réglementation du marché (2019) <http://gkml.samr.gov.cn/nsjg/jls /201902/t20190225_291134.html> "Noms, définitions et symboles des unités de mesure légales et des multiples et sous-multiples décimaux" Ministère des Affaires économiques (2019) <https://gazette.nat.gov.tw/egFront/detail.do? metaid=108965>.
Auteur: Elgar Teo [aut, cre]
Mainteneur: Elgar Teo [email protected]>

Différence entre les versions cnum 0.1.2 du 02-05-2020 et 0.1.3 du 11-01-2021

Titre: Tableaux de fréquence faciles
La description: Générer des tables de fréquences de style 'SPSS'/'SAS'. Les tableaux de fréquence sont générés avec des attributs d'étiquette de variable et de valeur, le cas échéant, avec une sortie html facultative pour examiner rapidement les ensembles de données.
Auteur: Alistair Wilcox
Mainteneur: Alistair Wilcox <fré[email protected]>

Différence entre les versions de fréquence 0.4.0 du 05-04-2020 et 0.4.1 du 11-01-2021

Titre: Un test robuste et puissant des rendements boursiers anormaux dans les études d'événements à long horizon
La description: Basé sur Dutta et al. (2018) <doi:10.1016/j.jempfin.2018.02.004>, ce package fournit leur test standardisé pour les rendements anormaux dans les études d'événements à long terme. Les méthodes utilisées améliorent les principales faiblesses de taille, de puissance et de robustesse des tests statistiques à long terme décrits dans Kothari/Warner (2007) <doi:10.1016/B978-0-444-53265-7.50015-9>. Les rendements anormaux sont pondérés par leur précision statistique (c'est-à-dire l'écart-type), ce qui entraîne des rendements normalisés anormaux. Cette procédure capture efficacement le problème d'hétéroscédasticité. Les techniques de clustering suivant Cameron et al. (2011) <doi:10.1198/jbes.2010.07136> sont adoptés pour le calcul des erreurs types robustes de corrélation transversale. Les tests statistiques de ce package tiennent donc compte des biais potentiels résultant de la corrélation transversale des rendements, de l'autocorrélation et du regroupement de la volatilité sans perte de puissance.
Auteur: Siegfried Köstlmeier [aut, cre] (<https://orcid.org/0000-0002-7221-6981>), Seppo Pynnonen [aut]
Mainteneur: Siegfried Köstlmeier [email protected]>

Différence entre crseEventStudy versions 1.2 du 2019-08-20 et 1.2.1 du 2021-01-11

Titre: Allocation d'échantillonnage à plusieurs étages et sélection de PSU
La description: Allocation optimale multivariée pour différents domaines dans un plan d'échantillonnage stratifié à un et deux degrés. R2BEAT étend la méthode d'allocation Neyman (1934) – Tschuprow (1923) au cas de plusieurs variables, en adoptant une généralisation de la proposition de Bethel (1989). R2BEAT développe cette méthodologie mais, de plus, elle permet de déterminer la répartition de l'échantillon dans le cas multivarié et multi-domaines des estimations pour des échantillons stratifiés à deux degrés. Il permet également d'effectuer la sélection des unités de l'étage primaire. Ce package nécessite la disponibilité de ReGenesees, qui peut être installé à partir de <https://github.com/DiegoZardetto/ReGenesees>.
Auteur: Andrea Fasulo,Giulio Barcaroli,Raffaella Cianchetta,Stefano Falorsi,Alessio Guandalini,Daniela Pagliuca,Marco Dionisio Terribili
Mainteneur: Andrea Fasulo [email protected]>

Différence entre les versions R2BEAT 1.0.1 du 13-01-2020 et 1.0.2 du 11-01-2021

Titre: Échantillonnage de nombres aléatoires permanents
La description: Échantillonnage d'enquête utilisant des nombres aléatoires permanents (PRN). Une solution au problème du chevauchement inconnu entre les échantillons d'enquête, qui conduit à une faible précision des estimations lorsque l'enquête est répétée ou combinée avec d'autres enquêtes. La solution PRN consiste à fournir les nombres aléatoires U(0, 1) à la procédure d'échantillonnage, au lieu de les faire générer par la procédure d'échantillonnage. Dans Lindblom (2014) <doi:10.2478/jos-2014-0047>, et dans les articles cités, il est montré comment cela est effectué et comment cela améliore les estimations. Ce progiciel prend en charge deux procédures d'échantillonnage courantes à taille fixe (échantillonnage aléatoire simple et échantillonnage probabiliste proportionnel à la taille) et comprend une fonction de transformation des PRN afin de contrôler le chevauchement de l'échantillon.
Auteur: Kira Coder Gylling
Mainteneur: Kira Coder Gylling [email protected]>

Différence entre les versions prnsamplr 0.1.1 du 09-02-2020 et 0.2.0 du 11-01-2121

Titre: Interface vers l'outil de suivi et de gestion des expériences « Neptune »
La description: Interface vers 'Neptune', outil de suivi des expériences qui vous aide à organiser vos expériences d'apprentissage automatique. Vous pouvez enregistrer votre hyperparamètre, vos métriques, vos modèles binaires et vos graphiques de performances, les organiser avec des balises et des noms et tout partager facilement dans l'application. Pour plus d'informations, consultez <https://neptune.ai/>.
Auteur: Mateusz Dominiak [aut], Jakub Czakon [aut, cre]
Mainteneur: Jakub Czakon [email protected]>

Différence entre les versions de neptune 0.1.0 du 25-03-2020 et 0.1.2 du 11-01-2021

Titre: Régression de processus gaussien pour l'analyse de données fonctionnelles
La description: Fonctionnalités de modélisation de données fonctionnelles avec des entrées multidimensionnelles, des données fonctionnelles multivariées et une structure de covariance non séparable et/ou non stationnaire de processus à valeurs fonctionnelles. De plus, il existe des fonctionnalités pour les modèles de régression fonctionnelle où la fonction moyenne dépend de covariables scalaires et/ou fonctionnelles et la structure de covariance dépend de covariables fonctionnelles. La version de développement du package est disponible sur <https://github.com/gpfda/GPFDA-dev>.
Auteur: Jian Qing Shi, Yafeng Cheng, Evandro Konzen
Mainteneur: Evandro Konzen [email protected]>

Différence entre les versions GPFDA 2.2 du 29/09/2014 et 3.0.0 du 11-01-2021

Titre: Outils de calcul sur les systèmes batch
La description: En tant que successeur des packages 'BatchJobs' et 'BatchExperiments', ce package fournit une implémentation parallèle de la fonction Map pour les systèmes de calcul haute performance gérés par les planificateurs 'IBM Spectrum LSF' (<https://www.ibm.com/products /hpc-workload-management>), 'OpenLava' (<https://www.openlava.org/>), 'Univa Grid Engine'/'Oracle Grid Engine' (<https://www.univa.com/>), 'Slurm' (<https://slurm.schedmd.com/>), 'TORQUE/PBS' (<https://adaptivecomputing.com/cherry-services/torque-resource-manager/>), ou 'Docker Swarm' ( <https://docs.docker.com/engine/swarm/>). Un mode multicœur et socket permettent la parallélisation sur des machines locales, et plusieurs machines peuvent être connectées via SSH pour créer un cluster de fortune. De plus, le package fournit un mécanisme d'abstraction pour définir des expériences informatiques à grande échelle d'une manière bien organisée et reproductible.
Auteur: Michel Lang [cre, aut] (<https://orcid.org/0000-0001-9754-0393>), Bernd Bischl [aut], Dirk Surmann [ctb] (<https://orcid.org/0000-0003- 0873-137X>)
Mainteneur: Michel Lang [email protected]>

Différence entre les versions batchtools 0.9.14 du 21-10-2020 et 0.9.15 du 11-01-2121

Titre: Modèles Logistiques Vectoriels à Transition Lisse / Construction de Covariances Réalisées
La description: Permet à l'utilisateur d'estimer un modèle autorégressif de transition fluide logistique vectorielle via la log-vraisemblance maximale ou les moindres carrés non linéaires. Il permet en outre de tester la linéarité dans le cadre multivarié par rapport à un modèle autorégressif de transition fluide logistique vectorielle avec une seule variable de transition. La méthode d'estimation est discutée dans Terasvirta et Yang (2014, <doi:10.108/S0731-9053(2013)0000031008>). De plus, les covariances réalisées peuvent être construites à partir des cours ou des rendements boursiers, comme expliqué dans Andersen et al. (2001, <doi:10.1016/S0304-405X(01)00055-1>).
Auteur: Andrea Bucci [aut, cre, cph], Giulio Palomba [aut], Eduardo Rossi [aut], Andrea Faragalli [ctb]
Mainteneur: Andrea Bucci [email protected]>

Différence entre les versions 1.1.1 du 17/09/2020 et 1.1.2 du 11-01-2021

Titre: Manipulations de maillages triangulaires basées sur l'API 'VCGLIB'
La description: Opérations sur des maillages triangulaires basées sur 'VCGLIB'. Ce package s'intègre parfaitement avec le R-package 'rgl' pour rendre les maillages traités par 'Rvcg'. La bibliothèque de visualisation et d'infographie (VCG en abrégé) est une bibliothèque de modèles C++ portable et open source pour la manipulation, le traitement et l'affichage avec OpenGL de maillages triangulaires et tétraédriques. La bibliothèque, composée de plus de 100 000 lignes de code, est publiée sous licence GPL et constitue la base de la plupart des outils logiciels du Visual Computing Lab de l'Institut du Conseil national de la recherche italien ISTI <http://vcg.isti .cnr.it>, comme 'metro' et 'MeshLab'. La source 'VCGLIB' est extraite du tronc <https://github.com/cnr-isti-vclab/vcglib> et corrigée pour fonctionner avec les options déterminées par le script de configuration ainsi que pour fonctionner avec les fichiers d'en-tête inclus par 'RcppEigen'.
Auteur: Stefan Schlager [aut, cre, cph], Girinon François [ctb]
Mainteneur: Stefan Schlager [email protected]>

Différence entre les versions Rvcg 0.19.1 du 2020-02-07 et 0.19.2 du 2021-01-11

Titre: Maille quadrangulaire
La description: créez des formes de surface à partir de données matricielles ou « raster » pour un traçage flexible et une conversion vers d'autres types de maillage. Les fonctions 'quadmesh' ou 'triangmesh' produisent une surface continue en tant qu'objet 'mesh3d' tel qu'utilisé par le package 'rgl'. Ceci est utilisé pour tracer des données raster en 3D (éventuellement avec texture) et permet l'application d'une projection cartographique sans perte de données et de nombreuses applications de traitement qui sont limitées par des rasters de grille réguliers inflexibles. Il existe des formes discrètes de ces surfaces continues disponibles avec les fonctions « dquadmesh » et « dtriangmesh ».
Auteur: Michael D. Sumner [aut, cre]
Mainteneur: Michael D. Sumner [email protected]>

Différence entre les versions de quadmesh 0.4.5 du 15/04/2020 et 0.5.0 du 11-01-2021

Titre: Pluraliser des phrases
La description: convertit les expressions anglaises au singulier ou au pluriel en fonction de la longueur d'un vecteur associé. Contient des fonctions d'assistance pour créer des listes en langage naturel à partir de vecteurs et pour inclure la longueur d'un vecteur en langage naturel.
Auteur: Alexander Rossell Hayes [aut, cre, cph] (<https://orcid.org/0000-0001-9412-0457>)
Mainteneur: Alexander Rossell Hayes [email protected]>

Différence entre les versions plu 0.1.1 du 03/09/2020 et 0.2.0 du 11-01-2021

Titre: Polices 'Google' hors ligne pour 'Markdown' et 'Shiny'
La description: Téléchargez les polices « Google » et générez des « CSS » à utiliser dans les documents « rmarkdown » et les applications « brillantes ». Certaines polices populaires sont incluses et prêtes à l'emploi.
Auteur: Victor Perrier [aut, cre], Fanny Meyer [aut], Mario Ranftl [ctb, cph] (google-webfonts-helper)
Mainteneur: Victor Perrier [email protected]>

Différence entre les versions 0.1.1 de gfonts du 2020-05-09 et 0.1.2 du 2021-01-11

Titre: Imputation simple
La description: Interfaces faciles à utiliser pour un certain nombre de méthodes d'imputation qui s'intègrent dans l'opérateur not-a-pipe du package 'magrittr'.
Auteur: Mark van der Loo [aut, cre]
Mainteneur: Mark van der Loo [email protected]>

Différence entre les versions de simulation 0.2.4 du 13/03/2020 et 0.2.5 du 11-01-2021

Titre: Outils : Statistiques de fenêtre mobile, GIF, Base64, ROC AUC, etc.
La description: Contient plusieurs fonctions utilitaires de base, notamment : fonctions de statistiques de fenêtre mobile (déplacement, exécution), lecture/écriture pour les fichiers binaires GIF et ENVI, calcul rapide de l'AUC, classificateur LogitBoost, encodeur/décodeur base64, somme sans erreur arrondie et cumsum, etc.
Auteur: Jarek Tuszynski [email protected]>
Mainteneur: Michael Dietze [email protected]>

Différence entre les versions de caTools 1.18.0 du 17-01-2020 et 1.18.1 du 11-01-2021

Titre: Une boîte à outils pour les fichiers PDF
La description: Fournit une fonction pour manipuler les fichiers PDF : remplir des formulaires PDF fusionner plusieurs fichiers PDF en un seul supprimer les pages sélectionnées d'un fichier renommer plusieurs fichiers dans un répertoire faire pivoter le document pdf entier faire pivoter les pages sélectionnées d'un fichier pdf sélectionner les pages d'un fichier diviser un seul PDF d'entrée document en pages individuelles divise le document PDF d'entrée unique en parties à partir de points donnés. 'staplr' nécessite Java 8 installé sur votre système.
Auteur: Priyanga Dilini Talagala [aut, cre], Ogan Mancarci [aut], Daniel Padfield [aut], Granville Matheson [aut]
Mainteneur: Priyanga Dilini Talagala [email protected]>

Différence entre les versions de staplr 3.1.0 du 28-08-2020 et 3.1.1 du 11-01-2021

Titre: Gestion de projets déterministes et stochastiques
La description: Problèmes de gestion de projets déterministes et stochastiques. Il obtient la durée d'un projet et la marge appropriée pour chaque activité dans un contexte déterministe. De plus, il obtient un calendrier des activités (Castro, Gómez & Tejada (2007) <doi:10.1016/j.orl.2007.01.003>). Il permet également la gestion des ressources. Lorsque le projet est terminé et que la durée réelle de chaque activité est connue, il peut alors savoir combien de temps le projet est retardé et effectuer une livraison équitable du délai entre chaque activité (Bergantiños, Valencia-Toledo & Vidal-Puga (2018) <doi:10.1016/j.dam.2017.08.012>). Dans un contexte stochastique, il peut estimer la durée moyenne du projet et tracer la densité de cette durée, ainsi que la densité des premiers et derniers temps des activités choisies. Comme dans le cas déterministe, il peut faire une répartition du retard généré en observant le projet déjà réalisé.
Auteur: Juan Carlos Gonçalves Dosantos [aut, cre], Ignacio García Jurado [aut], Julián Costa Bouzas [aut]
Mainteneur: Juan Carlos Gonçalves Dosantos [email protected]>

Différence entre les versions ProjectManagement 1.3.3 du 2020-05-14 et 1.3.7 du 2021-01-11

Titre: Liaison de R avec le logiciel Open Source 'SAGA-GIS'
La description: Fournit une interface de script R au logiciel open source 'SAGA-GIS' (System for Automated Geoscientific Analyzes Geographical Information System). 'Rsagacmd' génère dynamiquement des fonctions R pour chaque outil de géotraitement 'SAGA-GIS' en fonction de la version 'SAGA-GIS' actuellement installée par l'utilisateur. Ces fonctions sont contenues dans un objet S3 et sont accessibles sous la forme d'une liste nommée de bibliothèques et d'outils. Cette structure facilite une expérience de scriptage plus facile en organisant le grand nombre d'outils de géotraitement 'SAGA-GIS' (>700) par leur bibliothèque respective. Les scripts interactifs peuvent tirer pleinement parti des outils de saisie semi-automatique du code (par exemple dans 'Rstudio'), permettant à la syntaxe de chaque outil d'être rapidement reconnue. De plus, les types de données spatiales les plus courants (via les packages 'raster', 'terra', 'sp' et 'sf') ainsi que les données non spatiales sont automatiquement passés de R à la ligne de commande 'SAGA-GIS' pour les opérations de géotraitement, et les résultats sont chargés en tant qu'objet R approprié. Les sorties des outils 'SAGA-GIS' individuels peuvent également être enchaînées à l'aide de tuyaux des packages 'magrittr' et 'dplyr' pour combiner des opérations de géotraitement complexes dans une seule instruction. 'SAGA-GIS' est disponible sous une licence GPLv2 / LGPLv2 de <https://sourceforge.net/projects/saga-gis/>, y compris les binaires Windows x86/x84. SAGA-GIS est également inclus dans les référentiels logiciels par défaut Debian/Ubuntu et est disponible pour macOS en utilisant homebrew (<https://brew.sh/>) à partir de osgeo/osgeo4mac (<https://github.com/OSGeo/homebrew-osgeo4mac> ) robinet de formule. Rsagacmd a actuellement été testé sur les versions 'SAGA-GIS' de 2.3.1 à 7.9.0 sur Windows, Linux et macOS.
Auteur: Steven Pawley [aut, cré]
Mainteneur: Steven Pawley [email protected]>

Différence entre les versions Rsagacmd 0.0.9 du 2020-06-12 et 0.1.0 du 2021-01-11

Titre: Estimation pénalisée de type Ridge d'un pot-pourri de modèles
La description: Le nom du package est dérivé du français, 'pour' ridge, et fournit des fonctionnalités pour l'estimation de type ridge d'un pot-pourri de modèles. Actuellement, cette estimation concerne celle de divers modèles graphiques gaussiens issus de différents plans d'étude. Entre autres, il considère le modèle graphique gaussien régulier et un mélange de tels modèles. Le paquet de bouillies met en œuvre l'estimation de la première soit à partir de i) données avec des observations répliquées par maximisation de la logvraisemblance pénalisée en utilisant la pénalité de crête régulière sur les paramètres (van Wieringen, Chen, 2019) ou ii) à partir de données non répliquées au moyen du estimateur de crête généralisé qui permet à la fois l'inclusion d'informations a priori quantitatives et qualitatives sur la matrice de précision via une pénalisation et un retrait par élément (van Wieringen, 2019, <doi:10.1080/10618600.2019.1604374>). De plus, le paquet de bouillie facilite l'estimation pénalisée par la crête d'un mélange de modèles graphiques gaussiens (Aflakparast et al., 2018, <doi:10.1002/bimj.201700102>).
Auteur: Wessel N. van Wieringen [aut, cre], Mehran Aflakparast [ctb] (partie du R-code de la fonctionnalité de mélange)
Mainteneur: Wessel N. van Wieringen [email protected]>

Différence entre les versions de bouillie 0.1.0 du 2020-05-18 et 0.1.1 du 2021-01-11

Titre: Tests d'adéquation à l'aide de l'écart de Stein Kernelized
La description: Une adaptation de Kernelized Stein Disrepancy, ce package fournit un test de qualité d'ajustement pour savoir si un i.i.d. échantillon est tiré d'une distribution donnée. Il fonctionne pour n'importe quelle distribution une fois que sa fonction de score (la dérivée de la densité logarithmique) peut être fournie. Cette méthode est basée sur "A Kernelized Stein Disrepancy for Goodness-of-Fit Tests and Model Evaluation" de Liu, Lee et Jordan, disponible sur <arXiv:1602.03253>.
Auteur: Min Hyung Kang [aut, cre], Qiang Liu [aut]
Mainteneur: Min Hyung Kang [email protected]>

Différence entre les versions KSD 1.0.0 du 31-07-2016 et 1.0.1 du 11-01-2021

Titre: Stockage, manipulation et analyse Spectroscopie et données associées
La description: Stocke et facilite la manipulation des spectres et des données associées, avec des classes dédiées pour les données spatiales et liées au sol.
Auteur: Pierre Roudier [aut, cre], Max Kuhn [ctb], Kristian Hovde Liland [ctb], Bjorn-Helge Mevik [ctb], Hadley Wickham [ctb], Raphael Viscarra Rossel [dtc]
Mainteneur: Pierre Roudier [email protected]>

Différence entre les versions de lunettes 0.5-2-2 du 2020-02-20 et 0.5-3 du 2021-01-11

Titre: Outils utiles pour la modélisation par équation structurelle
La description: Fournit des outils pour la modélisation d'équations structurelles, dont beaucoup étendent le package « lavaan », par exemple, pour regrouper les résultats d'imputations multiples, sonder les interactions latentes ou tester l'invariance des mesures.
Auteur: Terrence D. Jorgensen [aut, cre] (<https://orcid.org/0000-0001-5111-6773>), Sunthud Pornprasertmanit [aut], Alexander M. Schoemann [aut] (<https://orcid.org/ 0000-0002-8479-8798>), Yves Rosseel [aut] (<https://orcid.org/0000-0002-4129-4477>), Patrick Miller [ctb], Corbin Quick [ctb], Mauricio Garnier-Villarreal [ctb ] (<https://orcid.org/0000-0002-2951-6647>), James Selig [ctb], Aaron Boulton [ctb], Kristopher Preacher [ctb], Donna Coffman [ctb], Mijke Rhemtulla [ctb] (<https ://orcid.org/0000-0003-2572-2424>), Alexander Robitzsch [ctb] (<https://orcid.org/0000-0002-8226-3132>), Craig Enders [ctb], Ruben Arslan [ctb] (<https://orcid.org/0000-0002-6670-5658>), Bell Clinton [ctb], Pavel Panko [ctb], Edgar Merkle [ctb] (<https://orcid.org/0000-0001-7158- 0653>), Steven Chesnut [ctb], Jarrett Byrnes [ctb], Jason D. Rights [ctb], Ylenio Longo [ctb], Maxwell Mansolf [ctb] (<https://orcid.org/0000-0001-6861-8657> ), Mattan S. Ben-Shachar [ctb] (<https://orci d.org/0000-0002-4287-4801>), Mikko Rönkkö [ctb] (<https://orcid.org/0000-0001-7988-7609>)
Mainteneur: Terrence D. Jorgensen [email protected]>

Différence entre les versions de semTools 0.5-3 datées du 2020-05-27 et 0.5-4 datées du 2021-01-11

Titre: Opérateurs de prétraitement composables et pipelines pour l'apprentissage automatique
La description: Ensemble d'outils qui enrichit 'mlr' avec un ensemble diversifié d'opérateurs de prétraitement. Les opérateurs de prétraitement composables (« CPO ») sont des objets R de première classe qui peuvent être appliqués aux data.frames et aux « tâches » « mlr » pour modifier les données, peuvent être attachés aux « apprenants » « mlr » pour ajouter un prétraitement à algorithmes d'apprentissage automatique et peuvent être composés pour former des pipelines de prétraitement.
Auteur: Martin Binder [aut, cre], Bernd Bischl [ctb], Michel Lang [ctb], Lars Kotthoff [ctb]
Mainteneur: Martin Binder [email protected]>

Différence entre les versions mlrCPO 0.3.7 du 15-11-2020 et 0.3.7-1 du 11-01-2121

Titre: Modèles linéaires généralisés régularisés Lasso et Elastic-Net
La description: Procédures extrêmement efficaces pour ajuster l'ensemble du chemin de régularisation au lasso ou à filet élastique pour les modèles de régression linéaire, de régression logistique et multinomiale, la régression de Poisson, le modèle de Cox, la gaussienne à réponses multiples et la régression multinomiale groupée. Il y a deux ajouts nouveaux et importants. L'argument famille peut être un objet famille GLM, ce qui ouvre la porte à toute famille programmée. Cela s'accompagne d'un coût de calcul modeste, donc lorsque les familles intégrées suffisent, elles doivent être utilisées à la place. L'autre nouveauté est l'option relax, qui remonte chacun des ensembles actifs dans le chemin sans pénalisation. L'algorithme utilise la descente de coordonnées cyclique d'une manière par chemin, comme décrit dans les articles répertoriés dans l'URL ci-dessous.
Auteur: Jerome Friedman [aut], Trevor Hastie [aut, cre], Rob Tibshirani [aut], Balasubramanian Narasimhan [aut], Kenneth Tay [aut], Noah Simon [aut], Junyang Qian [ctb]
Mainteneur: Trevor Hastie [email protected]>

Différence entre les versions 4.0-2 de glmnet du 15/06/2020 et 4.1 du 11-01-2021

Titre: Plusieurs échelles de remplissage et de couleur dans 'ggplot2'
La description: Utilisez plusieurs échelles de remplissage et de couleur dans 'ggplot2'.
Auteur: Elio Campitelli [cré, aut] (<https://orcid.org/0000-0002-7742-9230>)
Mainteneur: Elio Campitelli [email protected]>

Différence entre les versions ggnewscale 0.4.4 du 02-12-2020 et 0.4.5 du 11-01-2121

Titre: Détecteur de langue compact 3 de Google
La description: Le Compact Language Detector 3 de Google est un modèle de réseau neuronal pour l'identification de la langue et le successeur de 'cld2' (disponible auprès du CRAN). L'algorithme est encore expérimental et adopte une nouvelle approche de la détection du langage avec des propriétés et des résultats différents. Il peut être utile de combiner cela avec les résultats du classificateur bayésien de 'cld2'. Voir <https://github.com/google/cld3#readme> pour plus d'informations.
Auteur: Jeroen Ooms [aut, cre] (<https://orcid.org/0000-0002-4035-0289>), Google Inc [cph] (bibliothèque CLD3 C++)
Mainteneur: Jeroen Ooms [email protected]>

Différence entre cld3 versions 1.3 du 2020-01-31 et 1.4.1 du 2021-01-11

Titre: Cadre statistique pour définir des sous-groupes dans des ensembles de données complexes
La description: Les ensembles de données de grande dimension qui ne présentent pas une structure de cluster intrinsèque claire posent un défi aux algorithmes de clustering conventionnels. Pour cette raison, nous avons développé un cadre non supervisé qui aide les scientifiques à mieux sous-grouper leurs ensembles de données en fonction de repères visuels, veuillez consulter Gao S, Mutter S, Casey A, Makinen VP (2019) Numero : un cadre statistique pour définir des sous-groupes multivariables dans une population complexe jeux de données, Int J Epidemiology, 48:369-37, <doi:10.1093/ije/dyy113>. Le cadre comprend les fonctions nécessaires pour construire une carte auto-organisée des données, pour évaluer la signification statistique des modèles de données observés et pour visualiser les résultats.
Auteur: Song Gao [aut], Stefan Mutter [aut], Aaron E. Casey [aut], Ville-Petteri Makinen [aut, cre]
Mainteneur: Ville-Petteri Makinen [email protected]>

Différence entre les versions Numero 1.7.2 du 24-10-2020 et 1.7.3 du 11-01-2021

Titre: Aide au traitement et au traçage des données d'un analyseur Lemna-Tec
La description: Notez que 'imageData' a été remplacé par 'growthPheno'. Le package 'growthPheno' intègre toutes les fonctionnalités de 'imageData' et a des fonctionnalités non disponibles dans 'imageData', mais certaines fonctions 'imageData' ont été renommées. Le package 'imageData' n'est plus maintenu, mais est conservé à des fins héritées.
Auteur: Chris Brien [aut, cré] (<https://orcid.org/0000-0003-0581-1817>)
Mainteneur: Chris Brien [email protected]>

Différence entre les versions imageData 0.1-60 du 22-03-2020 et 0.1-61 du 11-01-2021

Titre: Estimation des modèles de pente individuels à effets fixes
La description: Fournit la fonction feis() pour estimer les modèles de pente individuelle à effets fixes (FEIS). Le modèle FEIS constitue une version plus générale du modèle de panneau à effets fixes (FE) souvent utilisé, tel qu'implémenté dans le package 'plm' par Croissant et Millo (2008) <doi:10.18637/jss.v027.i02>. Dans les modèles FEIS, les données ne sont pas seulement dépréciées par personne comme dans les modèles EF conventionnels, mais détendance par la pente individuelle prédite de chaque personne ou groupe. L'estimation est effectuée en appliquant les moindres carrés lm() aux données transformées. Pour plus de détails sur les modèles FEIS, voir Bruederl et Ludwig (2015, ISBN:1446252442) Frees (2001) <doi:10.2307/3316008> Polachek et Kim (1994) <doi:10.1016/0304-4076(94)90075-2> Ruettenauer et Ludwig (2020 ) <doi:10.1177/0049124120926211> Wooldridge (2010, ISBN:0262294354). Pour tester la cohérence des estimateurs EF conventionnels et à effets aléatoires par rapport à des pentes hétérogènes, le package fournit également les fonctions feistest() pour un test de régression artificielle et bsfeistest() pour une version bootstrap du test de Hausman.
Auteur: Tobias Ruettenauer [aut, cre] (<https://orcid.org/0000-0001-5747-9735>), Volker Ludwig [aut] (<https://orcid.org/0000-0003-3118-3172>)
Mainteneur: Tobias Ruettenauer [email protected]>

Différence entre les versions 1.1.2 de feisr du 05-01-21 et 1.1.3 du 11-01-2121

Titre: Un ensemble d'utilitaires pour vous aider à gérer les « Pignas »
La description: Pigna [_pìn'n'a_] est le mot italien pour pomme de pin. Dans le jargon, il est utilisé pour identifier une tâche ennuyeuse, banale, ennuyeuse, douloureuse, frustrante et peut-être même avec un résultat pas si beau ou gratifiant, tout comme l'acte obstiné d'essayer de se mettre au défi d'extraire des pignons d'un pin. cône, à condition qu'au final, vous en trouviez au moins un à l'intérieur. Vous trouverez ici un sac à dos de fonctions à utiliser pour résoudre de petits problèmes quotidiens de codage ou d'analyse de données (cliniques), qui seraient normalement résolus à l'aide de correctifs rapides et sales. Vous pourrez convertir les résumés 'Hmisc' et 'rms' en data.frames prêts à être rendus par 'pander' et 'knitr'. Vous pouvez accéder à des wrappers faciles à utiliser pour activer des barres de progression essentielles mais utiles (de « progress ») dans vos boucles ou fonctions. Configuration et contrôle faciles des bots de Telegram (de 'telegram.bot') pour envoyer des messages ou pour dévier les messages d'erreur vers le chat d'un Telegram. Vous disposez également de quelques utilitaires vous aidant dans le développement de packages, comme l'activation de la même interface utilisateur de 'usethis' dans votre package, ou appelez des fonctions polite pour demander à un utilisateur d'installer d'autres packages. Enfin, vous trouverez un ensemble d'ensembles thématiques de packages que vous pouvez utiliser pour configurer rapidement de nouveaux environnements, en les installant en un seul appel.
Auteur: Corrado Lanera [aut, cre, cph]
Mainteneur: Corrado Lanera [email protected]>

Différence entre les versions de depigner 0.8.3 du 02-10-2020 et 0.8.4 du 11-01-2121

Titre: Conception de séquences de guidage pour CRISPR/Cas9
La description: Conçoit des séquences guides pour l'édition du génome CRISPR/Cas9 et fournit des informations sur les caractéristiques des séquences pertinentes pour l'efficacité des guides. Les caractéristiques de séquence comprennent des prédictions hors cible annotées dans un génome sélectionné par l'utilisateur et un score d'efficacité prédit basé sur le modèle décrit dans Doench et al. (2016) <doi:10.1038/nbt.3437>. Les utilisateurs peuvent importer des génomes supplémentaires et des fichiers d'annotation de génome à utiliser lors de la recherche et de l'annotation d'occurrences hors cible. Toutes les séquences de guidage et les données hors cible peuvent être générées via la console 'R' avec sgRNA_Design() ou via l'interface utilisateur 'crispRdesignR's avec crispRdesignRUI(). CRISPR (Clustered Regularly Interspaced Short Palindromic Repeats) et la protéine associée Cas9 font référence à une technique utilisée dans l'édition du génome.
Auteur: Dylan Beeber [aut, cre], Frederic Chain [aut]
Mainteneur: Dylan Beeber [email protected]>

Différence entre les versions crispRdesignR 1.1.5 du 2020-05-26 et 1.1.6 du 2021-01-11

Titre: Diagramme de modèle d'effet de traitement de sous-population (STEPP)
La description: Une méthode pour explorer les interactions traitement-covariables dans la survie ou le modèle linéaire généralisé (GLM) pour les données continues, binomiales et de comptage provenant de deux ou plusieurs bras de traitement d'un essai clinique. Une approche de distribution de permutation pour l'inférence est mise en œuvre, basée sur la permutation des valeurs de covariable au sein de chaque groupe de traitement. Bonetti M, Gelber RD (2004) <DOI:10.1093/biostatistics/5.3.465>. Marco Bonetti, David Zahrieh, Bernard F. Cole et Richard D. Gelber (2009) <doi:10.1002/sim.3524>. Ann A. Lazar, Bernard F. Cole, Marco Bonetti et Richard D. Gelber (2010) <doi:10.1200/JCO.2009.27.9182>. Lazar AA, Bonetti M, Cole BF, Yip WK, Gelber RD (2016) <doi:10.1177/1740774515609106>. Wai-Ki Yip,Marco Bonetti,Bernard F Cole,William Barcella,Xin Victoria Wang,Ann Lazar et Richard D Gelber (2016) <doi:10.1177/1740774516643297>. Wang XV, Cole B, Bonetti M, Gelber RD (2016) <doi:10.1002/sim.6958>. Wai-Ki Yip (2017, ISBN : 978-3-319-48846-2).
Auteur: Wai-ki Yip [aut, cre], Ann Lazar [ctb], David Zahrieh [ctb], Chip Cole [ctb], Ann Lazar [ctb], Marco Bonetti [ctb], Victoria Wang [ctb], William Barcella [ ctb], Sergio Venturini [ctb, cre] Richard Gelber [ctb]
Mainteneur: Wai-ki Yip [email protected]>

Différence entre les versions stepp 3.2.0.0 du 2018-07-26 et 3.2.2 du 2021-01-11


33 réponses 33

À partir d'Android 9 (API niveau 28), la prise en charge du texte en clair est désactivée par défaut.

Essayez d'abord d'appuyer sur l'URL avec "https://" au lieu de "http://"

Créer le fichier res/xml/network_security_config.xml -

De plus, comme l'a souligné la réponse de @david.s, android:targetSandboxVersion peut également être un problème -

  • La valeur par défaut de usesCleartextTraffic dans la configuration de sécurité réseau est false.
  • Le partage d'UID n'est pas autorisé.

Donc l'option 4 -

Si vous avez android:targetSandboxVersion dans <manifest>, réduisez-le à 1

mon problème en Android 9 naviguait sur une vue Web sur des domaines avec http La solution de cette réponse

Dans l'AndroidManifest, j'ai trouvé ce paramètre :

et @xml/network_security_config est défini dans network_security_config.xml comme :

juste j'ai changé cleartextTrafficPermitted en true

Vous souhaiterez peut-être autoriser uniquement le texte en clair lors du débogage, tout en conservant les avantages de sécurité du rejet du texte en clair en production. Cela m'est utile car je teste mon application sur un serveur de développement qui ne prend pas en charge https. Voici comment appliquer https en production, mais autoriser le texte en clair en mode débogage :

Dans build.gradle :

Dans la balise d'application dans AndroidManifest.xml

Si possible changez votre URL de HTTP vers HTTPS

Dans la suggestion fournie ci-dessus, je fournissais mon URL en tant que http://xyz.abc.com/mno/

j'ai changé ça pour xyz.abc.com puis il a commencé à fonctionner.

D'accord, c'est PAS ⇐⇐ les milliers répètent de ajoutez-le à votre manifeste, mais un indice basé sur cela, mais vous donne avantage supplémentaire (et peut-être quelques informations de fond).

Android a une sorte de fonctionnalité d'écrasement pour le répertoire src.

Mais vous pouvez ajouter des répertoires supplémentaires pour écraser votre AndroidManifest.xml. Voici comment cela fonctionne :

À l'intérieur de ce fichier, vous ne pas devez mettre toutes les règles à l'intérieur, mais seulement celles que vous aimez écraser depuis votre /app/src/main/AndroidManifest.xml

Voici un exemple à quoi cela ressemble pour l'autorisation CLEARTEXT demandée :

Avec cette connaissance, il est maintenant facile de 1,2,3 pour vous de surcharger vos autorisations en fonction de votre déboguer | principal | Libération Environnement.

Le gros avantage là-dessus. vous n'avez pas d'éléments de débogage dans votre production-Manifest et vous conservez une structure simple et facile à entretenir

Cela pourrait être utile à quelqu'un.

Nous avons récemment eu le même problème pour Android 9, mais nous n'avions besoin que d'afficher quelques URL dans WebView, rien de très spécial. Donc, l'ajout d'android:usesCleartextTraffic="true" à Manifest a fonctionné, mais nous ne voulions pas compromettre la sécurité de l'ensemble de l'application pour cela. Le correctif consistait donc à changer les liens de http en https

Pour les projets React Native

Il était déjà fixé sur la RN 0.59. Vous pouvez trouver sur la mise à niveau le diff de 0.58.6 à 0.59. Vous pouvez l'appliquer sans mettre à niveau votre version RN en suivant les étapes ci-dessous :

Vérifiez la réponse acceptée pour connaître la cause première.

J'ai supprimé cette ligne du fichier manifeste Android qui est déjà là

ceci dans la balise d'application dans le manifeste

alors cette erreur Le trafic HTTP en clair vers overlay.openstreetmap.nl n'est pas autorisé est parti pour moi dans Android 9 et 10. J'espère que cela fonctionnera pour Android 8 aussi si cela vous aide n'oubliez pas de voter merci

D'accord, j'ai compris cela. C'est en raison du paramètre Manifest android:targetSandboxVersion="2" , que j'ai ajouté car nous avons également la version Instant App - il faut s'assurer qu'une fois que l'utilisateur passe d'Instant App à l'application standard, il ne perdra pas ses données avec le transfert. Cependant, comme le suggère la description vague :

Spécifie le bac à sable cible que cette application souhaite utiliser. Les versions supérieures de sanbox auront des niveaux de sécurité croissants.

La valeur par défaut de cet attribut est 1.

Il ajoute évidemment également un nouveau niveau de politique de sécurité, au moins sur Android 8.

Ajouter . android:usesCleartextTraffic="true" . à votre fichier manifeste peut sembler résoudre le problème, mais cela ouvre une menace pour l'intégrité des données.

Pour des raisons de sécurité, j'ai utilisé des espaces réservés de manifeste avec android:usesCleartextTraffic dans le fichier manifeste (comme dans l'option 3 de la réponse acceptée, c'est-à-dire @Hrishikesh Kadamréponse de ) pour autoriser uniquement le texte en clair sur l'environnement de débogage.

À l'intérieur de mon build.gradle(:app) fichier, j'ai ajouté un espace réservé de manifeste comme celui-ci :

Notez le nom de l'espace réservé cleartextTrafficPermitted à cette ligne ci-dessus

Ensuite, dans mon manifeste Android, j'ai utilisé le même espace réservé .

Avec cela, le trafic en clair n'est autorisé que dans l'environnement de débogage.

Solution simple et la plus facile [Formulaire Xamarin]

    Ouvrez AssemblyInfo.cs et collez ce code ici :

[assembly : Application(UsesCleartextTraffic =true)]

Vous devez définir la clé NSAllowsArbitraryLoads sur YES sous le dictionnaire NSAppTransportSecurity dans votre fichier info.plist.

Pour appliquer ces différentes réponses à Xamarin.Android , vous pouvez utiliser des attributs de niveau de classe et d'assembly plutôt que de modifier manuellement le AndroidManifest.xml

Une autorisation Internet est bien sûr nécessaire (duh..):

Remarque : En règle générale, les attributs de niveau d'assemblage sont ajoutés à votre fichier AssemblyInfo.cs, mais tout fichier, en dessous de l'utilisation et au-dessus de l'espace de noms fonctionne.

Ensuite, sur votre sous-classe Application (créez-en une si nécessaire), vous pouvez ajouter NetworkSecurityConfig avec une référence à un fichier Resources/xml/ZZZZ.xml :

Créez un fichier dans le dossier Resources/xml (créez le dossier xml si besoin).

Exemple de fichier xml/network_security_config, ajustez au besoin (voir les autres réponses)

Vous pouvez également utiliser le paramètre UsesCleartextTraffic sur l'ApplicationAttribute :

Mise à jour décembre 2019 ionic - 4.7.1

Veuillez ajouter le contenu ci-dessus dans le fichier manifeste Android .xml

Versions précédentes d'ionic

Assurez-vous d'avoir les éléments suivants dans votre config.xml dans Ionic Project :

Exécutez ionic Cordova build android. Il crée un dossier Android sous Plateformes

Ouvrez Android Studio et ouvrez le dossier Android présent dans notre projet project-platforms-android. Laissez-le pendant quelques minutes pour qu'il construise le gradle

Une fois la construction de gradle terminée, nous obtenons des erreurs pour l'inclusion de minSdVersion dans manifest.xml . Maintenant, ce que nous faisons, c'est simplement supprimer <uses-sdk android:minSdkVersion="19" /> de manifest.xml .

Assurez-vous qu'il est retiré des deux emplacements :

Essayez maintenant de reconstruire le gradle et maintenant il se construit avec succès

Assurez-vous d'avoir les éléments suivants dans la balise Application dans App &rarr manifest &rarr Androidmanifest.xml :

Ouvrez network_security_config (app &rarr res &rarr xml &rarr network_security_config.xml ).

Ici xxx.yyyy.com est le lien de votre API HTTP. Assurez-vous de ne pas inclure de Http avant l'URL.

Remarque : créez maintenant l'application à l'aide d'Android Studio (Build -- Build Bundle's/APK -- Build APK) et vous pouvez maintenant utiliser cette application et elle fonctionne correctement dans Android Pie. Si vous essayez de créer une application à l'aide d'ionic Cordova build android, elle remplace tous ces paramètres, alors assurez-vous d'utiliser Android Studio pour créer le projet.

Si vous avez installé d'anciennes versions de l'application, désinstallez-les et essayez, sinon vous vous retrouverez avec une erreur :

Je reçois également la même erreur "Trafic HTTP en texte clair non autorisé" lors du développement de mon application. J'utilise Retrofit2 pour les appels réseau dans mon application et j'ai deux environnements de projet (dev & production). Mon domaine de production a un certificat SSL avec des appels HTTPS et le dev n'aura pas de https. La configuration est ajoutée dans les versions de build. Mais lorsque je passe à dev, ce problème se déclenche. J'ai donc ajouté la solution ci-dessous pour cela.

J'ai ajouté du trafic en clair dans le manifeste

Ensuite, j'ai ajouté une spécification de connexion dans le temps de création OKHttp de la classe de configuration de mise à niveau.

La création complète d'OkHttpClient est donnée ci-dessous

Créer un fichier - res / xml / network_security.xml

Alors que la réponse de travail, pour moi, était celle de @PabloCegarra :

Vous pouvez recevoir un avertissement de sécurité concernant le cleartextTrafficPermitted="true"

Si vous connaissez les domaines à « liste blanche », vous devez mélanger à la fois la réponse acceptée et celle ci-dessus :

Ce code fonctionne pour moi, mais mon application doit récupérer les données de books.google.com uniquement. De cette façon, l'avertissement de sécurité disparaît.

Ajoutez simplement android:usesCleartextTraffic="true" dans le fichier AndroidManifest.xml

Mettez ce qui suit dans votre resources/android/xml/network_security_config.xml :

Cela résout le problème Échec du chargement de la ressource: net :: ERR_CLEARTEXT_NOT_PERMITTED sur Android pour Cordova / Ionic.

Dans mon cas, cette URL ne fonctionne pas non plus dans le navigateur.

Pour Xamarin. Android les développeurs s'assurent que l'implémentation HttpClient et SSL/TLS sont définis sur Default.

Il se trouve sous Options Android -> Options Android avancées.

Ceci est fait pour des raisons de sécurité, vous devriez toujours préférer utiliser HTTPS (HTTP Sécurise) lorsque c'est possible.
Vous pouvez en savoir plus à ce sujet ici

Il existe plusieurs solutions à ce problème en fonction de votre état.

Si vous essayez de communiquer avec un service propriétaire, IE : votre propre serveur Web

Du côté serveur: Vous devez ajouter la prise en charge HTTPS à ce serveur et utiliser HTTPS au lieu de HTTP. De nos jours, vous pouvez même le faire gratuitement en utilisant des services comme Permet de chiffrer et d'autres
Côté client: Si vous utilisez HttpURLConnection du package java.net, vous pouvez passer à HttpsURLConnection du package java.net.ssl, il a une API similaire sinon identique, donc le changement devrait se faire sans effort.

Si vous utilisez un service tiers, comme Google, Facebook, un service météo, etc.

Si le service avec lequel vous communiquez prend en charge HTTPS (ce qu'il fait très probablement), vous pouvez simplement modifier l'URL de votre demande de http://abc.xyz à https://abc.xyz .

En dernier recours, si le service tiers avec lequel vous souhaitez communiquer ne prend pas en charge HTTPS ou toute autre forme de communication sécurisée, vous pouvez utiliser cette réponse, mais encore une fois, cela n'est pas recommandé car cela va à l'encontre de l'objectif de ce si nécessaire. fonction de sécurité.


La grande liste des logiciels d'analyse d'images satellitaires/aériennes IV - S à Z

Cliquez ici pour les parties un, deux et trois de cette série.

SamplePoint est un programme manuel d'analyse d'images conçu pour faciliter les mesures de la couverture végétale à partir d'images numériques de nadir de n'importe quelle échelle. Fonctionnant essentiellement comme une trame de points numériques, le logiciel charge des images, place des points de classification sur l'image et stocke des données de classification dans une base de données au fur et à mesure que l'utilisateur classe chaque point. Jusqu'à trois vues simultanées de chaque point de classification, à différents niveaux de zoom, sont possibles. L'utilisation fonctionnelle ne se limite pas à la classification de la végétation. Le fichier d'installation contient SamplePoint, SPTracker, un manuel d'aide, un didacticiel PowerPoint et deux exemples d'images.

Remarque : semble être principalement destiné à l'analyse rapprochée de la couverture végétale, mais peut être utile pour d'autres applications.

Le système d'analyse et de gestion spectrale (SAMS) est une application Java permettant de gérer des bases de données et des analyses de spectres de terrain. Les fonctionnalités incluent : des options d'importation/exportation dans divers formats, des regroupements de signatures, la gestion des métadonnées, des opérations courantes sur des signatures uniques ou multiples, un ensemble plus riche de capacités de traçage et une structure de données simple pour une intégration facile avec d'autres applications… SAMS 2.0 ne nécessite pas Matlab et fonctionne sur plusieurs plates-formes
(Windows, Linux et UNIX). Les bases de données sont interchangeables entre ces plates-formes.

Le système d'analyse de données SeaWiFS (SeaDAS) est un progiciel complet d'analyse d'images pour le traitement, l'affichage, l'analyse et le contrôle qualité des données sur la couleur de l'océan.

StarSpan est conçu pour relier les mondes raster et vectoriel de l'analyse spatiale à l'aide d'algorithmes rapides pour l'extraction au niveau des pixels à partir d'entités géométriques (points, lignes, polygones). StarSpan génère des bases de données de valeurs de pixels extraites (à partir d'une ou d'un ensemble d'images raster), fusionnées avec les attributs de base de données des fichiers vectoriels. Cela permet à un utilisateur d'effectuer une analyse statistique des données de pixels par rapport aux attributs dans de nombreux packages existants et peut considérablement accélérer la formation et les tests de classification.

  • Recherche d'images, itinérance et zoom
  • Annotation d'image (ajout de texte, flèches, etc.)
  • Amélioration d'images
  • Afficher, modifier et créer des fichiers vectoriels
  • Mesure de distance et de surface
  • Mosaïque d'images
  • Support multilingue (actuellement anglais, espagnol et français)
  • Comparaison d'images à l'aide de ‘flicker’
  • Prise en charge des jeux de données multibandes (de nombreux formats)
  • Classification
  • Capacité de visualisation 3D
  • Afficher et analyser des images satellites
  • Comparez deux images et analysez les tendances dans une série chronologique d'images
  • Extraire et représenter graphiquement les tendances d'un certain nombre d'images satellites, par exemple pendant la saison de croissance, à des fins de comparaison avec d'autres années
  • Calculer de nouvelles images à partir d'une série d'images
  • Afficher les données tabulaires au format carte
  • Créez des produits personnalisés combinant des images, des cartes et des légendes spécialisées
  • Écrire et exécuter des fichiers batch pour automatiser les tâches routinières et fastidieuses
  • Construire une interface de projet personnalisée pour fournir aux utilisateurs des menus détaillés des données disponibles pour un pays ou une zone spécifique

Construit sur Tcl/Tk, XBit est capable de fournir une interface graphique facile à utiliser qui intègre divers utilitaires de traitement d'images et de cartes. Les fonctions de traitement d'image de XBit comprennent l'affichage, le recadrage, la rectification géométrique, l'amélioration, l'étalonnage, la convolution, la classification, l'analyse et le filtrage FFT, la transformation des composants principaux, l'affichage du flux vidéo, la capture d'images en temps réel avec un appareil photo numérique, etc. De plus, XBit implémente un shell Tcl pour OpenGL (actuellement disponible uniquement pour Windows), qui, associé à la capacité de traitement d'image XBit’s, améliore considérablement le rendu des images 3D. Les fonctions de traitement de carte XBit’s incluent l'affichage, l'édition et l'analyse des données graphiques et tabulaires des fichiers de forme (.shp) et des fichiers de table (.dbf).

La grande liste des logiciels d'analyse d'images satellitaires/aériennes III - N à R

Cliquez ici pour les parties un et deux de cette série.

NASA HDF-EOS Web GIS Software Suite (NWGISS) est une suite de logiciels Web SIG qui met les données HDF-EOS à la disposition des utilisateurs SIG sur la base des protocoles d'interopérabilité Open GIS Consortium (OGC). Il se compose des composants suivants : un serveur de carte (WMS), un serveur de couverture (WCS), un serveur de catalogue, un client multi-protocole de géoinformation (MPGC) et une boîte à outils. Ces composants peuvent fonctionner à la fois indépendamment ou en collaboration.

NWGISS peut fonctionner avec les trois types de données HDF-EOS, à savoir andain, la grille, et indiquer. Actuellement, le serveur cartographique, conforme à la spécification de cartographie Web OGC 1.0, a été développé et testé. Le serveur de couverture, qui fournit des données réelles aux clients SIG, a été développé et testé dans le cadre des activités OGC WMT II. Le serveur de catalogue fournit des capacités de recherche de catalogue aux clients SIG. Le serveur de catalogue à état complet a été implémenté et le serveur de catalogue sans état basé sur http est en cours d'implémentation. Le client multiprotocole de géoinformation (MPGC) fournit un moyen interopérable d'accéder aux données géospatiales, en particulier celles provenant de la télédétection. Il est conforme à la spécification de couverture Web de l'OGC (version 0.5 & amp 0.7), à la fonctionnalité Web, à la carte Web et à la spécification du registre Web pour communiquer avec un serveur afin de demander des sous-ensembles de données géospatiales multidimensionnelles et multitemporelles pour un région géographique du serveur et superposer l'image de la carte. Il peut également reformater l'ensemble de données renvoyé dans le format de données spécifié par l'utilisateur. De plus, il s'agit d'un outil de visualisation et d'analyse robuste pour les données géospatiales.

La boîte à outils se compose de traducteurs bidirectionnels entre HDF-EOS et les principaux formats SIG, ainsi que de l'outil CreateCapabilities qui crée automatiquement les descriptions de capacités XML à partir des métadonnées des fichiers HDF-EOS. Les deux outils sont disponibles dès maintenant. Les serveurs de cartes et de couverture NWGISS ont été utilisés par la NASA et d'autres agences spatiales. NWGISS est gratuit pour les fournisseurs de données qui souhaitent fournir des données HDF-EOS aux clients SIG.

OpenDragon offre une suite complète de fonctionnalités d'analyse d'images et de SIG raster, notamment l'amélioration d'images, la classification supervisée et non supervisée, la correction géométrique, la mesure et les statistiques, la capture et l'affichage de vecteurs, les calculs de pente, d'aspect et de tampon et la prise de décision multicritère. OpenDragon comprend également la boîte à outils OpenDragon, qui permet aux utilisateurs qui peuvent programmer en C d'étendre les fonctionnalités du logiciel.

  • Exécutez sur des plates-formes populaires (Linux, Windows, Solaris, IRIX).
  • Gérez les données raster et vectorielles.
  • Prend en charge l'affichage 2D et 3D.
  • Gérez avec élégance les jeux de données raster très volumineux (gigaoctets).
  • Prend en charge les jeux de données raster multicanaux et complexes.
  • Comprendre et interpréter les informations de géoréférencement et fournir une reprojection à la volée des ensembles de données.
  • Fournit des fonctions de manipulation de vue (panoramique, zoom, rotation) à des fréquences d'images interactives.
  • Fournir un puissant outil d'analyse d'images.
  • Servir de composant dans une variété d'applications d'analyse d'images.

Remarque : maintenant, une partie du package FWTools ne semble plus être en cours de développement actif. Gary Geller du groupe TerraLook écrit pour dire qu'OpenEV 2.0 est en cours de développement et devrait sortir fin 2009.

  • Zoom, panoramique, rotation de jeux de données spatialement volumineux.
  • Superposez rapidement des entités SIG, des annotations, des résultats et d'autres informations sur vos données pour fournir un contexte.
  • Lier l'ensemble de données géographiquement. Effectuez un zoom et un panoramique des liens d'un jeu de données vers un autre.
  • Mode produit et annotations.
  • Annotations actives, y compris la flèche nord, la flèche est, la barre d'échelle et l'horodatage
  • De nombreux contrôles d'affichage des images, tels que la palette de couleurs, l'histogramme, la transparence, etc.
  • Traitement d'image/vidéo défini par l'utilisateur “plug-ins”.
  • Prise en charge des ensembles de données de plus de quatre gigaoctets (prise en charge 64 bits).
  • En mémoire et sur le traitement du disque.
  • Les analystes peuvent rapidement combiner des étapes à l'aide d'assistants graphiques.
  • Le traitement par lots.
  • Aide en ligne
  • Prise en charge native de nombreux formats de fichiers de télédétection : NITF2.0/2.1, ASPAM/PAR, CGM, DTED, ENVI, Generic RAW, ESRI Shapefile, HDF5, AVI, MPEG, JPEG, GIF, PNG, BMP, TIFF, GeoTIFF.
  • Connectez-vous aux géodatabases avec l'intégration ESRI ArcSDE.
  • Prise en charge des systèmes d'exploitation Microsoft Windows (32 bits et 64 bits) et Solaris SPARC.
  • Panoramique, zoom, rotation et géoréférencement de vidéos spatialement larges.
  • Lecture de plusieurs jeux de données vidéo synchronisés par heure.
  • Superposez des entités géographiques et géoréférencez-les par image, en vous déplaçant pendant la lecture.
  • Prise en charge de plusieurs formats de jeux de données spectrales, notamment BIP, BSQ et BIL.
  • Prise en charge de 1000&8217s de bandes spectrales.
  • Importateur de signature ENVI.
  • Analyse des composants principaux.
  • Prise en charge native des données complexes.
  • Affichage en Phase, Magnitude, En phase (I) et Quadrature (Q).
  • Capacités de traitement parallèle avec les bibliothèques mpi
  • Modélisation rigoureuse des capteurs
  • Modèles de capteurs universels (RPC)
  • Large gamme de projections cartographiques et de références prises en charge
  • Chaînes d'images non destructives basées sur des paramètres
  • Accès natif aux fichiers
  • Correction et orthorectification du terrain de précision
  • Mosaïcage avancé, composition et fusions
  • Support d'élévation
  • Prise en charge des vecteurs et des shapelib
  • Projection et résolution indépendantes
  • Éditeurs d'équations
  • Correspondance d'histogramme et équilibrage des tons

L'objectif principal de ce travail est de rassembler les méthodes d'enregistrement développées dans un système d'enregistrement d'images automatique et de les faire fonctionner de manière opérationnelle.

Le système d'enregistrement développé est une application complète destinée à une utilisation opérationnelle par les débutants ainsi que par les utilisateurs avancés. L'enregistrement peut être réalisé par un simple clic ou peut être contrôlé par plusieurs paramètres. Le système contient des boîtes à outils qui augmentent la force d'enregistrement en utilisant les connaissances de l'utilisateur.

Trois algorithmes différents pour l'extraction des points de contrôle sont implémentés dans le système et d'autres méthodes peuvent être facilement ajoutées. L'un des algorithmes utilise flux optique idées pour extraire les caractéristiques des deux images. La seconde méthode utilise les informations spectrales des images et leur transformée en ondelettes modulus maxima pour extraire un ensemble de points de contrôle. Le dernier utilise les centres de gravité du fermé contours et autre bords forts comme points de contrôle.

Pas des applications en soi, mais un bel ensemble d'applications en ligne qui démontrent certains des principes de base de la télédétection.

La grande liste des logiciels d'analyse d'imagerie satellite/aérienne II - I à M

NASA Image2000 est développé par NASA Goddard Space Flight Center Code 588 et NASA’s Scientific and Educational Endeavours (SEE). Le but de NASA Image2000 est de fournir un système de traitement d'images indépendant de l'hôte pour les étudiants et les éducateurs à l'aide de tutoriels développés par SEE et le Center for Image Processing in Education (CIPE) .

Remarque : si vous ne pouvez pas obtenir le logiciel à partir de la page principale, essayez ce lien.

Logiciel d'acquisition et d'analyse d'images basé sur Java. Plus qu'un programme général d'analyse d'images, mais avec des dizaines de plug-ins pour l'amélioration et l'analyse d'images.

Le système intégré pour imageurs et spectromètres (Isis) est un progiciel spécialisé de traitement d'images. Il dispose de nombreuses opérations de traitement d'image standard telles que l'étirement du contraste, l'algèbre d'images, les filtres et l'analyse statistique. Isis opère à la fois sur des images bidimensionnelles classiques ainsi que sur des cubes tridimensionnels collectés à partir de spectromètres imageurs.

Remarque : Créé par l'USGS principalement pour l'analyse d'images provenant de sondes planétaires.

IVICS (Interactive Visualizer and Image Classifier for Satellites) a été développé en tant qu'outil de visualisation pour faciliter la sélection d'échantillons d'apprentissage à partir d'images satellite. Il est devenu un système de visualisation à usage général qui prend en charge plusieurs formats de données satellitaires et de télédétection courants.

  • Lire des images aux formats TIFF, BMP, FlashPiX, GIF, JPEG, PNG et PNM
  • Système de visualisation efficace
  • Quantifier les composants : objets ou arrière-plan
  • Analyse d'objets (taille, forme, orientation, texture …)
  • Classement des objets
  • Traitement des images (opérations binaires et morphologiques, filtrage, segmentation…)
  • Rectification d'image (corrections géométriques par points de contrôle)
  • Comptage numérique des points
  • Outils de collecte de données en une ou deux dimensions
  • Annotation de l'image et fiche de description
  • Profil (variation de granulométrie, densité, objets ou fond)
  • Enregistrez toutes les mesures, données, étalonnages et préférences dans un seul fichier de projet

Remarque : Il ne s'agit pas principalement d'une application géographique

MicroMSI est un programme d'analyse d'images multispectrales optimisé pour le matériel micro-informatique couramment disponible (Windows).

    • Affichage multiple d'images multispectrales comprenant : niveaux de gris, multibandes (pseudo-couleurs et dérivées panchromatiques), à rapport de bande, à bande différenciée, thermique, NDVI, classification supervisée (trois algorithmes), classification non supervisée, classification spectrale, stéréo anaglyphe et l'analyse en composantes principales.
    • Assistant d'importation/indexation de données d'image qui simplifie le processus d'accès à de nouvelles images
    • MicroMSI prend en charge les fichiers séquentiels de bande, BIL et BSQ dans de nombreux formats d'image commerciaux courants
    • Jusqu'à 256 bandes par image permettent d'accéder aux données hyperspectrales.
    • Géo-enregistrement et géo-rectification des images
    • Annotation d'image avec texte, grilles, flèche nord.

    Remarque : Le développement actif a cessé il y a quelques années. Le lien sur NGA est actuellement mort, et je ne trouve pas de site de téléchargement alternatif quand je le fais, je vais mettre à jour le lien.

    MSphinx – “Le concept derrière Msphinx est de développer une architecture système progressive pour les futurs capteurs satellites qui est complètement indépendante du volume, de la taille et du format des données dérivées des observations satellites, sans développer une structure de données interne complexe qui perdra la particularité de données satellitaires : série de pixels formant des lignes ou des colonnes d'une image.”

    • Importer des données au format binaire ou ASCII avec ou sans en-tête, et aux formats Band Interleaved by Line (BIL), Band Sequential (BSQ) ou Band Interleaved by Sample (BIS). Les valeurs de données peuvent être un entier 8 bits, un entier 16 bits, un entier 32 bits, un réel 32 bits ou un réel 64 bits. Dans les cas de deux, quatre ou huit octets par échantillon, les octets peuvent être dans l'un ou l'autre ordre.
    • Afficher des images multispectrales dans une variété de formats N/B ou couleur utilisant des échelles de gris linéaires ou égales, affichent des images thématiques (générées en interne) également en N/B ou en couleur, avec la possibilité de contrôler la couleur utilisée pour chaque thème. Les fichiers de forme ArcView peuvent être superposés sur les images.
    • Histogramme données à utiliser pour déterminer le régime d'échelle de gris pour un affichage ou pour une liste et une représentation graphique.
    • Reformater le fichier de données de plusieurs manières, par exemple, en ajoutant un en-tête standard, en passant de l'un des trois formats d'entrelacement à l'un des deux autres, en éditant des canaux, en combinant des fichiers, en ajoutant ou en modifiant des descriptions de canaux, en mosaïquant des ensembles de données, changer la géométrie d'un ensemble de données, et un certain nombre d'autres changements.
    • Créer de nouvelles chaînes des données des canaux existants. Les nouveaux canaux peuvent être le résultat d'une transformation d'extraction de composants principaux ou de caractéristiques des canaux existants, ou ils peuvent résulter du rapport d'une combinaison linéaire de bandes existantes divisé par une combinaison linéaire différente de bandes.
    • Groupe données en utilisant soit un seul passage, soit un algorithme de clustering itératif (isodonnées). Enregistrez les résultats pour les afficher sous forme de carte thématique. Les statistiques de cluster peuvent également être enregistrées en tant que statistiques de classe. L'utilisation du clustering suivi de la classification spectrale/spatiale ECHO fournit un schéma de segmentation de scène multivarié efficace.
    • Définir des classes en désignant des champs d'apprentissage rectangulaires ou polygonaux ou des fichiers d'image de masque, calcule des statistiques de champ et de classe et définit des champs de test à utiliser pour évaluer quantitativement les résultats de la classification. Une fonctionnalité appelée “Enhance Statistics” permet également d'améliorer la mesure dans laquelle les statistiques de classe définies correspondent au composite de toutes les données de l'ensemble de données. Un schéma d'estimation de covariance (LOOC) peut optimiser cette estimation pour de petits ensembles d'apprentissage.
    • Déterminer les meilleures caractéristiques spectrales à utiliser pour une classification donnée en utilisant (a) la recherche du meilleur sous-ensemble de caractéristiques en utilisant l'une des cinq mesures de distance statistiques, (b) une méthode basée directement sur les limites de décision définies par des échantillons d'apprentissage, ou (c) une deuxième méthode basée directement sur les fonctions discriminantes. Sont également incluses des méthodes spécialement conçues pour rechercher des caractéristiques spectrales étroites telles que des caractéristiques spectroscopiques, et pour l'utilisation de la poursuite par projection comme moyen d'améliorer davantage les caractéristiques extraites.
    • Classer une zone désignée dans le fichier de données. Six algorithmes de classification différents sont disponibles : utilisation de la distance minimale aux moyennes, du classificateur de corrélation (SAM), du filtre adapté (CEM), du discriminant linéaire de Fisher, du schéma de pixels de vraisemblance gaussien ou du classificateur spectral/spatial ECHO. Enregistrez les résultats pour les afficher sous forme de carte thématique, avec ou sans affichage des champs de formation et de test. Appliquez un seuil à une classification et générez une carte de probabilité/seuil indiquant le degré d'appartenance de chaque pixel à la classe à laquelle il a été affecté.
    • Répertorier les résultats du classement des domaines de formation ou de test sous forme de tableau sur une base par domaine, par classe ou groupes de classes.
    • Affiche un graphique des valeurs spectrales d'un pixel actuellement sélectionné ou de la moyenne ± s pour une zone sélectionnée. Affichez des diagrammes de dispersion de données provenant de paires de bandes et d'ellipses de concentration pour les ensembles d'entraînement et les zones sélectionnées. Affichez un graphique des histogrammes des valeurs de données de classe ou de champ utilisées pour l'apprentissage. Affiche les coordonnées d'une zone actuellement sélectionnée.
    • Afficher un présentation des couleurs de la matrice de corrélation pour un champ ou une classe comme outil de visualisation en particulier pour les données hyperspectrales.
    • Plusieurs autres fonctions utilitaires y compris l'énumération d'un sous-ensemble de données, par exemple, pour une utilisation externe, la réalisation d'une analyse en composantes principales, etc.
    • Transférer intermédiaire ou final résultats, qu'il s'agisse de texte, d'image N/B ou d'image couleur, à d'autres programmes d'application tels que les traitements de texte, les tableurs ou les programmes graphiques en copiant et collant ou en enregistrant puis en ouvrant le fichier enregistré dans une autre application.

    Remarque : Une documentation téléchargeable complète et des exemples de fichiers de données.

    La grande liste des logiciels d'analyse d'images satellitaires/aériennes - A à H

    Dans l'esprit de ma précédente série « Big List » sur les programmes SIG gratuits et les programmes de métadonnées gratuits, voici le Grande liste de logiciels d'analyse d'images satellitaires/aériennes. Alors que quelques-uns de ces programmes sont des programmes généraux d'analyse/manipulation d'images, la plupart sont spécifiquement conçus pour traiter principalement certains aspects de l'affichage et de l'analyse d'images satellites ou aériennes. Les publications regrouperont les candidatures par ordre alphabétique plutôt que par fonction, car elles peuvent être difficiles à classer par fonction, et aussi parce que c'est plus facile pour moi de cette façon. Les descriptions et les ensembles de fonctionnalités proviennent principalement des sites Web d'applications, avec une note aléatoire occasionnelle de ma part à la fin.

    Il existe un certain nombre de programmes SIG à usage général qui incluent également d'importantes fonctionnalités d'imagerie satellite/aérienne, et je les inclurai dans un article séparé à la fin de la série.

    • Plusieurs vues d'images RVB/pseudocouleurs avec des superpositions vectorielles et raster (formes ESRI
    • Édition et numérisation de vecteurs
    • Rectification d'image
    • Classification des images
    • Statistiques d'images et visualisation des statistiques
    • Arithmétique d'images, filtrage, profils, semi-variogrammes, composantes principales, scattergram et interpolation
    • Visualisation d'images 3D
    • Langage de script intégré

    Remarque : n'est plus en cours de développement.

    Utilitaires CoastWatch – “La bibliothèque de logiciels et utilitaires CoastWatch est un ensemble d'outils logiciels permettant de travailler avec des ensembles de données terrestres distribués par le programme NOAA/NESDIS CoastWatch. Les outils permettent aux utilisateurs de données de manipuler et de visualiser facilement les données des nouveaux fichiers CoastWatch HDF (local et accessible sur le réseau), les anciens fichiers CoastWatch IMGMAP (extension .cwf) et NOAA 1b AVHRR. Les utilitaires CoastWatch ont à la fois des outils graphiques avec une interface pointer-cliquer et des outils de ligne de commande à utiliser dans les scripts de traitement de données par lots.”

    • Rectification d'image
    • Orientation intérieure
    • Orientation extérieure
    • Phototriangulation
    • Normalisation des paires stéréo
    • Stéréotraçage
    • D.E.M. et orthorectification

    Remarque : Bien que le programme soit disponible dans une version anglaise, la documentation principale n'est disponible qu'en portugais.

    Programme général d'analyse d'images basé sur Java.

    Un équivalent gratuit et open source de l'éditeur graphique Photoshop, mais pas aussi facile à utiliser et pas autant de fonctionnalités. L'interface est toujours difficile à utiliser, il existe une ancienne version avec une interface conçue pour ressembler davantage à Photoshop, appelée GIMPShop.

    • Reprojection
    • Spatial (géolocalisation) Sous-ensemble
    • Bande et Paramètre (alias Champ) Sous-ensemble des jeux de données HDF-EOS
    • Soutien MODIS, ASTER, MISR, AIRS et AMSR-E
      (Consultez la liste des produits pris en charge pour plus de détails)
    • Conversion de format de différents types de formats de sortie : GeoTIFF, HDF-EOS GRID & SWATH, MultiBand GeoTIFF, Multi-Band HDF-EOS GRID & SWATH et binaire natif.
    • Conversions de format sans reprojection ni manipulation des données d'entrée. Permet aux données de rester dans leur état d'origine inchangé.
    • Piqûre (ou alors mosaïque) Ensembles de données HDF-EOS SWATH et GRID
    • Assemblage avec des combinaisons d'opérations de reformatage/reprojection/sous-ensemble
    • Sous-échantillonnage des données
    • Contrôle de divers paramètres, y compris la résolution des pixels de sortie et les paramètres de projection de sortie
    • Conservation et création de métadonnées
    • Interface graphique Java
    • Interface de ligne de commande (Utile pour exécuter des tâches par lots. Cela se produit généralement dans les environnements de production automatisés où de grandes quantités de granulés sont traitées.)
    • Plateformes prises en charge : LINUX, WINDOWS, SUN, SGI et MAC OSX (construit sur le noyau Darwin version 7.5.0)
    • Amélioration de la netteté avec les méthodes d'optimisation locales et globales : la taille maximale des images d'entrée est de 32 768 x 32 768 pixels. Les sorties seront limitées aux BMP 24 bits uniquement et filigranées avec des bandes blanches.
    • Le nombre maximum de scènes à traiter en mode batch est de cinq.
    • La taille maximale des images d'entrée pour les modules d'évaluation quantitative est de 128*128 pixels.
    • La simulation de fausses couleurs pour l'entrée G/R/NIR est désactivée.

    HyperCube est un programme d'application Macintosh et Windows (informations de mise à jour) spécifiquement destiné à l'analyse et à l'affichage d'images multi et hyperspectrales. Cela inclut l'affichage statique et dynamique du cube d'images et la génération de classifications spectrales en utilisant à la fois l'imagerie et les bibliothèques spectrales. En outre, HyperCube contient des fonctions pour filtrer, déformer, mosaïquer, reformater, calibrer, combiner, projeter photogrammétriquement, compiler en stéréo et effectuer des calculs arithmétiques sur les images et les données.

    Remarque : contient un excellent manuel au format PDF et des exemples de données.

    Positions et informations des marqueurs de levé géodésique national dans Google Earth

    Le National Geodetic Survey des États-Unis a produit DS World, un programme gratuit qui peut interroger sa base de données pour connaître les positions des stations de marqueurs géodésiques en fonction de l'état/du comté, de la distance par rapport à une coordonnée fixe ou de l'ID du projet. Il produit ensuite un fichier KML avec leurs emplacements et le charge dans Google Earth. Par exemple, pour obtenir les données du comté, choisissez Stations => Par État et comté, puis sélectionnez l'État et le comté dans les menus déroulants successifs qui s'affichent :

    Programmes de mise en cache de Google Earth III – Google Earth Voyager

    Remarque : vous devez d'abord lire cet article pour obtenir des informations générales sur l'utilisation des programmes de mise en cache automatisés de Google Earth.

    Le dernier programme d'automatisation du cache de Google Earth que je couvrirai, et le seul qui semble encore être en cours de développement, est Google Earth Voyager. Le lien de téléchargement d'origine sur GeoCities a disparu lorsque GeoCities s'est arrêté pour le moment, vous pouvez le télécharger à partir de la page CNet ici’s un autre site de téléchargement. Le fichier zip du programme contient également un bon guide d'utilisation au format PDF, décompressez tous les fichiers dans le dossier de votre choix et exécutez le programme :

    Comme avec GECacheBldr, vous entrez les coordonnées NW de la zone qui vous intéresse, puis la distance à l'est et au sud de ce point pour lequel vous souhaitez créer un cache. J'aimerais que vous puissiez spécifier les limites à la place. Définissez ensuite la largeur et la hauteur de la zone couverte par la vue Google Earth, ainsi que l'altitude, notez que la largeur/hauteur est en kilomètres, tandis que l'altitude est en mètres. GE Voyager vous permet également de définir l'intervalle de temps de mise à jour, ce qui est utile. Une fois que vous avez terminé, vous pouvez ouvrir Google Earth et créer un lien réseau vers le fichier GEVData.kml situé dans le même répertoire que l'exécutable. Ce fichier KML est fourni dans le fichier zip, donc contrairement aux deux programmes de mise en cache précédents, vous n'avez pas besoin de démarrer/arrêter le programme pour générer le fichier. Une fois que le lien réseau est prêt, effacez le cache actuel si vous le souhaitez, cliquez sur le bouton de lecture vert et le processus de mise en cache commencera. Vous pouvez suspendre ou arrêter le processus à tout moment. Les indicateurs avec la taille actuelle du cache et le temps restant sont une bonne idée.

    Contrairement aux deux programmes précédents, vous pouvez spécifier plusieurs zones à mettre en cache en même temps :

    Vous pouvez également entrer des points dispersés et mettre en cache une seule zone autour de ces points, je pense que c'est moins utile que les zones multiples :

    Dans le menu Cache GE, vous pouvez ouvrir le dossier contenant le cache, ce qui est pratique pour faire une copie de ces fichiers à stocker dans un dossier différent, ou déplacer vers un autre ordinateur. Il vous permet également de modifier le dossier de cache, ce que je ne recommanderais pas, à moins que vous n'ayez une très bonne raison pour laquelle cela nécessite de modifier le registre, et pourrait également avoir d'autres effets secondaires.

    GE Voyager est probablement le meilleur choix pour une utilisation générale dans la création automatique d'un cache Google Earth pour une zone. Si vous pouviez définir les limites absolues de la zone, au lieu du coin NW et des distances, ce serait presque parfait (si vous avez besoin de cette capacité, GE Cacher est le seul choix, mais son ensemble de fonctionnalités est inférieur à GE Voyager). La possibilité de faire plusieurs couvertures d'une même zone avec différentes altitudes/résolutions serait également un ajout utile.

    Programmes de mise en cache de Google Earth II – GE Cacher

    Remarque : vous devez d'abord lire cet article pour obtenir des informations générales sur l'utilisation des programmes de mise en cache automatisés de Google Earth.

    Le prochain programme de mise en cache de Google Earth à examiner est GE Cacher. Pas de programme d'installation, il suffit de télécharger et de décompresser l'exécutable dans un dossier, puis de l'exécuter à partir de là, il s'exécutera toujours au-dessus des autres fenêtres. Vous êtes susceptible de recevoir un avertissement de sécurité de Windows vous demandant si vous souhaitez débloquer l'accès au réseau pour le programme. Le programme a d'abord deux onglets, pour la configuration :

    Les données proxy sont lues à partir du registre et saisies si nécessaire (bien qu'elles ne soient généralement pas nécessaires pour la plupart des systèmes). Si vous avez installé Google Earth ailleurs que dans le répertoire par défaut, vous devrez entrer son emplacement dans la case appropriée.

    Contrairement aux deux autres programmes de mise en cache que j'examine, GE Cacher vous permet de définir les limites de latitude/longitude, ce qui est plus pratique, et calcule la zone couverte. Il enregistre également les données saisies dans un fichier de configuration, de sorte qu'il s'affiche à nouveau si vous redémarrez le programme. En revanche, l'intervalle de mise à jour de l'heure est fixe et vous devez également définir l'altitude manuellement dans Google Earth. Utilisez cette altitude pour définir la résolution de l'imagerie, ainsi que pour définir l'intervalle d'espacement des positions (appelé ici la largeur de la zone visible). Sur mon système, le bouton "Recharger Google Earth pour utiliser GE Cacher" n'a aucun effet ou donne un message d'erreur.

    Vous pouvez également spécifier l'emplacement du fichier KML à utiliser comme lien réseau, contrairement aux deux autres qui ont un nom et un emplacement de fichier KML fixes. Vous devrez toujours cliquer sur "Démarrer la mise en cache", puis sur "Arrêter la mise en cache", pour créer le fichier KML, puis créer un lien réseau vers celui-ci dans Google Earth. Une fois que vous êtes prêt, avec Google Earth en cours d'exécution et le lien réseau créé, cliquez sur « Démarrer la mise en cache » pour lancer le processus. Le programme affichera un indicateur de progression sous forme de graphique à barres à côté de « Compte de zone », ainsi qu'une estimation approximative du temps restant (« ETA »). Le programme est parfois grincheux dans Windows Vista à propos de la fermeture, ce qui peut nécessiter l'ouverture du Gestionnaire des tâches Windows “ (Ctrl-Alt-Esc) pour le fermer.

    J'ai trouvé que les meilleurs résultats ont été obtenus en réglant la "Largeur de la zone visible" plus bas que ce dont vous pensez avoir besoin, et en ajustant également la vitesse Fly-To dans Google Earth au réglage le plus rapide.L'intervalle de mise à jour n'est pas réglable et l'intervalle de mise à jour fixe du programme IMO est trop court pour garantir que toutes les données d'une zone sont téléchargées avant de passer à la zone suivante. Mais à part cela, le programme fait le travail, et la possibilité de définir les limites absolues de la zone est un gros plus, il y a aussi une documentation décente sur la page Web. Le programme ne semble plus être en développement actif, un lien est fourni vers le code source partiel dans Delphi, mais uniquement à des fins éducatives.

    Programmes de mise en cache de Google Earth I – GECacheBldr

    Remarque : vous devez d'abord lire cet article pour obtenir des informations générales sur l'utilisation des programmes de mise en cache automatisés de Google Earth.

    Le premier est le plus ancien programme de mise en cache de Google Earth que j'ai pu trouver, GECacheBldr le télécharge à partir de l'un des liens du programme dans ce fil de discussion. Pas de programme d'installation, mais en le copiant dans son propre répertoire, vous pourrez retrouver plus facilement le fichier KML qu'il génère en cours de fonctionnement, appelé « Cashbild,kml ».

    L'exécution du programme fait apparaître un écran simple :

    Vous commencez par entrer les coordonnées de latitude/longitude du coin NW de la zone qui vous intéresse, en degrés-minutes-secondes, en définissant également Nord/Sud et Est/Ouest pour la latitude et la longitude. Vous pouvez configurer Google Earth pour qu'il s'affiche dans ces unités à l'aide de l'élément de menu Outils => Options, onglet Vue 3D. Définissez ensuite la distance à l'est et au sud de cet emplacement d'angle pour lequel vous souhaitez mettre en cache les données en miles. La portée (en mètres) définit l'altitude au-dessus du sol, qui à son tour détermine la résolution des images mises en cache - une altitude inférieure signifie des images à plus haute résolution (et un fichier cache plus volumineux).

    Le facteur de vitesse fait référence au temps entre les mises à jour successives de la position du fichier KML, avec des nombres plus élevés signifiant des mises à jour plus lentes, l'auteur recommande 3 pour commencer, mais je commencerais par 40 (un temps de mise à jour de 10 secondes), puis ajusterais cela vers le haut ou vers le bas selon les besoins . La résolution définit l'espacement entre les vues successives de Google Earth, lorsque la mise en cache a lieu. Suivez les instructions de cet article pour définir la résolution en fonction de la plage ou de votre vue Google Earth. Une fois que vous avez défini les paramètres d'une exécution de mise en cache, vous ne pouvez pas les modifier sans quitter et tout recommencer.

    La première fois que vous exécutez le programme, cliquez sur le bouton Démarrer, puis cliquez immédiatement sur le bouton Pause. Cela génère un fichier appelé "CashBild.kml" dans le même répertoire que l'exécutable. Il s'agit du fichier KML que le programme met régulièrement à jour avec de nouvelles positions. Vous devrez créer un lien réseau vers ce fichier (voir cet article pour plus de détails). Une fois ce fichier « CashBild.kml » créé, vous n'aurez plus à faire Démarrer/Pause à nouveau, assurez-vous simplement que le lien réseau vers le fichier est créé et actif dans Google Earth.

    Lorsque le lien Google Earth Network est prêt, cliquez à nouveau sur le bouton Démarrer dans GECacheBldr et regardez Google Earth pendant une brève période. Vous verrez Google Earth passer automatiquement d'un affichage à l'autre. Si les paramètres sont correctement définis, les images auront le temps de se télécharger complètement et seront nettes, sinon elles resteront floues et vous devrez réessayer avec un autre ensemble de paramètres. Cela peut prendre quelques essais, mais finalement vous devriez arriver à un ensemble de paramètres pour une altitude particulière qui donne de bons résultats. Lorsque la vue cesse de changer dans Google Earth, la mise en cache est terminée et vous pouvez désormais utiliser directement les données du cache disque ou les copier dans un autre répertoire pour les utiliser à un autre moment, comme décrit dans cet article. N'oubliez pas de supprimer ou de désactiver ce lien réseau vers “Cashbild.kml”, ou chaque fois que vous ouvrez Google Earth par la suite, il se rendra à ce dernier emplacement et affichera.

    Le programme fait le travail et possède une interface simple et agréable. Je préférerais que vous puissiez définir les limites réelles de latitude/longitude au lieu du coin NW, puis les distances le mélange d'unités (DMS pour les coordonnées, miles pour la distance, mètres pour la portée, 1/4 de seconde pour la vitesse de mise à jour, et 1/10 de mille pour l'espacement des positions) est également un peu déroutant. Le programme n'est plus mis à jour et l'auteur fournira le code source sur demande.


    Choisissez nos professionnels pour accomplir vos tâches d'écriture !

    Si votre date limite approche et que vous avez des tonnes de cours qui s'accumulent, contactez-nous et nous allégerons votre fardeau académique. Nous sommes prêts à développer des papiers uniques selon vos exigences, aussi strictes soient-elles. Nos experts créent des chefs-d'œuvre d'écriture qui valent à nos clients non seulement des notes élevées, mais également une solide réputation auprès de professeurs exigeants. Ne perdez pas votre temps et commandez notre service de rédaction d'essais dès aujourd'hui !


    Voir la vidéo: Installation dArcgis (Octobre 2021).