Ce projet de master vise a l’utilisation des solutions logiciels libre afin de permettre d’automatiser une chaˆıne alternative de traitement d’images acquises par drone équipé de caméras
Trang 1UNIVERSITÉ NATIONALE DU VIETNAM À HANOI INSTITUT FRANCOPHONE INTERNATIONAL
OUMAROU ALTINE Mohamadou Aminou
Utilisation des solutions logiciels libre pour
automatiser une chaˆıne de traitement d’image acquise par drone sur des couverts végétaux
Sử dụng các giải pháp phần mềm nguồn mở để tự động hóa một quy trình xử lý hình ảnh thảm thực
vật chụp bằng máy bay không người lái
Spécialité : Systèmes Intelligents et Multimédia
MÉMOIRE DE FIN D’ÉTUDES DU MASTER
INFORMATIQUE
Sous la direction de : DELALANDE Magalie, Ingénieur INRA, BEURIER Grégory, Chercheur CIRAD,
HANOI - 2020
Trang 2UNIVERSITÉ NATIONALE DU VIETNAM À HANOI INSTITUT FRANCOPHONE INTERNATIONAL
OUMAROU ALTINE Mohamadou Aminou
Utilisation des solutions logiciels libre pour
automatiser une chaine de traitement d’image acquise par drone sur des couverts vegetaux
Sử dụng các giải pháp phần mềm nguồn mở để tự động hóa một quy trình xử lý hình ảnh thảm thực
vật chụp bằng máy bay không người lái
Spécialité : Systèmes Intelligents et Multimédia
Code : Programme Pilote
MÉMOIRE DE FIN D’ÉTUDES DU MASTER
INFORMATIQUE
Sous la direction de : DELALANDE Magalie, Ingénieur INRA, BEURIER Grégory, Chercheur CIRAD,
HANOI - 2020
Trang 3ATTESTATION SUR L’HONNEUR
J’atteste sur l’honneur que ce mémoire a été réalisé par moi-même et que les données etles résultats qui y sont présentés sont exacts et n’ont jamais été publiés ailleurs La
source des informations citées dans ce mémoire a été bien précisée
LỜI CAM ĐOAN
Tôi cam đoan đây là công trình nghiên cứu của riêng tôi Các số liệu, kết quả nêu trongLuận văn là trung thực và chưa từng được ai công bố trong bất kỳ công trình nào khác
Các thông tin trích dẫn trong Luận văn đã được chỉ rõ nguồn gốc
OUMAROU ALTINE Mohamadou Aminou
Trang 4Ce projet de master vise a l’utilisation des solutions logiciels libre afin de permettre
d’automatiser une chaˆıne alternative de traitement d’images acquises par drone équipé de
caméras sur des vergers dans lesquels ont été simulés des pannes du système d’irrigation
(colmatages et fuites).Pour répondre au problème de détection et classification des
pom-miers présentant des caractéristiques spectrales et thermiques liées à leur état hydrique,
nous avons développé deux modèles de réseau de neurone convolution afin de bien classer
et d’identifier les pommiers qui sont soit en restriction hydrique soit en excès d’eau.Ces
modèles sont utilisés sur deux catégories d’images : tout d’abord les images natives, de
640 x 512 pixels A l’issue des différents tests on a obtenu un pourcentage de 96% de
pré-cision avec un rappel et une F-mesure de 62% et 75% respectivement Dans un deuxième
temps, on a subdivisé les images natives en 4 images de 320x256 pixels Nous obtenons
des résultats differents du premiers test avec une précision de 73% et un Rappel de 89%
et une F-mesure de 80% pour le modèle water deficit
Pour le deuxieme modele nous avions obtenu une precision de 66%, un rappel de 85% et
une F-mesure de 75% Cette solution est un premier pas vers une surveillance de l’état de
fonctionnement des systèmes d’irrigation assisté par drone
0.0.0.0.1 Mots clés :Apprentissage profond,IR thermique, irrigation,pommier,Réseau
de neurone convolutionel(CNN),VGG-16
Trang 5This master project aims at the use of open-source software solutions in order to mate an alternative image processing chain acquired by drone equipped with cameras onorchards where irrigation system breakdowns (clogging and leaks) have been simulated
auto-To address the problem of detection and classification of apple trees with spectral andthermal characteristics related to their water status, we have developed two convolutionneural network models to classify and identify apple trees that are either in water res-triction or in excess of water These models are used on two categories of images : firstly,native images, 640 x 512 pixels, and secondly the native images, 640 x 512 pixels, with
a 96% accuracy with a recall and an F-measurement of 62% and 75% respectively In asecond step, the native images were subdivided into 4 images of 320x256 pixels We obtaindifferent results from the first test with an accuracy of 73% and a Recall of 89% and anF-measurement of 80% for the water deficit model For the second model we obtained anaccuracy of 66%, a recall of 85% and an F-measurement of 75% This solution is a firststep towards monitoring the operational status of UAV-assisted irrigation systems
0.0.0.0.2 Keywords : Deep Learning,Thermal IR, Irrigation,Apple,ConvolutionalNeuron Network(CNN),VGG-16
Trang 6Ce travail de mémoire de Master recherche est le résultat de l’engagement de plusieurspersonnes qui ont décidé de m’accompagner résolument dans cet exaltant parcours.Je re-mercie Dieu le tout Puissant, très Miséricordieux, qui m’a donné la force, le courage et
la persévérance durant ces deux années C’est avec une certaine émotion et une grandereconnaissance que je remercie l’Université Nationale du Vietnam à travers l’Institut Fran-cophone International et toute son équipe pédagogique Je remercie les professeurs pourles valeurs et méthodes inculquées durant le cursus : la curiosité, le goˆut du travail, del’effort, le sens de la persévérance,etc Autant de trésors qui me seront, sans nul doute,utiles Je tiens à adresser mes profonds remerciements aux encadrants, Mme MagalieDELALANDE pour les conseils, les explications, la relecture de mon mémoire, les diffé-rentes pistes de réflexion et son coaching qui m’ont permis de cibler et de m’orientertout au long de ce stage, à Mr Gregory BEURIER pour l’encadrement, les explications etles différentes orientations lors de l’implémentation des modèles de réseau de neurones aconvolution pour la classification des pommiers sous stress hydrique Un merci également
à Mr Jean Luc REGNARD pour l’aide lors de mes début pour compréhension du sujet etles articles qui m’ont permis de mieux cerner la rédaction de ce mémoire A toute l’équipeAFEF de l’UMR AGAP, basée au CIRAD Montpellier France,je vous remercie de m’avoiraccepté au sein de votre équipe Un grand merci à mes parents, à mes frères et soeurs pourleur amour, leurs conseils ainsi que pour leur soutien inconditionnel Je voudrais profiter
de cet espace pour leur exprimer toute ma gratitude et ma reconnaissance Grâce à vous,j’aborde une nouvelle étape de ma vie avec confiance et dynamisme
Trang 7Table des matières
1.1 Introduction Générale 2
1.2 Présentations des organismes d’accueil 5
1.2.1 INRA 5
1.2.2 CIRAD 6
1.2.3 SUPAGRO 6
1.3 Contexte de l’étude 7
1.4 Objectif 8
1.5 Travail à réaliser 8
1.5.1 Sur le plan théorique : 8
1.5.2 Sur le plan pratique : 8
Chapitre 2 État de l’art 10 2.1 Introduction 11
2.2 Réseau de neurone 11
2.2.1 Réseau de neurones artificiel 11
2.3 Approches de classification d’images via le deeplearning 12
2.3.1 Cas du réseau de neurone à convolution 12
2.4 Approches de classification d’images via le transfert learning 14
Chapitre 3 Méthodologie 15 3.1 Description générale 16
3.1.1 Extraction des metadonnée exif d’une image thermique 18
3.2 Phases de réalisation 19
3.2.1 Pré-traitement des données 19
Trang 83.2.2 Le réseau de neurone 25
3.2.3 Réseaux de neurones convolutifs (CNN) 26
3.2.4 Le transfert learning 28
3.2.5 Méthode d’entraˆınement du réseau 30
3.2.6 Méthode de validation du réseau 31
Chapitre 4 Acquisition des données 33 4.1 Matériels d’acquisition des données 34
4.1.1 Drone 34
4.1.2 Les caméras 36
4.2 Expérimentations 36
4.2.1 Analyse des orthomosaˆıques 39
Chapitre 5 Implementations et résultats obtenus 41 5.1 Implementation 41
5.1.1 Environnement de travail 41
5.1.2 Architecture et fonctionnement du model utilisé 42
5.2 Expérimentations et résultats obtenus 45
5.2.1 Expérimentations sur les grandes images 45
5.2.2 Expérimentations sur les images après découpage 47
Chapitre 6 Conclusion et Perspectives 50 6.1 Conclusion 50
6.2 Perspectives 51
Chapitre 7 Annexe 55 7.1 Algorithme de découpage des images 55
7.2 Algorithme d’extraction des metadonnée 56
Trang 9Table des figures
2.1 Structure d’un neurone artificiel(Wikipedia) 11
2.2 Structure d’un neurone biologique 12
3.1 metadonnées 17
3.2 image au format tiff 18
3.3 Métadonnées de l’image 18
3.4 Sphère 21
3.5 footprint 22
3.6 Représentation des zones cibles dans la parcelle 24
3.7 zones cibles 24
3.8 Schéma d’annotation des images 24
3.9 Schéma d’annotation des images avec 320*256 pixels 25
3.10 Architecture d’un réseau de neurone 26
3.11 représentation d’image abstraite RVB 4 * 4 27
3.12 exemple d’image 27
3.13 Architecture VGG-16 29
3.14 Illustration du concept d’apprentissage par transfert 29
3.15 Comparaison entre différente architecture de transfert 30
3.16 Matrice de confusion 31
3.17 Exemple de courbe ROC 32
4.1 Image de drone 34
4.2 Decollage drone 35
4.3 Tablette de contrôle 35
4.4 Localisation de l’expérimentation 37
4.5 déroulé temporel de l’acquisition des données et potentiels de tige relevés sur les 3 modalités aux différentes dates de vol : les 3 modalités de traite-ment sont statistiquetraite-ment différentes (ANOVA, et test de Tukey, p<0.05) de D1 à D4 38
4.6 températures de surface calculées à partir des images collectées par caméra thermique (altitude de vol : 40m) 39
Trang 104.7 NDVI et GNDVI calculés à partir des images collectées par la caméra
mul-tispectrale (altitude de vol 40m) 40
5.1 logo ubuntu 41
5.2 logo python 42
5.3 Anaconda-navigator 42
5.4 Architecture VGG-16 43
5.5 Historique du modèle 44
5.6 graphe des valeurs de la matrice de confusion 46
5.7 graphe de variation sur les données de prédiction 46
5.8 Matrice de confusion du modèle wd- !wd lors du 1er entraˆınement 47
5.9 Matrice de confusion du modèle ow- !ow lors du 1er entraˆınement 48
5.10 Matrice de confusion du modèle wd- !wd lors du 2ème entraˆınement 49
5.11 Matrice de confusion du modèle ow- !ow lors du 2ème entraˆınement 49
Trang 11Liste des tableaux
3.1 tableau récapitulatif du volume d’images 165.1 Tableau des résultats d’expérimentation sur les grandes images 465.2 Tableau des valeurs de prédiction sur les petites images pour wd- !wd 475.3 Tableau des valeurs de prédiction sur les petites images pour ow- !ow 485.4 Tableau comparative des indicateur de performance des deux modèle pour
le premier entraˆınement 485.5 Tableau des valeurs de prédiction des petites images lors du deuxième en-traˆınement du model WD- !WD 485.6 Tableau des valeurs de prédiction des petites images lors du deuxième en-traˆınement du model OW- !OW 49
Trang 12Liste des sigles et acronymes
ADN Acide Désoxyribonucléique
IRT InfraRouge Thermique
NDVI Indice de végétation par différence normalisée
GNDVI Green Normalized Difference Vegetation Index
ANN Réseau de neurone artificiel
CNN Réseau de neurone à convolution
CIRAD Centre International de Recherche Agronomique pour le DéveloppementINRA Institut National de la Recherche Agronomique
AFEF Architecture et Fonctionnement des Espèces Fruitières
AGAP Amélioration Génétique et Adaptation des Plantes méditerranéennesUMR Unité Mixte de Recherche
EXIF Exchangeable image file format
JEIDA Japan Electronic Industry Development Association
AIA Annotation Automatique des Images
Trang 13Chapitre 1
Analyse du sujet
L’objectif de ce premier chapitre est de présenter une analyse exploratoire de notresujet Pour ce faire, nous y aborderons différents points tout en commen¸cant par l’in-troduction générale, la définition du contexte ainsi que l’objectif de l’étude et enfin laproblématique qui se dessine autour du sujet
Trang 141.1 Introduction Générale
Depuis des années la production agricole est devenus un sujet majeur dans tout lessecteurs d’activités Ainsi le rapport d’expert du GIEC (groupe intergouvernemental surl’évolution du climat) indique que les 3 dernières décennies ont été les plus chaude que laTerre n’ai connu depuis 1850 (IPCC, 2014)[17] Pour le bassin méditerranéen les prévisionssont une diminution de la fréquence des précipitations et une augmentation en fréquence
et en intensité des périodes de sécheresse ;
Le dernier rapport (IPCC 2018)[19] lance un cri d’alarme et met en lumière l’urgenceabsolue de limiter de l’augmentation de la température de surface de la Terre à 1,5 parrapport à celle observée avant l’ère pré-industrielle Conséquences sures du changementclimatique : diminution des pluies mais augmentation des épisodes de fortes précipita-tions (type épisode méditerranéen ou cévenol), augmentation des inondations côtières,augmentation des vagues de chaleur Pour l’agriculture l’augmentation des vagues de cha-leur et la diminution des pluies efficaces posent problèmes car ce sont 2 facteurs capitauxinfluen¸cant le rendement voire la survie des végétaux
Dans le secteur agricole on constate une augmentation constante de la demande
en eau Pour cause, d’une part c’est du à l’augmentation de la population mondiale (etl’augmentation de la consommation en eau par individu et par l’industrie), d’autre part
la diminution des précipitations couplée à une augmentation de la demande évaporativedans de nombreuses régions (augmentation de la température) De nombreuses culturesdoivent être irriguées pour rester rentables (ma¨ıs, riz, pommiers, )
Comme l’agriculture est un secteur d’activité très consommateur en eau et que la source devient rare, la situation pour l’accès à l’eau pour l’irrigation devient de plus enplus tendue En France l’agriculture prélève environ 10% de l’eau douce disponible soitenviron 4 milliards de m3, mais ces prélèvements sont concentrés sur les 3 mois d’été, cequi , ramené à la période représente un prélèvement de 80% de l’eau disponible[5] Enconséquence, les préfectures prennent de plus en plus d’arrêtés de restriction d’usage del’eau Dans ces périodes, l’eau est réservée prioritairement à la santé, la sécurité civilel’approvisionnement en eau potable et la préservation des écosystèmes aquatiques Leslimitations concernant l’agriculture vont de l’interdiction d’arroser 1 jour par semaine ou
res-à certaines heures jusqu’res-à l’interdiction totale d’irriguer Or en cette période critique quis’étend de début juin à fin aoˆut, les cultures ont des besoins important et les limitations
ou restrictions peuvent mettre en péril la rentabilité des cultures, et dans les cas les plusextrêmes, peuvent aboutir à la perte de la culture
Ainsi on constate que des nombreuses espèces fruitières sont cultivées sur le pourtourméditerranéen De ce fait l’irrigation joue un rôle essentiel dans les cultures fruitières
Trang 15commerciales, et elle est généralement pratiquée systématiquement Avec les nouvellesréglementations sur l’utilisation de l’eau et la prise en compte du changement climatique,
on observe une évolution dans les systèmes d’irrigation L’irrigation des vergers était ditionnellement de type gravitaire (eau sans pression, très dispendieuse à cause des pertespar évaporation) et elle évolue vers des systèmes modernes plus parcimonieux L’irriga-tion de précision, automatisée se développe progressivement La méthode la plus répandue(35% des vergers) dans les vergers est la micro-irrigation.[4] Elle consiste en des apportslocalisés au niveau des racines avec de faibles débits Elle permet de limiter les pertes parévaporation et de contrôler précisément les apports d’eau Des outils d’aide au pilotage
tra-de l’irrigation (télédétection, modèles tra-de bilan hydrique, ) associés aux techniques tra-demesures en temps réel de l’eau disponible dans le sol (sondes) et aux prévisions météoapparaissent comme des solutions aux contraintes économiques, écologiques et réglemen-taires encadrant l’usage de l’eau en agriculture Deux systèmes dominent le marché : lemicrojet et le goutte à goutte Notre expérimentation est en goutte à goutte
La difficulté avec ces systèmes précis est leur entretien Avec des eaux chargées caire, résidus organiques ou inorganiques) les goˆuteurs ou les micro-asperseurs se bouchent
(cal-Un colmatage passe inaper¸cu car il faut observer les goˆuteurs pendant le créneau gation pour voir qu’il ne goutte pas Or ce n’est pas possible de visiter des km de tuyaux
d’irri-et de goˆuteurs pendant les quelques heures (en général 2-4h d’irrigation hebdomadaire)
Le phénotype est l’ensemble des traits observables d’un organisme (Wikipédia) Le type est défini en opposition au génotype (ensemble des informatiques génétique inscritesdans l’ADN) Certains traits sont dits structurels (forme ou couleur des feuilles et desfruits par ex) Cependant pour la majorité des traits, leur expression est influencée parl’environnement dans lequel ils poussent (hauteur de la plante, poids du fruit, )
phéno-La dernière décennie a vu l’émergence d’outils numériques (notamment des caméras)pour un phénotypage dans les spectres du visible et du proche infrarouge, ainsi que dans
le domaine de l’infrarouge thermique Parallèlement, l’utilisation de drones pour sition d’images à haute résolution spatiale s’est également beaucoup développée Dans ledomaine de la télédétection, il existe une large gamme d’indices permettant de caracté-riser l’état nutritionnel, transpiratoire ou physiologique des couverts végétaux Selon lesindices choisis, il est possible d’étudier les réponses à court ou long terme des plantes à desconditions environnementales Dans le cas de plantes soumises à des déficits hydriques,
l’acqui-la première réponse à court terme est l’acqui-la fermeture stomatique (in Virlet, 2014)[10] Lesréponses à plus long terme, si la situation de déficit se maintien par exemple, vont être,entre autres, une réduction de la surface transpirante Un stomate est un orifice de petitetaille présent dans l’épiderme des organes aériens des végétaux (sur la face inférieure desfeuilles le plus souvent) Il permet les échanges gazeux entre la plante et l’air ambiant
Trang 16(dioxygène, dioxyde de carbone, vapeur d’eau ) ainsi que la régulation de la pressionosmotique (wikipédia) La fermeture stomatique va avoir pour conséquence une limita-tion des échanges gazeux et une augmentation de la température du feuillage Lorsque
la température d’un corps augmente, il émet une radiation sous forme de rayonnementélectromagnétique Les capteurs infrarouges thermiques mesurent cette radiation émisedans la bande infrarouge (IRT : 0.7 à 100m) du spectre électromagnétique et la relient à
la température du corps par la loi de Stefan-Boltzmann et la loi de Planck (Gaussorgues,1999)
L’équipe AFEF travaille depuis plusieurs années sur la caractérisation de la réponse despommiers à la contrainte hydrique Virlet (thèse 2014, et articles en 2014 et 2015)[9],puis [Gómez-Candón al, en 2016][3], puis [Delalande al en 2018][2] nombreusesétudes pour montrer que l’utilisation d’une caméra thermique embarquée sur un dronequi survole les parcelles à vitesse lente permet de mesurer les températures de surface depommiers au champ et que ces températures peuvent être reliées au potentiel hydriquedes arbres (mesure de référence pour définir le statut hydrique d’une plante)
L’utilisation de capteurs numériques à haute résolution spatiale (et parfois à hauterésolution spectrale) couplée à l’utilisation de drones permettant une acquisition à hauterésolution temporelle génère une quantité de données considérable qu’il n’est plus envisa-geable de traiter de manière classique (statistiques, analyses de données, ) Le recours àdes outils d’apprentissage machine (machine learning) est de fait nécessaire au traitement
et à la compréhension des données collectées à haut débit
Des contributions et ameliorations ont eté apportés durant ce travail avec des resultats deplus en plus satisfaisant Ainsi nous avons développé deux modèles de réseau de neuroneconvolution afin de bien classer et d’identifier les pommiers qui sont soit en restrictionhydrique soit en excès d’eau.Ces modèles sont utilisés sur deux catégories d’images : toutd’abord les images natives, de 640 x 512 pixels A l’issue des différents tests on a obtenu
un pourcentage de 96% de précision avec un rappel et une F-mesure de 62% et 75% pectivement Dans un deuxième temps, on a subdivisé les images natives en 4 images de320x256 pixels Nous obtenons des résultats differents du premiers test avec une précision
res-de 73% et un Rappel res-de 89% et une F-mesure res-de 80% pour le modèle water res-deficit.Pour le deuxieme modele nous avions obtenu une precision de 66%, un rappel de 85% etune F-mesure de 75%
Dans la suite de notre travail, nous aborderons premièrement l’analyse du sujet, mement nous étudierons l’état de l’art afin de faire ressortir quelques études ayant faitl’objet du problème posé Troisièmement, nous aborderons la méthodologie de fa¸con dé-taillée Le protocole expérimental et l’analyse des résultats seront présentés dans unequatrième partie Pour terminer, nous présenterons dans la cinquième partie, la conclu-
Trang 17deuxiè-sion finale ainsi que les perspectives.
1.2 Présentations des organismes d’accueil
L’Unité mixte de Recherche Agap, Amélioration Génétique et Adaptation des Plantesméditerranéennes et tropicales, a été créée le 1er janvier 2011 Elle regroupe plus de 400personnes développant une recherche scientifique d’excellence en biologie des plantes etgénétique végétale produisant des connaissances contribuant à répondre aux enjeux so-ciétaux majeurs de l’agriculture au Sud comme au Nord L’UMR Agap est placée sous
la tutelle de deux organismes de recherche et d’un organisme d’enseignement supérieur :INRA, CIRAD,SUPAGRO
Principalement nous effectuons nos travaux au sein de l’équipe Architecture et tionnement des Espèces Fruitières (AFEF) qui est une sous unité avec comme objectifd’explorer les bases éco-physiologiques et les déterminismes génétiques du développementvégétatif et reproducteur du pommier et de l’olivier, dans un contexte de changementclimatique
Premier institut de recherche agronomique en Europe, deuxième en sciences agricolesdans le monde, l’Institut national de recherche agronomique (Inra) mène des recherches
au service d’enjeux de société majeurs
Inra est un organisme national de recherche scientifique publique, sous la double tutelledes ministères en charge de la Recherche et de l’Agriculture Ses missions : produire
et diffuser des connaissances scientifiques – plus de 4 000 publications par an dans leWeb of Science ; former à la recherche et par la recherche – plus de 1 800 doctorants ;éclairer les décisions publiques – expertises scientifiques collectives, études, prospectives ;contribuer à l’innovation par le partenariat et le transfert – 360 brevets, 457 certificatsd’obtention végétale, 130 logiciels, bases de données et outils d’aide à la décision ; élaborer
la stratégie de recherche européenne et nationale – 4 initiatives internationales, 2 initiativeseuropéennes de programmation conjointe, 4 Eranet, 5 alliances nationales ; contribuerenfin au dialogue entre science et société
Inra est une communauté de 12 000 personnes dont 8 290 agents titulaires, 1 800chercheurs titulaires, 2 552 stagiaires accueillis et 510 doctorants ; 186 laboratoires et 49unités expérimentales au sein de 13 départements scientifiques et 17 centres de recherche
880 millions de budget exécuté, dont 77 % en provenance du ministère de la Recherche et
20 % d’autres crédits publics Depuis le 01 janvier 2020 INRA est devenu INRAE
Trang 181.2.2 CIRAD
Le Cirad, établissement public placé sous la double tutelle du ministère de ment supérieur et de la Recherche et du ministère des Affaires étrangères et européennes,est un centre de recherche qui répond, avec les pays du Sud, aux enjeux internationaux
l’Enseigne-de l’agriculture pour le développement Ses activités relèvent l’Enseigne-des sciences du vivant, l’Enseigne-dessciences sociales et des sciences de l’ingénieur appliquées à l’agriculture, à l’alimentation etaux territoires ruraux Sa mission : en partenariat avec les pays du Sud dans leur diversité,
le Cirad produit et transmet de nouvelles connaissances, pour accompagner leur pement agricole et contribuer au débat sur les grands enjeux mondiaux de l’agronomie
dévelop-Le Cirad a défini 6 axes de recherche prioritaires : intensification écologique ; biomasseénergie ; alimentation ; santé animale, maladies émergentes ; politiques publiques ; espacesruraux Le Cirad c’est : 1800 agents dont 800 scientifiques ; 800 chercheurs et techniciensformés chaque année dans le cadre de stages ou de formation diplômantes ; des activités
de coopération avec plus de 90 pays ; des directions régionales à l’étranger en Afrique,dans l’océan indien, en Asie et en Amérique du Sud ; des pôles scientifiques à vocationrégionale dans l’outremer fran¸cais ; 203 millions d’euros de budget dont les deux tiers pro-viennent de l’État fran¸cais En France, le Cirad comprend deux centres de recherche, l’un àMontpellier (campus de Lavalette), l’autre à Montferrier-sur-Lez (campus de Baillarguet,disposant notamment d’un écotron), et de stations dans l’outre-mer fran¸cais À partir
de ses douze directions régionales réparties sur tous les continents1, le CIRAD mène desactivités de coopération avec plus de cent pays
[22] Montpellier SupAgro, centre international d’études supérieures en sciences nomiques est un établissement public à caractère scientifique culturel et professionnel(EPSCP), sous tutelle du Ministère de l’agriculture et de la pêche Montpellier SupAgroest un établissement d’enseignement supérieur et de recherche largement ouvert sur la Mé-diterranée et les pays du Sud, né en janvier 2007 de la fusion de quatre établissements :Ecole nationale supérieure agronomique de Montpellier (ENSA.M), Agro.M Centre na-tional d’études agronomiques des régions chaudes (CNEARC) Département industriesagroalimentaires régions chaudes de l’École nationale supérieure des industries agricoles
agro-et alimentaires (ENSIA-SIARC) Centre d’expérimentations pédagogiques de Florac (CEPFlorac) 350 agents dont 100 enseignants-chercheurs, 1300 étudiants Un fort adossementsur les équipes de recherche d’Agropolis International lui permet d’offrir aux étudiantsune large palette de formations (diplômes d’ingénieur, licences, masters, mastères, doc-torats) L’établissement propose également des formations courtes qualifiantes adaptées
Trang 19aux besoins des professionnels Montpellier SupAgro développe des activités de transfert
de technologies, de valorisation des connaissances issues de la recherche, d’appui à vation et à la création d’entreprises, de diffusion de la culture scientifique et technique.Montpellier SupAgro et l’Inra sont partenaires dans de nombreuses unités mixtes de re-cherche (UMR), auxquelles sont également associés d’autres établissements de recherche(Cirad, IRD, Cemagref, CNRS, etc.) et d’enseignement supérieur (comme les Universités
l’inno-de Montpellier par exemple) Montpellier SupAgro est l’inno-devenu l’Institut Agro l’inno-depuis le 01janvier 2020
1.3 Contexte de l’étude
Les prévisions liées au changement climatique vont dans le sens d’une élévation destempératures moyennes et d’un changement de la répartition de la pluviométrie (rapportGIEC 2018, www.ipcc.ch) Ce changement accroˆıt la demande évaporative de l’atmos-phère en été et accroˆıt les risques de déficit hydrique en production végétale Face à ceschangements, et compte tenu des priorités d’usage de la ressource, la raréfaction de laressource en eau devient une menace pour la production agricole, notamment pour laproduction fruitière, car les vergers sont le plus souvent irrigués
Par soucis d’économie de la ressource en eau, de nombreux vergers sont irrigués pardes systèmes localisés parcimonieux (microjets ou le goutte à goutte) Ces systèmes sontperformants mais demandent une surveillance importante car ils sont soumis à des dys-fonctionnements localisés, sources d’hétérogénéité spatiale dans la répartition de l’eau.L’observation de ces dysfonctionnements nécessite une surveillance régulière devant s’opé-rer pendant les heures d’irrigation
L’équipe AFEF est engagée dans un projet international (financé par KIC), ó il est proposé d’utiliser l’imagerie ắroportée par drone utilisant des caméras(multispectrale et IR thermique) pour aider à la surveillance du bon fonctionnement del’irrigation dans les vergers : détection de fuites ou de bouchages de goutteurs/micro-asperseurs L’imagerie permet également de visualiser à un temps t l’hétérogénéité dufonctionnement des arbres au sein de la parcelle, par le calcul d’indices de végétation quitraduisent l’état physiologique des arbres
l’EIT-Climate-A l’échelle de la parcelle, le suivi de l’évapotranspiration des arbres peut être réalisépar imagerie thermique (IRT) haute résolution embarquée sur un drone (Gĩmez-Candĩn
et al., 2016) Par ailleurs, l’utilisation d’un capteur multispectral permet le calcul d’indices
de végétation, qui permettent d’approximer des paramètres de structure et de nement du couvert (indices classique : NDVI, GNDVI) Ces indices, couplés aux données
fonction-de température fonction-de couvert, permettent d’obtenir fonction-des informations intéressantes sur
Trang 20l’effi-cacité de l’utilisation de l’eau (Delalande et al., 2018).
1.4 Objectif
Grace aux nombreuses données spectrales acquises à haute résolution dans le visible,
le proche IR et l’IR thermique à partir de caméras embarquées dans des drones Ainsi unepremiere etudes a été menée sur les données Il s’agit de l’extraction des valeurs des pixelsdes arbres afin de calculer des indices en végétation et la température du feuillages Cetravail fait intervenir 3 logiciels : Agisoft Photoscan pour la partie ortho-rectification,géolocalisation, mosa¨ıquage ; le logiciel ERDAS Imagine pour la calibration desimages puis pour l’extraction des pixels à partir des zones d’intérêt ; et enfin un logiciel
de SIG (QGIS ou ArcGIS) pour l’identification individuelle des arbres Il permet uneanalyse fine des variations intra et inter arbre de la température de canopée et le calculd’indices de structure (NDVI), (GNDVI, MCARI2, ) et de fonctionnement (PRI)des pommiers A cet effet l’objectif de notre travail est de proposer une chaˆıne alternative
de traitement automatisé des images et de remplacer les briques logicielles payantespar une suite de logiciels et de librairies Open Source (OpenDroneMap, OpenCV etQGIS) libre afin d’en faciliter l’utilisation par des utilisateurs non équipés de logicielsperformants mais couteux
1.5 Travail à réaliser
Notre travail s’inscrit dans le cadre d’une recherche scientifique, il est donc nécessairepour nous de le subdiviser ou de l’organiser sur deux principaux plans, à savoir le planthéorique et le plan pratique
1.5.1 Sur le plan théorique :
Cette dimension de notre étude a pour but de nous orienter sur les différents travauxayant déjà abordés plus ou moins la problématique posée dans notre étude C’est à l’issue
de cette étude que nous proposerons le principe solution ou l’approche à adopter pour laméthodologie à mettre en place pour l’analyse du parcellaire cultural
1.5.2 Sur le plan pratique :
Cette partie est consacrée à la mise en place de la méthodologie et les techniquesd’analyses que nous aurons à proposer Une fois la solution mise en place, nous procédons
à son évaluation, c’est-à-dire, aux différentes expérimentations sur des données réelles
Trang 21qui nous permettrons de valider notre approche A l’issue de ce travail, nous espéronsaccomplir les objectifs précédemment énumérés dans la section 1.4.
Trang 22Chapitre 2
État de l’art
L’objectif de ce deuxième chapitre est de mener une étude exploratoire afin d’avoir unevision globale des travaux existants qui ont abordé plus ou moins les mêmes thématiquesassociés à notre sujet Nous allons donc au cours de cette étude, effectuer une synthèse destravaux sélectionnés afin de faire ressortir l’objectif, les techniques ou approches abordées,les points faibles et points forts de chacune d’elle
Trang 23ce qu’un réseau de neurones, quel lien avec notre cerveau humain, comment cela fonctionne
et surtout pour quelles applications ? Nous allons parcourir ces différents point a traversles différents travaux de recherche ayant été effectuer et qui cadre avec notre thématique
2.2 Réseau de neurone
Le réseau de neurone, en tant qu’algorithme de classification fondamental, est ment utilisé dans de nombreuses questions de classification d’images Avec le dévelop-pement rapide des dispositifs de calcul haute performance et des dispositifs de calculparallèle, le réseau de neurone convolutionnel attire également de plus en plus l’attention
large-de nombreux chercheurs dans ce domaine
2.2.1 Réseau de neurones artificiel
Un neurone artificiel est un modèle simplifié du neurone biologique L’objectif est
de permettre la modélisation de certaines fonctions du cerveau, comme la mémorisationassociative, l’apprentissage par l’exemple,etc.[29]
Figure 2.1 – Structure d’un neurone artificiel(Wikipedia)L’objectif général d’un RNA (Réseau de neurone artificiel) est de trouver la confi-guration des poids de connexion entre neurones pour qu’il associe à chaque configura-tion d’entrée, une réponse adéquate L’utilisation d’un RNA se fait en deux temps Tout
Trang 24d’abord une phase d’apprentissage qui est chargée d’établir des valeurs pour chacune desconnexions du réseau, puis une phase d’utilisation proprement dite, ó l’on présente auréseau une entrée et ó il nous indique en retour « sa » sortie calculée Cette sortie calculéeest comparée avec la réponse attendue et le système modifie les poids en conséquence.Cette altération des connexions est obtenue par l’algorithme de rétro-propagation[14]
du gradient d’erreur Ce calcul est chargé de rétro-propager dans le réseau les erreursconstatées sur les sorties En théorie, on ne peut jamais être sˆur que cet algorithme finissepar déterminer un ensemble de poids convenable pour tous les couples d’entrées-sorties
En pratique, on ne construit pas un seul RNA1, mais plusieurs modèles en jouant sur lesparamètres de cet algorithme, et en cherchant à obtenir un modèle qui colle au mieux auxdonnées
Figure 2.2 – Structure d’un neurone biologique
2.3 Approches de classification d’images via le
dee-plearning
2.3.1 Cas du réseau de neurone à convolution
Les améliorations des réseaux de neurones convolutifs (CNN) au cours des dernièresannées en ont fait l’état de l’art parmi les approches d’apprentissage automatique pourrésoudre les problèmes de vision par ordinateur, en particulier la classification des images( LeCun et al 2015 )[24] Les approches de vision par ordinateur pour les tâches de clas-sification ont traditionnellement nécessité une sélection manuelle des caractéristiques quiétaient jugées utiles pour prendre des décisions de classification En revanche, les CNNapprennent quelles fonctionnalités sont les plus importantes Les réseaux de neurones sont
1 Structure d’un neurone artificiel Le neurone calcule la somme de ses entrées puis cette valeur passe
à travers la fonction d’activation pour produire sa sortie
Trang 25composés de plusieurs couches de transformations linéaires (multiplications par une trice de «poids»), chacune suivie d’une fonction non linéaire Les transformations linéairessont apprises au cours de la formation en apportant de petits changements aux matrices
ma-de poids qui renma-dent progressivement les transformations plus utiles pour la tâche ma-declassification finale
On pense que le traitement multicouche appris de l’entrée visuelle qui se produit dans
un CNN est analogue à la fa¸con dont le système visuel de primate traite les informations ;les premiers stades des réseaux répondent à des éléments visuels de base tels que leslignes tandis que les niveaux supérieurs des réseaux répondent à des concepts visuelsplus complexes ou abstraits tels que la catégorie d’objet ( Cadieu et al 2014 )[15] Lescouches convolutives permettent à un réseau d’apprendre efficacement des fonctionnalitésinvariantes à un emplacement exact dans une image en appliquant la même transformationapprise aux sous-sections d’une image entière
Dans un exemple de travaux antérieurs dans ce domaine, (Mohanty et al 2016)[27]ont formé un CNN pour classer les feuilles comme appartenant à 1 des 14 espèces et pourdéterminer si elles avaient 1 des 26 maladies Ils ont rapporté une précision de 99,4%lors du classement des espèces et des maladies sur les données retenues Cependant, surles images non collectées dans des conditions contrôlées, leur modèle avait des précisions
de 31,4 à 31,7% lors de la classification des espèces et des maladies et de 41,1 à 54,5%lors de la classification des maladies dans les images d’une espèce préspécifiée Dans lesimages collectées dans des milieux naturels, de nombreux facteurs de nuisance contribuent
à rendre la tâche difficile pour un réseau formé sur des images contrôlées artificiellement,
y compris les variations d’éclairage, les ombres et le sol exposé
Dans l’article(Garcia Nachtigall et al.,2016) [20] ou il est question d’étudier l’utilisation desréseaux neuronaux convolutionnels pour détecter et classer automatiquement les maladies,les carences nutritionnelles et les dommages causés par les herbicides sur les pommiers
à partir d’images de leurs feuilles Leur methodologie repose sur l’utilisation d’un réseau
de neurone convolutif basé sur l’architecture AlexNet avec l’utilisation de caffé[Jia etal., 2014][12] et DIGITS [NVIDIA, 2015][6] pour aider à construire, former et tester lesRéseaux neuronaux convolutifs Pour ce faire, ils ont construit un nouvel ensemble dedonnées d’images étiquetées et qui contiennent des exemples de cinq des troubles les pluscourants et les plus importants affectant cette culture [Valdebenito-Sanhueza et al.,2008 ;Nachtigall et al :][8] Glomérule, tavelure, carence en potassium, carence en magnésium
et dommages causés par les herbicides A cet effet les réseaux neuronaux convolutionnels(CNN) est formé à cet ensemble de données, car ils sont souvent considérés comme l’état
de l’art de la classification des images [Krizhevsky et al., 2012][1], en fournissant uneanalyse approfondie des résultats de la classification, en les comparant à ceux fournis
Trang 26par d’autres algorithmes et par des experts Suite a cela le model formé est capable desurpasser les experts, avec un taux de 97,3% de précision.
2.4 Approches de classification d’images via le
trans-fert learning
Les domaines d’application du Transfer Learning sont nombreux Principalement, lesméthodes de transfert de connaissance sont très souvent utilisées pour la reconnaissanced’image ainsi que le traitement automatique du langage Ces deux domaines d’apprentis-sage sont très complexes et chronophages C’est pour cela que le Transfer Learning apporte
un souffle nouveau pour tenter d’optimiser ces traitements en exploitant au maximum desmodèles déjà entraˆınés
Dans l’article [26] [Yilong Liang et al,.2016] dans leur travaux consistant à l’extraction descaractéristiques des images en utilisant différentes architectures CNN préformées, formées
à l’aide de l’ensemble de données ImageNet challenge [7] et apprendre de nouveaux sificateurs pour reconnaˆıtre leurs images Ensuite,ils ont affinés les CNN préformés pourque le réseau neuronal s’adapte mieux à l’imagerie aérienne La méthode proposée a étédémontrée pour classer les images du jeu de données d’images sur l’occupation des sols(LULC) [11] Leur contributions comprennent : (1) d’extraire différentes caractéristiques
clas-en utilisant diverses architectures CNN de pointe pour la classification des images riennes, (2) de proposer un meilleur cadre de réglage fin pour l’imagerie aérienne detélédétection avec de petits ensembles de données, et (3) d’effectuer une étude compara-tive sur différentes techniques d’apprentissage par transfert pour mieux comprendre lescaractéristiques des images basées sur CNN
Trang 27aé-Chapitre 3
Méthodologie
L’objectif de ce troisième chapitre est de donner une description générale de la thodologie, de présenter les différentes étapes ainsi que les techniques et procédés utiliséspour leurs réalisations
Trang 28Ainsi toutes images constituent notre base de données.
Ci-dessous le tableau du nombres d’images acquises au cours des différents vols
Vol Thermique Multi-spectral Total
Après acquisition des images sur les différents vols ,il est nécessaire de comprendre
la nature de ces dernières et également de décrire les informations que contiennent cesimages Ces informations sont appelées metadonnées Une méta donnée (mot composé dupréfixe grec meta, indiquant l’auto-référence ; le mot signifie donc proprement « donnéede/à propos de donnée ») est une donnée servant à définir ou décrire une autre donnéequel que soit son support (papier ou électronique) Un exemple type est d’associer à unedonnée la date à laquelle elle a été produite ou enregistrée, ou à une photo les coordonnéesGPS du lieu ó elle a été prise Vu la nature des images sur lesquelles nous travaillonsc’est a dire des images prise par deux(2) capteurs differents embarqués sur un drone, il estnécessaire d’extraire les exif de chaque image et de procéder a l’identification de chacuneafin de permettre la possibilité d’éventuels calcusl sur ces données
L’Exchangeable image file format ou EXIF est une spécification de format de fichierpour les images utilisées par les appareils photographiques numériques Il a été établi
Trang 29par le Japan Electronic Industry Development Association (JEIDA) Cette spécificationrepose sur des formats existants tels que JPEG, TIFF version 6.0 et RIFF format defichier audio WAVE, en y ajoutant des balises de métadonnées L’Exif n’est pas supportéavec les formats JPEG 2000 ou PNG Nos images sont du format TIFF Les balises demétadonnées définies dans le format EXIF standard couvrent un large éventail de données,dont :
1 Information de la date et de l’heure
2 Les réglages de l’appareil Cela comprend des informations statiques telles que lamarque et le modèle de l’appareil et des informations variables telles que l’orienta-tion, l’ouverture, la vitesse d’obturation, la longueur de focale, la sensibilité
3 Des informations géographiques provenant d’un éventuel système GPS connecté àl’appareil
Dans notre cas,la camera multispectrale possède son propre GPS et stock les coordonnées
de chaque images dans les metadonées
Figure 3.1 – metadonnées
Trang 303.1.1 Extraction des metadonnée exif d’une image thermique
Il existe plusieurs outils permettant l’extraction des exif d’une image raster En effetpour les besoins de visualisation des exif ,nous avons utilisé l’outil en ligne metapicz etpar la suite avec un script python que nous avons écris , à fin de récupérer automatique-ment les données des exif au-quelles nous nous intéressons Ci-dessous une images et sesmetadonnées :
Figure 3.2 – image au
for-mat tiff Figure 3.3 – Métadonnées de l’image
Parmi les metadonnées présentes dans les exif de l’image, nous nous intéressons auxdonnées marquée par des flèches Par la suite nous utiliserons ces données pour nos calculs.Avant de procéder a tout autre opération sur ces metadonnées il est nécessaire decomprendre la signification des éléments clé dans ces exif
— Exif.Image.ImageWidth et Exif.Image.ImageLength :le nombre de colonnes
de données d’image, égal au nombre de pixels par ligne et respectivement le nombre
de lignes de données d’image
— Exif.Image.XResolution : Nombre de pixels par ResolutionUnit dans la directionImageWidth
— Exif.Image.YResolution : Le nombre de pixels par ResolutionUnit dans la tion ImageLength
direc-— Exif.Image.FocalLength : La distance focale réelle de l’objectif, en mm
— Exif.Image.FocalPlaneXResolution : Nombre de pixels par tionUnit (37392) dans la direction ImageWidth pour l’image principale
— Exif.Image.FocalPlaneYResolution : Nombre de pixels par tionUnit (37392) dans la direction ImageLength pour l’image principale
Trang 31FocalPlaneResolu-3.2 Phases de réalisation
3.2.1 Pré-traitement des données
Dans cette partie après avoir pris connaissance des différentes informations que contiennentles images ,il est nécessaire de procéder un ensemble de calculs a fin de déterminer lescoordonnées géographiques de chaque images individuellement
3.2.1.1 Calcul des coordonnées et localisation des empreintes des images sur
le sol
Afin de pouvoir trouver les coordonnées de chaque image de la base de données,il est important de calculer l’empreinte de l’image sur le sol Cette empreinte s’ap-pelle footprint Pour cela nous considérons les coordonnées géographiques dechaque image que nous avons récupéré dans les exif Nous calculons le foot-print dans le but de trouver les coordonnées des quatre coins de l’image a savoir leX1Y1,X2Y2,X3Y3,X4Y4 Pour cela un certain nombre de calcul sont nécessaires notam-ment le bearing Le bearing est par definition l’orientation ou le relèvement placer endirection du nord géographique Dans leur travaux [Jarrod C Hodgson et al.][21] uti-lisent les calculs de footprint pour mesurer la précision des colonies d’animaux afin detrouver un dénombrement avec une large précision grâce à l’utilisation des drones Cetteméthode consiste à encadrer un ensemble de colonies et par la suite procéder à un dé-nombrement en se basant sur l’empreinte au sol de l’image Nous allons utilisé les mêmestechnique de calcul afin de trouver l’empreinte au sol de nos images Dans le cas de notreétudes, lors de l’acquisition des images le drone fait un déplacement en aller et retouravec 1/2 tour en bout de ligne de manière a toujours avancer Ainsi donc les images sontorientées différemment selon le sens du trajet
Il existe un certain nombre de paramètre nécessaire au calcul du footprint dont entreautre :
• Le focal length
• xsensor qui représente la dimension de la longueur de la caméra en mm lenght
• ysensor représente la dimension de la largeur de la caméra en mm également
Trang 32Field of view wide : f vw = 2∗a tan (x sen sor / (2∗ focalLenght ))
Field of view tall : f ∨ T = 2∗ atan (y sensor / (2∗ focalLenght ))
bottom = altitude ?tan (−θ.5?myFV [fVW]) (3.1)
top = altitude ?tan (θ.5?myFV [fVW]) (3.2)
left = altitude?tan (−θ.5?myFV [fVT]) (3.3)
right = altitude ?tan (θ.5?myFV [fVT]) (3.4)
Ces formules ci-dessus nous permettent de calculer les les quatre coins de l’image enconnaissant les dimensions des caméras ,l’altitude ainsi que la localLenght L’importance
de calculer la distance entre deux points ainsi que le relèvement appelé bearing se justifiepar la précision de l’obtention du footprint
Vu que la prise des images a eu lieu dans des deux direction différentes(trajectoirealler-retour et dans deux sens : en parallèle et en perpendiculaire au rangées desarbres) il est important de considéré les différentes angles de rotation du drone pendant
la prise des images.Il s’agit d’un vol perpendiculaire et parallèle Ainsi les contraintes
de roulement dans le plan peuvent facilement être converties en contraintes de direction.Les contraintes de portance entre les agents sont déterminées par l’angle entre un lien
de maintenance et le système de coordonnées de référence d’un agent Par exemple, lescontraintes de roulement entre deux agents i et j sont les angles Bij et Bj , entre le lien(i,j) et les systèmes de coordonnées de référence des agents i et j respectivement.[18]Étant donné une formation de points dans le plan avec la direction contraintes Fp nousnous intéressons aux formations de points parallèles Fqdans lesquelles (gi- qj) est parallèle
à (pi - pj) pour tous les (i, j) ∈ D.Enutilisantl0oprateur⊥, pourtournerunvecteurde90◦dans le sens inverse des aiguilles d’une montre, ces contraintes peuvent être écrites :
(pi− pj)⊥· (qi(t) − qj(t)) = 0, (i, j) ∈ D, t ≥ 0 (3.5)
Trang 333.2.1.2 Explication du processus de l’obtention du bearing
La figure 3.4 montre une sphère unitaire Le cercle noir épais est l’équateur ; le vecteur
N est perpendiculaire à cela (pointant vers le pôle nord) Les vecteurs A et B pointent versles points A et B de la surface de la terre Un arc bleu est dessiné entre A et B le long d’ungrand cercle Le relèvement de A à B est l’angle en A entre l’arc rouge axe sud et l’arcbleu.Le vecteur NxA est le vecteur rouge pointant vers la droite ; il est perpendiculaire
à l’arc grand cercle à travers A et N Le vecteur BxA est le vecteur bleu pointant vers lebas et à droite ; elle est perpendiculaire au grand cercle passant par A et B L’angle entreNxA et BxA est donc que l’angle que nous recherchons (le roulement de A à B)
2 le widht image footprint est obtenu par la différence cette fois entre la coordonnée
du point supérieur droite (top) et celle du coin inférieur gauche (botom)
La distance est obtenue
myInfo [” distance "] = sqrt((right − Left ) ∗ ?2 + ( top − bottom ) ∗ ?2)/2 (3.6)
Trang 34Ci-dessous la figure 3.17 montre les détails concernant les différents paramètres ainsi
la prise du footprint de l’image au sol
Figure 3.5 – footprint
En ayant la distance, le bearing, et les coordonnées géographiques du centre de chaqueimage, alors nous pouvons grâce a la librairie osgeo trouver les coordonnées géographiquesdes quatre points de l’image
Trang 353.2.1.3 Annotation des images(labelisation-intersection )
Dans cette sous section nous parlons de l’annotation des images (labelisation) quiest une partie très importante dans la suite de notre travail L’annotation automatiqued’images est le procédé par lequel un système informatique assigne automatiquement unelégende ou des mots clés à une image numérique Cette application des techniques issues de
la vision par ordinateur est utilisée dans les systèmes de recherche d’images pour organiser
et retrouver des images d’intérêts dans une base de données Les méthodes d’annotationautomatique des images (AIA) sont considérées comme une sorte de schéma efficace pourrésoudre le problème de l’écart sémantique entre les images originales et leur informa-tion sémantique Cependant, les modèles d’annotation traditionnels ne fonctionnent bienqu’avec des fonctionnalités manuelles finement élaborées
Bien entendu il existe plusieurs méthodes d’annotations d’images Il y vas des techniquesallant d’annoter manuellement les endroits couverts par les informations recherchées etpar la suite les annoter avec le label correspondant, mais aussi des technique permettantd’utiliser les boites englobantes pour faire l’annotation Ainsi cette annotation vise à éti-queter la classe et l’emplacement des zones concernées dans l’image Les résultats de cetteétape sont les coordonnées des zones de délimitation de différentes images avec leur classecorrespondante, qui seront par conséquent évaluées comme l’intersection ou l’union avecles données prévus et qui sont considérés comme étant les zones cibles qui ont été mise enobservation dans les parcelles ou ont été prises les différentes images Les données ciblessont en effet les parties de la parcelle ou les arbres sont observés ces zones d’observationssont constitués de sept(7) arbres dont les cordonnées geographiques du premiers et dudernier sont stoké dans un fichier et qui nous servira de base pour l’intersection entreles differentes images de la parcelle et les zones cibles pour en fin annoté les différentesimages
Par rapport aux differentes classes nous en avons trois(3) a savoir WW appelé wall ter OW,over water, et WD water deficit Mais parmi ces classes deux sont à considérer
wa-il s’agit notamment du over water et du water deficit ou on constate une forte del’apport d’eau La classe qui ne sera pas prise en compte est considérée comme étantnormale a l’état naturel
Sur l’image de la figure 3.6 on constate les zones de délimitation de l’endroit sur laparcelle ou les images a été effectué les différents vols Les petits rectangles indiquent lesdifférentes zones qui correspondent aux différentes classes
La figure 3.7 montrent une zone cible délimité par les sept(7) arbres
On obtiens la classe pour chaque image en faisant l’intersection ou l’union de quatrecoordonnées de l’images en question avec les coordonnées de zones cibles En effet chaquedata cibles est suivi d’un label qu’on attribut une fois qu’il y a intersection ou union avec