1. Trang chủ
  2. » Giáo Dục - Đào Tạo

Sử dụng các giải pháp phần mềm nguồn mở để tự động hóa một quy trình xử lý hình ảnh thảm thực vật chụp bằng máy bay không người lái

72 26 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 72
Dung lượng 3,31 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Ce projet de master vise a l’utilisation des solutions logiciels libre afin de permettre d’automatiser une cha ne alternative de traitement d’images acquises par drone †quip† de cam†ras

Trang 1

UNIVERSIT NATIONALE DU VIETNAM HANOI INSTITUT

FRANCOPHONE INTERNATIONAL

OUMAROU ALTINE Mohamadou Aminou

Utilisation des solutions logiciels libre pour

automatiser une cha ne de traitement d’image

acquise par drone sur des couverts v†g†taux

Sß döng c¡c gi£i ph¡p phƒn m•m nguçn mð ” tü ºng hâa mºt quy tr…nh xß lþ h…nh £nh th£m thüc v“t chöp b‹ng

m¡y bay khæng ng÷íi l¡i Sp†cialit† : Syst–mes Intelligents et Multim†dia

M MOIRE DE FIN D’ TUDES DU MASTER

INFORMATIQUE Sous la direction de : DELALANDE Magalie, Ing†nieur INRA, BEURIER Gr†gory, Chercheur CIRAD,

HANOI - 2020

Trang 2

UNIVERSIT NATIONALE DU VIETNAM HANOI INSTITUT

FRANCOPHONE INTERNATIONAL

OUMAROU ALTINE Mohamadou Aminou

Utilisation des solutions logiciels libre pour

automatiser une chaine de traitement d’image

acquise par drone sur des couverts vegetaux

Sß döng c¡c gi£i ph¡p phƒn m•m nguçn mð ” tü ºng hâa mºt quy tr…nh xß lþ h…nh £nh th£m thüc v“t chöp b‹ng

m¡y bay khæng ng÷íi l¡i

Sp†cialit† : Syst–mes Intelligents et Multim†dia

Code : Programme Pilote

M MOIRE DE FIN D’ TUDES DU MASTER

INFORMATIQUE Sous la direction de : DELALANDE Magalie, Ing†nieur INRA, BEURIER Gr†gory, Chercheur CIRAD,

HANOI - 2020

Trang 3

ATTESTATION SUR L’HONNEUR

J’atteste sur l’honneur que ce m†moire a †t† r†alis† par moi-m¶me et que lesdonn†es et les r†sultats qui y sont pr†sent†s sont exacts et n’ont jamais †t† publi†sailleurs La source des informations cit†es dans ce m†moire a †t† bien pr†cis†e

L˝I CAM OAN

Tæi cam oan ¥y l cæng tr…nh nghi¶n cøu cıa ri¶ng tæi C¡c sŁ li»u, k‚t qu£ n¶u

trongLu“n v«n l trung thüc v ch÷a tłng÷æc ai cæng bŁ trong b§t ký cæng tr…nh n o kh¡c.

C¡c thæng tin tr‰ch d¤n trong Lu“n v«n ¢ ÷æc ch¿ rª nguçn gŁc.

OUMAROU ALTINE Mohamadou Aminou

Trang 4

Ce projet de master vise a l’utilisation des solutions logiciels libre afin de permettre d’automatiser une cha ne alternative de traitement d’images acquises par drone †quip† de cam†ras sur des vergers dans lesquels ont †t† simul†s des pannes du syst–me d’irrigation (colmatages et fuites).Pour r†pondre au probl–me de d†tection et classification des pom- miers pr†sentant des caract†ristiques spectrales et thermiques li†es leur †tat hydrique, nous avons d†velopp† deux mod–les de r†seau de neurone convolution afin de bien classer et d’identifier les pommiers qui sont soit en restriction hydrique soit en exc–s d’eau.Ces mod– les sont utilis†s sur deux cat†gories d’images : tout d’abord les images natives, de 640 x 512 pixels A l’issue des diff†rents tests on a obtenu un pourcentage de 96% de pr†-cision avec

un rappel et une F-mesure de 62% et 75% respectivement Dans un deuxi–me temps, on a subdivis† les images natives en 4 images de 320x256 pixels Nous obtenons des r†sultats differents du premiers test avec une pr†cision de 73% et un Rappel de 89% et une F-mesure

de 80% pour le mod–le water deficit.

Pour le deuxieme modele nous avions obtenu une precision de 66%, un rappel de85% et une F-mesure de 75% Cette solution est un premier pas vers unesurveillance de l’†tat de fonctionnement des syst–mes d’irrigation assist† par drone.0.0.0.0.1 Mots cl†s :Apprentissage profond,IR thermique, irrigation,pommier,R†seau de neurone convolutionel(CNN),VGG-16

Trang 5

This master project aims at the use of open-source software solutions in order to mate an alternative image processing chain acquired by drone equipped with cameras on orchards where irrigation system breakdowns (clogging and leaks) have been simulated To address the problem of detection and classification of apple trees with spectral and thermal characteristics related to their water status, we have developed two convolution neural network models to classify and identify apple trees that are either in water res-triction or in excess of water These models are used on two categories of images : firstly, native images,

auto-640 x 512 pixels, and secondly the native images, auto-640 x 512 pixels, with a 96% accuracy with a recall and an F-measurement of 62% and 75% respectively In a second step, the native images were subdivided into 4 images of 320x256 pixels We obtain different results from the first test with an accuracy of 73% and a Recall of 89% and an F-measurement of 80% for the water deficit model For the second model we obtained an accuracy of 66%, a recall of 85% and an F-measurement of 75% This solution is a first step towards monitoring the operational status of UAV-assisted irrigation systems.

0.0.0.0.2 Keywords : Deep Learning,Thermal IR, Irrigation,Apple,Convolutional Neuron Network(CNN),VGG-16

Trang 6

Ce travail de m†moire de Master recherche est le r†sultat de l’engagement de plusieurs personnes qui ont d†cid† de m’accompagner r†solument dans cet exaltant parcours.Je re- mercie Dieu le tout Puissant, tr–s Mis†ricordieux, qui m’a donn† la force, le courage et la pers†v†rance durant ces deux ann†es C’est avec une certaine †motion et une grande reconnaissance que je remercie l’Universit† Nationale du Vietnam travers l’Institut Fran- cophone International et toute son †quipe p†dagogique Je remercie les professeurs pour les valeurs et m†thodes inculqu†es durant le cursus : la curiosit†, le gout du travail, de l’effort, le sens de la pers†v†rance,etc Autant de tr†sors qui me seront, sans nul doute, utiles Je tiens adresser mes profonds remerciements aux encadrants, Mme Magalie DELALANDE pour les conseils, les explications, la relecture de mon m†moire, les diff†-rentes pistes de r†flexion et son coaching qui m’ont permis de cibler et de m’orienter tout au long de ce stage,

Mr Gregory BEURIER pour l’encadrement, les explications et les diff†rentes orientations lors

de l’impl†mentation des mod–les de r†seau de neurones a convolution pour la classification des pommiers sous stress hydrique Un merci †galement

Mr Jean Luc REGNARD pour l’aide lors de mes d†but pour compr†hension du sujet et les articles qui m’ont permis de mieux cerner la r†daction de ce m†moire A toute l’†quipe AFEF

de l’UMR AGAP, bas†e au CIRAD Montpellier France,je vous remercie de m’avoir accept†

au sein de votre †quipe Un grand merci mes parents, mes fr–res et soeurs pour leur amour, leurs conseils ainsi que pour leur soutien inconditionnel Je voudrais profiter de cet espace pour leur exprimer toute ma gratitude et ma reconnaissance Gr¥ce vous, j’aborde une nouvelle †tape de ma vie avec confiance et dynamisme.

Trang 7

Table des mati–res

1.1 Introduction G†n†rale 2

1.2 Pr†sentations des organismes d’accueil 5

1.2.1 INRA 5

1.2.2 CIRAD 6

1.2.3 SUPAGRO 6

1.3 Contexte de l’†tude 7

1.4 Objectif 8

1.5 Travail r†aliser 8

1.5.1 Sur le plan th†orique : 8

1.5.2 Sur le plan pratique : 8

Chapitre 2 tat de l’art 10 2.1 Introduction 11

2.2 R†seau de neurone 11

2.2.1 R†seau de neurones artificiel 11

2.3 Approches de classification d’images via le deeplearning 12

2.3.1 Cas du r†seau de neurone convolution 12

2.4 Approches de classification d’images via le transfert learning 14

Chapitre 3 M†thodologie 15 3.1 Description g†n†rale 16

3.1.1 Extraction des metadonn†e exif d’une image thermique 18

3.2 Phases de r†alisation 19

3.2.1 Pr†-traitement des donn†es 19

Trang 8

3.2.2 Le r†seau de neurone 25

3.2.3 R†seaux de neurones convolutifs (CNN) 26

3.2.4 Le transfert learning 28

3.2.5 M†thode d’entra nement du r†seau 30

3.2.6 M†thode de validation du r†seau 31

Chapitre 4 Acquisition des donn†es 33 4.1 Mat†riels d’acquisition des donn†es 34

4.1.1 Drone 34

4.1.2 Les cam†ras 36

4.2 Exp†rimentations 36

4.2.1 Analyse des orthomosa ques 39

Chapitre 5 Implementations et r†sultats obtenus 41 5.1 Implementation 41

5.1.1 Environnement de travail 41

5.1.2 Architecture et fonctionnement du model utilis† 42

5.2 Exp†rimentations et r†sultats obtenus 45

5.2.1 Exp†rimentations sur les grandes images 45

5.2.2 Exp†rimentations sur les images apr–s d†coupage 47

Chapitre 6 Conclusion et Perspectives 50 6.1 Conclusion 50

6.2 Perspectives 51

Chapitre 7 Annexe 55 7.1 Algorithme de d†coupage des images 55

7.2 Algorithme d’extraction des metadonn†e 56

Trang 9

Table des figures

2.1 Structure d’un neurone artificiel(Wikipedia) 11

2.2 Structure d’un neurone biologique 12

3.1 metadonn†es 17

3.2 image au format tiff 18

3.3 M†tadonn†es de l’image 18

3.4 Sph–re 21

3.5 footprint 22

3.6 Repr†sentation des zones cibles dans la parcelle 24

3.7 zones cibles 24

3.8 Sch†ma d’annotation des images 24

3.9 Sch†ma d’annotation des images avec 320*256 pixels 25

3.10 Architecture d’un r†seau de neurone 26

3.11 repr†sentation d’image abstraite RVB 4 * 4 27

3.12 exemple d’image 27

3.13 Architecture VGG-16 29

3.14 Illustration du concept d’apprentissage par transfert 29

3.15 Comparaison entre diff†rente architecture de transfert 30

3.16 Matrice de confusion 31

3.17 Exemple de courbe ROC 32

4.1 Image de drone 34

4.2 Decollage drone 35

4.3 Tablette de contræle 35

4.4 Localisation de l’exp†rimentation 37

4.5 d†roul† temporel de l’acquisition des donn†es et potentiels de tige relev†s sur les 3 modalit†s aux diff†rentes dates de vol : les 3 modalit†s de traite-ment sont statistiquetraite-ment diff†rentes (ANOVA, et test de Tukey, p<0.05) de D1 D4 38

4.6 temp†ratures de surface calcul†es partir des images collect†es par cam†ra thermique (altitude de vol : 40m) 39

Trang 10

4.7 NDVI et GNDVI calcul†s partir des images collect†es par la cam†ra

mul-tispectrale (altitude de vol 40m) 40

5.1 logo ubuntu 41

5.2 logo python 42

5.3 Anaconda-navigator 42

5.4 Architecture VGG-16 43

5.5 Historique du mod–le 44

5.6 graphe des valeurs de la matrice de confusion 46

5.7 graphe de variation sur les donn†es de pr†diction 46

5.8 Matrice de confusion du mod–le wd- !wd lors du 1er entra nement 47

5.9 Matrice de confusion du mod–le ow- !ow lors du 1er entra nement 48

5.10 Matrice de confusion du mod–le wd- !wd lors du 2–me entra nement 49

5.11 Matrice de confusion du mod–le ow- !ow lors du 2–me entra nement 49

Trang 11

Liste des tableaux

3.1 tableau r†capitulatif du volume d’images 165.1 Tableau des r†sultats d’exp†rimentation sur les grandes images 465.2 Tableau des valeurs de pr†diction sur les petites images pour wd- !wd 475.3 Tableau des valeurs de pr†diction sur les petites images pour ow- !ow 485.4 Tableau comparative des indicateur de performance des deux mod–le pour

le premier entra nement 485.5 Tableau des valeurs de pr†diction des petites images lors du deuxi–me en-

tra nement du model WD- !WD 485.6 Tableau des valeurs de pr†diction des petites images lors du deuxi–me en-

tra nement du model OW- !OW 49

Trang 12

Liste des sigles et acronymes

R†seau de neurone convolution Centre International de Recherche Agronomique pour le D†veloppement

Institut National de la Recherche AgronomiqueArchitecture et Fonctionnement des Esp–ces Fruiti–resAm†lioration G†n†tique et Adaptation des Plantes m†diterran†ennesUnit† Mixte de Recherche

Exchangeable image file formatJapan Electronic Industry Development AssociationAnnotation Automatique des Images

Trang 13

Chapitre 1

Analyse du sujet

L’objectif de ce premier chapitre est de pr†senter une analyse exploratoire denotre sujet Pour ce faire, nous y aborderons diff†rents points tout en commencantpar l’in-troduction g†n†rale, la d†finition du contexte ainsi que l’objectif de l’†tude etenfin la probl†matique qui se dessine autour du sujet

Trang 14

1.1 Introduction G†n†rale

Depuis des ann†es la production agricole est devenus un sujet majeur dans tout lessecteurs d’activit†s Ainsi le rapport d’expert du GIEC (groupe intergouvernemental surl’†volution du climat) indique que les 3 derni–res d†cennies ont †t† les plus chaude que

la Terre n’ai connu depuis 1850 (IPCC, 2014)[17] Pour le bassin m†diterran†en lespr†visions sont une diminution de la fr†quence des pr†cipitations et une augmentation enfr†quence et en intensit† des p†riodes de s†cheresse ;

Le dernier rapport (IPCC 2018)[19] lance un cri d’alarme et met en lumi–re l’urgenceabsolue de limiter de l’augmentation de la temp†rature de surface de la Terre 1,5 parrapport celle observ†e avant l’–re pr†-industrielle Cons†quences sures du changementclimatique : diminution des pluies mais augmentation des †pisodes de fortes pr†cipita-tions (type †pisode m†diterran†en ou c†venol), augmentation des inondations cæti–res,augmentation des vagues de chaleur Pour l’agriculture l’augmentation des vagues decha-leur et la diminution des pluies efficaces posent probl–mes car ce sont 2 facteurscapitaux influencant le rendement voire la survie des v†g†taux

Dans le secteur agricole on constate une augmentation constante de la demande

en eau Pour cause, d’une part c’est du l’augmentation de la population mondiale (etl’augmentation de la consommation en eau par individu et par l’industrie), d’autre part ladiminution des pr†cipitations coupl†e une augmentation de la demande †vaporative dans

de nombreuses r†gions (augmentation de la temp†rature) De nombreuses culturesdoivent ¶tre irrigu†es pour rester rentables (ma s, riz, pommiers, )

Comme l’agriculture est un secteur d’activit† tr–s consommateur en eau et que la source devient rare, la situation pour l’acc–s l’eau pour l’irrigation devient de plus enplus tendue En France l’agriculture pr†l–ve environ 10% de l’eau douce disponible soitenviron 4 milliards de m3, mais ces pr†l–vements sont concentr†s sur les 3 mois d’†t†,

res-ce qui , ramen† la p†riode repr†sente un pr†l–vement de 80% de l’eau disponible[5] Encons†quence, les pr†fectures prennent de plus en plus d’arr¶t†s de restriction d’usage

de l’eau Dans ces p†riodes, l’eau est r†serv†e prioritairement la sant†, la s†curit† civilel’approvisionnement en eau potable et la pr†servation des †cosyst–mes aquatiques Leslimitations concernant l’agriculture vont de l’interdiction d’arroser 1 jour par semaine oucertaines heures jusqu’ l’interdiction totale d’irriguer Or en cette p†riode critique quis’†tend de d†but juin fin aout, les cultures ont des besoins important et les limitations

ou restrictions peuvent mettre en p†ril la rentabilit† des cultures, et dans les cas lesplus extr¶mes, peuvent aboutir la perte de la culture

Ainsi on constate que des nombreuses esp–ces fruiti–res sont cultiv†es sur le pourtourm†diterran†en De ce fait l’irrigation joue un ræle essentiel dans les cultures fruiti–res

Trang 15

commerciales, et elle est g†n†ralement pratiqu†e syst†matiquement Avec les nouvelles r†glementations sur l’utilisation de l’eau et la prise en compte du changement climatique, on observe une †volution dans les syst–mes d’irrigation L’irrigation des vergers †tait tra- ditionnellement de type gravitaire (eau sans pression, tr–s dispendieuse cause des pertes par †vaporation) et elle †volue vers des syst–mes modernes plus parcimonieux L’irriga-tion

de pr†cision, automatis†e se d†veloppe progressivement La m†thode la plus r†pandue (35% des vergers) dans les vergers est la micro-irrigation.[4] Elle consiste en des apports localis†s au niveau des racines avec de faibles d†bits Elle permet de limiter les pertes par

†vaporation et de contræler pr†cis†ment les apports d’eau Des outils d’aide au pilotage de l’irrigation (t†l†d†tection, mod–les de bilan hydrique, ) associ†s aux techniques de mesures en temps r†el de l’eau disponible dans le sol (sondes) et aux pr†visions m†t†o apparaissent comme des solutions aux contraintes †conomiques, †cologiques et r†glemen- taires encadrant l’usage de l’eau en agriculture Deux syst–mes dominent le march† : le microjet et le goutte goutte Notre exp†rimentation est en goutte goutte.

La difficult† avec ces syst–mes pr†cis est leur entretien Avec des eaux charg†es

(cal-caire, r†sidus organiques ou inorganiques) les gouteurs ou les micro-asperseurs se bouchent.

Un colmatage passe inapercu car il faut observer les gouteurs pendant le cr†neau gation pour voir qu’il ne goutte pas Or ce n’est pas possible de visiter des km de tuyaux

d’irri-et de gouteurs pendant les quelques heures (en g†n†ral 2-4h d’irrigation hebdomadaire)

Le ph†notype est l’ensemble des traits observables d’un organisme (Wikip†dia) Leph†no-type est d†fini en opposition au g†notype (ensemble des informatiques g†n†tiqueinscrites dans l’ADN) Certains traits sont dits structurels (forme ou couleur des feuilles etdes fruits par ex) Cependant pour la majorit† des traits, leur expression est influenc†epar l’environnement dans lequel ils poussent (hauteur de la plante, poids du fruit, )

La derni–re d†cennie a vu l’†mergence d’outils num†riques (notamment des cam†ras) pour un ph†notypage dans les spectres du visible et du proche infrarouge, ainsi que dans le domaine de l’infrarouge thermique Parall–lement, l’utilisation de drones pour l’acqui-sition d’images haute r†solution spatiale s’est †galement beaucoup d†velopp†e Dans le domaine

de la t†l†d†tection, il existe une large gamme d’indices permettant de caract†-riser l’†tat nutritionnel, transpiratoire ou physiologique des couverts v†g†taux Selon les indices choisis,

il est possible d’†tudier les r†ponses court ou long terme des plantes des conditions environnementales Dans le cas de plantes soumises des d†ficits hydriques, la premi–re r†ponse court terme est la fermeture stomatique (in Virlet, 2014)[10] Les r†ponses plus long terme, si la situation de d†ficit se maintien par exemple, vont ¶tre, entre autres, une r†duction de la surface transpirante Un stomate est un orifice de petite taille pr†sent dans l’†piderme des organes a†riens des v†g†taux (sur la face inf†rieure des feuilles le plus souvent) Il permet les †changes gazeux entre la plante et l’air ambiant

Trang 16

(dioxyg–ne, dioxyde de carbone, vapeur d’eau ) ainsi que la r†gulation de la

pression osmotique (wikip†dia) La fermeture stomatique va avoir pour cons†quence une limita-tion des †changes gazeux et une augmentation de la temp†rature du feuillage Lorsque la temp†rature d’un corps augmente, il †met une radiation sous forme de rayonnement †lectromagn†tique Les capteurs infrarouges thermiques mesurent cette radiation †mise dans la bande infrarouge (IRT : 0.7 100m) du spectre

†lectromagn†tique et la relient la temp†rature du corps par la loi de

Stefan-Boltzmann et la loi de Planck (Gaussorgues, 1999)

L’†quipe AFEF travaille depuis plusieurs ann†es sur la caract†risation de la r†ponse despommiers la contrainte hydrique Virlet (th–se 2014, et articles en 2014 et 2015)[9], puis[Gâmez-Candân al, en 2016][3], puis [Delalande al en 2018][2] nombreuses

†tudes pour montrer que l’utilisation d’une cam†ra thermique embarqu†e sur un dronequi survole les parcelles vitesse lente permet de mesurer les temp†ratures de surface depommiers au champ et que ces temp†ratures peuvent ¶tre reli†es au potentiel hydriquedes arbres (mesure de r†f†rence pour d†finir le statut hydrique d’une plante)

L’utilisation de capteurs num†riques haute r†solution spatiale (et parfois hauter†solution spectrale) coupl†e l’utilisation de drones permettant une acquisition haute r†solution temporelle g†n–re une quantit† de donn†es consid†rable qu’il n’est plus envisa-geable de traiter de mani–re classique (statistiques, analyses de donn†es, )

Le recours des outils d’apprentissage machine (machine learning) est de fait n†cessaire

au traitement et la compr†hension des donn†es collect†es haut d†bit

Des contributions et ameliorations ont et† apport†s durant ce travail avec des resultats de plus en plus satisfaisant Ainsi nous avons d†velopp† deux mod–les de r†seau de neurone convolution afin de bien classer et d’identifier les pommiers qui sont soit en restriction hydrique soit en exc–s d’eau.Ces mod–les sont utilis†s sur deux cat†gories d’images : tout d’abord les images natives, de 640 x 512 pixels A l’issue des diff†rents tests on a obtenu un pourcentage de 96% de pr†cision avec un rappel et une F-mesure de 62% et 75% res- pectivement Dans un deuxi–me temps, on a subdivis† les images natives en 4 images de 320x256 pixels Nous obtenons des r†sultats differents du premiers test avec une pr†cision

de 73% et un Rappel de 89% et une F-mesure de 80% pour le mod–le water deficit.

Pour le deuxieme modele nous avions obtenu une precision de 66%, un rappel de85% et une F-mesure de 75%

Dans la suite de notre travail, nous aborderons premi–rement l’analyse du sujet, mement nous †tudierons l’†tat de l’art afin de faire ressortir quelques †tudes ayant fait l’objet

deuxi–-du probl–me pos† Troisi–mement, nous aborderons la m†thodologie de facon d†-taill†e Le protocole exp†rimental et l’analyse des r†sultats seront pr†sent†s dans une quatri–me partie Pour terminer, nous pr†senterons dans la cinqui–me partie, la conclu-

Trang 17

sion finale ainsi que les perspectives.

L’Unit† mixte de Recherche Agap, Am†lioration G†n†tique et Adaptation des Plantes m†diterran†ennes et tropicales, a †t† cr††e le 1er janvier 2011 Elle regroupe plus de 400 personnes d†veloppant une recherche scientifique d’excellence en biologie des plantes et g†n†tique v†g†tale produisant des connaissances contribuant r†pondre aux enjeux so- ci†taux majeurs de l’agriculture au Sud comme au Nord L’UMR Agap est plac†e sous la tutelle de deux organismes de recherche et d’un organisme d’enseignement sup†rieur :

INRA, CIRAD,SUPAGRO

Principalement nous effectuons nos travaux au sein de l’†quipe Architecture et tionnement des Esp–ces Fruiti–res (AFEF) qui est une sous unit† avec commeobjectif d’explorer les bases †co-physiologiques et les d†terminismes g†n†tiques dud†veloppement v†g†tatif et reproducteur du pommier et de l’olivier, dans un contexte

Fonc-de changement climatique

1.2.1 INRA

Premier institut de recherche agronomique en Europe, deuxi–me en sciencesagricoles dans le monde, l’Institut national de recherche agronomique (Inra) m–nedes recherches au service d’enjeux de soci†t† majeurs

Inra est un organisme national de recherche scientifique publique, sous la doubletutelle des minist–res en charge de la Recherche et de l’Agriculture Ses missions :produire et diffuser des connaissances scientifiques plus de 4 000 publications par

an dans le Web of Science ; former la recherche et par la recherche plus de 1 800doctorants ; †clairer les d†cisions publiques expertises scientifiques collectives,

†tudes, prospectives ; contribuer l’innovation par le partenariat et le transfert 360brevets, 457 certificats d’obtention v†g†tale, 130 logiciels, bases de donn†es et outilsd’aide la d†cision ; †laborer la strat†gie de recherche europ†enne et nationale 4initiatives internationales, 2 initiatives europ†ennes de programmation conjointe, 4Eranet, 5 alliances nationales ; contribuer enfin au dialogue entre science et soci†t†

Inra est une communaut† de 12 000 personnes dont 8 290 agents titulaires, 1 800 chercheurs titulaires, 2 552 stagiaires accueillis et 510 doctorants ; 186 laboratoires et 49 unit†s exp†rimentales au sein de 13 d†partements scientifiques et 17 centres de recherche.

880 millions de budget ex†cut†, dont 77 % en provenance du minist–re de la Recherche et

20 % d’autres cr†dits publics Depuis le 01 janvier 2020 INRA est devenu INRAE

Trang 18

1.2.2 CIRAD

Le Cirad, †tablissement public plac† sous la double tutelle du minist–re de ment sup†rieur et de la Recherche et du minist–re des Affaires †trang–res et europ†ennes, est un centre de recherche qui r†pond, avec les pays du Sud, aux enjeux internationaux de l’agriculture pour le d†veloppement Ses activit†s rel–vent des sciences du vivant, des sciences sociales et des sciences de l’ing†nieur appliqu†es l’agriculture, l’alimentation et aux territoires ruraux Sa mission : en partenariat avec les pays du Sud dans leur diversit†, le Cirad produit et transmet de nouvelles connaissances, pour accompagner leur d†velop- pement agricole et contribuer au d†bat sur les grands enjeux mondiaux de l’agronomie Le Cirad a d†fini 6 axes de recherche prioritaires : intensification †cologique ; biomasse

l’Enseigne-†nergie ; alimentation ; sant† animale, maladies †mergentes ; politiques publiques ; espaces ruraux Le Cirad c’est : 1800 agents dont 800 scientifiques ; 800 chercheurs et techniciens form†s chaque ann†e dans le cadre de stages ou de formation diplæmantes ; des activit†s

de coop†ration avec plus de 90 pays ; des directions r†gionales l’†tranger en Afrique, dans l’oc†an indien, en Asie et en Am†rique du Sud ; des pæles scientifiques vocation r†gionale dans l’outremer francais ; 203 millions d’euros de budget dont les deux tiers pro-viennent de l’ tat francais En France, le Cirad comprend deux centres de recherche, l’un Montpellier (campus de Lavalette), l’autre Montferrier-sur-Lez (campus de Baillarguet, disposant

notamment d’un †cotron), et de stations dans l’outre-mer francais partir de ses douze directions r†gionales r†parties sur tous les continents1, le CIRAD m–ne des activit†s de coop†ration avec plus de cent pays.

1.2.3 SUPAGRO

[22] Montpellier SupAgro, centre international d’†tudes sup†rieures en sciences nomiques est un †tablissement public caract–re scientifique culturel et professionnel (EPSCP), sous tutelle du Minist–re de l’agriculture et de la p¶che Montpellier SupAgro est

agro-un †tablissement d’enseignement sup†rieur et de recherche largement ouvert sur la diterran†e et les pays du Sud, n† en janvier 2007 de la fusion de quatre †tablissements : Ecole nationale sup†rieure agronomique de Montpellier (ENSA.M), Agro.M Centre na-tional d’†tudes agronomiques des r†gions chaudes (CNEARC) D†partement industries agroalimentaires r†gions chaudes de l’ cole nationale sup†rieure des industries agricoles et alimentaires (ENSIA-SIARC) Centre d’exp†rimentations p†dagogiques de Florac (CEP Florac) 350 agents dont 100 enseignants-chercheurs, 1300 †tudiants Un fort adossement sur les †quipes de recherche d’Agropolis International lui permet d’offrir aux †tudiants une large palette de formations (diplæmes d’ing†nieur, licences, masters, mast–res, doc-torats) L’†tablissement propose †galement des formations courtes qualifiantes adapt†es

Trang 19

M†-aux besoins des professionnels Montpellier SupAgro d†veloppe des activit†s de transfert

de technologies, de valorisation des connaissances issues de la recherche, d’appuil’inno-vation et la cr†ation d’entreprises, de diffusion de la culture scientifique ettechnique Montpellier SupAgro et l’Inra sont partenaires dans de nombreuses unit†smixtes de re-cherche (UMR), auxquelles sont †galement associ†s d’autres

†tablissements de recherche (Cirad, IRD, Cemagref, CNRS, etc.) et d’enseignementsup†rieur (comme les Universit†s de Montpellier par exemple) Montpellier SupAgroest devenu l’Institut Agro depuis le 01 janvier 2020

Les pr†visions li†es au changement climatique vont dans le sens d’une †l†vation destemp†ratures moyennes et d’un changement de la r†partition de la pluviom†trie (rapportGIEC 2018, www.ipcc.ch) Ce changement accro t la demande †vaporative de l’atmos-ph–re en †t† et accro t les risques de d†ficit hydrique en production v†g†tale Face ceschangements, et compte tenu des priorit†s d’usage de la ressource, la rar†faction de laressource en eau devient une menace pour la production agricole, notamment pour laproduction fruiti–re, car les vergers sont le plus souvent irrigu†s

Par soucis d’†conomie de la ressource en eau, de nombreux vergers sont irrigu†spar des syst–mes localis†s parcimonieux (microjets ou le goutte goutte) Ces syst–mes sont performants mais demandent une surveillance importante car ils sontsoumis des dys-fonctionnements localis†s, sources d’h†t†rog†n†it† spatiale dans lar†partition de l’eau L’observation de ces dysfonctionnements n†cessite unesurveillance r†guli–re devant s’op†-rer pendant les heures d’irrigation

L’†quipe AFEF est engag†e dans un projet international (financ† par Climate-KIC), oò il est propos† d’utiliser l’imagerie a†roport†e par drone utilisant descam†ras (multispectrale et IR thermique) pour aider la surveillance du bonfonctionnement de l’irrigation dans les vergers : d†tection de fuites ou de bouchages

l’EIT-de goutteurs/micro-asperseurs L’imagerie permet †galement l’EIT-de visualiser un temps

t l’h†t†rog†n†it† du fonctionnement des arbres au sein de la parcelle, par le calculd’indices de v†g†tation qui traduisent l’†tat physiologique des arbres

A l’†chelle de la parcelle, le suivi de l’†vapotranspiration des arbres peut ¶tre r†alis†par imagerie thermique (IRT) haute r†solution embarqu†e sur un drone (Gâmez-Candân

et al., 2016) Par ailleurs, l’utilisation d’un capteur multispectral permet le calcul d’indices

de v†g†tation, qui permettent d’approximer des param–tres de structure et de nement du couvert (indices classique : NDVI, GNDVI) Ces indices, coupl†s aux donn†es

fonction-de temp†rature fonction-de couvert, permettent d’obtenir fonction-des informations int†ressantes sur

Trang 20

l’effi-cacit† de l’utilisation de l’eau (Delalande et al., 2018).

Grace aux nombreuses donn†es spectrales acquises haute r†solution dans levisible, le proche IR et l’IR thermique partir de cam†ras embarqu†es dans desdrones Ainsi une premiere etudes a †t† men†e sur les donn†es Il s’agit del’extraction des valeurs des pixels des arbres afin de calculer des indices env†g†tation et la temp†rature du feuillages Ce travail fait intervenir 3 logiciels : AgisoftPhotoscan pour la partie ortho-rectification, g†olocalisation, mosa quage ; le logicielERDAS Imagine pour la calibration des images puis pour l’extraction des pixels partirdes zones d’int†r¶t ; et enfin un logiciel de SIG (QGIS ou ArcGIS) pour l’identificationindividuelle des arbres Il permet une analyse fine des variations intra et inter arbre

de la temp†rature de canop†e et le calcul d’indices de structure (NDVI), (GNDVI,MCARI2, ) et de fonctionnement (PRI) des pommiers A cet effet l’objectif denotre travail est de proposer une cha ne alternative de traitement automatis† desimages et de remplacer les briques logicielles payantes par une suite de logiciels et

de librairies Open Source (OpenDroneMap, OpenCV et QGIS) libre afin d’en faciliterl’utilisation par des utilisateurs non †quip†s de logiciels performants mais couteux

Notre travail s’inscrit dans le cadre d’une recherche scientifique, il est doncn†cessaire pour nous de le subdiviser ou de l’organiser sur deux principaux plans,savoir le plan th†orique et le plan pratique

1.5.1 Sur le plan th†orique :

Cette dimension de notre †tude a pour but de nous orienter sur les diff†rentstravaux ayant d†j abord†s plus ou moins la probl†matique pos†e dans notre †tude.C’est l’issue de cette †tude que nous proposerons le principe solution ou l’approcheadopter pour la m†thodologie mettre en place pour l’analyse du parcellaire cultural.1.5.2 Sur le plan pratique :

Cette partie est consacr†e la mise en place de la m†thodologie et les techniquesd’analyses que nous aurons proposer Une fois la solution mise en place, nousproc†dons son †valuation, c’est- -dire, aux diff†rentes exp†rimentations sur desdonn†es r†elles

Trang 21

qui nous permettrons de valider notre approche A l’issue de ce travail, nous esp†rons accomplir les objectifs pr†c†demment †num†r†s dans la section 1.4.

Trang 22

Chapitre 2

tat de l’art

L’objectif de ce deuxi–me chapitre est de mener une †tude exploratoire afin d’avoirune vision globale des travaux existants qui ont abord† plus ou moins les m¶mesth†matiques associ†s notre sujet Nous allons donc au cours de cette †tude, effectuerune synth–se des travaux s†lectionn†s afin de faire ressortir l’objectif, les techniques ouapproches abord†es, les points faibles et points forts de chacune d’elle

Trang 23

2.1 Introduction

Avec l’av–nement de l’intelligence artificielle, l’essor des objets connect†s et tation des capacit†s technologiques, nombreuses sont les recherches tentant de simuler le comportement humain et †galement de reproduire ses capacit†s cognitives Dans ce contexte le Deep Learning, litt†ralement l’apprentissage profond , est actuellement un des axes de recherche les plus explor†s Alors qu’est-ce donc que le Deep Learning, qu’est-ce qu’un r†seau de neurones, quel lien avec notre cerveau humain, comment cela fonctionne et surtout pour quelles applications ? Nous allons parcourir ces diff†rents point a travers les diff†rents travaux de recherche ayant †t† effectuer et qui cadre avec notre th†matique.

Le r†seau de neurone, en tant qu’algorithme de classification fondamental, estlarge-ment utilis† dans de nombreuses questions de classification d’images Avec led†velop-pement rapide des dispositifs de calcul haute performance et des dispositifs

de calcul parall–le, le r†seau de neurone convolutionnel attire †galement de plus enplus l’attention de nombreux chercheurs dans ce domaine

2.2.1 R†seau de neurones artificiel

Un neurone artificiel est un mod–le simplifi† du neurone biologique L’objectif est

de permettre la mod†lisation de certaines fonctions du cerveau, comme lam†morisation associative, l’apprentissage par l’exemple,etc.[29]

Figure 2.1 Structure d’un neurone artificiel(Wikipedia)

L’objectif g†n†ral d’un RNA (R†seau de neurone artificiel) est de trouver la guration des poids de connexion entre neurones pour qu’il associe chaque configura-tiond’entr†e, une r†ponse ad†quate L’utilisation d’un RNA se fait en deux temps Tout

Trang 24

confi-d’abord une phase d’apprentissage qui est charg†e d’†tablir des valeurs pourchacune des connexions du r†seau, puis une phase d’utilisation proprement dite, oòl’on pr†sente au r†seau une entr†e et oò il nous indique en retour sa sortie calcul†e.Cette sortie calcul†e est compar†e avec la r†ponse attendue et le syst–me modifieles poids en cons†quence Cette alt†ration des connexions est obtenue parl’algorithme de r†tro-propagation[14] du gradient d’erreur Ce calcul est charg† der†tro-propager dans le r†seau les erreurs constat†es sur les sorties En th†orie, on

ne peut jamais ¶tre sur que cet algorithme finisse par d†terminer un ensemble depoids convenable pour tous les couples d’entr†es-sorties En pratique, on neconstruit pas un seul RNA 1, mais plusieurs mod–les en jouant sur les param–tres decet algorithme, et en cherchant obtenir un mod–le qui colle au mieux aux donn†es

Figure 2.2 Structure d’un neurone biologique

dee-plearning

2.3.1 Cas du r†seau de neurone convolution

Les am†liorations des r†seaux de neurones convolutifs (CNN) au cours des derni–res ann†es en ont fait l’†tat de l’art parmi les approches d’apprentissage automatique pour r†soudre les probl–mes de vision par ordinateur, en particulier la classification des images ( LeCun et al 2015 )[24] Les approches de vision par ordinateur pour les t¥ches de clas- sification ont traditionnellement n†cessit† une s†lection manuelle des caract†ristiques qui

†taient jug†es utiles pour prendre des d†cisions de classification En revanche, les CNN apprennent quelles fonctionnalit†s sont les plus importantes Les r†seaux de neurones sont

1 Structure d’un neurone artificiel Le neurone calcule la somme de ses entr†es puis cette valeur passe travers la fonction d’activation pour produire sa sortie

Trang 25

compos†s de plusieurs couches de transformations lin†aires (multiplications par unema-trice de poids ), chacune suivie d’une fonction non lin†aire Les transformationslin†aires sont apprises au cours de la formation en apportant de petits changementsaux matrices de poids qui rendent progressivement les transformations plus utilespour la t¥che de classification finale.

On pense que le traitement multicouche appris de l’entr†e visuelle qui se produit dans

un CNN est analogue la facon dont le syst–me visuel de primate traite les informations ;les premiers stades des r†seaux r†pondent des †l†ments visuels de base tels que leslignes tandis que les niveaux sup†rieurs des r†seaux r†pondent des concepts visuelsplus complexes ou abstraits tels que la cat†gorie d’objet ( Cadieu et al 2014 )[15] Lescouches convolutives permettent un r†seau d’apprendre efficacement des fonctionnalit†sinvariantes un emplacement exact dans une image en appliquant la m¶metransformation apprise aux sous-sections d’une image enti–re

Dans un exemple de travaux ant†rieurs dans ce domaine, (Mohanty et al 2016)[27] ont form† un CNN pour classer les feuilles comme appartenant 1 des 14 esp–ces et pour d†terminer si elles avaient 1 des 26 maladies Ils ont rapport† une pr†cision de 99,4% lors du classement des esp–ces et des maladies sur les donn†es retenues Cependant, sur les images non collect†es dans des conditions contræl†es, leur mod–le avait des pr†cisions de 31,4 31,7% lors de la classification des esp–ces et des maladies et de 41,1 54,5% lors de la classification des maladies dans les images d’une esp–ce pr†sp†cifi†e Dans les images collect†es dans des milieux naturels, de nombreux facteurs de nuisance contribuent

rendre la t¥che difficile pour un r†seau form† sur des images contræl†esartificiellement, y compris les variations d’†clairage, les ombres et le sol expos†

Dans l’article(Garcia Nachtigall et al.,2016) [20] ou il est question d’†tudier l’utilisation des r†seaux neuronaux convolutionnels pour d†tecter et classer automatiquement les maladies, les carences nutritionnelles et les dommages caus†s par les herbicides sur les pommiers partir d’images de leurs feuilles Leur methodologie repose sur l’utilisation d’un r†seau de neurone convolutif bas† sur l’architecture AlexNet avec l’utilisation de caff†[Jia et al., 2014] [12] et DIGITS [NVIDIA, 2015][6] pour aider construire, former et tester les R†seaux neuronaux convolutifs Pour ce faire, ils ont construit un nouvel ensemble de donn†es d’images †tiquet†es et qui contiennent des exemples de cinq des troubles les plus courants

et les plus importants affectant cette culture [Valdebenito-Sanhueza et al.,2008 ; Nachtigall et

al :][8] Glom†rule, tavelure, carence en potassium, carence en magn†sium et dommages caus†s par les herbicides A cet effet les r†seaux neuronaux convolutionnels (CNN) est form† cet ensemble de donn†es, car ils sont souvent consid†r†s comme l’†tat de l’art de la classification des images [Krizhevsky et al., 2012][1], en fournissant une analyse approfondie

des r†sultats de la classification, en les comparant ceux fournis

Trang 26

par d’autres algorithmes et par des experts Suite a cela le model form† est capable

de surpasser les experts, avec un taux de 97,3% de pr†cision

trans-fert learning

Les domaines d’application du Transfer Learning sont nombreux Principalement,les m†thodes de transfert de connaissance sont tr–s souvent utilis†es pour lareconnaissance d’image ainsi que le traitement automatique du langage Ces deuxdomaines d’apprentis-sage sont tr–s complexes et chronophages C’est pour celaque le Transfer Learning apporte un souffle nouveau pour tenter d’optimiser cestraitements en exploitant au maximum des mod–les d†j entra n†s

Dans l’article [26] [Yilong Liang et al,.2016] dans leur travaux consistant l’extraction des caract†ristiques des images en utilisant diff†rentes architectures CNN pr†form†es, form†es l’aide de l’ensemble de donn†es ImageNet challenge [7] et apprendre de nouveaux clas- sificateurs pour reconna tre leurs images Ensuite,ils ont affin†s les CNN pr†form†s pour que

le r†seau neuronal s’adapte mieux l’imagerie a†rienne La m†thode propos†e a †t† d†montr†e pour classer les images du jeu de donn†es d’images sur l’occupation des sols (LULC) [11] Leur contributions comprennent : (1) d’extraire diff†rentes caract†ristiques en utilisant diverses architectures CNN de pointe pour la classification des images a†-riennes, (2) de proposer un meilleur cadre de r†glage fin pour l’imagerie a†rienne de t†l†d†tection avec de petits ensembles de donn†es, et (3) d’effectuer une †tude compara-tive sur diff†rentes techniques d’apprentissage par transfert pour mieux comprendre les

caract†ristiques des images bas†es sur CNN

Trang 27

Chapitre 3

M†thodologie

L’objectif de ce troisi–me chapitre est de donner une description g†n†rale de lam†-thodologie, de pr†senter les diff†rentes †tapes ainsi que les techniques etproc†d†s utilis†s pour leurs r†alisations

Trang 28

3.1 Description g†n†rale

L’acquisition des donn†es se fait par la r†alisation de vols pendant lesquels les

cam†ras acqui–rent des images en continu a la fr†quence d’une images par seconde

pendant toute la dur†e du vol qui est environ 15 min Nous d†nombrons au total 4

diff†rents vols reparti comme suit :

Le vol1 comprend un total de 6252 images dont 894 images thermique et 5358

images multispectrales

Le vol3 comprend un total de 3821 images toute confondus dont 546 images

ther-miques et 3275 images multispectrales

Le vol 4 par contre comprend 8412 images Il est a not† que pour ce vol nous

n’avons pas d’images thermique

NB : Nous n’avons pas mis les donn†es du vol 2 car pour ce vol les capteurs diff–

rent de celui des trois autres vols enregistr†

Ainsi toutes images constituent notre base de donn†es Ci-dessous le

tableau du nombres d’images acquises au cours des diff†rents vols

Table 3.1 tableau r†capitulatif du volume d’images

Apr–s acquisition des images sur les diff†rents vols ,il est n†cessaire de comprendre

la nature de ces derni–res et †galement de d†crire les informations que contiennent ces

images Ces informations sont appel†es metadonn†es Une m†ta donn†e (mot compos†

du pr†fixe grec meta, indiquant l’auto-r†f†rence ; le mot signifie donc proprement donn†e

de/ propos de donn†e ) est une donn†e servant d†finir ou d†crire une autre donn†e quel

que soit son support (papier ou †lectronique) Un exemple type est d’associer une

donn†e la date laquelle elle a †t† produite ou enregistr†e, ou une photo les coordonn†es

GPS du lieu oò elle a †t† prise Vu la nature des images sur lesquelles nous travaillons

c’est a dire des images prise par deux(2) capteurs differents embarqu†s sur un drone, il

est n†cessaire d’extraire les exif de chaque image et de proc†der a l’identification de

chacune afin de permettre la possibilit† d’†ventuels calcusl sur ces donn†es

L’Exchangeable image file format ou EXIF est une sp†cification de format de fichier pour

les images utilis†es par les appareils photographiques num†riques Il a †t† †tabli

Trang 29

par le Japan Electronic Industry Development Association (JEIDA) Cettesp†cification repose sur des formats existants tels que JPEG, TIFF version 6.0 etRIFF format de fichier audio WAVE, en y ajoutant des balises de m†tadonn†es.L’Exif n’est pas support† avec les formats JPEG 2000 ou PNG Nos images sont duformat TIFF Les balises de m†tadonn†es d†finies dans le format EXIF standardcouvrent un large †ventail de donn†es, dont :

1 Information de la date et de l’heure

2 Les r†glages de l’appareil Cela comprend des informations statiques telles que lamarque et le mod–le de l’appareil et des informations variables telles que l’orienta-tion,l’ouverture, la vitesse d’obturation, la longueur de focale, la sensibilit†

3 Des informations g†ographiques provenant d’un †ventuel syst–me GPS

connect† l’appareil

Dans notre cas,la camera multispectrale poss–de son propre GPS et stock les

coordonn†es de chaque images dans les metadon†es

Figure 3.1 metadonn†es

Trang 30

3.1.1 Extraction des metadonn†e exif d’une image thermique

Il existe plusieurs outils permettant l’extraction des exif d’une image raster Eneffet pour les besoins de visualisation des exif ,nous avons utilis† l’outil en lignemetapicz et par la suite avec un script python que nous avons †cris , fin de r†cup†rerautomatique-ment les donn†es des exif au-quelles nous nous int†ressons Ci-dessous une images et ses metadonn†es :

Figure 3.2 image au

Parmi les metadonn†es pr†sentes dans les exif de l’image, nous nous int†ressons aux donn†es marqu†e par des fl–ches Par la suite nous utiliserons ces donn†es pour nos calculs.

Avant de proc†der a tout autre op†ration sur ces metadonn†es il est n†cessaire

de comprendre la signification des †l†ments cl† dans ces exif

Exif.Image.ImageWidth et Exif.Image.ImageLength :le nombre de colonnes de donn†es d’image, †gal au nombre de pixels par ligne et respectivement le nombre de lignes de donn†es d’image

Exif.Image.XResolution : Nombre de pixels par ResolutionUnit dans la directionImageWidth

Exif.Image.YResolution : Le nombre de pixels par ResolutionUnit dans la tion ImageLength

direc-Exif.Image.FocalLength : La distance focale r†elle de l’objectif, en mm

Exif.Image.FocalPlaneXResolution : Nombre de pixels par tionUnit (37392) dans la direction ImageWidth pour l’image principale

Exif.Image.FocalPlaneYResolution : Nombre de pixels par tionUnit (37392) dans la direction ImageLength pour l’image principale

Trang 31

FocalPlaneResolu-3.2 Phases de r†alisation

3.2.1 Pr†-traitement des donn†es

Dans cette partie apr–s avoir pris connaissance des diff†rentes informations que contiennent les images ,il est n†cessaire de proc†der un ensemble de calculs a fin de d†terminer les coordonn†es g†ographiques de chaque images individuellement

3.2.1.1 Calcul des coordonn†es et localisation des empreintes des images sur le

sol

Afin de pouvoir trouver les coordonn†es de chaque image de la base de donn†es ,ilest important de calculer l’empreinte de l’image sur le sol Cette empreinte s’ap-pellefootprint Pour cela nous consid†rons les coordonn†es g†ographiques de chaque imageque nous avons r†cup†r† dans les exif Nous calculons le foot-print dans le but detrouver les coordonn†es des quatre coins de l’image a savoir le X1Y1,X2Y2,X3Y3,X4Y4Pour cela un certain nombre de calcul sont n†cessaires notam-ment le bearing Lebearing est par definition l’orientation ou le rel–vement placer en direction du nordg†ographique Dans leur travaux [Jarrod C Hodgson et al.][21] uti-lisent les calculs defootprint pour mesurer la pr†cision des colonies d’animaux afin de trouver und†nombrement avec une large pr†cision gr¥ce l’utilisation des drones Cette m†thodeconsiste encadrer un ensemble de colonies et par la suite proc†der un d†-nombrement

en se basant sur l’empreinte au sol de l’image Nous allons utilis† les m¶mes technique

de calcul afin de trouver l’empreinte au sol de nos images Dans le cas de notre †tudes,lors de l’acquisition des images le drone fait un d†placement en aller et retour avec 1/2tour en bout de ligne de mani–re a toujours avancer Ainsi donc les images sontorient†es diff†remment selon le sens du trajet

Il existe un certain nombre de param–tre n†cessaire au calcul du footprint dont entreautre :

Trang 32

Field of view wide : f vw = 2 a tan (x sen sor = (2 focalLenght ))

Field of view tall : f _ T = 2 atan (y sensor = (2 focalLenght ))

bottom = altitude ? tan ( :5?myFV [fVW])

top =altitude ? tan ( :5?myFV [fVW])left = altitude ? tan ( :5?myFV [fVT])

right = altitude ? tan ( :5?myFV [fVT])

Ces formules ci-dessus nous permettent de calculer les les quatre coins de l’image

en connaissant les dimensions des cam†ras ,l’altitude ainsi que la localLenght.L’importance de calculer la distance entre deux points ainsi que le rel–vement appel†bearing se justifie par la pr†cision de l’obtention du footprint

Vu que la prise des images a eu lieu dans des deux direction diff†rentes(trajectoirealler-retour et dans deux sens : en parall–le et en perpendiculaire au rang†es desarbres) il est important de consid†r† les diff†rentes angles de rotation du drone pendant

la prise des images.Il s’agit d’un vol perpendiculaire et parall–le Ainsi les contraintes

de roulement dans le plan peuvent facilement ¶tre converties en contraintes de direction.Les contraintes de portance entre les agents sont d†termin†es par l’angle entre un lien

de maintenance et le syst–me de coordonn†es de r†f†rence d’un agent Par exemple, les

contraintes de roulement entre deux agents i et j sont les angles Bij et Bj , entre le lien(i,j) et les syst–mes de coordonn†es de r†f†rence des agents i et j respectivement.[18]tant donn† une formation de points dans le plan avec la direction contraintes Fp nous

nous int†ressons aux formations de points parall–les F q dans lesquelles (g i - q j ) est parall–le

(pi - pj) pour tous les (i, j) 2 D:Enutilisantl0oprateur?; pourtournerunvecteurde90 dans lesens inverse des aiguilles d’une montre, ces contraintes peuvent ¶tre †crites :

(pi pj)? (qi(t) qj(t)) = 0; (i; j) 2 D; t 0

Trang 33

3.2.1.2 Explication du processus de l’obtention du bearing

La figure 3.4 montre une sph–re unitaire Le cercle noir †pais est l’†quateur ; le vecteur

N est perpendiculaire cela (pointant vers le pæle nord) Les vecteurs A et B pointent vers les points A et B de la surface de la terre Un arc bleu est dessin† entre A et B le long d’un grand cercle Le rel–vement de A B est l’angle en A entre l’arc rouge axe sud et l’arc bleu.Le vecteur NxA est le vecteur rouge pointant vers la droite ; il est perpendiculaire l’arc grand cercle travers A et N Le vecteur BxA est le vecteur bleu pointant vers le bas et droite ; elle

est perpendiculaire au grand cercle passant par A et B L’angle entre

NxA et BxA est donc que l’angle que nous recherchons (le roulement de A B)

Figure 3.4 Sph–re

Apr–s le calcul et exp†rimentation du bearing passons au calcule du footprint et

de la distance entre deux points Ainsi on obtient :

1 le hight image footprint a travers la difference entre la coordonn†es du coin superieur droit (right) et celle du coin sup†rieur gauche (left)

2 le widht image footprint est obtenu par la diff†rence cette fois entre la coordonn†e

du point sup†rieur droite (top) et celle du coin inf†rieur gauche (botom)

La distance est obtenue

myInfo [" distance "] = sqrt((right Left ) ?2 + ( top bottom ) ?2)=2 (3.6)

Trang 34

Ci-dessous la figure 3.17 montre les d†tails concernant les diff†rents param–tresainsi la prise du footprint de l’image au sol.

Figure 3.5 footprint

En ayant la distance, le bearing, et les coordonn†es g†ographiques du centre dechaque image, alors nous pouvons gr¥ce a la librairie osgeo trouver les coordonn†esg†ographiques des quatre points de l’image

Trang 35

3.2.1.3 Annotation des images(labelisation-intersection)

Dans cette sous section nous parlons de l’annotation des images (labelisation) qui est une partie tr–s importante dans la suite de notre travail L’annotation automatique d’images est le proc†d† par lequel un syst–me informatique assigne automatiquement une l†gende ou des mots cl†s une image num†rique Cette application des techniques issues de la vision par ordinateur est utilis†e dans les syst–mes de recherche d’images pour organiser et retrouver des images d’int†r¶ts dans une base de donn†es Les m†thodes d’annotation automatique des images (AIA) sont consid†r†es comme une sorte de sch†ma efficace pour r†soudre le probl–me de l’†cart s†mantique entre les images originales et leur informa-tion s†mantique Cependant, les mod–les d’annotation traditionnels ne fonctionnent bien qu’avec des fonctionnalit†s manuelles finement †labor†es.

Bien entendu il existe plusieurs m†thodes d’annotations d’images Il y vas destechniques allant d’annoter manuellement les endroits couverts par les informationsrecherch†es et par la suite les annoter avec le label correspondant, mais aussi destechnique permettant d’utiliser les boites englobantes pour faire l’annotation Ainsi cetteannotation vise †ti-queter la classe et l’emplacement des zones concern†es dansl’image Les r†sultats de cette †tape sont les coordonn†es des zones de d†limitation dediff†rentes images avec leur classe correspondante, qui seront par cons†quent †valu†escomme l’intersection ou l’union avec les donn†es pr†vus et qui sont consid†r†s comme

†tant les zones cibles qui ont †t† mise en observation dans les parcelles ou ont †t†prises les diff†rentes images Les donn†es cibles sont en effet les parties de la parcelle

ou les arbres sont observ†s ces zones d’observations sont constitu†s de sept(7) arbresdont les cordonn†es geographiques du premiers et du dernier sont stok† dans un fichier

et qui nous servira de base pour l’intersection entre les differentes images de la parcelle

et les zones cibles pour en fin annot† les diff†rentes images

Par rapport aux differentes classes nous en avons trois(3) a savoir WW appel† wallwa-ter OW,over water, et WD water deficit Mais parmi ces classes deux sontconsid†rer il s’agit notamment du over water et du water deficit ou on constate uneforte de l’apport d’eau La classe qui ne sera pas prise en compte est consid†r†ecomme †tant normale a l’†tat naturel

Sur l’image de la figure 3.6 on constate les zones de d†limitation de l’endroit sur

la parcelle ou les images a †t† effectu† les diff†rents vols Les petits rectanglesindiquent les diff†rentes zones qui correspondent aux diff†rentes classes

La figure 3.7 montrent une zone cible d†limit† par les sept(7) arbres

On obtiens la classe pour chaque image en faisant l’intersection ou l’union de quatre coordonn†es de l’images en question avec les coordonn†es de zones cibles En effet chaque data cibles est suivi d’un label qu’on attribut une fois qu’il y a intersection ou union avec

Trang 36

Figure 3.6 Repr†sentation des

une image

Cependant il est possible de trouver des images avec le m¶me label du fait que ladistance entre les images est faible

Figure 3.8 Sch†ma d’annotation des images

la figure 3.8 montre l’architecture qui a permis l’annotation des images Apr–s avoirannoter les images enti–res , nous avons proc†der au d†coupages de chaque images enpixels de 320*256 donnant quatre petites images et permettant de ce fait d’annoter sp†-cifiquement et plus pr†cis†ment la partie concern†e †tant donn†es que sur les grandesimages il est possible de trouver la m¶me image avec une ou plusieurs classe Ci-dessous l’annotation des images avec d†coupages en pixels de 320*256

Ngày đăng: 30/10/2020, 21:19

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w