Soutenance de thèse Azénor Le Quinio

Mercredi 28 juin 2023, à 13h30, à l’Amphi H d’EDF R&D à Chatou (78)

Detect, track and identify fish: image processing to automate acoustic camera data analysis in shallow waters

Résumé de la thèse

Les caméras acoustiques sont de plus en plus utilisées dans les études de suivi des populations de poissons du fait de leurs nombreux avantages. Complètement non intrusives, elles permettent d’effectuer des suivis piscicoles continus, sans aucune manipulation des poissons, avec une portée supérieure aux appareils optiques grâce à leur faible dépendance aux conditions environnementales. Le développement d'une méthode automatique afin de détecter, compter et identifier les poissons à partir des images acoustiques est un enjeu clé pour exploiter pleinement les capacités des caméras acoustiques. De nombreuses caractéristiques rendent possible l’identification des espèces de poissons, mais nombre d’entre elles ne peuvent être extraites des caméras acoustiques en raison de la nature et de la résolution des vidéos qu'elles enregistrent. Cela fait de l'analyse automatique des vidéos acoustiques un véritable défi. Ce travail de thèse vise ainsi à développer une méthode automatique d'identification des espèces de poissons ou des groupes d'espèces grâce à l'extraction des caractéristiques de morphologie, de mouvement et de mode de nage, en se basant sur des outils de traitements d’images. Dans un premier temps, les passages des poissons sont détectés et suivis afin d’en permettre l’identification. Du fait du fort bruitage des vidéos acoustiques et de la difficulté à extraire correctement les images des poissons, une méthode de restauration de ces images est proposée. Les caractéristiques morphologiques et de mouvement des objets sont ensuite calculées sur l’ensemble du trajet du poisson afin que des données robustes puissent être prises en compte lors du processus d’identification. Le mode de nage des poissons est également étudié à travers une analyse innovante d’application des méthodes basées sur les solides déformables aux images acoustiques, apportant des informations complémentaires pour l’identification des espèces mais également pour l’analyse du comportement des poissons. Les performances de ces différentes étapes ont été évaluées au regard des caractéristiques des poissons et des paramètres d'acquisition (résolution des pixels, distance à la caméra, taille du poisson). Ce travail permet d’extraire l’ensemble des informations disponibles à partir des vidéos acoustiques, constituant une avancée importante pour le développement d’une méthode automatique d’identification des espèces. Ce travail a également démontré que l’intégration des conditions environnementales et des connaissances écologiques est nécessaire pour mener à bien ce processus. La mise au point d’un modèle de classification intégrant l’ensemble de ces informations est la prochaine étape à réaliser

Le jury est composé de :
Rapporteur

Olle Calles, Professeur, Karlstad University, Suède

Examinateurs

Thomas Walter, Professeur, Directeur du CBIO, Mines ParisTech, France
Kacem Chedi, ENSSAT Lannion, Université de Rennes 1, France
Ana Da Silva, Directrice de recherche, Norwegian Institute for Nature Research, Norvège
Mathieu Emily, Maître de conférences, l’institut Agro Rennes-Angers, France
Elsa Goerig, Chercheuse postdoctoral, Harvard Museum of Comparative Zoology, Etats-Unis

Directeur de thèse

Jean-Marc Roussel (Directeur de thèse), Directeur de recherche, UMR DECOD, INRAE, France
François Martignac (Co-encadrant), Ingénieur de recherche, UMR DECOD, INRAE, France

Et des invités suivants :

Jean Guillard (Co-directeur de thèse), Ingénieur de recherche, UMR CARRTEL (INRAE - USMB), France
Eric De Oliveira (Co-encadrant), Ingénieur de recherche, EDF R&D, France