Traitement d’images et deep learning : quelles avancées ?
Présenter les utilisations potentielles et les progrès accomplis dans le domaine du traitement automatique de la langue et du traitement d’images : c’est l’ambition d’un séminaire prévu lundi 25 avril 2016 à Marseille, en présence de chercheurs spécialisés dans le domaine du deep learning.
La récente victoire du programme AlphaGo, vainqueur par 4 manches à 1 du champion du monde de jeu de Go Lee Se-dol, a mis en lumière le deep learning ou apprentissage profond, une technologie d’intelligence artificielle (IA). Présenté comme une révolution dans le domaine de l‘IA au début des années 80 (une des premières applications étaient, par exemple, le traitement automatisé des chèques bancaires), le deep learning n’avait pas tenu toutes ses promesses, la faute notamment à une puissance de calcul des ordinateurs encore trop faible. A l’orée des années 2000, avec l’apparition de machines plus puissantes, « l’apprentissage profond » est revenu en grâce. Les géants de l’internet et de l’informatique comme Google (qui a racheté DeepMind, la start-up à l’origine du programme AlphaGo), Facebook, Microsoft, IBM… s’en sont emparés et investissent dans des programmes de recherche, pariant sur la marchandisation des applications futures, en matière de reconnaissance visuelle et sonore.
Apprentissage supervisé…
Pour faire simple, il existe deux méthodes d’apprentissage permettant à une machine de reconnaitre une forme ou un son. La première, l’apprentissage supervisé consiste à « bombarder » une machine d’images de chats, de voitures, ou de n’importe quel autre objet aux formes relativement similaires, qu’on souhaite lui faire reconnaître. La machine pioche dans sa base de données et compare la nouvelle image qui lui est présentée à celles qu’elle a déjà analysées. Le principal inconvénient de cette méthode ? Un temps d’apprentissage particulièrement fastidieux.
… et réseau de neurones
Le deep learning, reprend en partie la technique de l’apprentissage supervisé, mais s’appuie cette fois sur un réseau de « neurones » connectés (Deep Neural Networks ou DNN), à l’image du cerveau humain, celui-ci étant remplacé par une machine virtuelle composée de milliers d’unités qui effectuent des calculs, en s’appuyant sur les résultats trouvés précédemment. On « nourrit » aussi la machine de dizaines de milliers d’images mais celle-ci analyse chacune d’elles, par étapes successives : la première couche de « neurones » analyse les informations contenues sur l’image, puis la seconde couche réalise un scan encore plus fin et plus précis grâce au résultat obtenus précédemment et ainsi de suite, jusqu’à la reconnaissance visuelle finale.
Des applications déjà existantes
Une des applications les plus parlantes de cette technologie est la reconnaissance vocale : Siri pour les smartphones développés par Apple et Cortana, disponible sur les Windows phone et les PC équipés de Windows 10. Google et Facebook développent également des programmes de recherche dédiés au deep learning, le premier pour Skype translator et sa future Google Car ; Le second pour détecter des images de nudité utilisées par les utilisateurs du réseau social sur leur page.
Vers un apprentissage non supervisé
Des travaux de recherche menés en matière de deep learning tentent désormais d’amener la machine à s’affranchir de l’apprentissage supervisé : une étape d’ores et déjà franchie en 2012 avec Google Brain, un projet mené par la firme californienne. Il s’agissait cette fois, d’analyser des millions d’images choisies aléatoirement et non taggées afin d’en isoler des formes récurrentes et d’en extraire des silhouettes de chats et d’humains, ce que la machine a parfaitement réussi.
Deep learning et biodiversité
Dans le domaine de la biodiversité, les applications sont également nombreuses : elles concernent en premier lieu la reconnaissance visuelle et sonore d’espèces et s’adressent aussi bien aux professionnels qu’au grand public via les programmes de sciences participatives. Le deep learning permettra également d’améliorer le traitement d’images recueillies par des camera traps, des satellites et/ou des drones afin de déterminer des aires de répartition d’oiseaux ou de mammifères, par exemple.
Des invités prestigieux
Autant de sujets qui seront développés et débattus par les invités du séminaire organisé lundi 25 avril 2016, de 9h45 à 12h30, sur le Campus Saint-Charles par la Friiam (Fédération de recherche en informatique et interaction d’Ai-Marseille) et Aix-Marseille Université. Parmi les personnalités invitées figurent Holger Schwenk, Professeur d'nformatique et chercheur à Facebook IA Research à Paris. Il présentera l'application de l'apprentissage profond pour des tâches comme la reconnaissance automatique de la parole et la traduction automatique ; Frederic PreciosoProfesseur à l'Université de Nice et chercheur au laboratoire I3S de Sofia Antipolis qui montrera des modèles de traitement d'image basés sur des réseaux profonds ayant récemment apportés un gain significatif de performance comparé aux approches précédentes. Ce séminaire sera également l'occasion d’annoncer quelques activités de recherche menées dans les laboratoires de la FRIIAM autour des réseaux de neurones profonds.
En savoir plus :
Le projet ecoOnto mené par Julie Chabalier au sein de Natural Solutions
Le prototype de mangeoire connecté développé par Natural Solutions
Infos pratiques :
Séminaire gratuit mais INSCRIPTION OBLIGATOIRE pour les personnes extérieures à l'université (plan Vigipirate)
Lieu : Amphi Sciences Naturelles - Campus Saint Charles – Université d'Aix Marseille - Bâtiment 8