Measurement World : embarqué, réseaux de neurones et capteurs hyperspectraux, les trois tendances phares de la vision industrielle
Pour sa première édition, le salon Measurement World, qui se déroule à Paris du 24 au 26 septembre, a mis l'accent sur les innovations dans le domaine de la vision industrielle. Selon Michel Ollivier, de l'Association européenne de la vision, trois grandes tendances animent le secteur : les caméras embarquées, l'arrivée du deep learning dans la reconnaissance d'images et la montée en gamme des capteurs.
Industrie & Technologies : le salon Measurement World fait la part belle à la vision embarquée. Pourquoi ?
Michel Ollivier : C'est l'évolution la plus marquante du secteur de la vision : alors qu'il y a quelques années, un système de vision était composé d'une caméra, d'un éclairage et d'un ordinateur, aujourd'hui, l'éclairage et toute l'intelligence sont de plus en plus intégrés dans la caméra. L'électronique appliquée à la vision se rapproche désormais beaucoup plus de l'électronique de traitement d'un téléphone portable que de celle d'un PC.
Les processeurs intégrés dans les téléphones, qu'ils soient de marque Nvidia, Qualcomm ou autre, ou les processeurs FPGA, également présents dans les smartphones dernière génération, sont utilisés pour des traitements d'images professionnels et commencent à envahir le domaine de la vision industrielle. L'EMVA organise d'ailleurs, fin octobre à Stuttgart, la conférence Embedded Vision Europe (EVE), entièrement consacrée à la vision embarquée.
Quels sont les avantages de la vision embarquée pour les industriels ?
Elle permet de réduire les coûts. Au lieu d'avoir besoin de développer ou acheter une caméra, des câbles, un PC, un écran, le tout intégré dans une armoire industrielle, l'embarqué consiste à mettre toute cette intelligence au plus près de la caméra.
Avant, il existait des standards propres à l'industrie de la vision. Aujourd'hui, dans votre téléphone, l'interface entre la caméra et le processeur est standardisée et porte le nom de MiPi, pour Mobile Industry Processor Interface. Or, on s'aperçoit que, dans un certain nombre de cas, on peut régler des problèmes de vision industrielle avec une caméra de téléphone portable, qui coûte quelques euros, aussi bien qu'avec une caméra classique de vision, pour laquelle on peut tabler sur plusieurs centaines voire milliers d'euros.
L'intelligence artificielle version réseaux de neurones arrive-t-elle dans la vision industrielle ?
L'intelligence artificielle représente la deuxième grande tendance, avec notamment l'apprentissage profond (deep learning). C'est-à-dire des modèles à réseaux de neurones qui, après avoir été entraînés sur de nombreuses images, sont capables de reconnaître et classer des pièces ou des défauts de façon plus efficace qu'auparavant. Nous sommes au début de la commercialisation de caméras de vision industrielles munies de systèmes de deep learning.
Ce tournant est dû notamment à la démocratisation du edge computing [le traitement des données en périphérie de réseau, au plus près de la source, ndlr]. Dans la vision, on a besoin de comportements en temps réel, donc on utilise du edge computing. Comme la technologie Movidius de chez Intel, qui permet de mettre un réseau de neurones sur une clé USB.
Quelles sont les grandes évolutions en matière de capteurs ?
La montée en gamme des capteurs est la dernière tendance de fond. Tout d'abord, certains capteurs ont aujourd'hui la capacité de polariser la lumière. C'est à dire que l'on peut faire la différence entre une réflexion lumineuse et l'émission directe de la lumière. Par exemple, dans un trafic routier, une caméra capable de polariser la lumière, comme celle qu'a présentée Sony lors d'une conférence sur le salon, pourra voir à travers un pare-brise même si elle est éblouie par le soleil.
De plus, grâce aux avancées de la technologies de capteurs CMOS, les constructeurs sont aujourd'hui capable d'embarquer de nouveaux moyens optiques directement sur les capteurs. Une caméra classique décompose un spectre de couleur en trois composantes principales : le rouge, le vert et le bleu. Ce n'est pas forcément suffisant pour détecter un certain nombre de paramètres. Aujourd'hui, pour la vision industrielle, se développent des caméras dotées de capteurs multispectraux, qui décomposent le spectre visible en davantage de composantes, voire de capteurs hyperspectraux, qui le décomposent en une multitude de composantes. Cela peut être utile, par exemple, dans le domaine de l'agroalimentaire, pour connaître la composition d'eau dans un champ, par exemple. Aujourd'hui, des drones agricoles sont équipés de capteurs multispectraux capables d'analyser des composés des plantes et donc de déterminer s'il va falloir ajouter de l'eau, de l'acidité, etc.
Vous parlez là uniquement de capteurs de couleur visible. L'usage de l'infrarouge se développe-t-il ?
Les capteurs les moins chers restent clairement les capteurs visibles. Néanmoins, on voit que l'infrarouge, qui a longtemps été réservé au militaire, est en train de descendre dans l'industrie, notamment l'infrarouge court - ce qu'on appelle le Short-Wave Infrared (SWIR). La signature d'objets en infrarouge permet de détecter des défauts que l'on ne détecte pas en lumière visible. On peut par exemple reconnaitre une fissure, par exemple, au niveau de laquelle l'émission ce chaleur sera plus faible, ou encore une pièce trop épaisse car elle se refroidit plus lentement.
Aujourd'hui, on n'utilise plus l'infrarouge uniquement pour des applications coûteuses - comme pour superviser une coulée, en fonderie, ou un four verrier - mais pour des tâches beaucoup plus banales, où le prix est un facteur déterminant. Les fabricants d'équipements infrarouge ont pris conscience que c'est l'industrie et non les applications militaires qui va leur permettre de produire en grandes quantités. Et de baisser les prix.
Globalement, comment évolue le rôle de la vision dans l'industrie ?
Il y a toujours trois grandes familles d'applications : l'identification, le contrôle, le guidage de robot. L'identification sert à établir une traçabilité, pour laquelle on reconnait les objets par un code (code matriciel, code couleur ou encore code barre), ou bien sert à trier les pièces, grâce à la reconnaissance de formes.
Dans la deuxième famille, on retrouve le contrôle d’aspect - mon article a-t-il des rayures, des défauts cosmétiques ? -, le contrôle dimensionnel - mon article est-il bien vertical, a-t-il le bon diamètre ? -, le contrôle de conformité - ai-je assemblé les bonnes pièces, sont-elles dans les bonnes positions ? - et la colorimétrie - pour évaluer la cuisson d'un produit alimentaire, par exemple. Quant au guidage du robot par vision, il peut aussi servir au contrôle, mais pas seulement : dans l'automobile, typiquement, une bonne partie de l'assemblage est assuré par des robots sur lesquels sont installées des caméras.
De plus en plus, les différents secteurs industriels, automobile en tête, ont tendance à abandonner le "mur qualité", qui consiste à fabriquer en faisant des défauts et à tout contrôler en fin de chaîne. La tendance aujourd'hui est de mettre des capteurs au plus près du processus de production, ce qui permet de contrôler une pièce juste après l'avoir fabriquée plutôt que d'attendre qu'elle soit intégrée dans un assemblage. Cela évite de démonter un assemblage à 500 euros pour modifier une pièce d'une valeur d'un euro.
SUR LE MÊME SUJET
Measurement World : embarqué, réseaux de neurones et capteurs hyperspectraux, les trois tendances phares de la vision industrielle
Tous les champs sont obligatoires
0Commentaire
Réagir