Tout le dossier Tout le dossier
-
Quantique
Pour son ordinateur quantique, Quandela mise sur les photons uniques
-
Economie numérique
En F1, comment Mercedes utilise l'IA, la simulation et la data science pour rester au sommet
-
IA
Intelligence artificielle : l'outil derrière le buzz
-
Industrie
L'Europe en quête de souveraineté dans les supercalculateurs
-
Economie numérique
La ruée vers un monde en 3D
-
Industrie
« L'un de nos objectifs est d'élever le niveau d'adoption de la simulation numérique par l'industrie », annonce Daniel Opalka (EuroHPC)
-
Economie numérique
La course aux qubits reste ouverte dans le calcul quantique
-
Informatique
EDF, Total, Airbus... Les grands industriels se lancent dans la programmation quantique
-
Technos et Innovations
Pour industrialiser l'intelligence artificielle, des plates-formes collaboratives existent
-
Start up
[Made in France] EikoSim injecte une dose de réel dans la simulation
-
Start up
[Made in France] Nextflow Software innove dans les fluides
-
Start up
[Made in France] Minsar permet de créer sans coder
-
Start up
[Made in France] DNA Script fabrique une imprimante 3D moléculaire
-
Start up
[Made in France] Spectral TMS guide les techniciens
-
Start up
[Made in France] Pixee Medical assiste la chirurgie orthopédique
-
Start up
[Made in France] Arcure sécurise les véhicules industriels
-
Start up
[Made in France] Lynx fabrique un casque de réalité mixte
-
Start up
[Made in France] Azmed soulage les radiologues
-
Start up
[Made in France] Shippeo trace la logistique
-
Start up
[Made in France] Alteia mise sur l'intelligence visuelle
-
Pharma
[Made in France] Aqemia aide la recherche médicamenteuse
-
La pépite
[Made in France] Kejako corrige la presbytie grâce au laser
-
Economie numérique
Ces 25 start-up qui dessinent l'avenir numérique de la France
-
Economie numérique
« Une vague d'innovations inédite dans les processeurs », observe Philippe Duluc, directeur technique big data et sécurité d’Atos
-
Aéro - Spatial
[Made in France] Altrnativ.radio traque le ciel et l'espace
-
Start up
[Made in France] Cosmo Tech augmente le jumeau numérique
-
Start up
Alice & Bob, la pépite française du quantique qui part à la quête du qubit idéal
-
Semi-conducteurs
Le français Kalray se rêve en Nvidia européen
-
IA
La solution de Cartesiam pour intégrer facilement de l’IA dans les objets connectés
-
Technos et Innovations
Le français Pasqal lève 25 millions d'euros pour ses qubits à base d'atomes froids
-
Technos et Innovations
[L'Instant Tech] La pépite BeFC compte à nouveau sur le CES pour doper ses piles en papier
-
Electronique - Informatique
[Made in France] La pépite Antaïos réinvente la mémoire magnétique
-
Electronique - Informatique
Scalinx, la pépite qui donne à l’Europe sa souveraineté dans les puces de conversion du signal
-
Technos et Innovations
[L’instant tech] Au CES, la pépite girondine 3DiTex veut confronter sa technologie de tissage 3D au marché
-
Technos et Innovations
[L'instant tech] Au CES, la start-up Iumtek souhaite valoriser les technos d’analyse laser du CEA
Intelligence artificielle : l'outil derrière le buzz
Le battage médiatique autour de l’IA ne doit pas faire oublier que cette révolution s’inscrit dans la continuité des méthodes industrielles.
Impossible de passer à côté. L’intelligence artificielle (IA) sature les médias. Démonstrations de force du deep learning (apprentissage profond), promesses de gains faramineux, menaces sur l’emploi ou dérives liées à l’usage aveugle de ses algorithmes… l’IA est mise à toutes les sauces. En quelques années, elle a acquis le statut de révolution technologique du XXIe siècle et s’est imposée comme un enjeu géostratégique et économique mondial. Cet emballement a l’inconvénient majeur de la présenter comme un ovni numérique, a priori bien difficile à intégrer pour un industriel. Or l’IA s’inscrit au contraire dans la continuité des méthodes industrielles. « Analyser des données, identifier des corrélations, en tirer des enseignements pour optimiser ses process… Ce n’est pas nouveau, rappelle Alexis Fournier, le vice-président de la stratégie IA pour l’Europe, le Moyen-Orient et l’Afrique chez Dataiku, fort d’une expérience de vingt ans dans la datascience. On le fait aujourd’hui sur de nouveaux types de données et avec de nouveaux outils, mais c’est le même principe. » S’il y a bien une diffusion de l’IA dans l’industrie, elle vient d’abord des entreprises. « Ce n’est pas l’apparition du deep learning qui a fait entrer l’IA dans l’usine, mais la nécessité pour les industriels de piloter des systèmes de plus en plus complexes et le fait qu’ils ont commencé à stocker leurs données pour cela », tranche Patrick Sayd, le responsable de l’unité IA pour le langage et la vision au CEA List. IA, big data et industrie 4.0, même combat !
Il ne s’agit pas de nier la singularité des réseaux de neurones profonds du deep learning, ni la rupture technologique qu’ils représentent. Mais il faut replacer cette dernière dans son contexte. Celui de la recherche et celui de la performance en matière de perception. Soit le traitement de données homogènes (images, textes et sons, principalement). Ces progrès ont déjà permis un essor sans précédent des applications de commande vocale, de traitement automatisé de documents textuels et de vision par ordinateur. Cette dernière est très utile pour les opérations industrielles. Mais l’industrie a d’autres besoins, que le deep learning n’est pas, pour le moment, capable de satisfaire. Ou pour lesquels on ne peut pas encore lui faire confiance. Sans compter que recourir à cet outil très gourmand en données et en puissance de calcul reviendrait bien souvent à utiliser un marteau-piqueur pour enfoncer un clou.
Derrière l’arbre du deep learning, une forêt d’outils s’offre aux industriels : ceux du machine learning (apprentissage automatique). Voilà en quoi consiste l’IA dont on parle tant : des outils qui apprennent à partir des données pour élaborer des modèles. Contrairement à la simulation, qui part des lois de la physique, et de l’IA symbolique, qui s’appuie sur des règles explicitées par l’humain comme dans les systèmes experts. Appliqués à de nouvelles données d’entrée (l’étape d’inférence, par opposition à celle de l’apprentissage), ces modèles pourront prédire les sorties correspondantes, identifier des similarités, détecter les anomalies… Méthodes à noyau comme les machines à support de vecteurs, méthodes d’ensembles – AdaBoost, random forest – et réseaux de neurones… « Ces outils sont bien connus depuis une vingtaine d’années » , rappelle Mathilde Mougeot, titulaire de la chaire Analyse de données industrielles et apprentissage automatique à l’ENS Paris-Saclay. Ils sortent aujourd’hui des laboratoires pour intégrer l’usine. « Les méthodes de machine learning peuvent traiter de grands volumes de données de types variés pour résoudre des problèmes complexes et apporter plus de valeur ajoutée aux industriels », résume la professeure.
Convergence des approches
Identification des défauts, réduction des rebuts, amélioration de la productivité, maintenance prédictive, automatisation du contrôle qualité, gestion des stocks et des approvisionnements… L’IA version machine learning se diffuse à travers de multiples applications. Deux grandes évolutions devraient accélérer le mouvement. D’abord, l’intégration croissante de l’IA dans les équipements industriels. La vision industrielle est la première à en bénéficier, avec l’émergence de caméras embarquant des algorithmes pour analyser les images en temps réel. Une tendance qui profite à plein de l’explosion de puces dédiées à l’IA : des processeurs graphiques (GPU) déclinés en version nano aux FPGA (field programmable gate arrays), en passant par toutes sortes de puces spécialisées. L’intégration de l’IA dans les machines s’effectue aussi via des algorithmes créés ou adaptés pour tourner dans de simples micro-contrôleurs. STMicroelectronics propose ainsi avec son outil logiciel STM32 Cube AI de transposer un réseau de neurones pré-entraîné vers un micro-contrôleur STM32. De son côté, la start-up Cartesiam crée des algorithmes capables d’apprendre à détecter des anomalies directement dans les micro-contrôleurs.
Deuxième grande évolution : l’apparition d’outils logiciels facilitant l’utilisation de l’IA dans les entreprises. L’open source régnant sur l’IA, les algorithmes les plus performants sont en libre-service. « Jusqu’à récemment, les briques open source étaient destinées aux datascientists, avec des algorithmes à calibrer, à paramétrer, rappelle Anne-Sophie Taillandier, la directrice de TeraLab, la plate-forme big data de l’Institut Mines-Télécom. Mais on voit apparaître des outils adaptés aux non-experts, comme un ingénieur procédés qui voudrait expérimenter des modèles d’IA. » Des logiciels AutoML (machine learning automatisé) prennent ainsi en charge la construction de modèles adaptés aux données et aux cas d’usage de l’utilisateur.
Plus largement, des solutions ont émergé pour permettre un usage généralisé et structuré des données dans l’entreprise. Dataiku, licorne française, est pionnière de ce type de plate-forme qui fait graviter autour des données toutes les compétences nécessaires à leur bonne exploitation. Un atout majeur pour que les POC (proofs of concept, ou démonstrateurs) débouchent sur une mise en production. « Des datascientists enfermés dans leur datalab comme dans une tour d’ivoire, qui ne connaissent ni le métier ni le contexte d’utilisation, ont peu de chances de créer une solution performante et qui soit adoptée sur le terrain », souligne Alexis Fournier. Si les prouesses du deep learning ont pu donner l’illusion que le machine learning allait balayer des décennies d’expertise, de modélisation physique et d’IA symbolique, l’heure est à la convergence des approches. Pour passer du buzz à l’usine, l’IA s’allie à l’humain.
à la recherche d’une Ia de confiance
Comparé à la programmation classique et à l’IA symbolique, le machine learning produit des modèles dont il est souvent difficile d’évaluer la fiabilité. En effet, les données d’apprentissage ne représentent pas forcément tous les cas réels possibles, et surtout, concernant les réseaux de neurones, la théorie manque pour décrire les connaissances encodées. Ce qui rend d’ailleurs leur « raisonnement » inexplicable pour l’humain. Si nombre d’applications, même industrielles, peuvent s’en accommoder, ce n’est pas le cas de certains secteurs comme la sécurité ou l’aéronautique, pour qui la confiance, préalable à la certification, est indispensable. L’un des grands défis lancés par le Conseil de l’innovation consiste à « développer une IA de confiance pour les systèmes critiques », résume Julien Chiaroni, son directeur, également chargé de la stratégie et des programmes du CEA List. Pour cela, il faudra créer une plate-forme logicielle pour la conception de systèmes sûrs à base d’IA, une plate-forme de validation des systèmes de mobilité autonome, et définir une stratégie de normalisation.
Intelligence artificielle : l'outil derrière le buzz
Tous les champs sont obligatoires
0Commentaire
RéagirPARCOURIR LE DOSSIER