Tout le dossier Tout le dossier
-
Quantique
Pour son ordinateur quantique, Quandela mise sur les photons uniques
-
Economie numérique
En F1, comment Mercedes utilise l'IA, la simulation et la data science pour rester au sommet
-
IA
Intelligence artificielle : l'outil derrière le buzz
-
Industrie
L'Europe en quête de souveraineté dans les supercalculateurs
-
Economie numérique
La ruée vers un monde en 3D
-
Industrie
« L'un de nos objectifs est d'élever le niveau d'adoption de la simulation numérique par l'industrie », annonce Daniel Opalka (EuroHPC)
-
Economie numérique
La course aux qubits reste ouverte dans le calcul quantique
-
Informatique
EDF, Total, Airbus... Les grands industriels se lancent dans la programmation quantique
-
Technos et Innovations
Pour industrialiser l'intelligence artificielle, des plates-formes collaboratives existent
-
Start up
[Made in France] EikoSim injecte une dose de réel dans la simulation
-
Start up
[Made in France] Nextflow Software innove dans les fluides
-
Start up
[Made in France] Minsar permet de créer sans coder
-
Start up
[Made in France] DNA Script fabrique une imprimante 3D moléculaire
-
Start up
[Made in France] Spectral TMS guide les techniciens
-
Start up
[Made in France] Pixee Medical assiste la chirurgie orthopédique
-
Start up
[Made in France] Arcure sécurise les véhicules industriels
-
Start up
[Made in France] Lynx fabrique un casque de réalité mixte
-
Start up
[Made in France] Azmed soulage les radiologues
-
Start up
[Made in France] Shippeo trace la logistique
-
Start up
[Made in France] Alteia mise sur l'intelligence visuelle
-
Pharma
[Made in France] Aqemia aide la recherche médicamenteuse
-
La pépite
[Made in France] Kejako corrige la presbytie grâce au laser
-
Economie numérique
Ces 25 start-up qui dessinent l'avenir numérique de la France
-
Economie numérique
« Une vague d'innovations inédite dans les processeurs », observe Philippe Duluc, directeur technique big data et sécurité d’Atos
-
Aéro - Spatial
[Made in France] Altrnativ.radio traque le ciel et l'espace
-
Start up
[Made in France] Cosmo Tech augmente le jumeau numérique
-
Start up
Alice & Bob, la pépite française du quantique qui part à la quête du qubit idéal
-
Semi-conducteurs
Le français Kalray se rêve en Nvidia européen
-
IA
La solution de Cartesiam pour intégrer facilement de l’IA dans les objets connectés
-
Technos et Innovations
Le français Pasqal lève 25 millions d'euros pour ses qubits à base d'atomes froids
-
Technos et Innovations
[L'Instant Tech] La pépite BeFC compte à nouveau sur le CES pour doper ses piles en papier
-
Electronique - Informatique
[Made in France] La pépite Antaïos réinvente la mémoire magnétique
-
Electronique - Informatique
Scalinx, la pépite qui donne à l’Europe sa souveraineté dans les puces de conversion du signal
-
Technos et Innovations
[L’instant tech] Au CES, la pépite girondine 3DiTex veut confronter sa technologie de tissage 3D au marché
-
Technos et Innovations
[L'instant tech] Au CES, la start-up Iumtek souhaite valoriser les technos d’analyse laser du CEA
Pour industrialiser l'intelligence artificielle, des plates-formes collaboratives existent
Les datalabs mis en place par les industriels doivent s’ouvrir pour associer les experts métiers au développement des modèles d’intelligence artificielle. Des plates-formes de nouvelle génération le permettent.
S'ouvrir pour étendre et pérenniser les usages de l’intelligence artificielle. Le constat s’est imposé : il faut abattre les murs des datalabs et permettre à tous les experts métiers de collaborer, voire de développer eux-mêmes leurs modèles d’IA. Après Watson d’IBM, une nouvelle génération de plates-formes de data science se développe pour faciliter un usage plus intégré et industrialisé de la data par les entreprises. La première caractéristique de ses plates-formes, c’est leur vaste couverture fonctionnelle, comme l’explique Alexis Fournier, le vice-président de la stratégie IA pour l’Europe, le Moyen-Orient et l’Afrique chez Dataiku : « Nous proposons une plate-forme end-to-end, c’est-à-dire capable de couvrir l’ensemble des tâches du cycle de vie du modèle. L’idée est d’avoir une interface unique pour définir les sources de données, les analyser, concevoir et tester le modèle jusqu’à le déployer dans l’infrastructure. »
Reprise par de nombreux éditeurs, cette approche se traduit par des capacités d’intégration et de manipulation des données très développées. Le système doit pouvoir se connecter à l’ensemble des sources de données potentiellement exploitables par un algorithme, que celles-ci soient structurées (base de données), semi-structurées (fichiers XML) ou non structurées (textes, images, sons). Il fournit ensuite des outils de préparation de données qui vont permettre à un data engineer et à un expert métier de les rendre exploitables par un algorithme d’IA. Enfin, il offre des outils interactifs de manipulation de données, de tests du modèle sur un échantillon de données jusqu’à son déploiement dans le cloud public ou sur un serveur de l’entreprise.
VOS INDICES
source
Concentrer tous les outils sur une même plate-forme implique que des profils très différents puissent travailler dessus. Les informaticiens de la DSI (direction des systèmes d’information) vont paramétrer les sources de données, les data scientists vont coder leurs algorithmes directement dans leur langage préféré, qu’il s’agisse de SQL, de Python ou des langages spécialisés R et SAS, et exploiter les bibliothèques d’algorithmes développées dans ces langages. Enfin, les experts métiers doivent, eux aussi, exploiter la plate-forme pour analyser leurs données. Il est difficile, voire impossible, de former ces profils non informaticiens à des langages complexes et de les contraindre à développer. La solution des éditeurs est de proposer un mode dual : les data scientists peuvent coder leurs algorithmes manuellement dans le langage de leur choix, tandis que les experts métiers disposent d’un mode de type « no-code ». L’interface graphique leur permet d’élaborer un modèle en manipulant des algorithmes prêts à l’emploi, sous forme de composants. « Nous nous adressons à tous les utilisateurs potentiels de la donnée dans l’entreprise, souligne Raphaël Savy, le directeur pour l’Europe du Sud de l’éditeur américain Alteryx. Les utilisateurs métiers doivent pouvoir résoudre les problématiques qu’ils connaissent le mieux grâce à leur expertise, c’est ce que l’on appelle les citizen data analysts. » Le logiciel Alteryx Designer propose plus de 250 composants prêts à l’emploi, que les experts pourront manipuler pour analyser leurs données sans programmation.
Hamid Hashemi, Fondateur de Data&People et expert en data intelligence
« Une nouvelle génération d’outils très orientée business »« La démocratisation et l’expérience utilisateur ont été pris à bras-le-corps par les éditeurs d’outils de data science et de machine learning. Un temps dédié aux statisticiens et aux data scientists, les premiers outils ont fait place à une nouvelle génération très orientée business, permettant aux métiers de prendre en main les algorithmes mais aussi des données de plus en plus massives et hétérogènes. Auparavant, il fallait connaître parfaitement le fonctionnement de chaque phase de la valorisation de la donnée, de la préparation à son utilisation. Dans le nouveau monde, les métiers doivent simplement savoir quelles données attend l’algorithme en entrée, à quoi sert l’algorithme et comment interpréter les sorties. Cette approche est plus rapide et moins coûteuse que celle consistant à former les utilisateurs au fonctionnement intrinsèque des algorithmes et au code. »
Vers une industrialisation de la production des modèles
Cette approche « no-code » est désormais reprise sur toutes les plates-formes de data science modernes et des algorithmes d’IA sont également déployés afin d’aider ces citizen data analysts à manipuler les données ou même à choisir le meilleur algorithme en fonction de la nature de ces données. C’est le cas de la plate-forme Viya de l’éditeur SAS, qui suggère les algorithmes en assortissant chacun d’eux d’un taux de confiance, mais aussi d’un argumentaire en langage naturel. Faire travailler tous les collaborateurs impliqués dans l’exploitation des données sur une même plate-forme est un moyen de faire émerger des idées et de les tester très rapidement sur un mode « test and learn ». Mais il ne s’agit pas de se limiter aux POC (preuves de concept), bien au contraire. Ces plates-formes visent à accélérer la mise en production de modèles. La priorité doit être donnée à la réutilisation des traitements, notamment ceux qui portent sur l’intégration des données. « Le nettoyage et la normalisation des données sont des tâches très chronophages, précise Raphaël Savy. Il faut réduire les délais induits par ces manipulations grâce à la réutilisation et à l’automatisation des traitements à appliquer aux données. »
D’autre part, des workflows transversaux permettent aux projets de modèles d’avancer pas à pas jusqu’à la mise en production, qui prend souvent du temps. De nombreuses semaines sont parfois nécessaires pour les développeurs et les ingénieurs d’exploitation afin d’industrialiser le modèle et d’assurer la sécurité des données. Les éditeurs apportent des solutions pour accélérer cette étape, notamment en hébergeant sur la plate-forme des web services prêts à être interrogés par les applications de l’entreprise, ou en générant de manière automatique des conteneurs logiciels prêts à être installés sur un serveur d’entreprise ou dans le cloud.
Pensées pour faciliter le travail collaboratif sur la data, ces plates-formes se veulent également simples à installer et à faire évoluer, en tout cas bien plus que les ERP (progiciels de gestion intégrés). « L’intérêt des plates-formes de data science modernes est que leur déploiement peut être progressif, souligne Pascal Brosset, le directeur technique de l’activité digital manufacturing de Capgemini. L’investissement initial est faible, notamment pour celles disponibles dans le cloud, et on va déployer les cas d’usage de l’IA un par un, en fonction des priorités et de la stratégie de l’entreprise. » La possibilité de souscrire à une plate-forme SaaS (software as a service), avec un paiement à l’usage, limite les dépenses et va permettre d’obtenir rapidement des premiers succès, un moyen de rallier peu à peu les différentes directions de l’entreprise et d’étendre les usages de l’IA partout où ils sont pertinents. Viendront ensuite la phase de structuration de toutes ces initiatives et la création d’un modèle de données commun, d’une sémantique commune à toute l’entreprise, qui faciliteront encore la création de nouvelles IA.
Pour industrialiser l'intelligence artificielle, des plates-formes collaboratives existent
Tous les champs sont obligatoires
0Commentaire
RéagirPARCOURIR LE DOSSIER