Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

Trois leçons sur l’intelligence artificielle à tirer du premier événement Data Driven Paris

Manuel Moragues ,

Publié le

Data Driven Paris, édition française de Data Driven New York, a tenu sa première session mardi 17 janvier en présence d’Axelle Lemaire, secrétaire d’Etat au Numérique et à l’Innovation. Sous l’égide du fonds d’investissement français Serena Capital et de son homologue américain Firstmark, des spécialistes de l’intelligence artificielle et du big data présentent leur expérience.

Trois leçons sur l’intelligence artificielle à tirer du premier événement Data Driven Paris

L’intelligence artificielle et le big data vous donnent rendez-vous chaque mois à Paris. Data Driven Paris veut répliquer le succès de Data Driven New York, organisé par le fonds d’investissement américain Firstmark. Le fonds Serena Capital, en partenariat avec Firstmark, a lancé mardi 17 janvier la première session de cet événement mensuel dans les locaux parisiens de Bpifrance, en présence d’Axelle Lemaire.

La secrétaire d’Etat au Numérique et à l’Innovation y a annoncé le lancement vendredi 20 janvier de groupes de travail visant à élaborer la stratégie française en matière d’intelligence artificielle. En fixant le cap : "Tous les ingrédients sont là pour faire de la France un leader de l’intelligence artificielle."

Entrepreneurs pure players du big data et experts du deep learning se sont ensuite succédé à la tribune pour présenter leurs expériences et points de vue. L’Usine Nouvelle en retient trois leçons.

1- Tous les outils du big data sont disponibles, reste à s’en saisir

Evoquant le big bang que représente l’émergence du big data il y a quinze ans et qui a donné naissance aux étoiles Google, Facebook et autres Uber, Florian Douetteau, le PDG cofondateur de Dataiku, veut croire que toutes les entreprises peuvent aussi surfer sur la vague du big data. Tout simplement parce que "les technologies brutes sont aujourd’hui disponibles en open source". Et que, en matière de performances, "l’open source est à peine six à neuf mois derrière les meilleures technos".

Du machine learning, avec l’outil Scikit-Learn, au calcul distribué avec Spark en passant par les bots avec Wit.ai, tous les outils sont là. Reste à les utiliser au sein d’une entreprise, sachant qu’ils visent des profils d’utilisateurs variés. C’est tout l’objet de Data Science Studio, le logiciel de Dataiku, qui veut intégrer ces outils au sein d’une plateforme permettant aux différents types d’utilisateurs de véritablement collaborer.

2 -Améliorer l’intelligence artificielle demande de combiner intuition et process

Chez Criteo, c’est l’intelligence artificielle qui produit directement la valeur : "C’est notre machine learning qui décide de placer une impression publicitaire recommandant l’achat d’un produit", résume Bastien Albizzati, directeur produit. Criteo paye ces pubs et n’est rémunéré qu’en cas d’achat du produit par l’internaute. Autant dire que l’amélioration du moteur qui traque les internautes est cruciale ! Mais elle n’est pas simple, comme en témoignent les longs mois passés par Criteo à définir son indicateur de performance.

Pas question, en outre, de se reposer sur la magie du big data : "Une approche exhaustive dans laquelle on teste tout ne marche pas. L’intuition, l’expérience et la compréhension du business sont clés." C’est ensuite un process rigoureux qui vient jouer le rôle d’entonnoir pour aboutir à tester en ligne 500 idées par an sur les dizaines de milliers émises. "Attention à limiter la complexité, prévient enfin Bastien Albizzati. Chaque année, nous rejetons des améliorations à cause de la complexité qu’elles ajoutent."

3- Les boîtes noires doivent s’ouvrir

Nozha Boujemaa, directrice de recherches à l’Inria et conseillère du patron de l’Inria en matière de big data, souffle un vent de raison sur une assistance séduite par les merveilles de l’intelligence artificielle. La directrice du centre de recherches Inria Saclay Ile-de-France pointe une double exigence peu souvent évoquée par le secteur : transparence et responsabilité. A la fois les données et les algorithmes sont concernés, explique-t-elle. "C’est une erreur de croire que les technologies data sont impartiales car basées sur les données", avertit la chercheuse, qui dénonce le "data fundamentalism".

Des données mal sélectionnées ou incomplètes, périmées ou pas assez représentatives mèneront à des résultats faussés quelle que soit la performance de l’algorithme. De même, les algorithmes du machine learning ne sont pas exempts de biais, ne serait-ce que parce qu’ils n’apprennent qu’à reproduire le passé, au risque d’être aveugles à des comportements inédits. Les développeurs doivent donc exposer les critères et les spécifications de leurs données et de leurs algorithmes, prône Nozha Boujemaa, qui résume : "Il faut ouvrir les boîtes noires." L’enjeu est crucial : "Transparence et responsabilité permettront la confiance et l’appropriation du big data, tant par les professionnels que par les consommateurs", conclut-elle.

Réagir à cet article

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle

Les cookies assurent le bon fonctionnnement de nos sites et services. En utilisant ces derniers, vous acceptez l’utilisation des cookies.

OK

En savoir plus