Big Data Paris : optimisation sous contrainte et machine learning, les clés de Fashion Data pour rendre la mode « éco-rentable »
La jeune pousse Fashion Data, fondée en 2019, a remporté les Trophées de l’innovation dans la catégorie start-up, décernés le 15 septembre lors du salon Big Data Paris. Derrière sa vision d’une industrie textile zéro déchet, où l’on ne produit « que ce que l'on vend, pas plus », se cache une solution logicielle s’appuyant sur une plate-forme de données qui utilise l’optimisation sous contraintes et l’intelligence artificielle pour « prévoir les produits qui vont bien marcher six mois à l'avance ». Romain Chaumais, directeur exécutif de Fashion Data, détaille le fonctionnement de sa solution.
I&T : Quelle est la solution vendue par Fashion Data, et quel(s) problème(s) vise-t-elle à résoudre ?
Romain Chaumais : Jarvis est une solution logicielle, vendue comme un service (software-as-a-service) pour 3 000 euros par mois, qui vise à aider les enseignes de mode à prévoir les produits qui vont bien marcher six mois à l'avance pour ne fabriquer que ce qu’elles vendent, pas plus.
La mode est un secteur en piteux état. C'est la deuxième industrie la plus polluante au monde : elle génère 20% des eaux usées et 10% des émissions de CO2. C'est aussi un secteur en décroissance : -15% en valeur durant les dix dernières années, à cause d'une surproduction mondiale qui engendre des invendus et des promotions excessives et, surtout, des fermetures de magasins avec des suppressions d'emplois.
Alors qu'on voit une évolution des comportements des clients, qui aspirent à une consommation plus responsable, plus mesurée, la mode doit impérativement se transformer et devenir éco-rentable. Nous avons voulu l’aider à regagner de la croissance tout en préservant mieux l'environnement.
Comment vous y êtes-vous pris ?
Il s'agissait de passer du « toujours plus » au « nettement mieux ». Le toujours plus, c'était la fast-fashion, avec l'arrivée de Zara et de toutes ses filiales, qui ont imposé une mode ultra-rapide avec de nouvelles collections toutes les 6 semaines et ont créé un sentiment de manque qui faisait que les gens achetaient inutilement. C'est l'une des raisons d'un si grand impact environnemental.
Pour résoudre ce problème, il faut déterminer où les enseignes gagnent vraiment de l'argent et où le bien vendu est pertinent. Un produit de mode bien vendu, c'est un produit qui n'est pas décoté - s'il est soldé, cela veut dire que l'enseigne en a produit trop - et qui dure longtemps.
L'algorithme derrière notre solution a la capacité à détecter l'évolution des tendances de la mode grâce aux ventes passées. Le premier enjeu : il faut corriger ces dernières. Quand vous faites des ventes, certains produits sont en rupture dans certains magasins mais pas d'autres, d'autres sont boostés par une campagne publicitaire ou des promotions. A la fin de l'année, quand on regarde les ventes, il est très compliqué de savoir quels sont les produits qui, sans ces facteurs, auraient réellement été bien été vendus, ceux qui auraient pu être vendu en plus grande quantité et ceux qui auraient dû être moins proposés. C'était l'objet du premier verrou que nous devions faire sauter. Nous nous y sommes pris à deux fois car on a échoué la première fois.
Pourquoi avez-vous d'abord échoué ?
Dans un premier temps, nous n'avions pas assez intégré la démarche métier. Nous avions énormément de données connectées dans notre plate-forme de données, Jarvis et nous avions commencé à lancer des algorithmes prédictifs de type Time series ou XGBoost. Mais ces algorithmes-là n'ont fait que reproduire les erreurs humaines : ils ont appris avec les erreurs des opérateurs de la chaîne d'approvisionnement et des gérants de production.
Nous avons dû réinventer à partir de données corrigées. Le gros bloc algorithmique que nous avons ensuite développé, fondé sur un modèle d'optimisation sous contraintes pour corriger les erreurs du passé, cherche à identifier les produits que l'on aurait pu vendre en plus grande quantité et ceux que l'on aurait dû moins produire, tout en prenant en compte les effets de cannibalisation : augmenter la production d'un produit de 10% oblige peut-être à réduire de 8% celle d'un autre et de 1% celle d'un troisième, ne permettant à l'arrivée que de faire 1% d'optimisation.
Une fois ce travail effectué, nous pouvons cette fois utiliser des algorithmes d'apprentissage automatique - et, de plus en plus, d'apprentissage profond - pour affiner. Il s’agit déterminer chaque semaine, pour chaque référence, les types, les coupes et les couleurs qui plaisent et ajuster les quantités à fabriquer pour les collections suivantes.
Comment avez-vous constitué la base de données d’origine ?
Nous avons travaillé avec les français Grain de malice, Jules et sa filiale Brice, Pimkie, l'allemand Orsay. Avec eux, nous avons défini un échantillon assez représentatif des produits de mode sur lesquels nous avons pu entraîner nos algorithmes. Surtout, ils nous ont aidés à valider nos corrections.
La difficulté, dans ce secteur, vient du calendrier : vous concevez une collection 6 à 8 mois en avance, puis vous la vendez sur 20 semaines. Finalement, il vous faut un an pour valider votre modèle. C'est pourquoi il est impossible de développer un modèle uniquement itératif, nous avons besoin de le faire valider par les experts métiers. D’ailleurs, je tiens à le préciser : notre algorithme ne s'habille pas. Par conséquent, il n'a pas l'intuition qui permet de définir les tendances émergentes. Nous avons donc voulu donner la place aux sachants - stylistes, gérants de production, analyse des tendances sur les réseaux sociaux - grâce à notre partenaire Heuritech -, et vendeurs dans les magasins.
On essaie ensuite d'analyser tous ces signaux a posteriori pour voir qui avait raison. Mais nous laissons aussi aux stylistes le choix de leurs collections. Nous balisons le chemin mais ce sont les stylistes qui sont responsables de la griffe de la marque, des détails de la collection.
Que peut-on attendre pour la suite de Fashion Data ?
Aujourd'hui, nous avons la capacité à ajuster les quantités d'achats, ce qui implique pour les enseignes qu'ils pourront acheter moins pour les mêmes chiffres d'affaires. Ils feront plus de marges mais surtout, des quantités de produits ne seront pas fabriquées, engendrant moins de coton utilisé et moins de transports.
Nous souhaitons que nos solutions soient adoptées, copiées même, s'il le faut. C’est pourquoi nous avons mis l'ensemble de nos algorithmes en open source. Si ces algorithmes sont adoptés massivement par l'industrie du textile, on pourrait vraiment réduire le réchauffement climatique.
Mais ce n'est que le début : ces enseignes s'engagent maintenant dans l'économie circulaire. Jules, par exemple, s'est engagé à ne fabriquer que des produits à base de matière recyclée d'ici 2025.
SUR LE MÊME SUJET
Big Data Paris : optimisation sous contrainte et machine learning, les clés de Fashion Data pour rendre la mode « éco-rentable »
Tous les champs sont obligatoires
0Commentaire
Réagir