Tout le dossier Tout le dossier
-
Deep Learning
Pourquoi l'intelligence artificielle intéresse (plus que jamais) les industriels
-
Numérique
Elon Musk investit 7 millions de dollars pour contrôler les risques de l’intelligence artificielle
-
Deep Learning
Intelligence artificielle : faut-il en avoir peur, comme Elon Musk ou Stephen Hawking ou Bill Gates ?
-
Numérique
Apple recrute massivement des experts en intelligence artificielle
-
Auto - Transports
Véhicules autonomes : chez PSA, l'intelligence artificielle prend le volant
-
Deep Learning
Intelligence artificielle : Facebook présente M, futur concurrent de Siri et de Google Now
-
New Space
Stephen Hawking cherche une intelligence extraterrestre, pour 100 millions de dollars
-
Deep Learning
Intelligence artificielle : de l’Ars Magna de 1270 aux machines à penser actuelles
Elon Musk investit 7 millions de dollars pour contrôler les risques de l’intelligence artificielle
Cette somme allouée au Future of Life Institute permettra de financer 37 projets de recherche qui visent à identifier les dangers liés à l’intelligence artificielle.
Basé à Boston, le Future of Life Institute (FLI), a révélé la semaine dernière avoir sélectionné 37 équipes de chercheurs, sur 300 candidatures, qui bénéficieront d’un soutien financier pour développer une intelligence artificielle « robuste et bénéfique » pour ne pas qu'elle se retourne contre l'humanité.
Le montant de l’enveloppe globale s’élève à 7 millions de dollars. Elle a été alimentée par Elon Musk, le fondateur de Tesla Motors et de SpaceX . En effet, après avoir fait part à plusieurs reprises de ses inquiétudes en matière d’intelligence artificielle (AI) , l’homme d’affaires avait fait un don, en janvier dernier, de 10 millions de dollars au FLI pour qu’il crée un fonds dédié à analyser les dangers liés à l’intelligence artificielle. Le site Business Insider, qui rapporte l’information, propose une sélection des projets les plus originaux.
Des chercheurs de l’université de Californie et de l’université d’Oxford entendent développer des algorithmes capables d’apprendre les préférences humaines. Objectif : aider les systèmes d’intelligence artificielle à se comporter davantage comme des hommes et moins comme des machines rationnelles.
Une équipe de l’université de Duke prévoit, quant à elle, de créer une intelligence artificielle capable de poser des jugements moraux et de prendre des décisions dans des scénarios réalistes avec une approche mixant informatique, philosophie et psychologie.
Le philosophe suédois Nick Bostrom, auteur de l’ouvrage Superintelligence, veut pour sa part bâtir un centre de recherche commun à l’université d’Oxford et de Cambridge pour développer des règles qui seraient appliquées par les gouvernements et les leaders de l’industrie afin de minimiser les risques de l’AI sur le long terme. Il pourrait bénéficier d'une aide d'1,5 million de dollars.
Un autre chercheur de l’université d’Oxford envisage de mettre au point un code de déontologie pour les intelligences artificielles.
A l’université de Denver, des chercheurs souhaitent développer des outils qui permettront aux humains de ne pas perdre le contrôle des armes robotiques.
A Stanford, un chercheur prévoit d’étudier les impacts d’une économie totalement automatisée.
Suivez le lien pour consulter la liste complète des projets relatifs à l'intelligence artificielle sélectionnés.
SUR LE MÊME SUJET
PARCOURIR LE DOSSIER