Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Une intelligence artificielle amicale (aussi appelé IA amicale ou IAA) est une intelligence artificielle hypothétique qui aurait un effet positif plutôt que négatif sur l'humanité. Ce concept fait partie de l'éthique de l'intelligence artificielle et est étroitement lié au problème de l'alignement et à l'éthique des machines. Alors que l'éthique des machines se préoccupe de la façon dont un agent artificiellement intelligent doit se comporter, la recherche de l'intelligence artificielle amicale est axée sur la façon de provoquer ce comportement et de s'assurer qu'il est suffisamment maîtrisé. Le terme a été inventé par Eliezer Yudkowsky pour discuter des agents artificiels superintelligents qui mettent en œuvre de manière fiable les valeurs humaines. Le manuel d'intelligence artificielle de Stuart J. Russell et Peter Norvig, Artificial Intelligence: A Modern Approach, décrit l'idéeYudkowsky (2008) va dans les détails sur la façon de concevoir une IA amicale. Il affirme que la gentillesse (le désir de ne pas nuire aux humains) doit être conçue dès le début, mais que les concepteurs doivent reconnaître que cette conception peut être défectueuse, et que le robot va apprendre et évoluer avec le temps. Le défi est donc celui de la conception d'un mécanisme — définir un mécanisme pour l'évolution des systèmes d'IA qui resteront amicales face à de tels changements.Dans ce contexte, l'expression « amicale » est utilisée comme terminologie technique et définit des agents sûrs et utiles, pas forcément « amicaux » au sens familier. Le concept est principalement utilisé dans le contexte des discussions sur cette technologie hypothétique qui aurait un impact important, rapide et difficile à contrôler sur la société humaine. Les bases de l'inquiétude concernant l'intelligence artificielle sont très anciennes. Kevin LaGrandeur a montré que les dangers spécifiques de l'IA peuvent être observés dans la littérature ancienne concernant les humanoïdes artificiels tels que le golem, ou les proto-robots de Gerbert d'Aurillac et Roger Bacon.
Jibril Albachir Frej, Aybars Yazici
Alexandre Massoud Alahi, Kathrin Grosse