Machine ethics (or machine morality, computational morality, or computational ethics) is a part of the ethics of artificial intelligence concerned with adding or ensuring moral behaviors of man-made machines that use artificial intelligence, otherwise known as artificial intelligent agents. Machine ethics differs from other ethical fields related to engineering and technology. Machine ethics should not be confused with computer ethics, which focuses on human use of computers. It should also be distinguished from the philosophy of technology, which concerns itself with the grander social effects of technology.
Before the 21st century the ethics of machines had largely been the subject of science fiction literature, mainly due to computing and artificial intelligence (AI) limitations. Although the definition of "Machine Ethics" has evolved since, the term was coined by Mitchell Waldrop in the 1987 AI Magazine article "A Question of Responsibility":"However, one thing that is apparent from the above discussion is that intelligent machines will embody values, assumptions, and purposes, whether their programmers consciously intend them to or not. Thus, as computers and robots become more and more intelligent, it becomes imperative that we think carefully and explicitly about what those built-in values are. Perhaps what we need is, in fact, a theory and practice of machine ethics, in the spirit of Asimov’s three laws of robotics."
In 2004, Towards Machine Ethics was presented at the AAAI Workshop on Agent Organizations: Theory and Practice in which theoretical foundations for machine ethics were laid out.
It was in the AAAI Fall 2005 Symposium on Machine Ethics where researchers met for the first time to consider implementation of an ethical dimension in autonomous systems. A variety of perspectives of this nascent field can be found in the collected edition "Machine Ethics" that stems from the AAAI Fall 2005 Symposium on Machine Ethics.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Lalignement des intelligences artificielles (ou alignement de l'IA, ou encore problème de l'alignement) est un champ de recherche visant à concevoir des intelligences artificielles (IA) dont les résultats s'orientent vers les objectifs, éthiques ou autres, de leurs concepteurs. On dit ainsi qu'une IA est alignée avec un opérateur si elle essaie de faire ce que l'opérateur veut qu'elle fasse. Les systèmes d'IA peuvent être difficiles à aligner, et être dysfonctionnels ou dangereux si mal alignés.
vignette|Rayon X d'une main, avec calcul automatique de l'âge osseux par un logiciel informatique. L'intelligence artificielle (IA) dans la santé est l'utilisation d'algorithmes et de logiciels pour s'approcher de la cognition humaine dans l'analyse de données médicales complexes. Plus précisément, l'IA est la capacité des algorithmes informatiques à tirer des conclusions sans intervention humaine directe. L'objectif principal des applications des IA dans le domaine de la santé est d'analyser les relations entre, d'une part, la prévention ou les traitements et, d'autre part, l'état de santé des patients.
Eliezer Shlomo Yudkowsky (né le ) est un blogueur et écrivain américain, créateur et promoteur du concept d'intelligence artificielle « amicale ». Il doit sa notoriété mondiale au grand succès de sa fanfiction Harry Potter et les Méthodes de la rationalité, inspirée de l'univers de Harry Potter, qui illustre des concepts venus des sciences cognitives et des théories de la rationalité. Eliezer Yudkowsky est né en 1979 dans une famille juive orthodoxe. Il ne va pas au lycée et se forme en autodidacte.
The students will understand the cognitive and social factors which affect learning - particularly in science and engineering. They will be able to use social research techniques as part of the design
We will define the concept of personalized health, describe the underlying technologies, the technological, legal and ethical challenges that the field faces today, and how they are being met.
This master course enables students to sharpen their proficiency in tackling ethical and legal challenges linked to Artificial Intelligence (AI). Students acquire the competence to define AI and ident
Examine le cadre juridique de l'éthique de l'IA, y compris l'interprétation des lois, les sources des normes juridiques et l'interdiction des pratiques nocives de l'IA.
Fournit une exploration approfondie de la réglementation de l'éthique de l'IA, couvrant les questions juridiques, la réglementation de l'UE, le RGPD, les textes de l'UNESCO et la proposition de réglementation de l'IA.
Driven by the demand for real-time processing and the need to minimize latency in AI algorithms, edge computing has experienced remarkable progress. Decision-making AI applications stand out for their heavy reliance on data-centric operations, predominantl ...
EPFL2024
,
Harnessing the power of machine learning (ML) and other Artificial Intelligence (AI) techniques promises substantial improvements across forensic psychiatry, supposedly offering more objective evaluations and predictions. However, AI-based predictions abou ...
FRONTIERS MEDIA SA2023
Can social, organisations and disciplinary values guide decisions when thinking about ethical challenges? With this presentation, I describe the ambivalence of decision-making when it comes to being a cause or a valuable resource for acting upon ethics cha ...