In philosophy, ethical dilemmas, also called ethical paradoxes or moral dilemmas, are situations in which an agent stands under two (or more) conflicting moral requirements, none of which overrides the other. A closely related definition characterizes ethical dilemmas as situations in which every available choice is wrong. The term is also used in a wider sense in everyday language to refer to ethical conflicts that may be resolvable, to psychologically difficult choices or to other types of difficult ethical problems. This article is about ethical dilemmas in the strict philosophical sense, often referred to as genuine ethical dilemmas. Various examples have been proposed but there is disagreement as to whether these constitute genuine or merely apparent ethical dilemmas. The central debate around ethical dilemmas concerns the question of whether there are any. Defenders often point to apparent examples while their opponents usually aim to show their existence contradicts very fundamental ethical principles. Ethical dilemmas come in various types. An important distinction concerns the difference between epistemic dilemmas, which give a possibly false impression to the agent of an unresolvable conflict, and actual or ontological dilemmas. There is broad agreement that there are epistemic dilemmas but the main interest in ethical dilemmas takes place on the ontological level. Traditionally, philosophers held that it is a requirement for good moral theories to be free from ethical dilemmas. But this assumption has been questioned in contemporary philosophy.
Ethical dilemmas are situations in which an agent stands under two (or more) conflicting ethical requirements, none of which overrides the other. Two ethical requirements are conflicting if the agent can do one or the other but not both: the agent has to choose one over the other. Two conflicting ethical requirements do not override each other if they have the same strength or if there is no sufficient ethical reason to choose one over the other.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
This master course enables students to sharpen their proficiency in tackling ethical and legal challenges linked to Artificial Intelligence (AI). Students acquire the competence to define AI and ident
Le but du cours est de familiariser l'étudiant-e aux notions de base du droit et de l'éthique applicables à la recherche en STV et à son transfert en applications, et de lui fournir les éléments essen
L'objectif de ce séminaire est d'amener les étudiants à réfléchir aux enjeux éthiques que les nouvelles technologies peuvent soulever, parmi lesquels leur incompatibilité avec l'autonomie, la liberté
Couvre les principales théories éthiques, y compris la bonne volonté de Kant, l'utilitarisme de Mill, et le concept du bien commun.
Explore l'utilitarisme, le libre arbitre moral et l'unité du concept du « bien ».
S'insère dans l'éthique et le droit dans l'IA, en mettant l'accent sur les valeurs, les ambitions normatives et les défis éthiques.
L'éthique déontologique ou déontologisme (dérivé d'un mot grec signifiant « obligation » ou « devoir ») est la théorie éthique qui affirme que chaque acte moral doit être jugé selon sa conformité (ou sa non-conformité) à certains devoirs. Le terme « déontologie » a été créé par le philosophe anglais Jeremy Bentham dans son livre Chrestomathia (1816). Le déontologisme s'oppose ainsi au conséquentialisme, qui affirme que les actes moraux sont à juger uniquement en fonction de leurs conséquences.
vignette|Portrait de Jeremy Bentham, par Henry William Pickersgill.|alt=Portrait de Jeremy Bentham peint par Henry William Pickersgill. vignette|Portrait de John Stuart Mill, par George Frederic Watts.|alt=Portrait de John Stuart Mill peint par George Frederic Watts. L’utilitarisme est une doctrine éthique qui prescrit d'agir (ou de ne pas agir) de manière à maximiser le bien-être collectif, entendu comme la somme ou la moyenne de bien-être (bien-être agrégé) de l'ensemble des êtres sensibles (dont on peut omettre ceux qui ne sont pas affectés par l'acte considéré).
vignette|« Comment l'état de pauvreté peut être agréable » (Diogène dans son tonneau et Cratès renonçant à la richesse pour la vertu). Extrait du Livre des bonnes mœurs de Jacques Legrand, Jacobus Magnus, v. 1490. La morale (du latin moralis « relatif aux mœurs ») est une notion qui désigne l'ensemble des règles ou préceptes, obligations ou interdictions relatifs à la conformation de l'action humaine aux mœurs et aux usages d'une société donnée.
Can social, organisations and disciplinary values guide decisions when thinking about ethical challenges? With this presentation, I describe the ambivalence of decision-making when it comes to being a cause or a valuable resource for acting upon ethics cha ...
The increasing integration of Machine Learning (ML) techniques into clinical care, driven in particular by Deep Learning (DL) using Artificial Neural Nets (ANNs), promises to reshape medical practice on various levels and across multiple medical fields. Mu ...
The rise of neurotechnologies, especially in combination with artificial intelligence (AI)-based methods for brain data analytics, has given rise to concerns around the protection of mental privacy, mental integrity and cognitive liberty - often framed as ...