Pseudonymization is a data management and de-identification procedure by which personally identifiable information fields within a data record are replaced by one or more artificial identifiers, or pseudonyms. A single pseudonym for each replaced field or collection of replaced fields makes the data record less identifiable while remaining suitable for data analysis and data processing. Pseudonymization (or pseudonymisation, the spelling under European guidelines) is one way to comply with the European Union's new General Data Protection Regulation (GDPR) demands for secure data storage of personal information. Pseudonymized data can be restored to its original state with the addition of information which allows individuals to be re-identified. In contrast, anonymization is intended to prevent re-identification of individuals within the dataset. The European Data Protection Supervisor (EDPS) on 9 December 2021 highlighted pseudonymization as the top technical supplementary measure for Schrems II compliance. Less than two weeks later, the EU Commission highlighted pseudonymization as an essential element of the equivalency decision for South Korea, which is the status that was lost by the United States under the Schrems II ruling by the Court of Justice of the European Union (CJEU). The importance of GDPR-compliant pseudonymization increased dramatically in June 2021 when the European Data Protection Board (EDPB) and the European Commission highlighted GDPR-compliant Pseudonymisation as the state-of-the-art technical supplementary measure for the ongoing lawful use of EU personal data when using third country (i.e., non-EU) cloud processors or remote service providers under the "Schrems II" ruling by the CJEU. Under the GDPR and final EDPB Schrems II Guidance, the term pseudonymization requires a new protected “state” of data, producing a protected outcome that: (1) Protects direct, indirect, and quasi-identifiers, together with characteristics and behaviors; (2) Protects at the record and data set level versus only the field level so that the protection travels wherever the data goes, including when it is in use; and (3) Protects against unauthorized re-identification via the Mosaic Effect by generating high entropy (uncertainty) levels by dynamically assigning different tokens at different times for various purposes.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (1)
CS-523: Advanced topics on privacy enhancing technologies
This advanced course will provide students with the knowledge to tackle the design of privacy-preserving ICT systems. Students will learn about existing technologies to prect privacy, and how to evalu
Séances de cours associées (33)
Confidentialité des données dans la recherche en cybersanté
Explore les défis et les perspectives en matière de protection des données dans la recherche sur la cybersanté, en mettant l'accent sur la conformité au RGPD, la gestion sensible des données de santé et les agents décentralisés.
Enchérissement en temps réel : aspects juridiques
Explore les implications juridiques des enchères en temps réel dans la publicité en ligne, en se concentrant sur la protection des données et les préoccupations de confidentialité.
Publication de données préservant la vie privée : Synthetic Data Generation
Explore la génération de données synthétiques pour la publication de données préservant la vie privée, en évaluant son efficacité contre les menaces à la vie privée dans des ensembles de données brutes.
Afficher plus
Publications associées (10)
Concepts associés (3)
De-identification
De-identification is the process used to prevent someone's personal identity from being revealed. For example, data produced during human subject research might be de-identified to preserve the privacy of research participants. Biological data may be de-identified in order to comply with HIPAA regulations that define and stipulate patient privacy laws. When applied to metadata or general data about identification, the process is also known as data anonymization.
Vie privée
vignette|droite|Dessin de Cham dans Le Charivari en 1868 : « Le portrait de ma femme que vous envoyez à l’Exposition ? Vous lui avez mis un grain de beauté sous le bras gauche, c’est de la vie privée. Je vous fais un procès ». La vie privée (du latin privatus, « séparé de, privé de ») est la capacité, pour une personne ou pour un groupe de personnes, de s'isoler afin de protéger son bien-être. Les limites de la vie privée ainsi que ce qui est considéré comme privé diffèrent selon les groupes, les cultures et les individus, selon les coutumes et les traditions bien qu'il existe toujours un certain tronc commun.
Données personnelles
Une donnée à caractère personnel ou DCP (couramment « données personnelles ») correspond en droit français à toute information relative à une personne physique identifiée ou qui peut être identifiée, directement ou indirectement, par référence à un numéro d'identification ou à un ou plusieurs éléments qui lui sont propres. En France, les données ayant été l'objet d'un procédé d'anonymisation ne sont pas considérées comme des données à caractère personnel.

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.