Wikidata est une base de connaissances librement améliorable, conçue pour centraliser les données utilisées par les différents projets du mouvement Wikimédia. Une mise à jour d'une fiche Wikidata se répercute automatiquement sur toutes les pages de projets Wikimédia qui y font appel. Plus largement, Wikidata est destiné à fournir une source commune de données objectives, telles que les dates de naissance de personnalités ou le produit intérieur brut des pays.
Dernier-né des projets de la Fondation Wikimédia, le site a été ouvert aux premières contributions le . La création de ce projet a été financée par des dons de l'Allen Institute for Artificial Intelligence pour 50 %, la Gordon and Betty Moore Foundation et Google pour 25 % chacun, pour un montant total de d'euros.
vignette|Équipe de développement de Wikidata en 2012.
Historiquement, Wikidata a été précédé par d'autres projets de base de données cherchant à exploiter les données de Wikipédia, DBpedia notamment a été largement utilisé pour l'extraction et le traitement de contenu de l'encyclopédie. Le concept a d'abord émergé du côté de Wikimedia Deutschland qui a pris en main le développement du projet jusqu'au déploiement, qui a été alors confié, ainsi que la maintenance, à la Fondation Wikimédia et à une équipe de huit développeurs dirigée par les deux fondateurs de Semantic MediaWiki, Denny Vrandečić et Markus Krötzsch.
Le déploiement de Wikidata s'est déroulé en trois phases :
création de l'ensemble des fiches des articles des 280 Wikipédias en différentes langues ;
ouverture à l'édition et à la création de données ;
création automatique de listes et de graphiques exploitant les données, réutilisables dans les Wikipédias.
Wikidata a été présenté en février 2012 lors de la Semantic Tech & Business Conference. Son ouverture a été initialement annoncée au printemps 2013. Sa création s'inscrit dans un contexte de développement croissant du web sémantique, qui consiste en l'agrégation, l'analyse et l'utilisation de données éparses et permet ainsi de répondre à des requêtes complexes.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
DBpedia est un projet universitaire et communautaire d'exploration et extraction automatiques de données dérivées de Wikipédia. Son principe est de proposer une version structurée et normalisée au format du web sémantique des contenus de Wikipedia. DBpedia vise aussi à interconnecter Wikipédia avec d'autres ensembles de données ouvertes provenant du Web des données. DBpedia a été conçu par ses auteurs comme l'un des , connu également sous le nom de Web des données, et l'un de ses possibles points d'entrée.
Dans le domaine de la représentation des connaissances, un graphe de connaissances (knowledge graph en anglais) est une base de connaissance modélisant les données sous forme de représentation graphique. Depuis le développement du web sémantique, les graphes de connaissances sont souvent associés aux projets de données ouvertes du web des données, visant surtout à connecter les concepts et entités. Ils sont fortement liés aux et utilisés par les moteurs de recherches, dont certains, tels Google, ont développé leur propre graphe de connaissances.
Le Wiktionnaire est un projet lexicographique de la Wikimedia Foundation dont l’objectif est de définir tous les mots de toutes les langues, dans toutes les langues. Il existe plus de 150 langues de rédaction. Le terme « Wiktionnaire » désigne la version en français de ce projet, Wiktionary étant le nom officiel en anglais. Il est géré en wiki dans le site web wiktionary.org et son contenu est librement réutilisable (sous licence CC-BY-SA). Daniel Alston (connu sous le pseudonyme Fonzy) est l'un des principaux initiateurs et promoteurs de ce projet.
This course introduces the foundations of information retrieval, data mining and knowledge bases, which constitute the foundations of today's Web-based distributed information systems.
This course teaches the basic techniques, methodologies, and practical skills required to draw meaningful insights from a variety of data, with the help of the most acclaimed software tools in the dat
Les Digital Humanities sont une discipline à la croisée des sciences de l'information et des sciences humaines et sociales. Dans ce cours, les étudiantes et étudiants découvrent ce nouveau domaine de
Explore les ontologies populaires et les bases de connaissances telles que WordNet, WikiData, Google Knowledge Graph et Schema.org, ainsi que les ensembles de données ouvertes liées.
Various endeavours into semantic web technologies and ontology engineering have been made within the organisation of cultural data, facilitating public access to digital assets. Although models for conceptualising objects have reached a certain level of ma ...
2023
, ,
In the era of misinformation and information inflation, the credibility assessment of the produced news is of the essence. However, fact-checking can be challenging considering the limited references presented in the news. This challenge can be transcended ...
ASSOC COMPUTING MACHINERY2021
,
We present Wikipedia-based Polyglot Dirichlet Allocation (WikiPDA), a crosslingual topic model that learns to represent Wikipedia articles written in any language as distributions over a common set of language-independent topics. It leverages the fact that ...