En informatique, l'opinion mining (aussi appelé sentiment analysis) est l'analyse des sentiments à partir de sources textuelles dématérialisées sur de grandes quantités de données (big data).
Ce procédé apparait au début des années 2000 et connait un succès grandissant dû à l'abondance de données provenant de réseaux sociaux, notamment celles fournies par Twitter.
L'objectif de l’opinion mining est d'analyser une grande quantité de données afin d'en déduire les différents sentiments qui y sont exprimés. Les sentiments extraits peuvent ensuite faire l'objet de statistiques sur le ressenti général d'une communauté.
Avec le web 2.0, toute page web est susceptible d'être une source de données. Cependant Twitter présente des avantages intéressants comme la brièveté des tweets (140 caractères) ainsi que sa réactivité, de plus Twitter est ouvert et les textes qui y sont soumis sont accessibles à tous grâce à un service web ce qui facilite l'exploitation des données.
Cependant plusieurs études ont été faites sur d’autres sources de données telles que des paroles de chansons ou des discours présidentiels.
Les réseaux sociaux restent malgré tout une cible privilégiée, car ils représentent une source de donnée riche et assurent un renouvèlement des informations en temps réel.
Il existe des outils permettant d'identifier le sentiment dégagé par un texte. Voici une liste des outils les plus connus :
Nocode functions: application web gratuite d'analyse de sentiment en trois classes (positif, neutre, négatif) basé sur Umigon. Particulièrement adapté à l'analyse de textes de réseaux sociaux, en français ou en anglais, cette application a été évaluée comme la plus performante de sa catégorie.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
The Human Language Technology (HLT) course introduces methods and applications for language processing and generation, using statistical learning and neural networks.
This course introduces the foundations of information retrieval, data mining and knowledge bases, which constitute the foundations of today's Web-based distributed information systems.
This course aims to give an introduction to the application of machine learning to finance. These techniques gained popularity due to the limitations of traditional financial econometrics methods tack
L'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Emotion recognition is the process of identifying human emotion. People vary widely in their accuracy at recognizing the emotions of others. Use of technology to help people with emotion recognition is a relatively nascent research area. Generally, the technology works best if it uses multiple modalities in context. To date, the most work has been conducted on automating the recognition of facial expressions from video, spoken expressions from audio, written expressions from text, and physiology as measured by wearables.
L’analyse sémantique latente (LSA, de l'anglais : Latent semantic analysis) ou indexation sémantique latente (ou LSI, de l'anglais : Latent semantic indexation) est un procédé de traitement des langues naturelles, dans le cadre de la sémantique vectorielle. La LSA fut brevetée en 1988 et publiée en 1990. Elle permet d'établir des relations entre un ensemble de documents et les termes qu'ils contiennent, en construisant des « concepts » liés aux documents et aux termes.
Explore l'influence du langage sur le succès général grâce à l'analyse des données et aux tests statistiques dans le monde réel.
Explore la classification des données textuelles, en se concentrant sur des méthodes telles que les bayes naïques et les techniques de réduction de la dimensionnalité telles que l'analyse des composantes principales.
Explore l'analyse de l'humeur exprimée sur Twitter à l'aide de données longitudinales et d'outils d'analyse de texte, en soulignant l'importance de prendre en compte les données biaisées.
Social media is increasingly being employed to develop Cultural Ecosystem Services (CES) indicators. The image-sharing platform Flickr has been one of the most popular sources of data. Most large-scale studies, however, tend to only use the number of image ...
Measuring the intensity of events is crucial for monitoring and tracking armed conflict. Advances in automated event extraction have yielded massive data sets of '' who did what to whom '' micro-records that enable datadriven approaches to monitoring confl ...
Assoc Computational Linguistics-Acl2023
, , , , ,
Objective. Selective neuromodulation of deep brain regions has for a long time only been possible through invasive approaches, because of the steep depth-focality trade-off of conventional non-invasive brain stimulation (NIBS) techniques. Approach. An appr ...