CatégoriePython

Ajouter des Entités Nommées (NER) à votre modèle SpaCy

La reconnaissance des Entités Nommées (NER – Named Entity Recognition) La reconnaissance des entités nommées (NER, pour Named Entity Recognition) est une technique de traitement du langage naturel (NLP) qui vise à identifier et classifier les entités présentes dans un texte en catégories prédéfinies telles que les noms de personnes, les organisations, les lieux, les dates,… Exemples...

Convertir un fichier PDF en Texte

Convertir un PDF en Texte La campagne des législatives de 2024 a démontré qu’il était essentiel de disposer de deux types d’outils pour récupérer les textes des programmes électoraux (par exemple) afin de pouvoir en faire une analyse lexicale (Pascal Marchand, 2024). Les programmes électoraux se présentent généralement sous deux formats : PDF : Les documents PDF nécessitent une...

Analyser les cooccurrences d’un mot clé

Introduction La fouille de texte est une méthode essentielle pour extraire des informations précieuses à partir de vastes corpus de texte. Un aspect fondamental de cette analyse est l’étude des cooccurrences à partir d’un mot clé, qui peut révéler des relations sémantiques importantes et des tendances dans le texte. Cet article, propose un script Python conçu pour analyser les...

Compiler un script Python avec auto-py-to-exe

Compilation Après avoir testé plusieurs bibliothèques Python pour compiler mon script, et constaté que certaines étaient parfois inefficaces, j’ai découvert l’interface graphique d’auto-py-to-exe pour compiler mes scripts. Je débute un peu dans ce domaine… L’idée de la compilation est bien entendu de permettre aux utilisateurs de se passer de l’environnement...

Optimiser l’analyse de corpus Europresse : Un script de détection de doublons

Introduction L’objectif de cet article est de vous proposer un script Python (avec une interface tkinter) visant à rechercher les articles en doublons et les articles trop courts dans un corpus Europresse. Si vous traitez souvent des corpus d’articles provenant de la base de données Europresse pour vos analyses dans IRaMuTeQ, vous êtes confronté au problème des doublons ou...

Extraire les commentaires Meta avec Sélénium

Introduction L’objectif de cet article est de montrer comment se connecter à Méta avec la bibliothèque Selenium pour exporter les commentaires. Autant l’annoncer tout de suite, le script fonctionne et récupère l’article qui fait le buzz en générant des commentaires, mais je n’ai pas réussi à extraire les commentaires. La balise « commentaire » dans le code source de Méta...

Extraction de la retranscription textuelle d’une vidéo YouTube avec YouTubeTranscript

Introduction L’extraction d’un fichier audio en texte via Google Speech-to-Text est au final relativement contraignante du fait que les vidéos dépassant 60 secondes doivent être déposées sur Google Cloud. Il existe donc une autre technique visant à extraire la retranscription grâce à la librairie YouTube Transcript. Cette librairie va tout simplement scraper le texte retranscrit par...

L’analyse Latent Dirichlet Allocation appliquée à l’analyse textuelle

Historique du test LDA Le Latent Dirichlet Allocation (LDA) est un modèle probabiliste basé sur l’idée que les documents sont constitués d’une combinaison de topics, et que chaque topic est caractérisé par une distribution de mots. LDA appartient à la catégorie des modèles d’apprentissage non supervisé. Dans le contexte du traitement automatique du langage naturel, le test LDA...

TF*IDF avec la librairie scikit-learn

Voici la partie 2, consacrée à l’application du test TF × IDF suite à l’extraction d’environ 1725 messages depuis YouTube et au prétraitement du corpus. L’analyse des commentaires YouTube est judicieuse puisque chaque commentaire est considéré comme un document distinct. Cependant, le langage employé dans ces commentaires ne facilite pas toujours le prétraitement des...

Prétraitement de commentaires YouTube et test TF*IDF – partie 1

Cet article aborde le processus de prétraitement d’un ensemble de commentaires récupérés d’une vidéo YouTube. Le but à moyen terme est d’évaluer et de mettre en contraste l’efficacité de la génération d’insights, en la comparant à la méthode traditionnelle de génération de mots-clés basée sur la fréquence d’apparition des mots dans le texte. Cette approche...