CatégoriePython

Extraire des images d’une vidéo YouTube

Rien de révolutionnaire dans ce script, mais il vous permettra d’extraire simplement les images d’une vidéo YouTube tournée à 25 images par seconde (standard Europe). Ces images pourront ensuite être utilisées par exemple pour des analyses comme la détection des émotions faciales, (cf. article 1 – article 2 – article 3). Bon, c’est un petit retour en arrière, mais...

Extraction et correction des NER avec SpaCy et JSON

Puisque nous nous situons dans le champ des sciences humaines et sociales (SHS), voici une brève description du corpus utilisé : il est composé de 23 articles de presse portant sur la déclaration de Gérald Darmanin dénonçant « un ratage » dans le suivi psychiatrique d’un suspect. Ce corpus a été formaté pour répondre aux exigences du logiciel IRaMuTEQ, car il me sert également de test dans le...

Initiation au Deep Learning avec le Dataset MNIST

Introduction au Dataset MNIST Le dataset MNIST est une référence incontournable dans le domaine du machine learning et de la vision par ordinateur. Il contient des images manuscrites des chiffres de 0 à 9, chacune en niveaux de gris et de (très) petite taille (28×28 pixels). Les données sont réparties en 60 000 images d’entraînement et 10 000 images de test, et sont principalement...

Analyse des émotions dans la voix avec un modèle Speech Emotion Recognition (SER)

En développant un modèle de reconnaissance des émotions par la voix (SER, pour Speech Emotion Recognition), je n’ai pas choisi la voie la plus simple pour me familiariser avec les modèles de deep learning et l’intégration de la couche de traitement “audio” dans une approche multimodale. Pourquoi ? Parce que, comparée à des domaines comme la reconnaissance faciale, la précision des...

Speech Emotion Recognition (SER) avec le dataset RAVDESS

L’objectif de cet article est de construire un modèle pour réaliser une détection des émotions à partir de la voix (SER – Speech Emotion Recognition) afin d’analyser des segments audio spécifiques, comme par exemple un discours politique de Donald Trump. La première étape consiste à concevoir et entraîner un modèle pour réaliser cette analyse émotionnelle.   Cette article...

DeepFace : Comparatif des modèles de détection faciale et des backends

1. La genèse de DeepFace et ses applications courantes DeepFace est un outil de reconnaissance faciale développé par Facebook en 2014, dont l’objectif initial était d’améliorer la précision de la reconnaissance faciale en ligne, en permettant aux utilisateurs de taguer des visages dans les photos afin d’encourager l’identification dans les photos. À l’époque de son...

Astuces avec Google colab

L’entraînement des modèles de Deep Learning exige une puissance de calcul importantes, qui parfois peuvent fonctionner en local mais “immobilise” votre Mac le temps des calculs… Imaginez que vous ayez besoin de la puissance de deux super Mac : l’un pour travailler sur vos tâches habituelles et l’autre équipé d’un processeur graphique (GPU), dédié uniquement à...

Analyse des émotions avec DeepFace à partir de votre webcam

Le script vous permettra de réaliser une analyse des émotions via le flux de votre webcam (en temps réel) de votre Mac ou PC, en utilisant la bibliothèque DeepFace, développée par Meta. Cet article s’inscrit dans la continuité de mes (recherches) autour de l’analyse des émotions, initialement explorés avec le modèle FER. L’objectif est de faire un état des lieux de la question. À ma grande...

Vecteurs émotionnels avec FER, PCA et K-means

Le développement de ce script s’inscrit dans une approche exploratoire d’analyse multimodale, visant à combiner deux couches de données : la couche “image” avec la détection des émotions et la couche “texte”. Ces deux couches sont synchronisées, bien qu’à ce stade, aucune analyse automatique croisée entre elles ne soit proposée. Cependant, des pistes...

Analyse des émotions dans les vidéos : Faut-il analyser toutes les frames ?

En développant un script d’analyse des émotions avec le modèle FER2013 (Facial Emotion Recognition), une question s’est posée dès le départ : est-il vraiment nécessaire d’extraire et d’analyser toutes les images constituant une seconde de vidéo (soit 25 frames), ou peut-on se contenter d’une image par seconde pour accélérer le processus ? Action ! Retour sur les...

Stephane Admin