CatégoriePython

Analyser les réseaux de vidéos YouTube

Mesurer l’impact des vidéos d’influenceurs (par exemple) sur YouTube reste un exercice complexe. Il est tentant d’imaginer qu’une vidéo qui accumule des vues, des likes et des commentaires puisse mécaniquement entraîner une hausse des réservations touristiques dans une destination. Mais établir une relation de cause à effet entre visibilité en ligne et comportements de consommation réels — comme...

Gérer les quotas de l’API YouTube Data v3

L’API YouTube Data v3 présente un certain intérêt, notamment parce qu’elle permet d’effectuer gratuitement un nombre limité de requêtes quotidiennes grâce à un quota journalier. Lors de mes tests de développement de scripts d’analyse de vidéos YouTube à l’aide de graphes, j’ai rapidement constaté les limites imposées par ce quota. Il est bien sûr possible de contourner cette...

Analyse quantitative d’une vidéo YouTube

Avant tout, ce script constitue une approche quantitative pour mesurer la popularité d’une vidéo ciblée sur une chaîne YouTube donnée. Il s’appuie sur trois indicateurs principaux : le nombre de vues, de likes et de commentaires. L’objectif n’est pas d’apporter une mesure définitive ou automatisée des anomalies, mais plutôt d’offrir un cadre d’observation, permettant par exemple de repérer...

Extraction des métadonnées YouTube à partir d’un mot-clé

Ce script Python permet d’effectuer une recherche de vidéos sur YouTube à partir d’un mot-clé, tout en appliquant divers filtres tels que la langue, la région, l’année de publication, ainsi que le nombre de vues, de likes et de commentaires. Les métadonnées des vidéos récupérées sont ensuite exportées au format Excel.L’interface utilise Streamlit, accessible via le navigateur. 1. Clé API YouTube...

Transformer une vidéo en stop motion : un outil d’analyse visuelle

Dans le cadre de l’analyse multimodale en Sciences Humaines et Sociales, ce script Python propose une méthode pour transformer une vidéo (YouTube ou en local .mp4) en stop motion (animation image par image). Que ce soit depuis un lien YouTube ou un fichier vidéo local au format .mp4, l’utilisateur peut générer une nouvelle version de la vidéo où les images sont extraites à une fréquence...

Extraction de données sur Reddit

Reddit est un réseau social d’origine américaine fondé en 2005, qui se distingue des plateformes comme Facebook, X ou Instagram… par son fonctionnement communautaire et thématique. Structuré autour de “subreddits” (forums dédiés à des sujets spécifiques), Reddit permet aux utilisateurs de publier, commenter et voter des contenus textuels, visuels. Si Reddit occupe une...

Extraction de commentaires YouTube via streamlit

X est devenu le repaire de la désinformation… Alors que Facebook ou Linkedin imposent une API payante pour récupérer leurs posts, il nous reste donc une source – certes également sujette à la désinformation, mais où l’expression demeure spontanée et authentique – celle des commentaires YouTube. Il faut bien l’avouer : certaines vidéos suscitent une avalanche de réactions ! Merci...

Speech-to-text avec whisper et streamlit cloud

J’ai adapté un script utilisant le modèle Whisper d’OpenAI en une solution “no code” déployée sur Streamlit Cloud. Il suffit de lancer l’URL de l’application et, après un délai de réponse assez long dû aux serveurs de Streamlit Cloud, vous aurez accès à un l’interface qui vous permet de retranscrire vos fichiers MP3 ou, directement, la voix en texte à...

Approche exploratoire des techniques d’embedding et de centralité

Toute bonne chose a une fin… Il était temps de mettre un point final à cet article. Il s’agit ici d’une démarche exploratoire visant à croiser, pour l’analyse textuelle, plusieurs méthodes d’embedding de BERT, une analyse de similarité cosinus et une analyse de centralité (théorie des graphes). Ça fait déjà beaucoup de choses ! Dans l’analyse textuelle, il est...

BERT – Attention et embeddings pour l’analyse textuelle

Lorsqu’on parle des LLM (Large Language Models) comme BERT, on pense souvent à leur utilisation dans des chatbots ou des systèmes d’IA conversationnelle. L’objectif classique est alors d’entraîner ces modèles à générer des réponses optimales en ajustant les probabilités de succession des mots pour maximiser la cohérence des phrases. Ici, nous exploitons un “Large Language Model...

Stephane Admin