CatégoriePython

Extraction de commentaires YouTube via streamlit

X est devenu le repaire de la désinformation… Alors que Facebook ou Linkedin imposent une API payante pour récupérer leurs posts, il nous reste donc une source – certes également sujette à la désinformation, mais où l’expression demeure spontanée et authentique – celle des commentaires YouTube. Il faut bien l’avouer : certaines vidéos suscitent une avalanche de réactions ! Merci...

Speech-to-text avec whisper et streamlit cloud

J’ai adapté un script utilisant le modèle Whisper d’OpenAI en une solution « no code » déployée sur Streamlit Cloud. Il suffit de lancer l’URL de l’application et, après un délai de réponse assez long dû aux serveurs de Streamlit Cloud, vous aurez accès à un l’interface qui vous permet de retranscrire vos fichiers MP3 ou, directement, la voix en texte à partir...

Approche exploratoire des techniques d’embedding et de centralité

Toute bonne chose a une fin… Il était temps de mettre un point final à cet article. Il s’agit ici d’une démarche exploratoire visant à croiser, pour l’analyse textuelle, plusieurs méthodes d’embedding de BERT, une analyse de similarité cosinus et une analyse de centralité (théorie des graphes). Ça fait déjà beaucoup de choses ! Dans l’analyse textuelle, il est...

BERT – Attention et embeddings pour l’analyse textuelle

Lorsqu’on parle des LLM (Large Language Models) comme BERT, on pense souvent à leur utilisation dans des chatbots ou des systèmes d’IA conversationnelle. L’objectif classique est alors d’entraîner ces modèles à générer des réponses optimales en ajustant les probabilités de succession des mots pour maximiser la cohérence des phrases. Ici, nous exploitons un « Large Language Model (LLM) » non...

Analyse textuelle par similarité cosinus

Parmi les nombreuses approches utilisées dans le  traitement du langage naturel (NLP – Natural Language Processing), la mesure de la similarité cosinus permet de comparer des mots en fonction de leur proximité dans un espace vectoriel. Le script ci-dessous a été conçu avec un corpus test, issu d’articles récupérés via Europresse et formaté pour être compatible avec le logiciel...

Retranscription textuelle avec Whisper

YouTubeTranscript vs Whisper Lorsqu’il s’agit d’extraire la retranscription textuelle d’une vidéo YouTube, trois solutions principales se démarquent : YouTubeTranscript , Google speech to texte et Whisper. YouTubeTranscript ne fait que récupérer le texte généré par YouTube. Ce texte est souvent structuré comme des sous-titres, découpé en segments avec des horodatages, mais...

Extraire des images d’une vidéo YouTube

Rien de révolutionnaire dans ce script, mais il vous permettra d’extraire simplement les images d’une vidéo YouTube tournée à 25 images par seconde (standard Europe). Ces images pourront ensuite être utilisées par exemple pour des analyses comme la détection des émotions faciales, (cf. article 1 – article 2 – article 3). Bon, c’est un petit retour en arrière, mais...

Extraction et correction des NER avec SpaCy et JSON

Puisque nous nous situons dans le champ des sciences humaines et sociales (SHS), voici une brève description du corpus utilisé : il est composé de 23 articles de presse portant sur la déclaration de Gérald Darmanin dénonçant « un ratage » dans le suivi psychiatrique d’un suspect. Ce corpus a été formaté pour répondre aux exigences du logiciel IRaMuTEQ, car il me sert également de test dans le...

Initiation au Deep Learning avec le Dataset MNIST

Introduction au Dataset MNIST Le dataset MNIST est une référence incontournable dans le domaine du machine learning et de la vision par ordinateur. Il contient des images manuscrites des chiffres de 0 à 9, chacune en niveaux de gris et de (très) petite taille (28×28 pixels). Les données sont réparties en 60 000 images d’entraînement et 10 000 images de test, et sont principalement...

Analyse des émotions dans la voix avec un modèle Speech Emotion Recognition (SER)

En développant un modèle de reconnaissance des émotions par la voix (SER, pour Speech Emotion Recognition), je n’ai pas choisi la voie la plus simple pour me familiariser avec les modèles de deep learning et l’intégration de la couche de traitement « audio » dans une approche multimodale. Pourquoi ? Parce que, comparée à des domaines comme la reconnaissance faciale, la précision des modèles basés...

Stephane Admin