1. médialab Sciences Po
  2. Actualités
  3. MetAt - Journal de bord du 12 septembre 2023

MetAt - Journal de bord du 12 septembre 2023

Partager nos savoir-faire et pratiques méthodologiques.

Rendez-vous, Atelier

Qu’est-ce que le METAT ?

Le METAT est un atelier d’accompagnement aux méthodes de recherche : chaque mois, un créneau de trois heures pour vous aider à résoudre les difficultés d’ordre méthodologique que vous rencontrez dans le cadre d’un projet scientifique. 

À qui s’adresse le METAT ?

Le METAT s’adresse à toute personne souhaitant être accompagnée ponctuellement pour l’utilisation d’un outil ou d’une méthode de recherche. Tous les profils sont les bienvenus : étudiant-e-s, doctorant-e-s, chercheur-e-s, métiers de l’ingénierie de recherche ou autre, internes et externes à Sciences Po, sans restriction de statut ou d’affiliation.

Comment s’inscrire ?

L’inscription est obligatoire via le formulaire disponible sur la page du METAT

Séance du 12/09/2023

Lieu : Sciences Po

Encadrant·e·s : Yuma Ando, Benjamin Ooghe-Tabanou, Guillaume Plique, Audrey Baneyx, Blazej Palat, Maxime Crépel, Béatrice Mazoyer, Robin de Mourat, Marion Frelat

Constitution d’une base d’articles en .csv

Accompagnement d’un·e chargé·e de projet pour créer une base d’articles produits par des personnels scientifiques en .csv, à partir d’un site internet. La première étape a été de créer une liste d’auteurs, faisant office d’entités à retrouver dans le texte des exports. La seconde étape a été d’accompagner le·la participant·e pour créer deux scripts permettant de nettoyer les exports, et un troisième pour détecter la présence des entitées nommées dans les textes bruts. 

Crawling de sites internet de cabinets de conseil

Deuxième accompagnement d’un·e doctorant·e souhaitant construire une liste de toutes les pages ayant certains mots-clefs dans leurs titres, puis extraire le contenu de ces pages, à partir d’une base de noms de domaines déjà existante. L’accompagnement a pris la forme d’une formation au crawl Minet et à l’écriture d’un crawler dédié pour parcourir une liste d’environ 500 sites web de cabinets de conseil. Une discussion méthodologique et une formation au scraping de titres de pages web et d'extraction de contenu textuel brut a également été dispensée. 

Bibliométrie et visualisation de réseaux bipartites

Premier accompagnement d’un·e doctorant·e souhaitant exploiter des données issues de Scopus et Web of Science pour visualiser des réseaux de co-citations ou des réseaux mots clés - auteurs. Les encadrant·e·s ont proposé l’usage de Table2Net et de Scienscape, puis des outils de visualisation Nansi et Gephi. Une démonstration de Takoyaki et Open refine a également été effectuée pour identifier des termes proches et nettoyer plus facilement les nœuds d’un graphe. Les prochaines étapes seront de mettre au propre les différentes phases de la méthodologie comprenant les nécessaires moments de nettoyage des données et de s’approprier l’écosystème des outils proposés.

Analyse de données quantitatives et qualitatives

Premier accompagnement d’un·e doctorant·e souhaitant construire une base d’articles issus de médias français contenant certains mots clés. La première étape de l’accompagnement a consisté en une discussion méthodologique sur le nombre d’articles que devait contenir la base, ainsi que sur la définition des mots clés et la temporalité. Puis un protocole a été élaboré et des tests ont été effectués sur Factiva et Europress. Un travail de traitement des données sur Cortext pourra avoir lieu après avoir constitué un jeu de données d’environ 10 000 articles.