Entretien avec Antoine Courtin

«L’hackathon est une méthode de travail très intéressante pour mener des projets étudiants autour de la data»

Elie Petit : Pouvez-vous vous présenter ?

Antoine Courtin : J’ai rejoint l’Université Paris Nanterre en 2017 en tant que Maître de conférences associé. C’est un poste un peu particulier qui permet à l’université de proposer aux étudiants et étudiantes d’avoir pour enseignant des personnes issues de milieux professionnels. Les MAST, comme on les appelle par acronyme, n’ont pas l’obligation d’avoir une thèse, mais sont forts d’une expérience professionnelle dans le domaine qu’enseignent les autres membres du corps professoral. Ce contrat est de trois ans renouvelables. C’est dans ce cadre que je participe à l’offre pédagogique du Master DEFI, pour Documents Et Flux d’Informations, qui est l’un des trois Masters en Information-Communication que propose l’Université Paris Nanterre.

EP : Où exercez-vous à côté de l’université ?

AC : Mon enseignement et ma recherche ne sont pas, comme je l’ai dit, mon activité principale. Je suis depuis un an et demi chargé des projets numériques dans l’établissement public qui comprend le Musée d’Orsay et le Musée de l’Orangerie. Je participe à la mise en place de tous les aspects de l’informatique documentaire, de communication et d’édition numérique pour le futur centre de ressources et de recherche sur l’art du XIXᵉ siècle, qui ouvrira ses portes en 2027. C’est dans la préfiguration de ce projet que j’ai rejoint l’établissement. Auparavant, j’ai travaillé pendant 6 ans à l’Institut National d’Histoire de l’Art (INHA) en tant que chef du service numérique de la recherche.

 

EP : Quel est le contenu de l’enseignement que vous proposez aux étudiants ?

AC : Je donne actuellement plusieurs cours à des Masters 1 et à des Masters 2 dans le cadre du Master DEFI. Ces enseignements sont regroupés sous la bannière « Nature et structuration de l’information » pour la première année avec des aspects plus spécifiques autour des langages documentaires. En Master 2, le premier enseignement s’intitule « Gouvernance de l’information – Qualité et archivage ». On y évoque notamment ce que l’on appelle le Record Management, l’archivage électronique, mais également l’Open Data, ainsi que la question de la qualité des données et la confiance dans ces données. À l’heure où les données semblent être un nouvel Eldorado, nous y voyons ce que peut être une gouvernance de l’information et les changements qui y sont à l’œuvre. Un troisième cours se penche sur l’analyse des données et l’apport des visualisations de données dans une double approche, théorique et pratique, c’est-à-dire la représentation visuelle des données.

 

EP : Participez-vous à d’autres activités du Département Infocom ?

AC : En collaboration avec Antonin Segault, Marta Severo, Dario Compagno et Camille Claverie, je suis une des personnes qui intervient lors du séminaire MIP (Module Innovant Pédagogique).

L’année dernière, nous sommes partis d’une extraction de tweets autour des élections européennes fournis grâce à l’archivage ou plutôt la collecte réalisée par l’INA. C’est dans ce cadre que j’ai pris en charge un groupe qui s’intéressait à la communication des hommes politiques sur les questions liées à la Commission européenne. En partant de ce corpus de tweets, nous avons réalisé des analyses statistiques, linguistiques, accompagnées de méthodes de représentation visuelle, afin de mobiliser des compétences acquises lors des différents enseignements.

 

EP : Quelles sont les méthodes de travail ? Travaillez-vous avec les groupes de manière intensive ?

AC : L’hackathon est une méthode de travail très intéressante pour ce genre de projets particuliers. Je ne l’utilise que lors des MIP. Autrement, les cours s’échelonnent sur des enseignements de 3 heures répartis sur douze semaines. Je mets en place de nombreux exercices pratiques pour que les étudiants et étudiantes soient confrontés rapidement à la manipulation et l’analyse des données. Parce que dans ce domaine-là, il n’y a que par la pratique que l’on apprend correctement. Forcément, il y a une partie théorique et d’exposition à de bonnes pratiques face aux données. Mais rien ne vaut de se retrouver confronté à un fichier Excel à nettoyer, consolider, augmenter par des données tierces type Wikipédia, Wikidata, venues d’autres référentiels, pour ensuite réaliser une analyse pertinente, notamment grâce à la visualisation de données. À cela s’ajoute en M2 DEFI, toujours en collaboration avec Antonin Segault, Camille Claverie et Cécile Payeur, un projet de fin d’étude réalisé en groupe par les étudiants sur un sujet proposé par l’un des enseignants.

 

EP : Pour ce poste de MAST, êtes-vous tenu de mener une activité de recherche au sein du laboratoire Dicen-IDF ?

AC : Tout MAST doit normalement avoir une activité de recherche en lien avec le laboratoire. Pour ma part, je collabore avec des collègues qui font partie du Dicen-IDF (https://www.dicen-idf.org/), notamment sur la question des humanités numériques, autrement appelées Digital Humanities, à l’intersection entre l’Information-Communication et le monde des institutions culturelles (archives, bibliothèques, musées). Dans ce cadre, j’ai pu collaborer à des projets et j’ai publié plusieurs articles sur HAL, plateforme d’archives ouvertes (https://cv.hal.science/antoine-courtin). Enfin, j’ai coordonné un numéro de la revue Histoire de l’art consacré aux humanités numériques appliquées à l’histoire de l’art dont un compte-rendu a été publié très récemment dans la Revue Humanités numériques, revue de l’association Humanistica.

 

EP : Comment est-ce que ce poste nourrit votre expérience professionnelle et comment, inversement, votre expérience professionnelle nourrit-elle votre expérience d’enseignement ?

AC : C’est une jonction que j’apprécie tout particulièrement. Je trouve que c’est une expérience extrêmement riche, parce que cela m’oblige, d’année en année, à mettre à jour mes connaissances autour de la donnée, de son panorama intellectuel, légal, ainsi que les outils à notre disposition pour s’en emparer, qui changent quasiment tous les six mois. Par exemple, l’extraction de tweets est dépendante de l’API de Twitter qui a changé ses conditions d’utilisation de très nombreuses fois ces dernières années. Nous voulons toujours être à la page pour donner l’enseignement le plus actuel aux étudiants. Et mon positionnement professionnel me permet aussi d’aborder des cas très pratiques que je vois au quotidien pour en faire des cas d’études auprès des étudiants.

 

EP : Il est de plus en plus admis que la donnée porte avec elle des enjeux sociétaux et démocratiques de premier ordre. Comment abordez-vous cela dans vos cours ? Elle prend aussi une place de plus importante dans la communication et la création de contenus.

AC : Il y a une accélération ces dernières années sur la question de l’open data, la visualisation de données, de l’intelligence artificielle, etc. Mais tout cela s’inscrit dans une histoire longue : à titre d’exemple la visualisation de données n’est pas apparue avec le data journalisme très à la mode depuis une dizaine d’années mais on trouve des traces anciennes avec un essor fin XVIIIe et au XIXe siècle notamment avec des figures majeures comme William Playfair, Florence Nightingale, Joseph Minar, etc. Même les méthodes que l’on met en place actuellement s’inscrivent dans un historique de pratiques assez anciennes. J’insiste sur le fait que la donnée n’est pas magique. Il est important, notamment avec l’ère de l’IA, de se rendre compte des enjeux éthiques de la donnée, du digital labor, etc.. L’idée est vraiment d’aiguiser un aspect critique vis-à-vis de la transformation de la société avec l’émergence d’énormes corpus de données. Un de mes cours, en ce sens, porte, comme je le disais plus haut sur la qualité des données et la confiance dans les données. Nous nous posons ces questions depuis 200 ans. La donnée n’est pas neutre. À ce titre, les travaux d’une chercheuse américaine Joanna Drucker qui ont été traduits en français en 2020 peuvent apporter un éclairage pertinent. Elle propose ainsi de porter la notion de capta plutôt que de data, qui serait plus fidèle à son origine et son utilisation, à savoir une information capturée à un instant t, toujours selon une visée prédéfinie.

 

Mots-clés

Les dernières actus

17309476_10210269892277105_1856658790907238209_n_be8fbf82-9bc9-40b8-b695-d4f86d28a917
Autour de Trajectoires d'implication - Entretien avec Robin de Mourat
Dans cet entretien que Robin De Mourat a accordé au Culture Media Lab, il décrit la genèse et les enjeux du projet Trajectoires d'implication.
PIETROBRUNO PHOTOGRAPH -1(1) (2)
Entretien avec Sheenagh Pietrobruno
«La miniature est un motif incontournable dans la diffusion vidéo et le partage des contenus du patrimoine culturel»
photo cv n rieucau
Inventaire Condorcet : entretien avec Nicolas Rieucau
«La particularité de notre démarche est d’accorder une grande importance au support d’écriture, au support matériel, et en particulier aux filigranes pour des raisons de datation ou d’identification.»
20220308_180242 (1)
Wikipédia : entretien avec Lionel Barbe
«Wikipédia a démontré qu’un projet collaboratif ou participatif doit d’abord appartenir à ses utilisateurs et assumer qu’il prendra des directions qui n'ont pas forcément été prévues au départ.»