Nouvelles

— Doctoral researcher at the Digital Humanities Institute, EPFL. Lausanne, Switzerland.

Digital Methods Winter School à l'UvA

À l'Université d'Amsterdam aux Pays-Bas, le Prof. Richard Rogers a créé l'initiative "Digital Methods" pour constituer des groupes de recherche multidisciplinaires, provenant des différentes universités. Le programme Digital Methods a lieu chaque été et chaque hiver à Amsterdam. Cette initiative a pour but de développer des stratégies de recherche pour étudier le Web dans l’optique d’analyser des phénomènes sociaux pour les sciences sociales et les sciences humaines. Leur approche consiste à réutiliser et à donner une autre fonction aux outils et aux méthodes actuellement disponibles en ligne. Par exemple, le moteur de recherche de Google est utilisé pour extraire les suggestions et les tendances les plus consultées par les utilisateurs sur une thématique sociale, le changement climatique. En outre, les hashtags de Twitter sont quantifiés et analysés pour mesurer les émotions exprimées sur un événement politique, les dernières élections américaines.

Sur la base d'une théorie ancrée (Grounded Theory), pour l’initiative Digital Methods il s'agit d'analyser les effets du médium dans le but de comprendre des problématiques sociales et culturelles, ainsi que leur condition et leurs changements. Ces méthodes encouragent les études des plates-formes d'une manière transversale (cross-platform studies) avec des méthodes en ligne et hors ligne. Elles se focalisent en particulier sur les données nées digitales (born digital data) tout en prenant en compte certains risques spécifiques au Web pour analyser un sujet: la discontinuité des plates-formes, leur courte vie existentielle, l'évolution rapide du médium et son instabilité.

Pourquoi ai-je participé à l'école d'hiver?

Le sujet de cette session d'hiver avait pour titre: Doing things with Data Infrastructures. En consultant le site internet de Digital Methods et en lisant la présentation du sujet, il s'agissait d'étudier les systèmes informatiques avec leurs infrastructures des données. En effet, ils permettent de relever l’action sociale et de montrer les manières de voir le monde à travers l'expérience en ligne. Les API (Application Programming Interface) dans les réseaux sociaux sont le terrain d’étude privilégié par les Digital Methods. Je me suis particulièrement intéressée aux questions que cette initiative se posait. Sur les plates-formes digitales: quelles données peut-on collecter? Qu'est-ce qui est rendu disponible/visible? Comment les analyser ? Les objectifs des Digital Methodes étaient premièrement de produire des diagnostiques critiques en examinant des champs de données disponibles sur le Web et les outputs des moteurs de recherche (query machines) tout en prenant en compte ses limitations. Secondement, il était important de donner une autre fonction aux Data Infrastructures et de produire des narrations sur les usages actuels dominants de ces plates-formes.

Quand j'ai consulté les profils des chercheurs et des chercheuses travaillant pour les Digital Methods, j'ai vite été attirée par leur expérience. Certains et certaines ont plus attiré mon attention : Esther Weltevrede qui s'intéresse aux Algorithms and Softwares Studies, Erik Borra qui cartographie des controverses à partir d'une approche latourienne, Bernhard Rieder qui est un programmeur des outils informatiques pour les sciences sociales et aussi chercheur focalisé sur le rôle des algorithmes dans des processus sociaux et dans la production des connaissances. Et enfin, Fernando Van der Vlist qui a publié un article (à lire !) sur les pratiques de Big Data de Facebook en se focalisant sur la commensuration. Cette thématique est étroitement liée à mes intérêts de recherche.

Déroulement du programme à l'école d'hiver des Digital Methods, mon expérience personnelle:

Quelques semaines avant de commencer, j'ai téléchargé/installé des outils développés ou recommandés par les Digital Methods. Je me suis entraînée pour: TCAT (attention: ne fonctionne pas très bien avec Windows et il faut collecter une base des données en amont de votre analyse), TRIANGULATE, HARVESTER, NETIZZ, GEPHI, THE GOOGLE SCRAPER OU LIPPMANN DEVICE, ISSUE CRAWLER et encore, d'autres plug-ins pour Mozilla. Le tout avec des vidéos YouTube publiées par l'équipe. J'ai aussi lu de nombreuses références (articles et livres) conseillées par l'équipe de Digital Methods.

En fait, j'avais la pression de rencontrer une équipe si talentueuse donc je me suis plongée dans la lecture et dans la révision d'autres références que j'avais déjà lues auparavant. Avec ma valise pleine de feuilles et avec un ordinateur, je me suis envolée aux pays des Tulipes et bien d'autres choses...

Le premier jour, sous la pluie et le vent d'Amsterdam, je me suis retrouvée en face de l'Université: j'ai traversé un couloir intéressant avec des commerçants de livres d'occasion et avec de nombreux vélos qui circulaient. Ce n'était pas évident de retrouver la salle du RDV mais après quelques minutes j'y étais avec une centaine de participant.e.s venant des différents coins du monde.

- Première partie de la séance:

On nous a accueillis avec un discours de bienvenue et une introduction au programme de la part du Prof. Richard Rogers. Ensuite, il y a eu des interventions d'autres personnalités du monde académique sur les Data Infrastructures. Je vous parlerai brièvement des deux premières présentations. En premier lieu, le Prof. Geoffrey Bowker a abordé des points qui touchent mes intérêts de recherche dans sa présentation intitulée Data Citizen: Big Data, Internet of things, Prediction et Contrôle des algorithmes, Data analytics, Invisibilité et complexité des Infrastructures. Ensuite, Shannon Mattern, Professeure Associée @ the School of Media Studies à New York a parlé de ses domaines de spécialisation: les archives, les espaces médias et les infrastructures médias. Sa présentation était historique et très détaillée sur les structures d'informations. Elle a parlé des bibliothèques et d'autres sortes d'archivage dans les années 60 jusqu'à la conception actuelle de Big Data. Elle a abordé, entre autres, la matérialité et le design des espaces, la discipline et les méthodes d'archivage: Small, Moving Parts. A Century of Fairs, Fiches, and Fantasies.

- Seconde partie de la séance:

Présentation des projets auxquels on pouvait s'intégrer: j'ai choisi la 7e option.

Les raisons du choix: la plupart des projets abordaient la politique et les élections américaines (c'était déjà explicité dans le programme de l'école) et ils se sont focalisés sur l'étude des réseaux sociaux. Non, en fait: ils se sont focalisés sur le contenu produit sur Twitter ou Facebook. D'autres projets avec une thématique différente: numéros 5 et 6 attiraient mon attention. Mais de nouveau, ils se focalisaient sur le contenu disponible sur des sites internet ou des applications comme l'Apple Store. Je voulais joindre une équipe qui étudierait plus le noyau fonctionnel des plates-formes. Et là, j'ai eu un coup de cœur avec le projet « Code Historiographer » composé d'un scientifique et d'un programmeur qui venait de quitter le monde commercial (voyez-vous la connexion avec mon parcours?), ce projet était parfait pour moi!

Les objectifs du projet Code Historiographer:

1. Commencer à développer un outil de navigation pour la recherche historique du code dans le Web.

2. Retrouver les premières pistes sur l'histoire du commentaire sur les blogs et sur d'autres sites. Quels sont les changements de la fonction du texte et paratexte qui ont eu lieu sur le Web les 20 dernières années? Comment ont-elles changé les stratégies de protection au trolling/spamming les 20 dernières années? Est-ce que les changements dans le code peuvent être considérés comme un indicateur de problèmes? 

Développement du projet:

J'étais dans une salle à l'UvA avec une petite équipe où l'on développait un nouvel outil pour analyser les différentes versions des codes de programmation sur les sites internet. Le but était de comprendre les changements dans des espaces de communication (comme les boîtes des commentaires) sur des blogs ou sur des journaux afin d'analyser la pratique du trolling dans de futures recherches. On était 5 personnes (ce qui était superbe, car dans les autres groupes il y avait une moyenne de 15) avec des qualités complémentaires. Johannes Passmann, docteur et chercheur à l'Université de Siegen en Allemagne, nous a guidés tout au long du projet en nous laissant une grande libérté. J'ai particulièrement apprécié comment Johaness transmettait ses connaissances sur la praxéologie et la théorie ancrée avec une personnalité calme. Il expliquait son point de vue, écoutait et prenait en compte l'opinion et les idées de tous et toutes. Jörn Preuss, le développeur et geek par excellence. Concentré devant son ordinateur, il était toujours prêt à mettre en pratique ce qui avait été discuté et convenu entre tous. Il posait autant les problèmes de développement rencontrés que les meilleures solutions. Jörn est sans doute une pièce fondamentale dans le puzzle de Johannes. Alex Piacentini, designer qui connaît du code (un super pouvoir chez les professionnels de l'art), a créé la data visualisation pour les résultats affichés du nouvel outil. D'un air décontracté, il mettait nos idées sur la balance pour qu’on trouve ensemble le bon équilibre. Et enfin, Emilie de Keulenaar, qui nous a enrichis avec son bagage multiculturel et ses connaissances en histoire, en politique et en New Media and Digital Culture. Emilie est très positive et de manière méticuleuse, elle a compilé toute l'information produite lors de notre séjour à Amsterdam pour la transcrire.

Les résultats:

Un logiciel a été créé. Le Code Historiographer a pour avantage de fournir aux chercheurs des données qui constituent le noyau central d'une plate-forme afin de répondre aux différentes questions sur les pratiques sociales dans les médias. Dans cette première phase de développement, il est capable d'analyser les éléments <form> présents dans les différentes versions du code d'un site internet. Le code est extrait depuis Wayback Machine's archives qui stocke des snapshots d'une multitude de sites. Pour les tests, nous nous sommes penchés sur un article du site saschalobo.com qui appartient à un blogueur allemand, provocateur des polémiques. Un terrain fertile pour mieux observer les différentes manières de commenter sur un site et les possibles techniques anti-spamming appliquées.

Pour ce projet, nous avons abordé la question du trolling qui pourrait se développer dans les différents éléments de commentaires sur les sites. C’est pourquoi nous avons analysé uniquement l’élément <form> sur un journal. Néanmoins, cet outil pourrait s’utiliser dans l’avenir pour explorer bien d’autres questions ainsi que d’autres éléments dans le code de programmation de toute sorte de sites internet.

En parallèle au développement de l'outil, nous avons recensé un corpus d'une centaine d'URL's où le trolling aurait pu prendre place. Une première analyse exploratoire des différentes versions du code de plusieurs sites nous a permis d'observer certains changements pertinents. Sur les blogs et les journaux en ligne, les utilisateurs ont changé leur manière de s’exprimer ou de communiquer. Ils sont basculés du contact à l'éditeur d'un article par mail aux boîtes des commentaires à la fin d’un article. Ces boîtes de commentaires sont souvent connectées aux réseaux sociaux comme Facebook et elles contiennent des plug-ins anti-spamming, par ex. Akismet, créé pour Wordpress.

Mon opinion globale sur l’école d’hiver

Les points positifs:

  • Le travail en équipe dans le programme est très riche, car on échange avec des différents corps de métiers : designers, programmeurs, scientifiques. Ce qui est actuellement rare quand on est dans le champ des sciences sociales.
  • En une semaine, on produit des résultats qui permettent d’avancer de nouvelles méthodes pour étudier le Web dans les sciences sociales.
  • On construit un réseau international avec des professionnels ou étudiant.e.s passionné.e.s.
  • Quand on étudie le Web dans les sciences sociales, il est utile d’apprendre des nouvelles stratégies de recherche. La collecte et l’analyse des données numériques sont des points auxquels on doit faire beaucoup attention étant donné la volatilité des plates-formes.
  • J’ai découvert de nouveaux scientifiques et leur littérature. J’ai appris beaucoup plus sur les Data Infrastructures avec le bon répertoire des références proposé par les Digital Methods.
  • La cerise sur le gâteau : on visite Amsterdam autrement. Une ville exceptionnelle.

 

Les moins positifs:

  • Il n’y a pas de débat collectif ou de discussions collectives sur les résultats des projets. Le programme finit le dernier jour avec un après-midi de présentations très court de chaque groupe. Je trouve cela dommage, car si chacun de nous s’est préparé en amont grace aux belles références fournies sur le travail scientifique de l’équipe de Digital Methods, on aurait pu en conclure des belles réflexions ensemble.
  • Le sujet était Data Infrastructures, mais je n’ai pas l’impression que cela a été clairement abordé par chaque équipe. Ou puisqu’on n’a pas pu échanger avec les autres équipes à la fin, cela n’a pas été mis en valeur.
  • J’étais déçue de ne pas avoir retrouvé les intérêts de recherche des chercheurs qui ont attiré mon attention au début du programme. Je n’ai pas pu alors aborder des questions qui m’intéressent sur les Data Infrastructures.
  • Les projets étaient très similaires et j’attendais plus de variété.
  • Il me paraît plus intéressant d’aller au programme de Digital Methods en proposant un projet. On pourrait ainsi aboutir à un article après avoir réalisé le travail pratique. Il paraît qu’à la session d’été il y a une autre dynamique. En outre, les chercheurs peuvent soumettre une esquisse d’article pour discuter en groupe et le faire avancer pendant la session d’hiver. J’ai appris cela en discutant avec le Prof. Rogers, mais cela n’a pas été explicité (ou je n’ai pas trouvé l’info) sur le site ou sur les documents envoyés après l’inscription au programme.
  • On ne pratique pas vraiment les outils développés par les Digital Methods. C’est vrai que j’étais dans une équipe où il s’agissait de créer un nouveau logiciel, mais dans les autres projets, vu le nombre de participants, je ne pense pas que l’utilisation de ces logiciels était très importante. Il y a des développeurs dans chaque groupe et les leaders ont l’expertise nécessaire. C'est vrai que cela n'est pas l'un des buts du programme et on peut apprendre sur les logiciels depuis chez soi avec les références fournies et les tutoriels sur YouTube. Mais, dans la pratique chez soi, on rencontre des difficultés avec plusieurs outils et personnellement j'aime l'interaction humaine en complément à l'apprentissage digitale.