APRIL

S'abonner à flux APRIL
L'April a pour objectifs de promouvoir et défendre le logiciel libre et ses acteurs.
Mis à jour : il y a 29 min 10 sec

Lettre d'information publique de l'April du 1er septembre 2020

mar, 09/01/2020 - 07:03

Bonjour,

C'est jour de rentrée aussi pour notre émission « Libre à vous ! ». Le sujet principal de l'émission de ce mardi concernera l'éducation. Découvrez les bandes-annonces de présentation de cette saison 4. Pour ne rien rater, vous pouvez vous abonner au flux du podcast, ainsi qu'à la lettre d'actus.

Sylvain Kuntzmann, bénévole à l'April, s'occupait du traitement des podcasts mais il ne peut plus assurer cette tâche. Un grand merci à lui pour son aide. Nous recherchons des bénévoles pour aider au montage audio des podcasts. N'hésitez pas à diffuser notre appel.

Des nouvelles encourageantes côté informatique hospitalière. La CAIH (Centrale d'Achat de l'Informatique Hospitalière) vient de lancer un appel d’offres en vue de proposer des logiciels libres à ses 1200 membres établissements de santé.

La Fondation pour le Logiciel Libre (FSF) a a annoncé la nomination de Geoffrey Knauth comme nouveau président. La FSF accueille également une nouvelle membre au sein de son conseil d'administration en la personne d'Odile Benassy, membre de longue date de l'April. Odile porte d'ailleurs fièrement un t-shirt April sur la page d'annonce de la FSF. Toutes nos félicitations à Geoffrey et à Odile.

Vous pouvez contribuer aux actions de notre groupe de travail Sensibilisation qui a continué ses actions cet été. Le groupe travaille notamment actuellement sur « Le jeu du Gnou » (jeu coopératif et pédagogique) et sur un « Quiz enjeux de l'informatique ». Vous pouvez relire les propositions de questions et réponses, voire en proposer de nouvelles. Toutes les informations utiles pour contribuer sont disponibles sur la page wiki du groupe.

Nous profiterons de la rentrée pour avancer sur la mise en place des sites web l'un dédié aux transcriptions et l'autre à l'émission « Libre à vous ! ». Si vous souhaitez aider à la mise en place de ces deux sites, sous Spip, vous pouvez vous inscrire sur la liste de travail.

Concernant la rentrée universitaire, l'April interviendra les 31 août 2020 et 2 septembre à l'université de Calais dans le cadre du Master I2L (Ingénierie du Logiciel Libre) sur le thème : « Logiciel libre : droit d’auteur, licences, communautés et enjeux de société ».

Si les conditions sanitaires le permettent, une nouvelle édition de la Fête des Possibles, organisée par le Collectif pour une Transition Citoyenne, aura lieu du 12 au 27 septembre 2020 partout en France et en Belgique. Une belle occasion de montrer que « c'est possible » d'utiliser des logiciels libres et de sensibiliser un plus large public !

Le groupe Transcriptions vous offre dix-sept nouvelles transcriptions.

Consultez la lettre publique ci-dessous pour toutes les autres informations et notamment la revue de presse qui propose une trentaine d'articles.

Je vous souhaite une belle rentrée.

Librement,
Frédéric Couchet
délégué général de l'April.

Si vous voulez nous soutenir, vous pouvez faire un don ou adhérer à l'association.

Libre à vous ! fait sa rentrée

L'émission Libre à vous ! sera de retour mardi 1er septembre 2020 de 15 h 30 à 17 h puis en podcast.

Découvrez la bande-annonce de présentation de cette saison 4.

Vous pouvez vous abonner au flux RSS compatible avec la baladodiffusion (podcast) pour recevoir automatiquement les épisodes dès leur mise en ligne.

Pour tout savoir concernant l'émission, n'hésitez pas à vous inscrire à la lettre d'actualités : annonce des podcasts, des émissions à venir et de toute autre actualité en lien avec l'émission.

Appel d'offres de la Centrale d'Achat de l'Informatique Hospitalière sur le logiciel libre

La CAIH (Centrale d'Achat de l'Informatique Hospitalière) vient de lancer un appel d’offres afin de proposer des logiciels libres à ses 1200 membres établissements de santé. C'est une bonne nouvelle et l'April encourage les entreprises du Llibre à se saisir de cette opportunité. Date de clôture de cet appel d'offres : 25 septembre 2020 à 12 h 30.

toc_collapse=0; Sommaire 
  1. Libre à vous ! fait sa rentrée
  2. Appel d'offres de la Centrale d'Achat de l'Informatique Hospitalière sur le logiciel libre
  3. Dossiers, campagnes et projets
    1. La Fête des Possibles de retour en 2020 ! Du 12 au 27 septembre en France et en Belgique
    2. Contribuer aux projets du groupe de travail Sensibilisation
    3. Besoin d'aide pour le montage audio des podcasts de Libre à vous !
    4. Mise en place de sites web dédiés aux transcriptions et à Libre vous !
    5. Dix-sept nouvelles transcriptions
    6. Revue de presse
  4. Conférences, événements
    1. Événements à venir
  5. Vie associative
    1. Revue hebdomadaire
    2. Adhésions
  6. Soutenir l'association
  7. Rejoindre l'association à titre individuel
  8. Rejoindre l'association en tant que personne morale
  9. Archives
Dossiers, campagnes et projets La Fête des Possibles de retour en 2020 ! Du 12 au 27 septembre en France et en Belgique

Une nouvelle édition de la Fête des Possibles, organisée par le Collectif pour une Transition Citoyenne, aura lieu du 12 au 27 septembre 2020 partout en France et en Belgique (si les conditions sanitaires le permettent). Des centaines d'événements permettront de faire connaître les initiatives locales et les solutions concrètes qui contribuent à construire un avenir plus durable et solidaire. Nous invitons toutes les personnes et structures ayant à cœur la promotion du logiciel libre à proposer un ou plusieurs rendez-vous dans le cadre de la Fête des Possibles.

Contribuer aux projets du groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre. Le groupe travaille notamment actuellement sur « Le jeu du Gnou » (jeu coopératif et pédagogique) et sur un « Quiz enjeux de l'informatique » (questions autour du logiciel libre, les licences libres, etc). Le groupe organise régulièrement des réunions de travail à distance.

Toutes les informations utiles pour contribuer sont disponibles sur la page wiki du groupe.

Besoin d'aide pour le montage audio des podcasts de Libre à vous !

Dans le cadre de notre émission Libre à vous ! un point important concerne la post-production, le traitement des podcasts. Les podcasts resteront en effet la mémoire et la trace des émissions, c'est pour cela qu'il faut apporter un soin particulier à leur traitement avant la mise en ligne. Pour la saison 3, le traitement était fait principalement par Sylvain Kuntzmann, bénévole à l'April, que nous remercions chaleureusement, mais Sylvain ne peut plus assurer cette tâche Récemment une seconde personne donnait un coup de main, cependant, nous recherchons au moins une personne supplémentaire ce qui permettrait de répartir la charge de travail. N'hésitez pas à diffuser notre appel pour aider au montage audio des podcasts ou à nous contacter si vous avez de l'expérience, des compétences.

Mise en place de sites web dédiés aux transcriptions et à Libre vous !

Nous avons souhaité mettre en place deux sites web dédiés : l'un aux transcriptions réalisées par le groupe Transcriptions et l'autre dédié à l'émission Libre à vous !. Le travail a bien avancé, les plans de site et design pour les deux sites ont été définis. Les sites seront sous Spip, la mise en place est en cours. Toute aide est la bienvenue. Si vous avez des connaissances,notamment en Spip, n'hésitez pas à vous inscrire sur la liste de travail.

Dix-sept nouvelles transcriptions

Le groupe Transcriptions de l'April vous offre de la lecture avec dis-sept nouvelles transcriptions :

Revue de presse

La revue de presse fait partie du travail de veille mené par l'April dans le cadre de son action de défense et de promotion du Logiciel Libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l'April.

Pour gérer cette revue de presse, un groupe de travail a été créé (vous pouvez en consulter la charte) ainsi qu'une liste de discussion rp@april.org où vous pouvez envoyer les liens vers des articles qui vous semblent intéressants.

La revue de presse est désormais également diffusée chaque semaine sur le site LinuxFr.org. Cette diffusion lui offre un lectorat plus large.

Il existe un flux RSS permettant de recevoir la revue de presse au fur et à mesure (rapidement et article par article donc).

Les derniers titres de la revue de presse :

Un Petit guide de la revue de presse est disponible pour celles et ceux qui souhaiteraient contribuer.

Voir la page revue de presse sur le site pour le détail des articles.

Conférences, événements Événements à venir
  • Intervention de François Poulain, administrateur de l'April dans le Master Ingénierie du Logiciel Libre (I2L) à Calais les 31 août et 2 septembre 2020.
Vie associative Revue hebdomadaire

Chaque vendredi, à midi pile, les permanents et les adhérents qui le souhaitent passent en revue les tâches et actions relatives à l'April dont ils ont la charge lors de la « revue hebdomadaire April » sur IRC (canal #april sur irc.freenode.net, accès avec un navigateur web). La durée est limitée, généralement un quart d'heure. Cela stimule les bonnes volontés, suscite des idées et des contributions, permet de suivre les activités des uns et des autres et éliminer un certain nombre de problèmes bloquants.

Une page décrivant le principe d'une revue hebdomadaire est en ligne.

Vous pouvez en savoir plus en consultant en ligne les archives des premières revues hebdomadaires, et notamment la synthèse de la revue du 3 juillet 2020, la synthèse de la revue du 10 juillet 2020, la synthèse de la revue du 31 juillet 2020, la synthèse de la revue du 7 août 2020, la synthèse de la revue du 14 août 2020, la synthèse de la revue du 21 août 2020, la synthèse de la revue du 28 août 2020.

Adhésions

Au 1er septembre 2020, l'association compte 3 959 membres (3 652 personnes physiques, 307 personnes morales).

Soutenir l'association

L'April a besoin de votre aide. Vous pouvez faire un don à l'association et participer ainsi au financement de nos actions.

Pour faire un don à l'association, rendez-vous à l'adresse suivante https://www.april.org/association/dons.html (il est possible de faire un don par chèque, virement, carte bancaire ou encore prélèvement automatique).

Pour tout renseignement n'hésitez pas à nous contacter.

Rejoindre l'association à titre individuel

Dans une association, l'adhésion est un acte volontaire. C'est aussi un acte politique car c'est manifester son soutien à l'objet de l'association ainsi qu'aux valeurs qui le sous-tendent. Une adhésion fait la différence en contribuant à atteindre les objectifs de l'association.

Adhérer à l'April permet :

  • de défendre collectivement un projet de société ;
  • de s'investir activement dans la vie de l'association à travers ses groupes de travail et ses actions ;
  • d'être informé régulièrement des événements logiciel libre ;
  • d'agir sur les institutions à travers un partenaire incontournable ;
  • de soutenir financièrement les actions de l'association.

Il est possible d'aider l'association en lui donnant de son temps ou de son argent. Toutes les contributions sont les bienvenues.

Pour les hésitants, nous avons mis en ligne les réponses à de fausses idées classiques.

Pour adhérer à l'April, vous pouvez remplir le formulaire en ligne.

Pour tout renseignement, n'hésitez pas à nous contacter.

Rejoindre l'association en tant que personne morale

Que vous soyez une entreprise, une collectivité ou une association, adhérez pour participer activement aux décisions stratégiques qui vous concernent !

Votre structure a besoin de tirer le meilleur parti du logiciel libre et pour défendre ses intérêts, elle doit :

  • exercer une veille permanente pour se tenir informée des opportunités et des menaces ;
  • constituer et entretenir des réseaux relationnels institutionnels ;
  • être éclairée sur les contextes juridiques et stratégiques ;
  • contribuer à la défense de l'informatique libre face aux acteurs qui lui sont hostiles ;
  • mieux faire connaître et valoriser son action.

April est au cœur des grandes évolutions du logiciel libre. Adhérer à April permet :

  • de défendre collectivement un projet de société ;
  • de s'investir activement dans la vie de l'association à travers ses groupes de travail et ses actions ;
  • d'être informé régulièrement des événements logiciel libre ;
  • d'agir sur les institutions à travers un partenaire incontournable ;
  • de financer ou cofinancer des actions stratégiques.

Pour adhérer à l'April, il suffit de vous rendre à l'adresse suivante : adhérant dès maintenant à l'April.

Pour tout renseignement n'hésitez pas à nous contacter.

Archives

Pour recevoir automatiquement par courriel cette lettre, inscrivez-vous à la liste de diffusion

Les archives de la lettre sont disponibles en ligne.

Revue de presse de l'April pour la semaine 35 de l'année 2020

lun, 08/31/2020 - 20:50

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Silicon] Open source: quelle place pour la sécurité?

✍ Clément Bohic, le mercredi 26 août 2020.

Comment appréhender la sécurité de l’open source? Sonatype donne des éclairages à la fois quant au développement de projets et à leur réutilisation.

[korii.] Des milliards d'appareils connectés dépendent d'un seul Suédois

Le mardi 25 août 2020.

D’innombrables infrastructures informatiques reposent sur des bénévoles travaillant en open source.

[Houssenia Writing] La mort de Firefox est une bonne chose

✍ Houssen Moshinaly, le mardi 25 août 2020.

Certains annoncent la mort de Firefox à cause de licenciements massifs chez Mozilla et la concentration sur des services payants. Mais c’est sans doute la meilleure chose qui puisse lui arriver.

[LeMagIT] Open Source: Rust aura bientôt le droit à sa propre fondation

✍ Gaétan Raoul, le lundi 24 août 2020.

En retour de flammes de la restructuration de Mozilla, l'équipe en charge du projet Rust précipite la création d’une fondation open source dédiée au langage de programmation dont les portes ouvriront idéalement à la fin de l’année. Une décision qui ne doit pas remettre en question l’attrait de Rust auprès des développeurs.

Besoin d'aide pour le traitement des podcasts de « Libre à vous ! »

lun, 08/31/2020 - 12:51

Nous avons besoin d'aide pour aider dans la tâche de traitement des podcasts de notre émission Libre à vous !.

Dans le cadre de notre émission Libre à vous !, diffusée sur la radio Cause Commune, un point important concerne la post production, le traitement du podcast.

Les podcasts resteront en effet la mémoire et la trace des émissions. C'est pour cela qu'il faut apporter un soin particulier à leur traitement avant la mise en ligne.

Cette phase de traitement consiste notamment à supprimer les bruits parasites de l'environnement, les bruits de bouche, équilibrer les voix et les musiques, réduire les silences, retirer les « heu ! »…

Pour la saison passée, le traitement était fait principalement par Sylvain Kuntzmann, bénévole à l'April. Récemment, une 2e personne, Antoine, a commencé à traiter des podcasts. Pour cette rentrée de septembre, Sylvain ne peut plus assurer cette action de traitement des podcasts. Nous le remercions chaleureusement pour l'aide qu'il a apporté.

Nous aurions donc besoin d'avoir au moins une personne en plus, ce qui permettrait de répartir le travail. Par exemple, avec au moins deux personnes disponibles pour traiter le podcast chaque personne pourrait ne s'occuper du podcast qu'une semaine sur deux. Sylvain et Antoine sont bien sûr disponibles pour expliquer les détails du traitement du podcast.

Si vous avez de l'expérience, des compétences, des idées n'hésitez pas à nous contacter.

Le podcast de l'émission est également découpé en plusieurs podcasts par sujets individuels (d'une dizaine de minutes à une heure). Pour écouter les podcasts de l'émission :

« Libre à vous ! » sur radio Cause Commune (1er septembre 2020)

lun, 08/31/2020 - 09:26
Start: 1 Septembre 2020 - 15:30End: 1 Septembre 2020 - 17:00

Réécouter en ligne

Lire la transcription

-->

72e émission Libre à vous ! de l'April en direct sur radio Cause Commune 93.1 FM en Île-de-France, et sur le site web de la radio, mardi 1er septembre 2020 de 15 h 30 à 17 h. Le podcast de l'émission et les podcasts par sujets traités sont disponibles dès que possible, quelques jours après l'émission en général.

Au programme :

  • notre sujet principal : syndicats de l'éducation et logiciel libre, avec Jean-François Clair du SNES-FSU et Renaud de Colombel du Sgen-CFDT. Le sujet a été exceptionnellement enregistré en avance.
  • les nouveautés de la saison 4 de l'émission
  • la chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi, animatrice du groupe Transcriptions et administratrice de l'April

Nous contacter pour poser une question :

Intervenir pendant le direct (mardi 1er septembre 2020 de 15h30 à 17h00) :

Écouter le direct mardi 1er septembre 2020 de 15 h 30 à 17 h 00   S'abonner au podcast

Les ambitions de l'émission Libre à vous !

La radio Cause commune a commencé à émettre fin 2017 sur la bande FM en région parisienne (93.1) et sur Internet. Sur le site de la radio on lit : « Radio associative et citoyenne, les missions de Cause Commune sont de fédérer toutes les initiatives autour du partage et de l’échange de savoirs, de cultures et de techniques ».

Nous avons alors proposé de tenir une émission April intitulée Libre à vous ! l'émission pour comprendre et agir avec l'April — d'explications et d'échanges concernant les dossiers politiques et juridiques que l'association traite et les actions qu'elle mène. Une partie de l'émission est également consacrée aux actualités et actions de type sensibilisation. L'émission Libre à vous ! est principalement animée par l'équipe salariée de l'April mais aussi par des membres bénévoles de l'association et des personnes invitées. Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi proposer des moyens d'action, tel est l'objectif de cette émission hebdomadaire, qui est diffusée en direct chaque mardi du mois de 15 h 30 à 17 h.

Les archives de l'émission

Écouter les émissions précédentes

Intervention de l'April dans le Master I2L le 31 aout 2020

sam, 08/29/2020 - 17:42
Start: 31 Août 2020 - 09:30End: 31 Août 2020 - 16:30

François Poulain, administrateur de l'April, interviendra le 31 août 2020 à l'université de Calais dans le cadre du Master I2L (Ingénierie du Logiciel Libre) sur le thème : « Logiciel libre : droit d’auteur, licences, communautés et enjeux de société ». La deuxième partie du cours est prévue le mercredi 2 septembre.

La journée de lundi est consacrée principalement à la présentation des concepts du droit d'auteur, du logiciel libre, de son histoire au travers du projet GNU. Puis des éléments autour des licences libres, des communautés du libre et de l'activité de l'April. La journée du mercredi sera l'occasion d'aborder la problématique du climat, regarder le rôle de l'informatique sur ce sujet, et la relation au logiciel libre. Il s'agira pour finir d'aborder largement des enjeux du présent et du futur du logiciel libre.

Le Master I2L est une des plus anciennes formations en France ayant embrassé le logiciel libre et l'April y intervient depuis ses débuts, aux côtés d'autres membres des communautés du Libre. Pour en savoir plus sur ce Master vous pouvez vous rendre sur le site de l'université du Littoral.

Voyez également notre page consacrée aux formations spécialisées sur le logiciel libre.

« Libre à vous ! » saison 4 : la bande-annonce

ven, 08/28/2020 - 11:40

Découvrez le bande-annonce vidéo de la saison 4 de notre émission Libre à vous ! diffusée sur radio Cause Commune. L'émission sera de retour mardi 1er septembre 2020 de 15h30 à 17h (puis en podcast).

Libre à vous !

Depuis mai 2018, l'April anime Libre à vous ! une émission d'explications et d'échanges sur la radio Cause Commune sur les thèmes des libertés informatiques.

Bande annonce de l'émission S'abonner au Flux RSS compatible avec la baladodiffusion

Vous pouvez vous abonner au flux RSS compatible avec la baladodiffusion (podcast) pour recevoir automatiquement les épisodes dès leur mise en ligne.

S'inscrire à la lettre d'actualités de l'émission

Pour ne rien louper des nouvelles de l'émission, vous pouvez vous inscrire à la lettre d'actualités : annonce des podcasts, des émissions à venir et tout autre actualité en lien avec l'émission.

Surveillance numérique et libertés fondamentales

mar, 08/25/2020 - 19:53


Titre : Surveillance numérique et libertés fondamentales
Intervenante·e·s : Valérie KokoszKa - Laurence Devillers - Antoinette Rouvroy - Irénée Regnault - Karolien Haese - Jean-Marc Desmet
Lieu : Web débat
Date : juin 2020
Durée totale : 1 h 40 min
Licence de la transcription : Verbatim
Illustration : Surveillance, Adrien Coquet - Licence Creative Commons By
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Introduction

Durée : 4 min 04
Visualiser la vidéo

Valérie KokoszKa : Bonjour et merci d’être là pour ce Web débat consacré à la surveillance numérique et aux libertés fondamentales. Premier parce qu’il est, en quelque sorte, la matrice d’autres Web débats qui porteront sur les normes, les libertés et la surveillance numérique voire sur d’autres sujets où l’intelligence collective, la créativité peuvent nous permettre de rendre ce monde, le nôtre, meilleur, plus libre, plus heureux.
Pour ce faire, l’idée est de rassembler, comme ce soir, des spécialistes, des praticiens, femmes et hommes de terrain et tous ceux qu’un sujet intéresse, intrigue ou inquiète.
Celui de ce soir relève sans doute de cette dernière catégorie, puisqu’avec le coronavirus, tracé par des applis, tancé par des drones, le port du masque repéré par des caméras de reconnaissance faciale, une sorte de vent frais souffle sur les libertés et il fait parfois un temps à ne pas mettre un déconfiné dehors. De sorte qu'il m'a semblé intéressant de discuter, finalement, du déploiement, du développement de la surveillance numérique et de nos libertés fondamentales. Qu’est-ce que la pandémie en a révélé et surtout quelles solutions pouvons-nous inventer ?

Pour en parler ensemble quatre intervenants qui ont tout de suite répondu positivement à cette invitation d’échange, que je remercie et que je vais brièvement présenter. Il y a :

Laurence Devillers, professeur en Intelligence Artificielle à la Sorbonne, qui est titulaire de la chaire en Intelligence Artificielle HUMAAINE, acronyme de HUman-MAchine Affective INteraction & Ethics. Elle est l’auteur en 2020 de deux livres Les robots émotionnels – Santé, surveillance, sexualité… : et l'éthique dans tout ça ? d’un côté et puis La souveraineté numérique dans l’après-crise.

Antoinette Rouvroy qui est docteure en sciences juridiques de l’Institut universitaire de Florence, chercheuse qualifiée au FNRS [Fonds National de la Recherche Scientifique], qui travaille au Centre de recherches information, droit et société et qui était titulaire cette année de la chaire Francqui qu’elle allait consacrer à la gouvernementalité algorithmique.

Irénée Regnault, consultant, auteur du blog « Mais où va le Web ? », cofondateur de l’association Le Mouton Numérique, qui est à la fois un praticien et un observateur assidu de ce qui se passe dans toutes les nouvelles technologies, qui prépare pour septembre un ouvrage sur les technologies et ses risques pour la démocratie.

Karolien Haese, avocate, juriste, fondatrice du Building Healthcare For Tomorrow, qui suit les aléas de la surveillance numérique depuis la crise des subprimes en passant par les dispositifs mis en place pour contrer le terrorisme et maintenant le covid et qui prépare un colloque en septembre là-aussi consacré notamment à la surveillance.

Et puis moi-même, Valérie KokoszKa, je suis docteure en philosophie, maître en Management des Institutions de Soins et de Santé. Je travaille au centre d’équipe médicale de l’université catholique de Lille et mes domaines de prédilection sont la phénoménologie, la métaphysique et la gouvernance des innovations.

Puisque les présentations sont faites, je vous propose d’entamer immédiatement la conversation et les échanges autour de toutes ces questions avec une première question qui est de savoir ce que selon vous, pour vous, la pandémie a révélé en matière de déploiement du numérique, de la surveillance ? Quels sont les enjeux, les opportunités, les risques ? En voyez-vous ?

La pandémie révélateur et accélérateur du déploiement des outils numériques ?

Durée : 22 min 04
Visualiser la vidéo

Irénée Regnault : Déjà merci pour l’invitation.
Pour remettre le contexte, il se trouve qu’au Mouton Numérique on a entamé dès le mois de mars un recensement de toutes les technologies qui ont été mises en place en réponse à la crise sanitaire, les technologies et solutions numériques diverses. C’est difficile de faire rapidement un bilan aujourd’hui, mais ce qui a été important pour nous c’est de voir qu’en fait elles ont été de différentes sortes et qu’on ne peut pas porter le même regard sur toutes ces technologies.
Il y a eu des technologies qui étaient de l’ordre de la télémédecine, l’explosion de Doctolib ou des choses comme ça. Il y a eu des technologies qui ont été utilisées pendant le confinement pour vérifier que les gens étaient bien confinés chez eux, par exemple en Pologne où il fallait envoyer un selfie dans les 20 minutes pour attester du fait qu’on était bien chez soi. Ensuite il y a eu d’autres types de technologies qui ont été déployées post-confinement, là plutôt pour vérifier si les distances étaient bien maintenues ou si d’autres choses, comme le port du masque dont vous parliez tout de suite, était bien effectives dans certaines villes. Et enfin des technologies qui ont été mises en place, plutôt qui ont été exagérées, qui ont été poussées au maximum de leurs possibilités, à savoir les technologies déjà existantes qu’on utilise tous comme les Facebook, les Google qui ont sorti, pour certains d’entre eux, de nouveaux produits notamment des vidéos ou rendu disponibles gratuitement ce qui était de l’ordre du Premium. Ça va jusqu’à Pornhub qui a lancé des abonnements Premium en Italie, peut-être ailleurs.
Il faut déjà bien avoir ça en tête pour commencer, c’est peut-être idéal. Il n’y a pas eu que des outils de surveillance, il y a eu plusieurs outils dans plusieurs domaines. Pour nous, ils ont révélé, en fait, si je le fais simplement, étant donné le temps de parole et le nombre qu’on est, c’est une accélération phénoménale de ce qui était déjà à l’œuvre, donc pas vraiment de nouvelles technologies, des technologies existantes qui ont glissé d’un usage vers l’autre, typiquement des technologies du domaine militaire qui se sont déployées dans le civil, des technologies par exemple du domaine du fitness, je pense au bracelet électronique, qui d’elles-mêmes ont été détournées à des fins de surveillance sanitaire. Donc pas grand-chose de très nouveau, en fait.

Si je continue juste une minute là-dessus, sur ce recensement, ce qu’on se dit aujourd’hui c’est qu’on était déjà fondamentalement inquiets de la manière dont se déployaient les systèmes de surveillance, si je m’arrête à cette stricte catégorie des systèmes de surveillance, qu’ils ont été déployés forcément très vite par beaucoup d’entreprises qui attendaient un petit peu au coin de la rue, il faut le dire, et, en parallèle, beaucoup d’associations de défense des droits, dont évidemment La Quadrature du Net1 et d’autres, dans une moindre mesure Le Mouton Numérique, et les institutions qui, de manière normale disons, sont des contrepoids face à ce développement, ont réagi de manière, j’allais dire tout aussi proportionnée par rapport à ce qui était en cours avant. Quand je dis « tout aussi proportionnée » c’est-à dire qu’elles ont réagi et que, parfois, elles ont su arrêter certains abus. Ça ne veut pas dire que cette réaction est suffisante puisqu’elle n’était déjà, en tout cas à mon sens, pas suffisante. Donc accélération et intensification des offres, des réponses institutionnelles et des chiens de garde, en fait, des watchdog associatifs.

Valérie KokoszKa : Karolien.

Karolien Haese : Je pense très sincèrement qu’on peut s’accorder effectivement sur cette accélération, mais c’est peut-être à la question de la surveillance même du citoyen à laquelle il faut penser, qui est, en fait, une question qui est récurrente depuis des millénaires. Si on lit par exemple L’Art de la guerre de Sun Tzu, on voit déjà combien les dirigeants ont toujours eu ce besoin à un moment donné et certainement en temps de crise de contrôler les populations pour, quelque part, répondre à ce besoin de dire « nous pouvons mieux prévenir ».
Je pense que la technologie est effectivement un outil, mais qu’on ne doit pas se tromper de débat. À partir du moment où on a effectivement un outil surpuissant, l’important c’est aussi de se poser la question de savoir quel est l’objectif que l’on veut atteindre avec cet outil, que ce soit dans la surveillance sanitaire, que ce soit dans la surveillance financière, que ce soit dans la surveillance terroriste. On voit effectivement que l’outil digital devient omniprésent dans cette surveillance, souvent porté d’ailleurs par de la bonne foi, par des bonnes intentions, par un oubli de dire que ce meilleur contrôle sur la population, sur les mouvements, sur la traçabilité financière, la traçabilité sanitaire, va permettre effectivement d’enrichir, de contrôler, de maintenir ou d’améliorer un intérêt public.
Entre, je dirais, la focalisation qu’on peut avoir aujourd’hui sur un outil qui va se développer de plus en plus vite, qui va devenir de plus en plus puissant, qui va aller jusqu’à la singularité à un moment donné, qui va réfléchir par lui-même, et l’objectif que l’on peut chercher à atteindre en qualité d’État, en qualité d’État souverain, il faut bien faire la part des choses et ne pas oublier que ces objectifs, dans un État démocratique en tout cas, sont en principe fixés par les citoyens.
J’ai un peu l’impression que dans tous ces débats qu’on a entendus au niveau de la crise sanitaire, on a oublié ce débat essentiel à l’objectif. Est-ce que l’objectif du tracing est réellement d’améliorer la prise en charge ?, et on a vu qu’à Singapour, malheureusement, les échecs étaient là, ou est-ce que c’est créer une banque de données pour de la recherche a posteriori qui est aussi un objectif louable, ou est-ce que c’est encore aller plus loin en se disant « finalement, une surveillance sanitaire dans un monde où les systèmes de sécurité sociale ne parviennent pas à offrir un accès à la santé pour chacun des citoyens, est-ce que ce n’est pas encore un outil qu’on peut développer plus loin ? »
Je pense qu’il est vraiment important que l’on puisse s’arrêter en dehors, je dirais, de mesures excessivement urgentes qui peuvent justifier, à un moment donné, une mise entre parenthèses de ce débat démocratique en raison de l’urgence, en raison de la sécurité. En tout cas, maintenant que le calme revient, je pense qu’il est vraiment essentiel que l’on ait un débat démocratique sur ce que veut la population, sur les objectifs que l’on cherche à atteindre en réalité avec ce nouvel outil.

Valérie KokoszKa : Antoinette.

Antoinette Rouvroy : Merci beaucoup de nous recevoir dans ce lieu sans lieu mais pas sans adresse.
Ce qui me frappe, effectivement, ce sont des réflexions qui sont assez générales, c’est cette idée du privé, du private, de la private life. En fait, je n’ai jamais ressenti autant qu’aujourd’hui le fait que to be private is to be deprived. Il y a quelque chose aussi, quand on est reclus chez soi, on est très heureux de se voir même à travers un écran, c’est toujours ça, mais il y a quelque chose quand même de la privation. Ça montre bien à quel point ces enjeux de protection même des données personnelles ne sont pas tellement des enjeux personnels, en fait ce sont des enjeux collectifs, ce sont des enjeux qui sont essentiellement politiques, essentiellement collectifs, essentiellement structurels.
Ce qui m’a frappée c’est la réaction des gens face à cette perspective non pas de surveillance de masse, parce qu’il s’agissait essentiellement dans cette sorte — j’ai appelé ça de façon un peu maladroite des gadgets, ce ne sont pas vraiment des gadgets — de covid tracing, de traçage des promiscuités entre les personnes, un traçage au départ de collecte de données ou plutôt de signaux émis par des appareils Bluetooth. Il y a eu une sorte de levée de boucliers par rapport à cela qui m’est apparue assez particulière dans la mesure où par ailleurs, tous les jours nous émettons des tonnes – pas des tonnes, ça ne pèse rien – mais beaucoup de données beaucoup plus personnelles, beaucoup plus personnelles que ces phéromones numériques que nous lâchons quand nous nous déplaçons avec un appareil muni d’un Bluetooth, sur des plateformes qui, elles, en ont évidemment largement profité puisque tout le monde n’est pas vraiment frappé par la crise de la même manière. Les plateformes numériques, elles, les plus gros acteurs de l’Internet, ont largement profité de cette situation de confinement pour recueillir des quantités absolument gigantesques de données, pas spécialement d’ailleurs pour nous surveiller directement, peut-être aussi pour développer de l’intelligence artificielle, pour apprendre à leurs intelligences artificielles à mieux apprendre à nous connaître, etc. Il y a là toute une fenêtre d’opportunités qui s’est ouverte et qu’elles ont largement saisie.
Ce qui me frappe c’est un petit peu ce décalage que je remarque et qui atteste, finalement, d’une sorte de défiance très grande des citoyens envers les autorités publiques, y compris les autorités sanitaires et par ailleurs une confiance très grande, un tout petit peu par défaut, dans des entreprises privées souvent de droit non-européen, auxquelles ils sont prêts à donner des tas de données.
Je ne dis pas pour autant que les applications de covid scoring sont sans problèmes, loin de là. Loin de là ! Elles sont d’autant plus problématiques qu’elles fonctionnement très mal et aussi, surtout, il me semble que ce traçage numérique des contacts à travers la collecte de signaux Bluetooth – d’ailleurs qu’elle soit plus ou moins conforme aux grands principes de protection des données, c’est possible, en fait, de rendre ces applications plus ou moins conformes aux grands principes de protection des données, que ces données soient conservées de manière plus ou moins centralisée ou décentralisée, que le téléchargement de l’application soit rendu obligatoire ou non, ce sont toutes des questions qui ont été beaucoup débattues –, mais je pense qu‘il y a une autre question que je dirais quasiment antérieure à celle-là et qui n’est jamais posée en fait, c’est que ces dispositifs instaurent surtout une toute nouvelle manière de cartographier le phénomène épidémique à l’échelle du signal numérique mobile, déterritorialisé. Il ne s’agit plus, en fait, de rapporter ce signal à aucun quadrillage de l’espace physique comme pouvait en parler Michel Foucault à l’époque des épidémies de peste par exemple. Il y a une sorte de déterritorialisation très grande de ce qu’on appelle encore, peut-être à tort, la surveillance parce que ça ne passe plus par l’épistème visuel ; on remplace le visuel par le pur calcul et le calcul de proximité entre des data points, des points de données, dans un espace tout à fait neutralisé c’est-à-dire un espace purement géométrique, un espace purement métrique.
Cette sorte de surveillance prend une nouvelle figure qu’on peine un petit peu à décrire et c’est pour ça que nos réticences sont souvent assez mal exprimées ou maladroites par rapport à ce phénomène. En vérité, ces analyses de signaux déterritorialisés se détachent finalement complètement de l’idée qu’on pouvait avoir de la surveillance. Il ne s’agit plus ici de se fonder sur la détection de l’espace, ni la détection de groupes sociaux particuliers, ni même la détection d’individus qui auraient un comportement particulier. Il s’agit de quelque chose qui est beaucoup plus abstrait, beaucoup plus statistique et qui, en fait, est finalement dans une sorte de déni de la matérialité des situations. C’est une abstraction par rapport au monde physique, un déni de l’organicité, un déni de la socialité, et finalement ça permet, ça nous met au seuil d’une gouvernance véritablement hors-sol avec un risque d’autisme extrêmement grand de la part de cette gouvernementalité.
C’est finalement ça qui m’inquiète le plus. Ce qui m’inquiète véritablement le plus, c’est ce que j’ai appelé par ailleurs, comme Frédéric Neyrat d’ailleurs, un symptôme de notre époque qu’on peut appeler la signose, cette tendance à confondre la carte avec le territoire et, du coup, à dénier la réalité matérielle. Ce n’est pas tout à fait nouveau. À chaque tournant, que ce soit le tournant linguistique, le tournant culturel, le tournant interprétatif, etc., on a toujours dit finalement qu’il y a un grand oubli de la matérialité. La seule chose qui ne compte plus c’est la matérialité et c’est bien ça, me semble-t-il, le risque majeur, cet oubli de la matérialité est aussi, forcément, une sorte de dépolitisation assez radicale. Cette idée que le monde parlerait par lui-même à travers des signaux numériques, ce qui n’est juste pas possible parce que ça ne parle pas.

Valérie KokoszKa : Oui, tout à fait, ça s’interprète. Laurence.

Laurence Devillers : Les points qui m’ont fait réagir. D’abord j’ai eu le covid, mes proches aussi, j’ai vu des gens mourir autour de moi, je ne vais vous faire un schéma que vous ne connaissez pas, mais c’était quand même important de sentir une solidarité que moi j’ai ressentie autour de moi, dans la ville où j’habite, aussi à travers les réseaux sociaux.
Qu’est-ce que j’ai pu voir d’autre ? J’ai pu voir aussi qu’on se fiait, comme le disait très bien Antoinette, beaucoup plus, en fait, aux géants du numérique, aux GAFAMI – Google, Apple, Facebook, Amazon, Microsoft et IBM – qui développaient à tire-larigot tout un tas d’outils et qui ont sûrement capturé énormément de données.
Il est important de se rendre compte de cela, c’est pourquoi j’ai écrit ce petit essai sur la souveraineté numérique que j’aurais sans doute dû appeler « gouvernance du numérique », qui était d’alerter sur le fait qu’en temps de pandémie on a tendance à aller au plus pressé pour garantir ou essayer, en tout cas, de garantir le soin pour tous. Du coup on oublie qu’en fait on ne va peut-être pas assez sécuriser l’espace dans lequel on est. Nos données médicales sont importantes, il n’est pas normal que le Data Hub Santé soit sur un serveur Microsoft. Les outils qu’on utilise à l’école sont aussi des outils développés par Microsoft, par Google. L’application StopCovid n’a pas totalement été ouverte à un protocole français puisqu’on n’a pas accès aux couches basses pour gérer le Bluetooth qui reste allumé.
Tout ça m’inquiète. On a vu, pendant le StopCovid, qu’on était dépendants des Chinois pour les médicaments, les masques, etc., mais on est dépendants des géants américains pour notre numérique.
Le numérique, vous l’avez bien dit, est invisible. En fait, les tractations dont vous parliez tout à l’heure en disant que cette invisibilité est un risque, etc., il faut quand même remettre un petit peu les choses au cœur de la cité. On a, par exemple, des cartes bancaires qui permettent de savoir où on est, ce qu’on consomme, de façon très affûtée déjà. On a des téléphones – qui n’en a pas un dans sa poche ? – qui permettent de géolocaliser les gens. Je crois qu’il faut, dans ces discours, qu’on soit extrêmement précis, qu’on soit plus au fait des technologies qui sont utilisées pour éviter de parler, par exemple, de singularité.
Je travaille donc en intelligence artificielle, sur les réseaux neuronaux profonds, sur des sujets qui sont extrêmement touchy, qui sont délicats. Je me rends bien compte que les applications derrière ne sont pas toutes souhaitables, avec des réseaux de neurones pour faire de l’apprentissage machine, sur les émotions qui sont particulièrement variables, dépendant des cultures, vraiment de l’humain. Donc je suis tout à fait consciente de ça et on va beaucoup trop loin dans beaucoup de domaines. Mais ne jetons pas tout en même temps, parce qu’on peut aussi être utiles pour la santé, pour soigner sur le long terme, pour éviter des prises de médicaments, pour aider le collectif à mieux partager. On a vu que la télémédecine avait fait un bon incroyable pendant la pandémie et tant mieux parce qu’il y a des gens qui ne peuvent pas se déplacer. Le risque de contamination nous a bien montré l’efficience de ce genre d’outils alors ne le faisons n’importe comment.
J’aurais tendance à éviter les points de vue extrêmes qui me font réaliser de plus en plus qu’il manque, en fait, une éducation plus forte sur l’histoire des sciences, sur la technologie, comment elle est développée et ce qu’il serait souhaitable de faire.
Si on ne prend pas le temps de considérer cela en Europe notamment puisqu’on a déjà la GDPR [General Data Protection Regulation] qui montre à quel point on pense à l’univers privé et je reviendrai un point sur ce privé.

J'aimerais finir sur ce que j’ai dit tout à l’heure sur la singularité. Pour moi il n’y a pas de point de singularité. Les machines sont faites par les humains. On sait qu’elles vont avoir des comportements derrière qui ne seront peut-être pas ceux qu’on a mis, mais qui sont liés aux systèmes qu’on développe. C’est une complexité importante. Dire que la complexité va nous échapper, non ! La créativité d’une machine c’est de proposer des solutions que l’humain n’a peut-être pas envisagées lui-même et c’est l’humain qui dit « ça c’est intéressant, ça c’est nouveau ». C’est ce que vous disiez Antoinette, c’est du très bas niveau, donc l’interprétation qu’on fait des signaux n’est donnée qu’à l’humain. Cette coopération qu’on devrait avoir avec les machines est urgente parce que dans le monde entier il y a des tas de gens qui ne se préoccupent pas de centrer l’utilisation des outils numériques pour l’humain, avec l’humain, en intelligence cognitive. Cette prise de conscience est urgente.
Je ne dirais pas que ce sont des gadgets. Je dirais que pour tracer, moi ayant été contaminée – c’est vrai qu’il n’y avait pas ces outils-là ; ça arrive en fin de pandémie pour nous parce qu’on n’est pas du tout en fin de pandémie pour le monde entier, on a vu qu’on est loin d’une fin, ne lâchons jamais en fait cette idée, ça sera peut-être utile – qu’il était important de développer un outil qui soit européen, malheureusement il ne l‘a pas été, pourquoi ? Parce que les Allemands, finalement, sont partis sur l’application Google-Apple qu’ils ont développée ensuite parce qu’ils ont sans doute des accords internes, d’entreprises, avec les GAFA, qui les empêchaient de prendre cette décision. Les Anglais ont mené une étude en grandeur, on parle de bac à sable sur l’Île de Watts, pour voir si cet outil de traçage était effectivement utile ou pas. Ils ont montré qu’on perdait le contrôle sur le Bluetooth et qu’effectivement c’était compliqué.
Il n’empêche qu’il est urgent qu’on prenne les choses en main, et la fin de mon essai c’était de dire qu’on ne va pas juste dire non à tout. Il faut appréhender les choses, les comprendre et essayer de mieux les réguler.
L’idée du privé, de la privacy dont vous avez parlé, c’est aussi quelque chose qu’il faut mieux expliquer. Si on regarde un peu quelles sont nos données privées, il n’y en a pas tant que ça. Il n’y en pas tant que ça ! Il y avait ce paradoxe absurde, je suis bien d’accord, privacy paradox, qui est que tout le monde met ses données partout, ses images partout, sur Facebook, sur les réseaux et qu’en même temps on crie au loup alors que le StopCovid est une application de traçage, avec un protocole qui est fait par l’Europe, avec nos grands groupes qui proposent des serveurs, en étant sous contrôle du ministère de la Santé et non pas d’un État de gouvernances qui voulaient priver de liberté les gens, c’était avant tout pour aider. J’ai trouvé que là on était bien peu responsables quand on était vraiment excessivement contre. Il est important de regarder ça. Et il n’y a pas tant que ça de données privées parce que même les données génomiques dépendent de vos parents, de vos grands parents ; les données que vous mettez sur Internet il y a souvent un cousin, quelqu’un d’autre, c’est rarement vous tout seul.
En fait qu’est-ce que c’est que la donnée privée, qu’est-ce qu’on veut sauvegarder ? Qu’est-ce que c’est que la liberté essentielle si ce n’est, pour moi, le respect des autres et de l’économie pour les plus faibles ? Qui sont ceux qui ont pâti le plus de cette crise ? Ce sont les gens les plus démunis, les gens qui ne pouvaient peut-être pas se déplacer pour aller voir un médecin.
Il y a aussi à comprendre que nous sommes dans une espèce de microcosme assez privilégié lorsqu’on est professeur ou, etc., et que, dans la société, il y a ce clivage numérique qui, pour moi, est important. Qu’on soit plus inclusifs et qu’on fasse comprendre ce que ça peut apporter de bien, et interdire ou au moins vérifier ce qui est inquiétant.
Je terminerais par ceci, il y aura un comité d’éthique international qui fait suite au G7 et au Global Forum on AI for Humanity dans lequel on a travaillé, ça fait trois ans que je suis très impliquée et engagée sur ces sujets. Il y aura un comité international GPAI, Global Partnership on Artificial Intelligence, avec 15 pays différents, évidemment il y a l’Europe, la France, il y a la Corée, le Japon, des pays d’Amérique, d’Amérique du Sud. Je vais faire partie de cette aventure et j’espère que, d’un point de vue international, on aura cette lucidité non pas de jeter le numérique tel qu’il est parce qu’il y a des choses qui débordent, mais il y a des choses qui sont bien et qui sont bien pour la justice aussi, donc comment contrôler, comment montrer les grands sujets, comment être plus efficaces pour le bien de l’humanité. C’est mon propos.

Gouverner ou… être gouverné par les outils numériques ?

Durée : 23 min 17
Visualiser la vidéo

Laurence Devillers : C’est effectivement ça l’idée de transparence, de traçabilité, qu’on veut ajouter dans les comités d’éthique. Je fais partie du comité d’éthique lié au CCNE [Comité consultatif national d'éthique pour les sciences de la vie et de la santé] numérique, avec une partie numérique, on a travaillé sur la télémédecine, l’infox, sur le tracing StopCovid, en étant neutres, en ne disant pas on est pour ou contre mais qu’est-ce que ça fait et où sont les risques éthiques. Il est important de penser à cela. Je suis complètement d’accord avec vous, tout le monde devrait pouvoir savoir où vont les données qui sont capturées par un Google Home ou un Alexa Amazon. Le StopCovid ça va sur un serveur qui est chez Thalès. Donc on a aussi des informations qui ne sont pas forcément des informations qu’on demande, que les gens vont demander. Donc il est important, encore une fois, d’éduquer sur quel est le protocole utilisé, où vont mes données, à qui ça sert, qu’est-ce qui est derrière. Moi je lutte sur la manipulation de ces objets par les grands groupes qui sont derrière. Ce n’est pas magique, il n’y a pas de singularité pour moi.

Valérie KokoszKa : Absolument. Ce ne sont pas que des questions éthiques, ce sont d’abord des questions politiques.

Laurence Devillers : Oui, totalement d’accord. Et c’est à ce niveau-là qu’il faut être, de plus de finesse pour comprendre.

Irénée Regnault : J’avais juste une question peut-être à l’attention de Laurence et je laisse Antoinette juste après et Karolien.
J’ai une difficulté à n’envisager la démocratie que comme un choix a posteriori, sur des objets qui sont déjà implantés dans la réalité du quotidien.
La première question d’ordre démocratique, de mon point de vue, ce n’est pas celle des données, c’est déjà celle de la matérialité des objets. On peut penser juste à la question climatique par exemple si on sort de la question de la surveillance, ce sont des objets physiques qui consomment de l’électricité, de l’énergie, etc. Il me semble que dans la régulation éthique a posteriori par des organismes très intéressants comme le CCNE mais qui n’ont qu’un pouvoir de consultation, qui pèsent peu, en fait, face aux logiques de marché qui sont derrière, je me demande dans quelle mesure cette régulation est réellement efficace, d’une part.

Laurence Devillers : La CNIL [Commission nationale de l'informatique et des libertés].

Irénée Regnault : Oui, on a la CNIL, effectivement.

Laurence Devillers : Ce n’est pas nous qui sommes là pour faire de la régulation.

Irénée Regnault : Oui, mais la question est qui est ce « nous ». Vous avez dit à plusieurs reprises il faut éduquer, « on », ceci, cela. Déjà l’approche descendante par l’éducation.

Laurence Devillers : C’est nous, citoyens.

Irénée Regnault : Oui, mais « nous citoyens » n’existe pas.

Laurence Devillers : Si Je suis désolée. Vous avez été voter !

Irénée Regnault : Oui. On peut revenir sur ce que c’est que la démocratie. Est-ce que StopCovid est une application qui a été faite démocratiquement ? Oui, dans la mesure où elle a été faite par un gouvernement qui a été élu, lui, démocratiquement. C’est sûr. On est tout à fait d’accord là-dessus. Est-ce que la démocratie représentative par un scrutin à deux tours en France est la seule forme de démocratie qu’on puisse envisager sur des questions techniques ? Non ! On peut en imaginer plein d’autres.

Laurence Devillers : Si on gère tous les problèmes en même temps.

Irénée Regnault : Je me demande juste, on ne peut pas vouloir la démocratie sur des objets technologiques, parler de data et terminer sur nous, experts d’éthique au CCNE experts et professeurs dans des universités, on a décidé pour vous de ce qui était bon et on va vous éduquer, ce sont vos mots, à ce que c’est. Ce n’est pas la réalité. Vous voyez aujourd’hui que l’application StopCovid, en elle-même, est un débat. Elle est un débat qui a été résolu dans une forme de démocratie. Elle est inefficace qui plus est. Certains pays l’abandonnent et certaines associations ont dit : « On vous l’avait dit ! » Aujourd’hui on le voit, les applications vont n’importe où, elles sont captées dans des conditions qui n’ont même pas été vues par la CNIL. Je pense qu’il faut aussi remettre le débat en perspective et peut-être ne pas voir juste la question des données personnelles et la question des experts éthiciens qui arrivent a posteriori.
Qui est le « on » ? Qui décide ? D’où vient l’argent ? Où est-ce qu’il va ? Si je prends encore un exemple, l’argent qui a été distribué à la French Tech en janvier, 4,2 milliards, 1,2 milliard en juin, à des entreprises, en amont, à qui on a donné de l’argent. Ces entreprises ont bénéficié de contrats auprès du gouvernement pour fabriquer des applications qu’il a achetées en aval. Ça c’est un problème démocratique et vous l’avez dit, en l’occurrence, pourquoi la DINUM [Direction interministérielle du numérique] n’a pas été mandatée pour fabriquer StopCovid ? Il y a tout un tas de strates auxquelles ont peut poser la question démocratique sans forcément penser à institutions constantes ou à la démocratie, c’est l’actuel français et l’Europe et, etc.
Je rejoins Valérie, où est-ce qu’on discute des finalités de cette technologie, de cette surveillance ? Aujourd’hui je ne vois pas beaucoup d’espaces, vraiment.

Laurence Devillers : Si je me peux me permettre de répondre puisqu’il voulait que je réponde.
Ce sont des sujets importants et le CCNE est un tout petit groupe qui n’a aucun pouvoir, qui est sous le Premier ministre. On nous a donné trois tâches à faire, on essaie de les faire. On vient, par exemple, de lancer une étude collaborative sur les tensions éthiques qu’on voit dans les chatbots – il y a un questionnaire que je vous enverrai avec grand plaisir pour que vous puissiez répondre à cela. Il faut faire de plus en plus de choses comme ça, mais tel n’est pas non plus mon pouvoir, actuellement mon pouvoir est tout petit. Mais, quand même, si on est contre tout, on n’avance jamais. Je suis désolée.

Irénée Regnault : Ce n’est pas du tout ça.

Karolien Haese : Ce n’est pas du tout ça.

Laurence Devillers : Il est quand même urgent de dire qu’il y a des fab labs.

Irénée Regnault : Il ne faut pas voir les choses de façon totalement binaire.

Laurence Devillers : D’accord. Moi je ne suis absolument sur une position ferme, je doute tout le temps, je m’adapte et j’essaie de trouver qu’elle est la meilleure chose à faire.
J’ai l’impression qu’à l’heure actuelle cette énergie contre en disant « non, on ne veut pas et tout ça », pour moi c’est une énergie qui aurait peut-être été plus intéressante pour voir comment on allait lier les acteurs sur l’axe de santé, les brigades de santé qui elles, ont peut-être manipulé des données et peut-être pas, le secret médical n’était peut-être pas très bien conservé, on n’en sait rien.
Regardez un petit peu comment ça, ça s’harmonise et quelles étaient les vraies questions, plutôt que des levées sur la politique. Moi je ne vais pas faire de politique, je ne veux pas répondre à ces questions-là. J’espère qu’on peut lever le voile sur beaucoup de choses et plus on sera nombreux, non pas à dire « non, on ne veut pas », mais à dire « on veut et on veut voir dessous ». On a, par exemple pour les GAFA, demandé de parler de ce qu'il faisait de Facebook et là on voit bien que l’Arcep [Autorité de régulation des communications électroniques et des postes] n’a pas réussi à lever le tapis. On n’a pas eu les tenants et les aboutissants et, de toute façon, ce qu’ils font c’est effectivement demander aux gens a posteriori ce qui est mauvais ou pas et, à ce moment-là, on enlève. Le vrai problème, à propos par exemple de la viralité sur la toile, n’est pas pris en compte.
C’est sur ces objectifs-là, fondamentaux, qu’il serait intéressant d’aller. Après, je n’ai pas dit qu’on allait pouvoir révolutionner le monde entier. Il y a une puissance économique dingue, mais je pense que si on a peut-être gagné à la fin de cet enfermement, en tout cas, parce que ce n’est pas la fin de la crise, c’est au contraire le début de la crise économique, on a peut-être vu, et à travers ces dernières élections, qu’il y a des choses essentielles qui reviennent devant. L’écologie, effectivement, est importante. Je pense qu’avec des outils numériques on peut aussi mieux dépenser l’énergie de ces outils, je ne suis absolument pas pour faire des gadgets partout si ce n’est pas utile. On a vu, par exemple, que la distanciation était un point important. Peut-être qu’à cette époque-là, quand on était tous confinés, on aurait pu avoir des robots qui allaient à la pharmacie nous chercher des médicaments.
Il faut raison garder, c’est-à-dire que je suis plutôt pour plus de démocratie. Le « nous », le « on », c’est « nous citoyens ». Partout, à chaque fois que je parle c’est comment on embarque les gens. Il y a des associations partout, il y a des fab labs. Dans les écoles on avait La Main à la pâte pour les primaires, certaines écoles avaient la chance d’avoir ça, pourquoi on n’a pas le même genre de choses pour débusquer, savoir finalement comment on croit une information, qu’est-ce que c’est que l’information, comment on fait pour croiser différentes sources, comment on voit que ça se répète, toutes ces choses-là. Savoir faire un pas en arrière, regarder les choses et ne pas répondre sur le système 1 sur lequel je travaille. Kahneman, prix Nobel en économie en 2002, montre qu’on réagit beaucoup par intuition à partir d’un système 1 qui fait de la perception rapide de l’environnement sans remettre en question les choses. On est beaucoup comme ça dans la société, on répond très vite à tout et, du coup, finalement, on n’a pas ce temps de réel combat entre « est-ce que c’est bien, pas bien, comment on va faire, à qui ça sert, etc. », qui est essentiel.

Valérie KokoszKa : Antoinette.

Antoinette Rouvroy : Je voulais régir à ça, mais vraiment sur un plan…, un peu sur des questions vraiment normatives, en fait, plutôt des conflits de normativité je dirais.
Je me rends compte, en fait comme beaucoup d’entre nous, que pullulent les rapports sur ethical IA, l’intelligence artificielle éthique. On entend parler d’éthique partout alors qu’en fait les droits humains, eux — on a parlé un tout petit peu de droits fondamentaux — on n’arrive même pas à les faire respecter concrètement dans un tas de situations. On a parlé beaucoup de confinement aussi, mais les confinés ont de la chance par rapport à beaucoup d’autres personnes qui elles, n’ont pas de confinement, sont en situation de migration, etc., et par rapport auxquelles l’Europe n’a pas été parfaitement respectueuse de ses propres engagements en matière non pas d’éthique, c’est-à-dire de normes un petit floues, un petit peu molles, mais en matière de respect de droits qui sont pourtant dus en vertu d’engagements internationaux absolument contraignants.
Quand j’entends éthique c’est vrai qu’en même temps je trouve ça très beau l’éthique, je trouve ça magnifique dans la dimension de doute que ça implique, etc., mais en même temps je suis assez sceptique quant à la possibilité d’obtenir effectivement par l’éthique et non pas par le droit que les finalités, surtout une fois qu’elles ont été discutées démocratiquement, deviennent véritablement contraignantes. C’est quelque chose qui me semble un petit peu soumis à caution.
En particulier aussi, on a effectivement aujourd’hui et ça se lit beaucoup dans les documents de la Commission européenne, notamment en matière d’agenda relatif à l’intelligence artificielle, etc., le mot d’ordre qui est adopt IA et faire en sorte que toutes les instances privées, publiques, etc., fassent cette transition et adoptent IA comme si c’était la solution à tout. Finalement, on se rend compte que le respect des droits et libertés fondamentaux, des grands principes éthiques, etc., apparaît non pas comme des finalités en elles-mêmes mais bien plutôt comme des arguments quasiment marketing disant « voyez, nous on a une intelligence artificielle éthique », donc c’est un avantage compétitif par rapport peut-être aux États-Unis, par rapport peut-être à l’Asie, d’un côté, mais aussi pour rassurer le consommateur. On parle beaucoup de consommateur, on ne parle plus du tout de citoyen dans ce cas-là.
Effectivement ça, ça me pose énormément de questions. Est-ce que, vraiment, le droit, et l’éthique éventuellement, ne sont que des infrastructures visant à favoriser l’innovation ? On nous le dit bien « il ne faut pas que l’éthique freine l'innovation, il ne faut pas que le droit freine l’innovation ». On inverse un petit peu, on se retrouve exactement dans ce qu’Alain Supiot a très bien décrit dans La gouvernance par les nombres ou dans la Convention de Philadelphie, c’est-à-dire que vraiment une sorte de droit, de normativité juridique et éthique a fortiori devient, en quelque sorte, le label même de l’innovation et s’impose à titre véritablement de logique absolue, donc on ne questionne pas les finalités par définition, puisque c’est une logique absolue. Ça, ça me pose pas mal de questions.
Par rapport aussi à ce que, Valérie, vous disiez relativement à l’intime, etc., et aussi à ce qui a été dit précédemment par Laurence, cette importance, en fait, non pas d’opposer intelligence humaine à intelligence artificielle comme si c’était des choses qui étaient même comparables, alors qu’en fait ce sont des choses complètement différentes, elles ne se situent pas du tout dans le même épistème, elles ne fonctionnent pas du tout de la même façon sinon on n’aurait pas besoin d’intelligence artificielle si elles faisaient la même chose.
Ce que je voulais dire par rapport à ça, c’est que la tendance aujourd’hui est de mal utiliser l’intelligence artificielle, c’est-à-dire de l’utiliser pour automatiser notre propre bêtise, c’est-à-dire pour faire automatiquement ce que nous faisons déjà mal nous-même. Au lieu d’utiliser l’intelligence artificielle pour ses vertus de curiosité automatique, c’est-à-dire pour sa capacité de fabuler des choses qui n’ont pas été entrevues par nous, c’est-à-dire utiliser cette capacité qu’ont les algorithmes, par exemple, à détecter des régularités du monde qui nous échappent, à nous, parce qu’elles ne sont détectables que sur des très grands nombres. Et ça c’est quelque chose de magnifique, c’est quelque chose qui a d’immenses applications dans plein de domaines et ça peut vraiment augmenter notre intelligence humaine. Donc autant cette question par exemple du droit des robots ou de l’intelligence artificielle qui soi-disant va nous dépasser, pour moi c’est vraiment de la science-fiction et c’est pure fabulation. C’est une méconnaissance.

Valérie KokoszKa : Je suis d’accord aussi.

Antoinette Rouvroy : La question finalement, et j’en terminerais peut-être là, on parle beaucoup aujourd’hui et on se dit aussi, par exemple, qu’il faut interpeller les gens pour qu’ils participent au design des algorithmes, etc., donc démocratiser la fabrication même de ces algorithmes.

Laurence Devillers : Il y a les fab labs, il y a beaucoup de choses.

Antoinette Rouvroy : Une très bonne chose en soi, bien entendu. On parle aussi de rendre les algorithmes fats pas gros, ça veut dire simplement accountable and transparent en anglais ; c’est finalement se dire qu'on va rendre ces algorithmes parfaits, qu’ils vont rendre justice à notre place.

Laurence Devillers : Non, non.

Antoinette Rouvroy : Si je peux terminer. J’ai l’impression d’être dans un débat télévisé, c’est marrant. En fait, c’est très ambivalent. Évidemment c’est une très bonne chose. Il faut que chacun maîtrise ; pour ne pas être complètement prolétarisés, nous devons maîtriser nos outils. Ça c’est certain, nous devons savoir.
En fait, comme Laurence le dit très bien, à condition qu’on connaisse les outils, eh bien on les démystifie forcément, on ne peut plus croire ces fadaises de singularité, etc., si on connaît les outils. On voit bien que c’est plus con qu’un chat, quoi ! Ça c’est certain, mais aussi, et de façon plus fondamentale dans le domaine qui me concerne plus directement qui est le domaine de la justice, on parle beaucoup aujourd’hui d’automatisation de la justice, de robotisation de la justice, d’algorithmisation de la justice, ça fait partie d’un gros projet qui concerne l’autonomisation des structures de la justice grâce à l’intelligence artificielle, par exemple. Le problème, évidemment, c’est sur quoi doit porter le débat, sur quoi doit porter la compatibilité. Est-ce que ce qui est important pour un justiciable c’est de savoir si l’algorithme qui a servi finalement, par exemple, à le garder en rétention alors qu’il aurait peut-être pu bénéficier d’une libération conditionnelle si l’algorithme n’avait pas détecté qu'il avait un score de risque supérieur à la moyenne de récidiver, est-ce que c’est ça qui est important ?, savoir si effectivement l’algorithme était fair, accountable and transparent ?, ou est-ce que ce qui compte pour cet individu-là c’est que sa situation singulière soit évaluée à l’aune de sa situation singulière et non pas à l’aune d’une modélisation statistique produite automatiquement par les algorithmes sur base de données émanant de la population carcérale dont il ne fait pas partie ? C’est quelque chose d’absolument fondamental.
Si vous voulez le risque de ce mouvement des fats algorithmes, c’est vraiment cette sorte de réductionnisme, c’est-à-dire qu’on va demander à une boîte noire algorithmique de posséder les qualités ou les vertus qui devraient, en fait, appartenir à l’ensemble du système socio-technique et non pas seulement à ce sous-système algorithmique. Ce qui compte ce n’est pas que des machines soient justes, à la limite, même, on s’en fout ! Je voudrais dire qu’un juge qui prend une décision qui ne soit pas trop absurde sur la base du fait qu’il était de mauvaise humeur parce qu’il s’est fait engueuler par sa femme le matin, il n’est pas très transparent non plus sur les raisons qui ont justifié sa décision. On ne va pas ouvrir la tête du juge pour voir s’il était bien fat à l’intérieur, s’il a mangé trop gras. Simplement, ce qui compte, c’est la justification dans un langage humain, compréhensible par les humains, de la décision concrète qui a été prise à l’égard du justiciable. Il ne s’agit pas de maintenir l’humain dans la boucle. Non ! C’est l’humain qui décide et qui assume la totalité de sa décision. Il peut, pour ce faire, se fonder soit sur une consultation de voyante soit sur un algorithme plus ou moins transparent soit sur l’avis de sa femme comme l’inspecteur Colombo, « ma femme me disait ce matin », peu importe comment il se justifie, mais c’est lui qui prend la décision.

Laurence Devillers : C’est lui qui est responsable. Entendu.

Antoinette Rouvroy : Il est responsable et il peut justifier dans un langage humain et contestable.

Valérie KokoszKa : Karolien

Karolien Haese : Ça nous ramène au fondamental de ce débat qui était les libertés humaines, les droits fondamentaux des humains, qui sont quand même à la base du principe de responsabilisation citoyenne à l’égard de sa propre individualité, à l’égard, quelque part, de ce que l’on peut attendre d’un système. On entend, encore une fois, une dérive vers les questionnements de la gouvernance algorithmique dont, quelque part, personne n’a envie d’entendre parler. On revient également à ce questionnement de dire, et là je rejoins complètement Laurence, qu’il ne faut pas prendre tout ou rien dans l’intelligence artificielle, si on peut appeler ça intelligence artificielle ou si on peut appeler ça, effectivement, des décisions algorithmiques.
L’outil est là. L’outil est puissant. Est-ce qu’on arrivera, ou pas, un jour à maîtriser parfaitement cet outil, ça c’est une autre question et je pense que seul l’avenir nous le dira. En attendant, on a quand même des questions qui sont des questions fondamentalement humaines. On a des questions qui sont liées à l’homme dans ses droits, libertés fondamentales et jusqu’où peut-on, à la limite, le dissocier de choix démocratiques. On le voit systématiquement : parce qu’il y a à un moment donné une crise et qu’on se dit que c’est le moment de promouvoir l’outil. C’est arrivé, effectivement, au tout début de la bulle Internet, on a promu l’outil pour pouvoir avoir une meilleure traçabilité financière. C’est arrivé encore une fois au moment des attaques terroristes en France où on sait que, par exemple, la loi a été très loin, heureusement cassée par le Conseil d’État, en disant « c’est finalement le moment de promouvoir cet outil parce que, vous allez voir, c’est pour votre sécurité ». Dans la Convention européenne des droits de l’homme et dans la Charte de 1966 de l’ONU lorsque l’on parle de sécurité publique, on peut, à la limite, mettre effectivement de côté les libertés fondamentales et les droits fondamentaux et utiliser un outil qui les réduit ; c'est posé comme question à la surveillance individuelle. Je vous le donne en mille, ça s’imposera également dans le cadre de la surveillance environnementale.
Il faut conserver cet outil, il faut le garder, il faut l’exploiter au mieux, mais on doit revenir sur le principe fondamental qui était au départ un choix démocratique basé sur les constitutions et la démocratie ayant un devoir et des droits citoyens.

[Problème de son]

Je reviens. Il ne faut absolument pas confondre, je pense, à un moment donné, l’outil qui est utile à l’intérêt public, soyons clairs, avec ce que l’on cherche à défendre ici, c’est-à-dire une implication citoyenne.

[Problème de son]

Je disais que c’est vraiment important finalement qu’on dissocie bien l’outil de l’engagement citoyen qui lui est inscrit dans les constitutions, qui lui est inscrit dans les droits fondamentaux. J’aimais beaucoup la réflexion d’Antoinette. On en arrive à croire que le droit doit venir au service de l’intelligence artificielle, on en arrive à croire que l’éthique doit arriver au service de l’intelligence artificielle, et que jusque les droits fondamentaux deviennent finalement des leviers pour pouvoir justifier une installation progressive de l’intelligence artificielle, si on peut l’appeler comme ça. On peut s’interroger de la légitimité de l’anxiété qui est créée aujourd’hui au sein de la population, on peut se demander pourquoi elle a si peur de ce big data alors que nous sommes tous d’accord autour de la table pour dire que ce big data a une potentialité de plus-value très importante pour l’intérêt public, pour la santé publique, pour le contrôle sécuritaire, pour le traçage financier, pourquoi est-ce que l’homme, aujourd’hui, en a tellement peur ? Sans doute parce qu’effectivement il ne se retrouve plus dans l’appel du droit qui a été son pilier, la possibilité d’aller chercher, à un moment donné, les droits fondamentaux, les droits civils, le droit pénal, qui sont devenus son pilier, on a l’impression qu’il est effacé et qu’il est mis au service d’un outil qui lui échappe. Qui lui échappe parce qu’on a un certain analphabétisme, effectivement, lié à l’algorithme. Qui lui échappe parce qu’on a l’impression que l’intelligence artificielle, les données, l’encodage, la collecte, le traitement, la structuration, la pseudonymisation et tous les vocabulaires compliqués lui échappent ou, plutôt, sont entre les mains d’une espèce d’élite intellectuelle et finalement le citoyen y trouve un très grand confort mais, en même temps, une très grande peur. Et, en même temps, on n’a pas un cadre et je parle bien d’un cadre, qui finalement nous dit « n’oubliez jamais que la surveillance – et je dis bien que la surveillance n’est pas péjorative, n’est pas négative – va jusqu’à un certain point et c’est la loi qui met ce certain point, qui met les limites ».
Quand la Stasi, dans le régime de la RDA, comptait 80 000 à 100 000 agents, 200 000 informateurs, soit 2,5 % de la population qui surveillait les 97,5 autres, l’absence de la démocratie ne découlait pas de la surveillance, l’absence de la démocratie découlait d’un cadre qui, finalement, a fait échapper l’outil aux citoyens. C’est ça qui est important pour moi.

Innovations, libertés fondamentales et contre-pouvoirs ?

Durée : 15 min 30
Visualiser la vidéo

Valérie KokoszKa : Là, pour moi, il y a quand même deux choses.
La toute première c’est qu’une des raisons, je pense, de la peur du citoyen c’est que très souvent l’intelligence artificielle, avec toutes les réserves qu’on peut avoir, puisque personnellement je pense que qu’il y a plus d’artifices que d’intelligence, notamment justement dans cette puissance de calcul, c’est qu’elle très fréquemment employée pour remplacer ce qui se fait déjà par des gens. Donc elle ne permet absolument pas de cumuler des intelligences et d’ouvrir, d’avoir une créativité. Mais cette créativité-là, de nouveau, pour quoi faire ? Au profit de qui ? Du bien personnel ? Du bien commun ? Et ça, ça doit pouvoir s’analyser.
Sur le plan, cette fois, de l’éthique, des libertés et du droit, il me semble qu’on peut aussi observer de nouveau une autre inversion. Il me semble que cette crise l’a bien mise en évidence, c'est celle de la proportionnalité des objectifs. On a l’impression que pendant tout un temps on pouvait limiter les libertés, de manière proportionnée, pour atteindre un objectif précis. Or aujourd’hui on a le sentiment que c’est l’inverse, que d’emblée ce sont les libertés qui sont proportionnées à des objectifs inconnus, c’est-à-dire qui n’ont pas été discutés de manière démocratique. On ne sait pas ce qui va se décider. Et toute la difficulté, me semble-t-il, est là. C’est-à-dire qu’on doit pouvoir avoir une créativité de ces outils. Il n’y a pas de raison qu’on se prive d’une créativité, de possibilités, mais il faut en avoir les conditions, il faut en avoir, quelque part, une certaine maîtrise. Ça doit rester, finalement, des outils au bénéfice du bien individuel et/ou collectif, avec un « prix », entre guillemets, que nous serions éventuellement d’accord de payer. Il me semble que ça, ça doit vraiment faire la base, le point de départ d’une position citoyenne avec effectivement une éducation qui ne permet pas de comprendre et d’accepter ce qui est proposé, mais éventuellement de le souhaiter et de le vouloir.
Je ne vois pas pourquoi très souvent le discours c’est celui-là, c’est celui de l’acceptabilité sociale des outils.
On est vraiment très peu ambitieux finalement, parce que accepter un outil, mon Dieu quelle tristesse ? Il me semble que les seuls qu’on peut vouloir, comme citoyen, comme humain, ce sont ceux qui sont désirables pour nous. Me semble-t-il !
Je voulais juste ajouter quelque chose, un élément parce que de nouveau je crois qu’il est important, et pour moi ce n’est pas seulement une question éthique, c’est une question de liberté. Une liberté fondamentale ce n’est pas quelque chose qu’on défend, ce n’est pas quelque chose qu’on protège, c’est quelque chose qu’on exerce et on l’exerce dans un lieu, dans une matière, avec ce que l’on est.

Je pense que là c’est important aussi de pouvoir réfléchir à nouveau à ce que ces dispositifs font à l’exercice concret, matériel, de nos libertés, non pas sur le fond du droit ou de l’éthique.

Laurence Devillers : C’est tout à fait intéressant parce que le temps est vraiment pour moi. C’est-à-dire qu'actuellement la mise en œuvre de l’IA est faite à une allure incroyable ; les productions de publication c’est la même chose. On a accéléré, on est tous sur le temps court. Moi je mets ça sur une origine qui n’est sûrement pas la seule, en tout cas cette information en continu qu’on a maintenant. Les premières radios ou télés à faire du continu c’était il n’y a pas si longtemps et, depuis, ça s’est complètement déchaîné sur toute la toile. On vous demande maintenant une attention directe et une réaction directe, c’est ça le système 1 et à-dessus il y a une manipulation des foules qui est fondamentale.
Pour revenir à l’idée du droit par rapport à ça, c’est qu’il faut un temps plus long pour arriver à mettre en œuvre les lois qu’il faudrait. Il faut un temps plus long pour que la politique et la gouvernance soient capables de prendre en charge les choses. À l’heure actuelle on court après la déferlante qui arrive, pas forcément que de l’Europe, qui arrive avant tout de l’Asie et des États-Unis. On subit totalement. Je suis tout à fait d’accord.
Comment fait-on pour inverser les choses ? Je pense qu’il faut arrêter d’être trop sceptique, il faut faire. Il faut faire en prenant en compte, exactement ce que vous avez dit tout à l’heure qui m’impacte, qui m’intéresse, cette co-adaptation avec les machines.
Je parlais quelquefois de coévolution parce que j’avais vu ce mot, mais évidemment que la machine n’évolue, elle s’adapte, à la limite ce n’est même pas sûr que ce terme soit suffisamment non-anthropomorphique pour être utile, mais en fait on n’a pas beaucoup de termes pour expliquer le comportement de ces machines créatives.
Effectivement, en fonction de ce qu’on va faire, de ce qu’on va dire, la machine va s’adapter. Mais nous sommes totalement comme cela tout le temps, avec tout.

Il y a par exemple un truc très parlant pour ça, à l’Ircam [Institut de recherche anti-contrefaçon de médicaments], qui était fait par des chercheurs : vous êtes en train de parler, vous êtes enregistré, on vous restitue la voix dans votre casque, vous entendez, et j’élève le pitch, j’élève le fondamental, je le mets plus haut, apparemment les voix plus hautes vont paraître plus positives. Eh bien sur une statistique suffisante, on montre que quand vous entendez votre voix plus haute, vous êtes plus heureux. Vous imaginez à quel point notre cerveau nous manipule et nos émotions sont prégnantes partout. Donc les biais cognitifs et cette boucle que nous utilisons sans arrêt entre humains, pour nous comprendre, pour cocréer, pour engendrer des idées, des concepts et tout ça, n’existe pas dans les machines ; le haut niveau n’existe pas, c’est de la sémantique ontologique qu’on a mise et qui n’est pas créative. Ce qu’elle sait créer c’est du bas niveau, c’est effectivement l’appropriation de micros pixels qui sont ensemble, on va débusquer les problèmes sur les cancers.
Si on a cette connaissance des capacités réelles des machines, on peut les utiliser au mieux pour nous, pour éviter de tomber dans la dépendance de cette co-évolution.
Moi j’en parle sur l’affectif, en plus, qui va très loin si on n’est pas suffisamment à même justement de se dégager.
Quand vous parlez de désirabilité, je ne sens pas chez les gens cette désirabilité de mieux comprendre ou d’expérimenter, de jouer avec tout le temps. Ils sont pressés d’avoir un objet désirable et pas tellement la fonction, et en ça les GAFA sont très forts, beaucoup plus forts que nous. Qu’est-ce qu’il faut renforcer ? Pour moi il faut renforcer des objets qui seraient plus inventifs, plus créatifs, on en verrait l’utilité. La télémédecine, je suis désolée, pendant le covid, on en a vu l’utilité. On a vu effectivement qu’un médecin va avoir moins peur de voir ses patients qui étaient peut-être atteints du covid et, de la même façon, les patients se rendent dans un lieu où effectivement il y a le virus. On s’est rendu compte que la distanciation était importante. On s’est rendu compte aussi qu’on avait besoin d’interaction sociale avec les autres, on avait besoin d’humanité, on a été dans un grand manque de ça.
Donc comment savoir, comment faire que les choses soient complémentaires et, en tout cas, ne pas avoir peur des machines, c’est à mon avis très important. On peut inverser ça, dès lors qu’on aura des outils qui seront faciles à montrer et qui ne sont pas bluffants comme ce que font les marketings des GAFA, des gens qui veulent vous vendre tout et n’importe quoi. On va les acheter juste parce que c’est beau et que ça fait fashion ou je ne sais quoi.
Du coup, il est important de comprendre qu’il faudrait qu’en Europe on ait cette puissance possible. Ça veut peut-être dire, si je prends juste le gouvernement ou même ce qu’on fait, qu’il faudrait sûrement renforcer la recherche qui est quand même très basse par rapport à ce qu’on fait en Asie. On avait moins de 2 % en France sur la recherche qui contient aussi tout ce qui est crédit d’impôt recherche. Quand on regarde statistiquement ce qu’est le crédit d’impôt recherche, ça va beaucoup aux banques, aux industriels, pas forcément pour faire de la recherche fondamentale sur la créativité des machines, pour qu’on soit effectivement plus en capacité pour comprendre ce qu’elles font.
Éthique, si vous n’aimez pas ce mot qui est ultra utilisé partout effectivement pour faire du marketing, moi je m’en fiche, je ne l’utilise plus. Ce n’est pas ça l’idée. C’est de faire que les systèmes soient plus transparents, plus explicables et tout n’est pas facile à expliquer et demande encore de la recherche et, en même temps, qu’on ait ce soin de faire que dans l’interaction, par exemple avec des agents conversationnels que je traite comme il se doit, c’est-à-dire avec beaucoup de précautions en ce moment, eh bien, par exemple, qu’on puisse faire que la machine s’exprime comme une machine et qu’elle informe de ce qu’elle est capable de faire, ce qui n’est pas le cas. Il n’y a aucune juridiction, il n’y a aucune vérification de rien dans les objets que sont par exemple Google Home ou Alexa Amazon qui sont à la maison. Quand je dis à la machine « j’ai peur » ou « je suis triste », la machine est capable de me dire « vous êtes triste, mon dieu, je vais vous donner un truc et tout ». Et si vous vous amusez un peu, si on apprend à tout le monde à jouer avec ces systèmes qui sont bêtes, au fond, parce qu’ils ne sont que des systèmes entraînés, ils ne vont faire que des simulations, à un moment donné on peut très bien rentrer dans l‘incongruité. C’est-à-dire qu’à force de poser la même question, finalement la machine vous répète la même chose parce qu’elle ne sait plus. On est arrivé aux limites de son univers des possibles. On est encore devant des machines qui sont très simples au niveau sémantique pour pouvoir les traquer et les mettre en erreur facilement. C’est important de savoir déjouer, en fait, ces choses invisibles comme vous avez dit.
C’est vrai que lorsqu’on demande de faire un test perceptif avec un ensemble de gens devant un système conversationnel, donc qui dialogue avec la personne en langage naturel, vous mettez le même système sur votre téléphone ou alors sur un Google Home ou alors sur un robot humanoïde, prenons ça, tout le monde pense qu’il est plus intelligent lorsqu’il est sur le robot humanoïde.
Donc on a des biais dans notre perception qui sont assez importants et, pour moi, ces objets peuvent nous permettre d’avoir une meilleure créativité parce qu’ils calculent beaucoup plus vite que nous, ils ont une mémoire d’éléphant par rapport à nous, mais ils ne sont en rien humains. Ils n’auront pas de capacité de ressentir, etc., même si à l’heure actuelle j’ai des collègues – puisque je travaille sur l’affective computing donc l’intelligence affective – qui travaillent sur une espèce d’homéostasie, de simulation de l’homéostasie c’est-à-dire de la douleur et du plaisir dans un robot qui serait capable, avec des capteurs sensoriels, de comprendre quand vous le caressez ou quand vous le frappez et d’interpréter cela en termes d’intentions pour revenir à un équilibre. Mais tout ça ce n’est que de la simulation. Si demain on est devant des robots qui nous ressemblent totalement, qui simulent des choses comme ça et qui nous disent « vous êtes formidable », risque d’éloignement des humains, risque d’attachement inconsidéré surtout pour des personnes vulnérables, des enfants, dans l’éducation. Donc c’est dramatique. C’est ce sujet-là que j’essaie de porter le plus loin sur l’Europe et dans les discours avec des comités sans penser qu’on va tout résoudre. Je ne sais pas si la démocratie participative est capable d’anticiper ça, parce qu’on n’est pas au courant et on ne peut pas tout demander à la démocratie participative.

Irénée Regnault : C’est très intéressant, sincèrement, mais j’ai un petit point qui me gêne encore, c’est que vous parlez comme si le futur était déjà écrit en fait. Un assistant vocal n’est pas un outil de créativité.

Laurence Devillers : Non. Jamais je ne dirais ça.

Irénée Regnault : J’en conviens, mais c’est l’impression que ça m’a donné.
Est-ce que le droit et l’éthique vont être dédiés ces 30 prochaines années à construire les limites disons possibles et acceptables des milliards d’objets qui seraient déployés pour remplacer ou modifier le travail des travailleurs, pour faire en sorte que vous n’ayez plus quelqu’un au téléphone, je n’en fais pas un absolu, un robot qui commandera la pizza à vote place, pour aller, finalement, s’insinuer absolument dans toutes les strates de la société, du commerce, de toutes les relations que vous allez avoir jusqu’à l’Ehpad où finalement vous aurez peut-être un robot. Je ne leur jette pas la pierre, je n’ai rien contre les robots, mais j’ai quand même un gros doute sur cette régulation, encore une fois toujours a posteriori. Quand est-ce qu’on se donne aussi, à mon avis vraiment pour lier cette question à la question environnementale, l’opportunité de dire stop ?

Laurence Devillers : Bien sûr.

Irénée Regnault : Je prends un seul exemple. Pour moi il manque aujourd’hui cruellement de démocratie, de contre-pouvoir, au global, dans ces développements techniques. Aujourd’hui les seuls qui sont capables d’arrêter, de freiner la surveillance et on l’a vu, il a fallu la mort d’une personne, de Floyd aux États-Unis, pour que Amazon, Microsoft, cessent, pour le moment, de vendre de la reconnaissance faciale à la police. Pendant ce temps-là, l’Europe est en train de tergiverser sur les conditions éthiques qui vont rendre ce truc possible, qui vont en déployer partout. En fait, on n’a même pas de réflexion sur : est-ce que ces outils en soi, et c’est la question qui était posée précédemment, sont démocratiques ? Il y a bien des outils qui sont démocratiques – j’y vais un peu à gros traits – et des outils qui ne le sont pas. Un outil qui vous flique en permanence dans la rue, qui vous donne la sensation d’être fliqué, qui vous bride ! À Londres des études ont été faites avec des étudiants et ceux-là ont déclaré que s’ils se savaient surveillés par reconnaissance faciale pendant une manifestation, ils seraient 28 % à ne pas y aller.
Et les biais j’ai envie de dire est-ce que c’est la question ? Ça fait dix ans que systématiquement, dès qu’il y a des données, elles fuitent. C’est quasiment une loi d’airain dans le numérique de toute façon : quand il y a des données quelque part elles finissent par fuiter quelque part d’autre malgré toutes les régulations et tous les chercheurs en cybersécurité vous l’expliquent, il n’y a jamais rien de totalement sécurisé.
Donc quand est-ce qu’on se donne aussi l’opportunité, pour des raisons de préservation des libertés et pour des raisons de consommation énergétique, de dire stop, on n’en veut pas, en fait. On ne veut pas de ces milliards d’objets.
La question des données est importante parce que c’est elle aujourd’hui qui sert aux associations à saisir le droit, je pense à La Quadrature du Net qui peut faire interdire certains systèmes grâce au RGPD2 [Règlement général sur la protection des données], mais ce n’est pas la seule question. Le RGPD nous coince dans une vision très individualiste des données, finalement, c’est toujours les données, l’individu qui se retrouve toujours seul face à la structure, qui ne peut rien faire. Or ces problèmes ne sont pas des problèmes personnels, individuels, ce sont des problèmes collectifs.

Confiance ou défiance des citoyens dans le numérique ?

Durée : 14 min 02
Visualiser la vidéo

Antoinette Rouvroy : Je voulais revenir sur cette question, ce postulat suivant lequel le public est méfiant. Moi je le trouve au contraire d’une confiance absolument naïve envers tous ces dispositifs. Il y a littéralement un amour pour ce qu’on appelle encore de la surveillance, que moi je n’appellerais peut-être plus comme ça, puisque personne ne veille dans cette surveillance et personne ne regarde plus personne. Je m’explique : cet amour, cette sorte d’autorité un peu incompréhensible qu’ont pris ces dispositifs, justement par une sorte d’aura de neutralité axiologique.

Laurence Devillers : Non, c’est faux ça !

Antoinette Rouvroy : C’est bien parce que ces dispositifs nous dispensent d’avoir à faire de la politique, nous dispensent de nous rencontrer dans l’espace public pour délibérer à propos de la chose publique qui est, comme le disait très bien Alain Desrosières, irréductible à la seule juxtaposition des petits intérêts de chacun, c’est bien parce qu’au contraire ces dispositifs nous individualisent et promettent à chacun de le gaver par avance de tas de choses par rapport auxquelles il n’a même pas eu l’occasion de forger son désir, c’est bien parce qu’on est dans cette sorte d’économie de la pulsion et que ça flatte précisément l’individualisme méthodologique des uns et l’individualisme consommateur des autres, que tout cela ne suscite véritablement pas du tout la méfiance, mais au contraire une très grande confiance.
Ce que à quoi nous avons à faire c’est à une promesse de désintermédiation radicale et de dispense des institutions. L’idée serait finalement, je pousse le bouchon un peu plus loin, de pouvoir se passer complètement de toutes les institutions. Qu’est-ce que c’est qu’une institution ? Jacques Rancière disait qu’une institution c’est d’abord ce qui fait la distinction entre ce qui relève du bruit et ce qui relève du signal. Dans la démocratie athénienne ancienne, le bavardage de femmes, comme moi par exemple, relèverait du pur bruit, le papotage, ça ne compte pas comme signal, c’est du bruit, tandis que ce que Irénée dirait, par exemple, notable comme il est, relève véritablement du signal.

Laurence Devillers : C’est important.

Antoinette Rouvroy : Les dispositifs numériques mettent tout ça à plat et c’est aussi pour ça qu’il y a une sorte d’aura justement de très grande démocratie, mais une démocratie totalement désintermédiée.
Donc cette idée d'un accès au monde en très haute définition, une définition qui nous dispense ou qui nous émancipe du joug de la représentation, et dieu sait comme c’est important aujourd’hui, cette idée que la représentation par le langage humain est toujours biaisée. On parle des problèmes des racisés, le langage lui-même est beaucoup trop colonial, etc. À cela, qu’apporte comme réponse cette sorte d’immanence numérique, c’est précisément de dire « vous n’avez plus rien à représenter puisque le monde parle par lui-même à travers des phéromones numériques que vous émettez ou que les machines produisent à votre propos ou à propos des relations que vous avez avec vos objets ou que les objets ont entre eux quand ils chuchotent à votre propos ». Cette désintermédiation est absolument, pour beaucoup, bienvenue, elle n’est pas source de méfiance, elle est bienvenue.

Irénée Regnault : On n‘a jamais vu de manifestation contre le big data. On a vu des manifestations contre la 5G, contre la reconnaissance faciale. Tout à l’heure on parlait de méfiance envers le big data, moi je ne vois pas méfiance envers le big data si ce n’est chez certains experts ou associations techno-critiques durs mais pas dans la société. On l’a dit au début, tous les gens sont sur Facebook et contents de l’être.

Laurence Devillers : Pas par paresse, parce que c’est pratique.

Antoinette Rouvroy : Et qui sont tout de suite caricaturés comme ayatollahs de la vie privée alors que l’enjeu n’est pas du tout la vie privée comme on l’a déjà dit.
Il y a aussi un autre élément que je trouve assez intéressant : dès qu’on se rend compte qu’il y a un problème de sous-financement d’un service public, que ce soit la justice, l’éducation ou la santé, qu’est-ce qu’on propose ? On propose la transition numérique. Vous voyez ! Finalement c’est une sorte de feuille de vigne qu’on met pour montrer qu’on fait bien quelque chose mais sans assumer la charge de véritablement gouverner qui serait la charge de faire des choix d’investissement conséquents dans tous les domaines, le domaine de la justice par exemple qui est vraiment sous-doté, par contre qu’est-ce qu’on pousse pour l’algorithmisation de la justice qui doit soi-disant résorber l’arriéré judiciaire ! Mais ça transforme les métiers, évidemment, d’une façon absolument substantielle, un jugement algorithmique ne relève plus du tout de la justice.

Laurence Devillers : Oui. Ça vous l’avez dit, bien sûr.

Karolien Haese : Je peux peut-être intervenir deux petites secondes. Je pense, encore une fois, que l’algorithmisation de la justice ou de l’enseignement ou de la médecine ou de l’environnement, du contrôle sur l’environnement, ce sont effectivement des outils qu’aujourd’hui on doit pouvoir pousser en avant. On doit pouvoir les pousser en avant sans l’anxiété d’un shift de souveraineté vers la machine. Tout le problème est là aujourd’hui. L’anxiété de la population, qui n’est pas nécessairement exprimée effectivement dans les grandes manifestations anti-big data, provient du fait qu’en réalité on ne sait pas où on va. À partir du moment où on ne sait pas où on va, on peut, et je rejoins Laurence, vendre pratiquement n’importe quoi, vendre des promesses, vendre l’efficience algorithmique qui est, en fait, une efficience qui va durer le temps de constater qu’en réalité ça ne fonctionne pas comme on voudrait que ça fonctionne.
De nouveau on a ici des outils qui sont des outils qu’il faut pousser en avant, mais avant de pousser ces outils en avant, il faut non seulement démystifier, mais comprendre d’où vient cette anxiété populaire lorsqu’elle est exprimée assez curieusement pour un tracing covid et lorsqu’elle n’est pas exprimée parce qu’on est en train de parler de Facebook. C’est tout à fait différent de donner ses données à Facebook et de faire une photo avec son chien en se disant c’est effectivement une entreprise privée qui va garder ma photo, que de dire, et je vais reprendre l’exemple de Frank Robben qui était bien connu en Belgique sur les banques centrales, de concentrer et de centraliser toutes les données entre les mains d’un organisme d’État qui va en même temps effectivement collecter, structurer, anonymiser, user et finalement appliquer. Donc il y a une gradation réelle entre ce que l’on considère déjà aujourd’hui comme étant normal de donner, même à la limite confortable, et entre ce besoin, on le voit effectivement pour des raisons financières, pour des raisons d’efficience, pour des promesses, de concentrer, de centraliser toutes les données entre les mains finalement d’un État dont on ne sait pas où il va aller.
Donc cette méfiance est en train de s’accroître et je ne suis pas sûre qu’à la prochaine crise, qui sera probablement effectivement une intervention écologique avec une traçabilité écologique, on ne va pas avoir, à un moment donné, avoir un stop en disant cette fois-ci ça suffit. Bientôt on aura effectivement des caméras qui vont nous dire « vous avez roulé à 111 km/h donc vous avez une empreinte carbone qui a augmenté de tant, donc une amende de tant ». Je ne dis pas que c’est demain mais c’est quelque chose qui serait techniquement possible.

Irénée Regnault : S’il y en a bien qu’on n’embête pas, ce sont les automobilistes !

Laurence Devillers : Ce n’est pas vrai ! Non ! On a parlé du 110 km/h, tout le monde a dit ça.
Je vais revenir sur un truc sur la représentation des femmes si vous voulez bien. Pour rebondir sur ce que disait Antoinette j’ai une petite phrase que je dis partout : 80 % des codeurs et des gens qui sont impliqués dans le numérique sont des hommes, d’ailleurs 80 % c’est peut-être en dessous de la réalité, et 80 % des objets dits intelligents capables de nous parler, etc., ont des noms féminins, des voix féminines, voire des apparences féminines. Donc qu’est-ce qu’on est en train de faire à travers ça ? La représentation de la femme c’est un assistant virtuel un peu frustre qu’on peut éteindre quand on veut. Cette prise en compte, back row comme vous disiez, me gêne beaucoup ; c’est un des problèmes. Un autre c’est la solidarité par exemple dans l’assurance. Pour chaque personne si on sait absolument quel est le risque précis et si on surveille tous ses faits et gestes, peut-être qu’il n’y aura plus cette solidarité possible. Or il faut maintenir cette solidarité dans la société, les fondements même de notre intelligence c’est d’être en groupe.
Pour moi, c’est toute la tension qui existe entre des outils qui, finalement, ne sont pas tellement que pour l’individu — si ça leur permet quand même, peut-être, de mieux se comprendre de temps en temps ce n’est pas mal —, mais c’est surtout comment on fait pour gérer collectivement les outils numériques. C’est à ce niveau-là qu’on devrait les gérer pour en tirer le maximum de profit et pas en remplacement d’un humain x fois. Mais, en même temps, c’est quand même assez anxiogène d’imaginer que nous allons être de plus en plus dans ces deux mondes, à la fois physique et non-physique.
Là il y a besoin d’éduquer, encore une fois je reviens sur ces sujets. La réalité virtuelle, le fait de passer d’un monde à l’autre, ce n’est pas si évident. Je pense que ça va arriver, indéniablement. Est-ce qu’on peut une fois pour toutes dire arrêtons d’être sceptiques, arrêtons d’avoir peur. Si on anticipait en essayant de mieux comprendre au mieux ce qui va se passer et puis, pour moi, il faut vraiment renforcer les expérimentations, c’est-à-dire comment on peut inclure les gens. À chaque fois que j’ai parlé devant des auditoires assez larges où il n’y avait pas beaucoup de gens qui connaissaient vraiment, finalement il suffisait qu’il y ait dans la salle une infirmière ayant travaillé dans un univers avec des personnes âgées pour dire d’un seul coup : « Vous avez raison. À un certain moment je n’arrive plus à être en phase avec quelqu’un parce que c’est trop lent. Il réagit de façon tellement différente que peut-être une machine, là, pourrait réagir de façon à relancer l’interaction sociale ». Vous levez les sourcils. Je m’explique.

Par exemple le robot Paro qu’on prend dans les bras, je l’ai vu pris dans leurs bras par des personnes Alzheimer très avancées, qui ne réagissaient plus du tout à l’interaction sociale. Ce truc qui se présentait finalement comme un animal qui se tortille, qui répond à vos caresses, ramenait un sourire sur les visages, physiquement, c’est-à-dire que le toucher physique de cette chose, qui bougeait avec vous, ramenait cet aspect vivant et les gens autour venaient parler à la personne. On parle beaucoup d’isolement des autres, de perte d’interaction sociale, en ayant fait des tests dans des Ehpad je me suis rendu compte plusieurs fois qu’on pouvait médier par ces machines la sociabilité entre plusieurs personnes qui se sont éloignées. Allez voir dans les Ehpad, il y a un travail qu’on pourrait mener non pas parce que les gens ne sont pas bien, mais en complément de ce qui existe ; avec ces outils, peut-être qu’on aurait justement un lien qui n’est pas les isoler totalement. C’est en ça que c’est compliqué, c’est en cette compréhension de ce que ça peut apporter à la fois en créativité dans des domaines. On n’a pas tout l’univers. Si je pense au juridique par exemple, je crois que c’est dans l’affaire Grégory qu’ils ont remonté les pistes différemment en trouvant finalement peut-être une possibilité de culpabilité qu’ils n’avaient pas vue alors que tous les documents étaient là.
Quand on compare l’intelligence humaine à ce qu’on sait faire avec une machine qui joue par exemple au jeu de go et qui bat les humains, on ne compare pas humain/machine. On compare 100 ingénieurs extrêmement brillants avec une capacité d’énergie fulgurante, ce qui n’a rien à voir avec cette comparaison et, encore une fois, ce n’est pas du tout la même intelligence qui est mise en jeu. J’évite aussi de comparer. Je pense que dans la comparaison on fait des erreurs. L’anthropomorphisation des objets nous amène encore plus à croire cela.
Dans le langage il y a ce pouvoir, en fait, de manipulation réelle. Mon sujet est de faire parler les machines ou de faire qu’elles comprennent. L’intelligence affective dont j’ai parlé tout à l’heure ce sont trois choses technologiquement, ce n’est pas du tout comprendre parce que la machine ne comprend rien. C’est décrypter dans le langage parlé à travers la musique de la voix et les mots un état émotionnel, je ne vais pas dire les émotions de la personne parce qu’elles sont cachées, mais ce qu’elle a exprimé. Et, de l’autre côté, c’est synthétiser et dire « je vous aime, vous êtes formidable ou je ne sais pas quoi ». Au milieu il n’y a pas énormément d’informations utilisées, ce sont des stratégies, c’est encodé c’est encore soit à partir de big data soit avec des règles d’expert. En tout cas ce n’est en rien intelligent, en rien ! Et c’est ça qu’il faut arriver à décrypter, c’est bien montrer qu’on se fait manipuler par ces objets.

Je travaille sur le nudge qui n’est même pas une manipulation visible, c’est un peu une suggestion ; on vous met devant le nez quelque chose pour que vous le preniez. Le nudge c’est facile : si vous prenez une chambre d’hôtel avec Internet, il y a une petite ligne rouge en dessous qui va vous dire « 25 autres personnes sont en train de regarder cette chambre » et là vous dites « je la prends tout de suite parce que je ne l’aurai pas ». C’est travailler sur ces biais.

Valérie KokoszKa : C’est absolument de l’influence.

Laurence Devillers : C’est de l’influence ! On ne se rend pas compte à quel point. De la même façon, ce que j’ai dit tout à l’heure qui n’est juste que renforcer les stéréotypes vis-à-vis des femmes dans certains cas, c’est-à-dire qu’elles sont plus douces, plus proches pour soigner, plus ci, plus ça, les stéréotypes vont être énormément renforcés par tous ces outils et ça, c’est très invisible !
Mes peurs qui sont en connaissance de cause de ces objets et de la manipulation qu’il y a derrière sont réelles aussi. Il ne faut pas ne pas avoir peur. Il faut avoir peur pour des choses qu’on a étudiées, non pas peur pour des choses qui n’existent pas et qui sont de la science-fiction.

Conclusion(s) - Les innovations numériques, au service du bien individuel et collectif ?

Durée : 21 min 05
Visualiser la vidéo

Antoinette Rouvroy : Ce sont des non-conclusions parce que ce genre de débat est interminable, mais il faut bien terminer quand même, c’est ce que le juge fait quand il tranche sur fond d’incertitude ; ce n’est pas fini, mais il doit finir quand même.
Je dirais que le gros risque c’est de se complaire dans une sorte d’état science-fiction. En fait de se satisfaire, finalement, d’un mode de fonctionnement qui serait dicté par un impératif d’optimisation d’absolument tout. Chacun optimise, ce n’est plus la lutte des classes, c’est la lutte des places, et chacun finalement est en concurrence avec tous les autres à l’échelle du phéromone numérique, c’est-à-dire du signal absolument insignifiant mais qui va être recomposé, compilé, comparé avec les signaux émis par les autres et c’est comme ça qu’on est dans une sorte d’économie de la réputation où tout le monde est noté, c’est l’ubérisation, « je vais avoir combien d’étoiles ? Et toi tu as combien d’étoiles ?, etc. », et c’est ça, beaucoup plus que la standardisation des comportements.
Le risque, au contraire, c’est finalement d’être gouverné hors les normes parce qu’il n’y a plus de normes ; on n’est jamais assez normal ! On n’est jamais assez souriant quand on est chauffeur d’Uber, etc. On est gouverné hors des normes mais on se dilue dans les flux, parce c’est impossible d’exister en tant que sujet dans ce genre de contexte. D’ailleurs le sujet est complètement évacué, c’est pour ça que s’arc-bouter sur la question de protection des données personnelles, etc., je pense que c’est très utile la protection des données personnelles mais pas pour ici, pas pour ce contexte de données massives, etc.. La donnée personnelle n’existe pas, la donnée n’est jamais que relationnelle. Ce qui donne une utilité potentielle à une donnée personnelle c’est la possibilité qu’elle a d’être mise en corrélation avec d’autres données qui n’ont absolument rien de personnel par rapport au sujet. Ça c’est une chose.
L’aspect très collectif me semble absolument important.
Par ailleurs, je ne résiste pas à la tentation, un peu perverse je dois dire, de répondre à Laurence Devillers une phrase qui n’est pas de moi, que je n’assume pas personnellement, c’est vraiment la lâcheté absolue, c’est Giuseppe Longo, mathématicien. Dans un colloque au Collège de France organisé par Alain Supiot à la fin de sa carrière, j’étais dans un panel avec Giuseppe Longo et il a dit : « Un monde dans lequel les petits-enfants et les petits chiens ne font plus caca est un monde de merde ! ». J’ai trouvé ça assez terrible ! Certes, je n’irais pas jusque-là, c’est une blague évidemment, mais ça rejoint mon souci pour, finalement, cette obsession immunitaire du tout calculable. L’enjeu ce n’est plus de gouverner, en fait, le sol que nous avons sous nos pieds, ce n’est plus de gouverner les personnes, ni même à la limite leurs comportements, mais d’immuniser ce qu’on peut bien appeler le capitalisme et les flux capitalistiques contre tout ce qui logiquement devrait les interrompre urgemment étant donné les urgences du moment c’est-à-dire la vie, la vie même, dont la caractéristique essentielle est précisément l’altération imprévisible. Les sujets, les sujets individuels et collectifs sont ici complètement contournés par des dispositifs de profilage, etc., qui ne s’intéressent finalement qu’à des fragments infra-personnels d’existence quotidienne qui sont traités à l’échelle industrielle, qui sont reliés statistiquement à des modélisations qui sont établies à l’échelle industrielle, des modélisations qui sont, au départ, assez impersonnelles mais prédictives. Ce qui est court-circuité c’est vraiment le sujet individuel mais surtout collectif et politique et enfin, le monde lui-même.
Croire qu’on peut substituer au fait d’interroger le monde dans sa matérialité, qu’on peut substituer à l’enquête, à des preuves, à l’examen dont Michel Foucault a tellement bien parlé, qu’on peut substituer à ça simplement les data sciences, c’est comme si les data sciences allaient pouvoir nous dire quoi que ce soit alors qu’en fait ce qu’elles produisent essentiellement – je caricature un peu parce qu’on a peu de temps – ce sont, si vous voulez, des fenêtres d’opportunités, ce sont des risques et des opportunités. Ça donne finalement une prise à l’advenir. C’est-à-dire que ça permet à certaines entreprises, par exemple, de coloniser quelque chose qui précédemment était totalement hors d’atteinte qui est la potentialité pure, c’est-à-dire notre avenir.
L’enjeu est véritablement politique. C’est ce qu’il faut interrompre. Nous, en tant qu’êtres humains qui avons des corps qui sont situés, nous ne pouvons nous relier les uns aux autres, donc nous confronter à de la politique c’est-à-dire à ce qui n’a pas été prévu pour nous et qui engage bien plus que nous, qui engage ce qui n’a pas laissé de traces numériques parce que c’est l’avenir — les enfants de nos enfants n’ont pas laissé de traces numériques et ne sont pas représentables aujourd’hui — pour donner voix à ce qui n’a pas de voix aujourd’hui, nous sommes bien obligés d’interrompre tout ça de temps en temps. Il faut de l’espace, il faut du temps et il faut de la persona c’est-à-dire de la personne juridique. Je pense que la personne juridique, le sujet de droit, n’est absolument pas soluble dans le numérique.

Valérie KokoszKa : Oui, absolument. Irénée.

Irénée Regnault : Ça va être dur de passer après cela. Merci Antoinette. Quoi dire ? J’ai quand même l’impression, hormis cette dernière intervention, qu'on rétrécit un peu l’éléphant dans la pièce.
La plupart des technologies qui sont déployées, les technologies de surveillance le sont, en France en tout cas, plutôt par des entreprises, des entreprises qui pratiquent un lobbying intense sur nos élus. Je pense qu’on aura beaucoup de mal à interroger la démocratisation des choix techniques, scientifiques, si on n’interroge pas la provenance des capitaux et les idéologies sous-jacentes, les systèmes économiques sous-jacents.
Peut-on faire une technologie humaine, centrée sur l’humain, je ne sais pas ce que ça veut dire mais ça veut sans doute dire quelque chose, dans un système capitaliste qui cherche la performance, qui fait de l’innovation pour de l’innovation, ça c’est une question.
Il y a un exemple que je trouve rigolo, on l’a décrit dans notre bouquin qui va sortir, on parle, à un moment donné, de l’automatisation des caisses par exemple dans les hypermarchés ; vous allez me dire que ce n’est pas un algorithme, c’est une machine, finalement c’est quand même un petit peu comme un algorithme. On met des caisses automatiques dans les hypermarchés pour faciliter le travail des caissières, c’est ce qu’on dit, en fait c’est tout l’inverse, ça détruit complètement le collectif de travail et le travail du caissier ou de la caissière, tout en réduisant éventuellement une partie des emplois. Donc ça transforme, ça réduit, ça nuit à l’emploi et ça automatise, ça a conforté un système d’hypermarché qui, et on le sait bien, n’est pas souhaitable, les hypermarchés en périphérie des villes qui, eux-mêmes, vont conditionner tout un étalement urbain qui est derrière. Regardez où est-ce qu’il n’y a pas de caisses automatiques, c’est souvent dans les coopératives. Juste pour avoir ce rapport à la technologie, ce rapport dans l‘entreprise, en tout cas dans l’entité productive, ce n’est pas toujours une entreprise, ça peut être autre chose.
Comment, Laurence Devillers par exemple, puisque vous le suggérez, on peut aller au contact de gens pour faire des bonnes machines avec eux ? Eh bien ça pose la question des objectifs qu’on poursuit, des objectifs socio-économiques qu’on poursuit dans la vie. Et dans la vie il y a la sphère productive qui est aujourd’hui à part de la vie, elle n’y est pas comme avait dit Polanyi3, elle est encastrée dans la société. Cette question-là est quand même sous-jacente.
Aujourd’hui, si on a une intelligence artificielle complètement pourrie, qui suit des objectifs complètement hors-sol et qui fait strictement n’importe quoi, qui accélère, je n’ai pas d’autres mots pour le dire, on est en train d’accélérer, ce qu'il ne faudrait pas faire, mais c’est bien parce que qu’on ne se pose pas ces questions. Si on veut revenir à la question démocratique, posons-nous aussi la question du cadre socio-économique dans lequel nous vivons, du rôle des entreprises dans une société, je crois qu’on est aussi beaucoup à s’en rendre compte, il y a eu la loi PACTE [Plan d'action pour la croissance et la transformation des entreprises], des choses qui bougent un petit peu, ça va quand même très lentement. Si on n’interroge pas ça, concrètement on va passer à côté du problème, on va continuer avec les mêmes formes juridiques, avec les mêmes objectifs, avec la même éthique, avec à la fin des objets seront déjà là et qui auront pollué et sans tenir compte des transformations que cela aura pu opérer chemin faisant.

Valérie KokoszKa : Je pense que je peux faire la transition entre vous parce que je suis assez d’accord, en tout cas, sur vos deux interventions.
Déjà ne fut-ce que sur la question de l’individu. Pour moi effectivement, en posant la question de la liberté fondamentale, c’est d’abord celle de l’engagement et de l’engagement de l’individu, de la personne dans le monde dans lequel il est. Et cela avec tous les possibles, non pas au sens de l’avenir, mais au sens de l’inédit, au sens de ce que l’on est sans cesse capables de découvrir en en faisant les preuves, ce qui nous rend littéralement créatifs là où la machine ne peut, au mieux, qu’être innovante. C’est-à-dire avoir finalement une facilitation, une amélioration d’un processus qui est déjà connu.
Je pense que seul l’humain est créatif parce qu’il est le seul à être affectable par quelque chose d’imprévu qu’il peut reprendre et générer autrement.
D’une certaine manière, ce qui m’ennuie aussi dans cette espèce de machinisation du monde, c’est finalement qu’on est de plus en plus privé d’une créativité aussi bien individuée que collective. Et c’est en cela que, quelque part, le fait de perdre en liberté, en liberté fondamentale, mais ce n’est pas au sens de ce qui nous fonde et de ce qui nous permet de nous fonder ensemble collectivement, mais finalement créer toujours plus de distance entre nous et toujours moins d’inscription dans le monde dans lequel nous vivons, au sens strict, d’en faire les preuves.
Je vais m’arrêter là parce qu’il y a encore deux personnes qui ont à intervenir et clôturer, mais je vous remercie de toute manière parce sera mon dernier mot de ce débat.
Laurence, Karolien.

Karolien Haese : Vas-y Laurence, avec plaisir.

Laurence Devillers : Je vais intervenir sur deux niveaux.
Je pense qu’on a aussi à apprendre sur nous-mêmes avec ces machines, je vais essayer d’être positive parce qu’il y a eu tellement d’aspects un peu à risque avant moi que je vais me permettre de pousser vers les bénéfices, au moins l’ouverture d’esprit à la créativité.
Je me rappelle avoir travaillé un peu avec EDF sur des projets innovants. Par exemple dans un jury quelqu’un arrivait avec un système de réalité virtuelle pour essayer d’apprendre les gestes de secours et demandait aux gens qui étaient là – majoritairement masculins, il n’y avait pas de femmes, il y avait moi et une autre, mais très isolées – à tous ces grands esprits « avez-vous déjà fait ce genre de séance, d’apprentissage des gestes qui sauvent ? » Ils ont répondu oui, moi je ne l’avais jamais fait, mais j’avais vu des gens qui l’avaient fait, qui montraient ces gestes-là. La deuxième question de cette personne, c’était : « Vous voyez quelqu’un qui s’écroule devant vous dans la rue, allez-vous l’aider ? » Et là, personne n’a levé la main. Moi je l’ai levée parce que je me suis dit il faut faire quelque chose, voyons avec ce que je connais.
En fait, il montrait de la réalité virtuelle qui permettait en deux/trois heures d’avoir l’acquisition des gestes et de comprendre en expérimentant dans un champ qui était virtuel et réel quelque chose qui permettait de mieux marquer l’apprentissage et la compréhension des gestes qu’il fallait faire. Il y avait un faux mannequin, il y a eu une projection sur lui. Quelqu’un qui accompagnait, c’était très important aussi, donc dans le monde réel, qui était une voix qui accompagnait dans la démarche d’apprentissage avec un casque virtuel. Pour avoir expérimenté la virtualité pour d’autres choses, pour se rendre compte, dans l’écologie, ce que c’est que de faire brûler une forêt ou comment pousse une graine, enfin des choses comme ça, on a à apprendre avec ces outils étranges, à mieux comprendre certaines choses. Donc si on pouvait les utiliser comme ça, on aurait intérêt à comprendre la créativité des machines.

La deuxième chose c’est le collectif qui m’intéresse aussi. Récemment je suis allée travailler, j’ai participé à des débats, je montre ce que c’était [Laurence montre une affiche, NdT], c’était « L’Urgence des alliances » et ça c’est pour moi le vrai sujet. J’ai parlé de quoi ? On parlait de culture et de santé, de culture et d’économie, de culture et d’éducation et je suis intervenue dans un débat sur la culture et la science. Comment on fait pour faire passer ces outils de techno-science auprès de tout le monde ? Comment on fait pour faire que la littérature, le théâtre parlent plus de ces sujets ? Pour l’instant on voit l’aspect juridique, on parle d’éthique, tout ça, mais arrêtons, parlons de la vie de tous les jours et regardons comment on peut améliorer la vie de tous les jours des gens sans contraindre forcément leur liberté. Je comprends ! Cette façon de le voir c’est facile, c’est le premier truc qu’on voit. Évidemment, si vous êtes en captation partout, où vont vos données… Imaginons qu’on arrive quand même à gérer la cybersécurité, à laisser vos données sur l’objet, tout un tas de choses qu’il faut verrouiller, imaginons que l’objet soit aussi à priori ethic by design, c’est pour ça que ce n’est pas forcément a posteriori. Ce que l’on pense vraiment maintenant c’est qu’il faut coconstruire les objets avec l’usage, avec des gens qui maîtrisent bien l’usage qu’on veut faire, qui ne le maîtrisent pas tout le temps mais en tout cas qu’il y ait cette boucle de co-contruction de l’objet avec différentes personnes en pluridisciplinarité, que ce soit avec des industriels mais aussi avec des économistes, mais avec aussi, peut-être, des psychiatres dans la boucle pour les questions de l’humain qui pourraient en avoir des effets secondaires. Il est important de concevoir comme ça. C’est ça qu’il faut pousser pour moi.
Et puis il faut apprendre à penser loin, c’est-à-dire à écouter, à douter, à chercher, à risquer, et la façon dont les scientifiques abordent une problématique c’est de prendre des hypothèses, de faire un cadre, de proposer des protocoles, d’essayer d’évaluer ce qu’ils ont fait. Pouvoir remettre en question les choses, c’est, à mon avis, une façon assez saine d’appréhender le futur avec ces machines.
C’est dans cet échange transversal entre sciences humaines et sciences dures ou techno-sciences qu’on va pouvoir, j’espère, construire pour amener le politique à être plus conscient des enjeux.

Valérie KokoszKa : Merci beaucoup. Karolien pour finir.

Karolien Haese : Pas facile de conclure quand on a trois brillants intervenants juste avant !
Je pense qu’aujourd’hui le résumé de ce qu’on a entendu c’est ce besoin qu’on a d’urgence de réconcilier l’homme avec la machine, de réconcilier l’homme, l’individu avec l’intelligence artificielle, avec cette notion de la plus-value que peut apporter, à un moment donné, l’algorithme dans notre vie de tous les jours.
Cette première étape de réconciliation va, et on l’a entendu plusieurs fois, passer par une éducation, une sensibilisation, une formation citoyenne à ce qui est et restera effectivement un outil au profit de la citoyenneté, au profit des politiques, au profit de l’entreprise, au profit du bien-être, dont il faut absolument éviter la dérive.

Quelque part, dans le cadre de cette réconciliation, il faudra aussi et toujours se souvenir, et on l’a entendu plusieurs fois, que c’est l’homme qui crée la loi, c’est l’homme qui crée le cadre, c’est la politique qui, à un moment donné, est capable de dire voilà où on en est aujourd’hui dans les choix que font nos citoyens, et vous, concepteurs de cette technologie, vous, concepteurs et programmeurs humains de ces algorithmes, n’oubliez pas que ce cadre existe. Il ne faudrait pas inverser la dynamique pour, à un moment donné, arriver à ce que la loi s’adapte à la vitesse ou à l’intelligence artificielle et ses prouesses à venir, mais qu’au contraire l’intelligence artificielle s’adapte aux objectifs qui sont des objectifs qui doivent être fixés par la loi, donc par la création citoyenne, la création politique, on l’a répété plusieurs fois. Il s’agit avant tout d’un problème citoyen, d’un problème politique.
Rappelons que la loi est là pour être votée dans la citoyenneté, pour donner finalement un dynamisme, aussi pour freiner lorsque les choses vont trop vite ou pour éventuellement accélérer, on l’a vu avec le covid, lorsque c’est nécessaire et lorsqu’on a besoin d’un outil plus performant.
N’inversons pas cette dynamique et revenons à ces bases de fonctionnement de la démocratie qui sont constitutionnelles, qui veut qu’on élise un parlement démocratiquement avec des attentes citoyennes exprimées par rapport à un politique. Et aujourd’hui il y a une très grande déception citoyenne par rapport à des attentes auxquelles les politiques manifestement ne répondent pas, tantôt influencés par le lobbying, tantôt influencés par un besoin d’argent parce qu’ils ne peuvent plus faire face à une solidarité et payer finalement ce qu’il faut pour permettre à la majorité des citoyens de bénéficier de l’accès à la santé, à la culture, à l’enseignement et à la sécurité, ou tantôt influencés beaucoup plus gravement par leur propre égo et leur propre course au mandat, en espérant que c’est effectivement la minorité des politiciens qui le vivent.
On l’a vu encore aujourd’hui avec la condamnation de François Fillon qui est largement basée sur un ensemble de documents qui ont été produits post-traçage financier. Ça c’est vraiment l’exemple où l’on peut dire à un moment donné, on a un outil, on a un outil qui permet d’améliorer la justice, mais on a un outil qui ne peut certainement pas remplacer un juge. On a un outil qui peut permettre d’arriver à de l’evidence-based en médecine, mais on ne peut certainement pas, à un moment donné, dire au médecin « merci, c’est bien gentil ». On a, comment expliquer, une majorité, en tout cas une proportion suffisante pour dire que le taux d’erreur de la machine est équivalent à celui du médecin, donc on va se passer du médecin, oubliant l’individu.
Ce que j’en retiens aujourd’hui : inversion des dynamiques qui est bien présente parce que l’outil est poussé pour de multiples raisons dans la société, donc un retour, un besoin de se retourner vers le citoyen en disant « citoyens, n’oubliez pas qu’à la base, quand vous allez élire quelqu’un, quand vous allez discuter avec une association, quand vous êtes à l’école, quand vous parlez effectivement avec des spécialistes, c’est vous qui, quelque part, fixez le cadre dans lequel vous avez envie d’évoluer ». Un débat citoyen c’est aussi ça. Et ce cadre, eh bien on le met en place, et l’outil doit être au service de ce cadre, doit être au service de l’humain. Si on revient, effectivement, avec la phrase marketing de « l’humain au centre » – phrase dont j’ai absolument horreur, parce que heureusement que l’humain est au centre, il ne faudrait même pas avoir à le dire, ça doit être une évidence – si on veut mettre l’humain au centre, laissons lui fixer quelque part le cadre dans lequel les machines doivent évoluer. Le monde de l’entreprise cette année-ci à Davos en 2020, a vraiment cédé, je dirais, à ça, en parlant d’actionnariat de parties prenantes, pour la première fois, plutôt que de parler d’actionnariat, comme on le connaît à la base, des investisseurs.
On voit bien qu’il y a un changement de mentalité qui se dessine en disant « oh là, là,les parties prenantes » ! On commence par le citoyen. Ça c’est un citoyen. Et je clôturerai là-dessus.

Valérie KokoszKa : Merci. Jean-Marc.

Jean-Marc Desmet : Merci beaucoup. C’était passionnant. J’ai beaucoup apprécié toutes ces conclusions. Je voulais juste faire une petite remarque en tant que médecin clinicien. La crise, j’ai vu surtout de l’IH et de l’IC, ça veut dire l’intelligence humaine et de l’intelligence collective qui ont bien fonctionné par rapport à l’apport de l’IA. Pourtant je suis quelqu’un qui souhaite intégrer l’IA non pas comme une finalité mais comme un moyen intéressant. Pour moi c’est l’équation gagnante, en tous les cas dans le domaine dans lequel je travaille, c’est-à-dire la médecine où l’humain est évidemment au centre.
Merci.

Laurence Devillers : Merci beaucoup de cette rencontre.

Valérie KokoszKa : Merci à tous.

Irénée Regnault : Merci beaucoup.

Jean-Marc Desmet : Merci à tous.

Karolien Haese : Merci beaucoup. Très bonne soirée.

Réunion du groupe de travail Sensibilisation de l'April jeudi 27 août 2020 à 17 h 30 (accueil à 17 h 15) à distance

mar, 08/25/2020 - 14:21
Start: 27 Août 2020 - 17:15End: 27 Août 2020 - 19:30

Le groupe de travail Sensibilisation

L'objectif du groupe de travail Sensibilisation de l'April est la production d'outils de communication pour sensibiliser un plus large public aux enjeux du logiciel libre et des formats ouverts. Toutes nos ressources sont publiées sous licence libre, ainsi toute personne ou structure souhaitant sensibiliser au logiciel libre autour de soi peut les utiliser, les modifier et les partager librement.

La participation aux actions du groupe de travail Sensibilisation est ouverte à tout le monde (membre de l'April ou pas).

Quand et quoi ?

Le groupe de travail Sensibilisation de l'April se réunit chaque 3ème jeudi du mois. D'autres réunions ponctuelles peuvent être organisées au cours de l'année.
Toute personne intéressée peut participer aux réunions du groupe (membre de l'April ou pas).

Une réunion du groupe Sensibilisation aura lieu jeudi 27 août 2020 en visioconférence. Horaires : dès 17 h 30 et jusqu'à 19 h 30 (accueil à partir de 17 h 15). Il sera possible de rejoindre la réunion à tout moment. À cette occasion, nous continuerons à rédiger le descriptif des cases du plateau du Jeu du Gnou (pour le projet Jeu du Gnou, voir plus bas).

Pour tous les détails et vous inscrire à la réunion, rendez-vous sur le pad. Si vous prévoyez de rejoindre la réunion après 17 h 30, merci de préciser votre horaire d'arrivée en plus de votre nom/pseudo.

Jeu du Gnou

Le Jeu du Gnou est l'un des projets en cours du groupe de travail Sensibilisation. Il s'agit d'un jeu de plateau coopératif et pédagogique dont le but est de sensibiliser le grand public aux enjeux de l'informatique (libertés vs servitudes, protections contre les dangers).

On peut déjà jouer au Jeu du Gnou ? Oui ! Il est possible de télécharger les éléments graphiques de la version beta depuis le pad principal du jeu.

Qu'est-ce qu'il reste à faire ? Finaliser le livret accompagnant le jeu, réaliser le graphisme, rédiger de nouvelles questions.

Comment contribuer ? Tester le jeu, relire et rédiger les textes, proposer des images, sont autant d'actions possibles pour nous aider à faire avancer le projet. Sans oublier bien sûr la participant aux réunions ! :-)

Pour en savoir plus sur le Jeu du Gnou et sur comment contribuer, voir la page wiki du projet.

Revue de presse de l'April pour la semaine 34 de l'année 2020

lun, 08/24/2020 - 22:06

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Next INpact] Open source, libre et communs: contribuer ne nécessite pas de développer (¤)

✍ David Legrand, le mercredi 19 août 2020.

Si l’open source et le logiciel libre gagnent du terrain dans notre quotidien, nous ne sommes en général que des bénéficiaires de ces communs. Habitués à une position de consommateur dans un écosystème numérique ouvert, pourtant pensé avec une certaine symétrie. Participer est donc possible, même si vous n'êtes pas développeur.

Et aussi: [Le Monde Informatique] Open source: communauté/entreprise, le respect des rôles

✍ Matt Asay, le mercredi 19 août 2020.

Open Source: Pour Lili Cosic, responsable de kube-state-metrics et employée de Red Hat, la question n’est pas de savoir ce que Red Hat attend du projet, mais de…

[Le Monde.fr] L'application Notepad++ censurée en Chine

Le mardi 18 août 2020.

Le site du logiciel libre, très populaire chez les développeurs, a été bloqué par le pouvoir chinois à la suite de prises de position en faveur des Ouïgours.

Et aussi:

Découverte de Framasoft - Petite interview d'Angie Gaudion

jeu, 08/20/2020 - 13:06


Titre : Découverte de Framasoft - interview d'Angie Gaudion pour la FabriK à DécliK
Intervenante : Angie Gaudion
Lieu : La FabriK à DécliK
Date : juin 2020
Durée : 21 min 23
Écouter ou enregistrer le podcast
Licence de la transcription : Verbatim
Illustration : capture d'écran de la vidéo - Licence Creative Commons Attribution Partage dans les mêmes conditions
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Petite interview d'Angie Gaudion, chargée de relations publiques chez Framasoft.

Transcription Peux-tu te présenter en quelques mots ?

Avant d’être dans cette structure j’ai été bibliothécaire pendant 15 ans, pas grand-chose à voir et en fait si, beaucoup de choses à voir, en tout cas il y a des liens très forts entre le monde des bibliothèques, de la documentation et, finalement, l’esprit libre. On reviendra sur ce que fait Framasoft par rapport à ça. Ensuite j’ai été pendant trois ans formatrice numérique pour les bibliothécaires principalement mais pas que.
Je suis arrivée chez Framasoft en février 2019 en tant que chargée de relations publiques, sachant que c’est un titre mais que mes activités au sein de la structure sont diverses et variées parce qu’on est une petite structure de 9 salariés et 35 membres.

Framasoft1 c’est quoi ?

C’est une association à but non lucratif d’éducation populaire2. Ce qu’on fait c’est vraiment de l’éducation populaire, on se positionne dans ce champ à savoir, en gros, accompagner les internautes dans leurs usages numériques au sens large du terme avec, on va dire, une direction principale qui est l’utilisation des logiciels libres.
On est une structure qui est financée à 98,2 % par les dons, ce qui veut donc dire que notre modèle économique repose exclusivement sur ce que les internautes veulent bien nous donner. On ne bénéficie pas de subventions publiques, on n’est pas dépendant de qui que ce soit, ce qui veut aussi dire qu’on prend compte le fait que si personne nous donne d’argent on arrête. Voilà ! Ça fait du système tel qu’on le conçoit. C’est-à-dire que si les gens ne nous donnent pas d’argent ça veut dire qu’à priori ils considèrent que ce qu’on leur propose n’est pas intéressant donc, dans ce cas-là, c’est bien d’arrêter.
Pour la petite histoire Framasoft est née en 2001. C’est resté un collectif informel pendant trois ans avant de se structurer en association. En 2001, en fait, ce sont trois enseignants d’un collège en région parisienne qui font le constat que les logiciels libres sont très peu connus par le monde enseignant et qui se disent qu’il faut valoriser ces outils auprès de cette communauté. Donc pendant trois ans l’activité de Framasoft a été principalement d’identifier les logiciels existants, les logiciels libres, d’en faire une base de données.
En parallèle de ça, à partir du début de l’association, les adhérents de l’association se sont dit qu’il fallait vraiment accompagner les internautes dans leur culture numérique, que c’était très bien de mettre en place une base de données, un annuaire de logiciels libres, mais que ce n’était pas du tout suffisant, donc Framasoft a commencé à intervenir dans des différents espaces que ce soit des salons, des foires, des conférences dans des MJC, dans des théâtres. C’était assez variable ces types d’interventions. D’ailleurs on continue toujours de faire ça, ça fait partie de notre activité permanente pour expliquer ce que c’est que le logiciel libre, pour expliquer en quoi le Web tel qu’il est aujourd’hui peut être un problème, donc on a tout un travail vraiment d’éducation populaire.
En parallèle on travaille bien sûr en partenariat avec énormément d’autres structures, dont des structures d’ailleurs de l’éducation populaire qu’on va accompagner pour qu’elles-mêmes soient des relais de transmission de notre discours.

Ce qui nous a fait peut-être le plus connaître au niveau national, on va dire en France, c’est quand en 2014 on a lancé une initiative qui s’appelle Dégooglisons Internet3 et qui a eu un certain succès, en tout cas médiatique.
Pour la petite histoire, ce programme est venu suite aux révélations d’Edward Snowden4 en juillet 2013 [juin 2013, NdT]. Il a révélé au monde entier qu’en fait les données qui étaient à l’intérieur des services numériques qu’on utilisait en grande majorité étaient finalement récupérées par les services de renseignement américain. Ça a posé effectivement beaucoup de problèmes à l’association puisque notre association est aussi une association qui revendique la liberté en général et particulièrement les libertés numériques. L’association s’est dit du coup que face à ces services il fallait absolument valoriser des alternatives plus éthiques. Donc Dégooglisons Internet c’est vraiment un programme dont l’objectif est de montrer qu’il y a des alternatives à tous les services proposés par les géants du Web.
Entre 2014 et 2017 on a monté ces 38 services. Il y en avait une dizaine qui étaient déjà là depuis quelques années, mais on a vraiment monté en charge tous ces services pour avoir le maximum d’alternatives. Sachant que les services, ce qu’on appelle les « Framatrucs » ou les « Framabidules » – tous nos services commencent par « Frama » – sont majoritairement des outils qu’on n’a pas développés, c’est-à-dire que c’étaient des logiciels qui existaient déjà, on les a juste habillés pour leur donner une visibilité ; ensuite on les met à disposition des internautes.
On en a quand même développé plusieurs : Framaforms5 qui est l’alternative à Google Forms pour faire des formulaires ; Framadate6 qui est l’alternative à Doodle, on peut choisir des dates, un sondage de dates ; et puis deux logiciels pour lesquels on est encore sur du développement qui sont PeerTube7, alternative à YouTube, d’ailleurs celui-là ne s’appelle pas « framaquelquechose », et le petit dernier qui s’appelle Mobilizon8 qui est encore en version bêta, donc aujourd’hui il n’y a pas d’utilisation publique, qui est un outil dont l’objectif est d’être une alternative aux évènements et aux groupes Facebook.

Qu’est-ce qu’un Logiciel Libre ?

Pour qu’un logiciel soit libre il faut qu’il respecte ces quatre libertés :

  • la première liberté du logiciel libre c’est celle d’exécuter le programme, comme on le veut, pour l’usage qu’on veut, c’est-à-dire qu’il n’y a pas de contraintes sur le programme qu’on va utiliser ;
  • la deuxième liberté c’est celle d’étudier le fonctionnement du programme, c’est ce qu’on appelle l’accès au code source. C’est-à-dire que je peux accéder à l’intégralité du code qui constitue le logiciel. Vous allez me dire si je ne suis pas développeur, je ne vois pas trop à quoi ça va me servir. Effectivement, moi en tant que non développeuse, je peux bien aller regarder le code, ça ne va pas me dire beaucoup de choses ! En revanche, je peux m’appuyer sur des gens qui savent lire le code pour m’assurer qu’il n’y a pas des trucs pourris cachés dans le code, ce qui n’est pas le cas avec un logiciel privateur parce qu’on n’a pas accès au code source, on ne sait pas du tout ce que le logiciel fait sans qu’on s’en rende compte et ça c’est une grande différence ;
  • la troisième liberté c’est la liberté de redistribuer des copies. Je peux utiliser ce logiciel et distribuer le nombre de copies que je veux, même en les faisant payer. Ça c’est un élément possible, il n’y a pas de problème à la possibilité de vendre ces copies ;
  • et la quatrième liberté c’est celle d’améliorer le programme et de publier ces améliorations pour qu’elles bénéficient à l’ensemble de la communauté.

Ces quatre libertés s’appliquent aux logiciels mais en fait, pour nous, elles devraient s’appliquer à tout le reste de la société. C’est un peu le créneau de Framasoft aujourd’hui, en tout cas la façon dont on envisage effectivement la société c’est bien d’être une société libre basée sur des valeurs qui sont le partage et la coopération.

Quelles sont les grandes valeurs portées au sein de l’équipe de Framasoft ?

Peut-être que la première chose c’est cet esprit libre, vraiment tendre à une société libre, donc le partage, les biens communs et aussi d’autres valeurs qui sont la « lutte », entre guillemets, contre un système capitaliste, même si Framasoft ne se revendique pas comme anticapitaliste. En tout cas on sait très bien que pour atteindre une société libre, le monde capitaliste n’est pas vraiment le monde qu’on souhaite dans ce cadre-là et surtout parce qu’on est très conscients des dérives, justement, de ce monde-là, particulièrement dans l’univers numérique où, pour le coup, c’est encore plus sensible que dans les autres mondes industriels. Là, vraiment, ce qu’on appelle les géants du Web, les GAFAM sont des sociétés, des entreprises qui utilisent effectivement tous les travers du capitalisme sous toutes ses formes.
On a vraiment une autre valeur, c’est la lutte contre ce qu’on appelle le capitalisme de surveillance qui est donc une « branche », entre guillemets, du capitalisme. C'est le fait que ces entreprises mettent en place des services à disposition des internautes, qui sont d’accès gratuit mais qui, au final, permettent effectivement d’établir une surveillance très, très forte de leurs actions, pas forcément à des fins de contrôle des populations d’ailleurs, mais typiquement plus j’ai d’informations sur l’ensemble des citoyens, plus potentiellement je peux vendre de la publicité ciblée, donc c’est tout simplement une manne financière très importante. Je peux aussi faire de l’analyse de toutes ces données pour en tirer des tendances, donc potentiellement proposer de nouveaux services qui correspondent plus à une vision du monde qui est celle, en plus, de ces entreprises américaines. Si on revient, par exemple, sur la domination culturelle des géants du Web, c’est intéressant de se rendre compte que les sept premières capitalisations boursières aujourd’hui, tous secteurs confondus, sont des géants du Web et sont tous situés aux États-Unis, donc avec forcément une culture qui est celle des États-Unis qui est, du coup, en train de se mondialiser au sens où elle s’applique au reste du monde à travers ces outils numériques, ce qui est un petit peu un problème. Typiquement on se rend compte qu’aujourd’hui les gens ne se posent même plus la question de s’autocensurer en permanence dans leur expression sur les réseaux sociaux parce que ces réseaux sociaux sont tenus par des boîtes américaines qui ont un niveau de puritanisme qui est bien plus élevé que celui qu’on a dans notre culture française.

Comment faire pour avoir des pratiques numériques plus éthiques ?

Peut-être que la première chose c’est de prendre le temps de se renseigner. L’information est effectivement multiple, donc il va falloir faire un travail d’analyse de cette information et croiser des sources pour être sûr ; ne pas s’arrêter à la première information qu’on lit, il faut s’assurer que cette information est partagée un certain nombre de fois pour qu’elle soit valable.
Ensuite, quand on cherche à se « dégoogliser », se « défacebookiser » – on peut l’appliquer à toutes les entreprises, ça marche, c’est plus simple de parler de « dégooglisation », ça marche bien – la plus grande difficulté, une fois qu’on a cette information, c’est de choisir vers quels outils on va en remplacement. Donc ça veut dire analyser, tester des outils un par un, si on veut ; après on peut commencer par le premier et s’arrêter au premier. Mais il y a quand même ce truc : de toute façon on le sait bien sur les services et c’est même le cas avec ceux des géants du Web, il y en a certains qui ne sont pas faits pour nous, c’est-à-dire que finalement leur fonctionnement ne correspond pas à nos attentes, donc il va y avoir tout ce temps de test pour savoir quel est l’outil qui le plus, on va dire, adaptable à son contexte.
Ensuite il y a un enjeu très fort qui va être, ça dépend des types d’outils, de faire adopter ces outils par son environnement. C’est bien beau de se dire « tiens, super, je vais arrêter d’utiliser WhatsApp et je vais passer sur Signal », qui fait à peu la même chose que WhatsApp mais qui permet de chiffrer les messages et dont on est sûr qu’il n’y a aucune donnée qui soit récupérée, sauf que quand vous arrivez sur Signal, tous vos potes ne sont pas sur Signal, ils sont toujours sur WhatsApp, donc ils continuent à discuter sans vous sur WhatsApp. Et ça c’est le plus compliqué, c’est ce qu’on appelle l’effet réseau, c’est comment, petit à petit, j’arrive à convaincre mon entourage de me suivre dans mes choix.
Très souvent on explique aux gens que « se dégoogliser » c’est faire un effort. Les gens n’aiment pas trop faire des efforts, on est tous des feignasses, c’est normal. Donc cet effort-là il faut en prendre conscience, c’est-à-dire que ça ne se fera pas tout seul, parce qu’on a tout simplement des habitudes. C’est-à-dire que quand on a adopté un service, n’importe lequel, on s’est habitué à ce service-là, à son mode de fonctionnement. Même si c’est un service similaire qui propose des fonctionnalités identiques, ce ne sera pas rangé exactement au même endroit, ça ne fonctionnera pas exactement de la même façon, en tout cas pour accéder à la fonctionnalité on ne passera pas forcément par les mêmes boutons, par les mêmes menus. C’est déconstruire son habitude pour en créer une nouvelle sur un nouvel outil. Du coup c’est un effort énorme.
On fait souvent le parallèle avec les démarches d’alimentation. Quand on a toujours consommé en supermarché, on ne fait pas d’effort, tous les légumes sont là, sur le présentoir, et on pioche, en gros. Et puis quand on est un peu sensible à justement sortir du monde agro-industriel et qu’on veut avoir une démarche un peu plus éthique dans son alimentation, eh bien on va passer par des AMAP [Association pour le maintien d'une agriculture paysanne]. Il faut faire un effort, il faut s’inscrire à l’AMAP, il faut aller chercher le panier et ce n’est qu’un seul jour par semaine, donc si vous loupez c’est mort !
C’est exactement la même chose, on est exactement sur la même dynamique de « oui, je fais un petit effort pour changer, mais ce que ça m’apporte en contrepartie, pour le coup, vaut la peine de cet effort. »

Est-ce que la période de confinement a eu un impact sur votre organisation, votre légitimité ?

Pendant la période de confinement il est certain qu’il y a énormément d’internautes qui se sont retrouvés dans des situations – j’enlève la partie télétravail où là, quand même, quand on travaille au sein d’une entreprise, l’entreprise est censée nous fournir les outils ; on n’est pas forcément décideur des outils qu’on va utiliser dans ce cadre-là – à titre tout simplement individuel en revanche, pour continuer à avoir des relations sociales, où ils ont eu besoin effectivement d’outils de visioconférence ou de davantage échanger de messages et ont, du coup, pris conscience qu’ils avaient peu connaissance des outils à leur disposition ou en tout que les outils qu’ils connaissaient c’était souvent ceux des géants du Web.
Comme pendant cette période il y a pas mal de scandales qui sont sortis sur ces outils, nous on a vu arriver en masse, sur les outils frama, effectivement beaucoup d’utilisateurs. Je crois que la première semaine de confinement on a multiplié par 16 notre charge sur nos outils, ce qui a posé plein de problèmes parce qu’on n’est pas du tout équipés en infrastructure pour ça. Donc la première semaine a été très lourde pour mes collègues techniciens pour arriver tout simplement à faire que tous les services ne tombent pas, pour continuer à les maintenir. Mais on a fait aussi avec d’autres, c’est-à-dire qu’on s’est rapprochés d’autres hébergeurs de services, qui font des choses assez similaires aux nôtres, et sur certains des services, en tout cas les plus demandés sur cette période qui étaient très clairement la visio et la rédaction collaborative – chez nous ça s’appelle Framatalk9 et Framapad10 – on a identifié quels étaient les autres hébergeurs qui proposaient aussi ce type de services. En fait, quand vous alliez chez nous, au final peut-être que vous n’utilisiez pas nos outils : on a un système qui permet d’aller piocher hop !, chez les autres pour répartir tout simplement la charge d’utilisateurs à ce moment-là.

Framasoft a une notoriété. On a environ 800 000 utilisateurs par mois sur l’ensemble de nos services – par rapport à 68 millions d’habitants ce n’est rien ! Tout succès est relatif et je ne veux même pas savoir combien il y a de gens qui utilisent les outils de Google au mois, je pense que ce serait indécent de comparer ces deux éléments – en revanche, ce nombre d’utilisateurs fait que aujourd’hui, quand les gens cherchent des services alternatifs, ils pensent Framasoft. Donc on est devenu le Google du Libre et ça, pour nous, c’est un super gros problème parce qu’on ne veut pas être le centre ou la tête de quoi que ce soit, c’est justement complètement contraire à nos valeurs. Donc on essaye petit à petit de faire que les gens n’utilisent pas trop nos services. Pour ne pas être le Google du Libre, il faut effectivement qu’on ait d’autres acteurs qui proposent ces solutions et ça c’est une initiative que Framasoft a lancée fin 2016, qui s’appelle CHATONS11, le Collectif des Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires, donc un collectif qui regroupe 70 structures d’hébergeurs de services alternatifs.
Pendant le confinement le Collectif CHATONS a mis en place une page spécifique qui s’appelle entraide, sur entraide.chatons.org12. Vous avez accès à des services en ligne sans inscription et, pareil, on se répartit la charge entre les différentes structures, on fait ce travail de répartition et ça, ça va à priori continuer. Peut-être que ça ne s’appellera plus entraide à un moment, ça n’aura peut-être pas autant de sens que pendant cette période, on ne sait pas.

Pourquoi doit-on avoir des pratiques numériques plus éthiques ?

Pour moi il y a différents arguments derrière le passage à des outils éthiques. Un de ces arguments-là pour moi serait l’aspect écologique et je pense que sur les générations aujourd’hui c’est un enjeu et une question dont tout le monde est conscient, ce qui n’est pas forcément le cas sur ma génération.
Les outils numériques ne sont, de toute façon, pas des choses écologiques. Il faut accepter cette donnée-là, mais, à l’intérieur des outils numériques, il y en a qui le sont plus que d’autres, en tout cas qui sont moins consommateurs d’énergie que d’autres. Donc il y a déjà cet enjeu-là : est-ce que, dans mes pratiques numériques, je ne peux pas changer pour avoir des pratiques qui soient moins consommatrices ? Donc souvent, dans les outils libres, est prise en compte cette notion écologique. On est très souvent sur des logiciels ou des services qui vont avoir des interfaces qui sont peut-être moins jolies, où ça ne bouge pas partout dans tous les sens, ça joue, c’est peut-être un peu moins « sexy » entre guillemets, mais l’avantage c’est que ça a vraiment une raison, c’est-à-dire qu’on essaye au maximum que toutes les interfaces web des services soient le moins consommatrices de bande passante donc d’énergie puisque tout ça, ça consomme.
Les outils libres sont aussi résilients, donc ils intègrent en eux-mêmes, parce qu’ils peuvent être adaptés et évolutifs, très souvent dès le concept la façon dont ils vont mourir. C’est assez intéressant de se dire oui, il y a un moment où cet outil n’aura plus d’intérêt d’exister parce qu’il y aura rempli ce qu’il a à remplir et c’est tout.

Le deuxième grand argument c’est celui de la protection des données personnelles donc de la vie privée. Effectivement, on s’est rendu compte qu’on cliquait tous sur « accepter les CGU », les conditions générales d’utilisation, sans les lire, mais que derrière on ne savait absolument pas ce qu’on avait accepté et que ça posait quand même des sacrés problèmes dans l’utilisation de ses données.
Ça ne veut pas dire que les outils libres ne récoltent pas de données personnelles. La seule différence c’est qu’il y a une transparence donc vous pouvez le savoir : majoritairement les logiciels libres sont justement garants de la protection de ces données personnelles. Ça ne veut pas dire qu’il n’y en a pas qui sont récupérées, en revanche elles ne sont jamais revendues, donc il n’y a pas du tout de profit qui est fait avec donc elles restent, finalement, sur le serveur. Quand vous devez créer un compte sur les services Framasoft pour accéder à vos pads de rédaction collaborative, forcément on a vos données qui sont certes votre mail et votre mot de passe, c’est tout, on ne vous a pas demandé votre adresse ou si votre maman a un chat, un chien ou, etc. Donc on récupère le moins possible de données, mais on en récupère quand même parce qu’elles nous servent tout simplement pour vous donner accès à vos comptes.

Peut-être que le troisième argument c’est que si on veut un monde du partage et de la coopération, en fait ça va de soi qu’on ne peut pas utiliser des outils qui sont propriétaires parce que la propriété privée, même si c’est par des entreprises, en fait elle repose sur le non partage.
En tout cas, si on est dans une idée d’un modèle de société qui serait différent du nôtre, qui sortirait du capitalisme actuel et qui serait davantage sur faire ensemble et faire avec, typiquement les logiciels privateurs ne sont clairement pas du tout la solution. Ça, ça peut être un troisième argument pour essayer de changer le monde.

Qu’est-ce qui te donne de l’énergie au sein de Framasoft ?

Typiquement c’est vraiment l’histoire de la valeur.
Quand j’étais bibliothécaire je faisais un travail où j’étais au service du public, où je transmettais de la connaissance et du savoir, j’allais dire que c’était déjà un métier hyper-passionnant – d’ailleurs je n’ai jamais fait de métier alimentaire dans toute ma carrière, je reconnais que j’ai eu une chance incroyable –, mais là j’atteins un niveau de valeur qui est encore plus proche, on va dire, de mes valeurs personnelles, donc j’ai une adéquation totale entre ce que je pense et ce que je fais, la structure dans laquelle je travaille.
Après, il y a le fait que c’est toujours hyper-agréable de rencontrer une maman que j’ai croisée lors d’un atelier, dans un cadre qui est celui-là, peu importe, et qui, deux ans plus tard, m’envoie un mail me disant « ça y est, ça m’a pris deux ans mais ça y est, j’ai réussi, je suis sortie de Gmail. » Je suis hyper-fière qu’elle m’envoie ça parce qu’en vrai elle aurait très bien pu se passer de moi pour se passer de Gmail. Mais il y a quand même le truc d’avoir mis l’étincelle et se dire « tiens, voilà, ces gens ont compris ce qu’il y avait derrière ». C’est ma grande plus grande fierté au sein de cette association, oui, de créer des déclics.

Un grand merci à Angie

VLC : Le start-upper qui ne voulait pas être riche - Jean-Baptiste Kempf

mer, 08/19/2020 - 15:35


Titre : VLC : Le start-upper qui ne voulait pas être riche
Intervenants : Jean-Baptiste Kempf - Lucas Gautheron
Lieu : On s'autorise à penser - Le Media
Date : juillet 2020
Durée : 51 min
Écouter ou enregistrer le podcast
Site de présentation de l'épisode
Licence de la transcription : Verbatim
Illustration : Jean-Baptiste Kempf, FOSDEM 2019 - Licence Creative Commons Attribution 2.0 Belgium
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Emmanuel Macron l’a affirmé dès son élection : il veut faire de la France une startup nation. Il démontre régulièrement son soutien à la French Tech, censée représenter la quintessence de l’innovation et de l’entreprenariat. Mais derrière cette ambition, la réalité est bien différente. La France peine à se dégager de l’emprise des GAFAM, comme l’ont cruellement rappelé les déboires de Qwant, le moteur de recherche qui devait supplanter Google. Et l’échec patent de l’application StopCovid en est une énième illustration. Pourquoi la France peine-t-elle à innover et à recouvrir son indépendance numérique ? Comment résister face aux plateformes, sans pour autant exploiter une main d’œuvre uberisée, et en respectant la vie privée des utilisateurs ?

Transcription

Voix off : On s’autorise à penser, présenté par Lucas Gautheron, « VLC : le start-upper qui ne voulait pas être riche », avec Jean-Baptiste Kempf.

Lucas Gautheron : Vous connaissez certainement le logiciel VLC, l’incontournable lecteur multimédia made in France en forme de cône de chantier utilisé par des centaines de millions de personnes à travers le monde.
Ce qui vous ignorez peut-être, en revanche, c’est que derrière ce logiciel libre édité par une association à taille humaine et à but non lucratif, se cache un homme plutôt discret et, disons-le, un peu atypique dans son milieu. Devenu chevalier de l’Ordre national du Mérite à 35 ans, cet ingénieur de l’École centrale Paris, aujourd’hui à la tête du projet, l’a rejoint il y a 17 ans. Bien qu’il soit l’un des principaux responsables de ce succès français, il est bien loin d’être milliardaire. Quand on le lit ou qu’on l’écoute, on a le sentiment qu’il en a gros et qu’il a un peu envie de balancer sur la startup nation, la French Tech, les licornes, les BlaBlaCar et autres applications, et tout ce milieu qui pourtant devrait être le sien. Son nom : Jean-Baptiste Kempf. Avec lui nous évoquerons son parcours, bien sûr, mais aussi sa vision du monde des startups, du numérique, de l’innovation, les alternatives et stratégies à développer contre les plateformes et le rôle que la France devrait ou pourrait jouer dans cette lutte.
Bonjour Jean-Baptiste Kempf.

Jean-Baptiste Kempf : Bonjour.

Lucas Gautheron : J’aimerais quand même qu’on parle un peu de VLC1 avant d’aller dans le fond du sujet. Est-ce que tu peux nous dire plus précisément combien d’utilisateurs dans le monde se servent de ce logiciel ? Combien il y a eu de téléchargements à peu près ?

Jean-Baptiste Kempf : En fait, la bonne réponse c’est que je ne sais pas. Comme c’est un logiciel gratuit et libre, les gens ont le droit de le rediffuser et comme on ne fait pas ce qu’on appelle de la télémétrie, en vrai ça s’appelle de l’espionnage, je ne sais pas qui utilise VLC et comment on utilise VLC. Avec le nombre de téléchargements sur notre plateforme et le nombre de mises à jour, ça donne à peu près une idée du nombre de téléchargements et d’utilisations. On est à peut-être 500 millions d’utilisateurs actifs de VLC. Après, comment tu définis actifs c’est un peu compliqué, mais ça te donne à peu près la base installée de VLC qui doit être autour de 800, 900 millions de VLC installés dans le monde. C’est très difficile de savoir exactement parce que, pour faire ça, il faudrait se mettre à espionner les utilisateurs et on ne fait pas ça.

Lucas Gautheron : En gros, il y a des usages de particuliers ?

Jean-Baptiste Kempf : On a vraiment de tout. On a beaucoup de particuliers, des gens qui lisent des DVD, des Blu-ray, des gens qui regardent de l’illégal, pas mal de gens qui l’utilisent pour écouter de l’audio. Dans le monde professionnel de la télé, du broadcast, tout le monde utilise VLC, que ce soit Sony Pictures quand ils font le dernier Spider-Man ou la télé RTBF.

Lucas Gautheron : Si tu devais donner la raison fondamentale du succès de VLC, ce serait quoi ?

Jean-Baptiste Kempf : La raison fondamentale du succès de VLC c’est que personne n’a cherché à ce que ce soit un succès. C’est un peu un troll, mais en fait c’est juste que c’est un logiciel fait par des geeks pour des geeks, pour se faire plaisir, donc il n’y a pas eu de marketing, il n’y a pas de fonctionnalités qui ne servent à rien, le but c’est juste de faire plaisir à nos utilisateurs. C’est vraiment un produit qui répond au besoin utilisateur et c’est toujours ce qui nous a défini.

Lucas Gautheron : Justement, tu parles des intentions derrière ce logiciel, est-ce qu’on peut en faire un peu la genèse, comment il est né, parce que c’est une histoire assez particulière ?

Jean-Baptiste Kempf : Ce que je déteste c’est quand les gens me présentent comme créateur de VLC parce que d’abord, un, ce n’est pas vrai, et deuxièmement il n’y a pas de créateur. VLC, c’est un projet qui fait partie d’un autre projet qui s’appelait VideoLAN, qui est devenu un projet open source en 2001, qui, avant, était un logiciel pas open source et qui est la continuité d’un autre projet dont le but n’était absolument pas de faire un produit comme ça.
L’histoire originelle : en 1995, à l’École centrale Paris donc le campus à Châtenay-Malabry qui vient d’être détruit, tout est géré par les étudiants – la sono, les soirées, mais aussi la cafeteria, la coopérative, le bar, la télé, la radio et le réseau. En fait on est dans un campus un peu bizarre où ce sont les étudiants qui s’occupent du réseau informatique, pas comme dans d’autres écoles. Ils veulent un réseau plus rapide et ils n’ont pas l’argent pour le faire. Ils vont voir l’école et l’école dit : « Ah non, vous comprenez, ce n’est pas nous qui gérons le campus, etc. Allez demander à nos partenaires », qui est une façon de dire « allez, dégagez, il n’y a rien à voir ! ». On était en 1994, ce que les étudiants voulaient c’était jouer aux jeux vidéos en réseau parce que, à ce moment-là, leur réseau suffisait pour envoyer quelques mails et les premiers sites internet. Ils voulaient jouer en réseau. C’est ce qu’ils vont faire, on leur dit d’aller voir des partenaires, ils vont voir des partenaires, ils vont voir évidemment Bouygues qui leur dit : « Le futur de la télé c’est le satellite ». Bon ! Non, mais il y a 25 ans on pouvait se dire que c’était le futur et à ce moment-là tu achetais des box qui étaient des décodeurs MPEG2 qui coûtaient, je ne sais pas, 5000, 6000 francs et des antennes qui coûtaient 1500 francs. Sur le campus il y a 1500 étudiants donc le coût aurait été monstrueux. L’idée c’était juste d’en acheter une énorme et de diffuser par le réseau puisqu’en fait c’étaient des flux numériques. Évidemment, aujourd’hui ça semble évident. En 1995, on est 10 ans, 11 ans avant YouTube, être capable de faire du décodage vidéo plus gros qu’un timbre poste sur un ordinateur normal c’était quasiment de la science-fiction, mais ils voulaient vraiment leur réseau. Donc ils lancent le projet de 1995 à 1997, puis, en 1997, ils ont une démo, ça crashe mais ce n’est pas grave ils font la démo 30 secondes, ça crashe au bout de 40. Ils ont un super ordinateur où il y a 64 mégaoctets de RAM à l’époque, évidemment ça nous fait rigoler, mais on était avec des 486 DX/33 et 66, vraiment des antiquités. Le projet s’arrête là, le projet s’appelait Network 2000, ils ont un nouveau réseau ils sont contents.
Un an plus tard, il y a un groupe d’étudiants qui se dit que ça intéresserait peut-être d’autres personnes. Il y a le début de la mouvance du logiciel libre, donc ils disent on va faire un logiciel qui va fonctionner pour Centrale mais aussi hors de Centrale et qui sera open source.
En fait, VLC c’est une partie du projet VideoLAN qui est la suite du projet Network 2000 qui est la suite du réseau étudiant de Centrale Paris. À aucun moment quelqu’un ne s’est dit je vais disrupter, je vais faire un nouveau lecteur vidéo qui va tout casser. C’est une conséquence. Il n’y a pas de créateur. Il y a plein de gens qui ont créé, il y a plein de gens qui ont travaillé tout au long du projet.

Lucas Gautheron : Toi tu interviens à partir de 2003, c’est ça, c'est là que tu entres en jeu ?

Jean-Baptiste Kempf : Je rentre à Centrale, en 2003 je deviens vice-président du réseau et c’est comme ça que je rentre dans VideoLAN. Au début je ne m’occupe quasiment que de la diffusion vidéo sur la résidence. Je commence à faire des petits trucs à partir de 2005 sur le code et surtout, en fait, pendant mes stages en 2006, je commence à faire beaucoup plus de trucs sur VLC.

Lucas Gautheron : Donc c’est un peu le cadre associatif au sein de l’école qui t’as encouragé à t’impliquer et à apprendre ?

Jean-Baptiste Kempf : À l’époque à l’École centrale Paris, il y avait une énorme vie associative et un peu moins de focus, en fait, sur les cours, en tout cas pour une certaine part. À peu près 20 % des élèves faisaient beaucoup d’associatif et c’est génial parce que ça t’apprend beaucoup plus de choses dont tu vas avoir besoin plus tard dans ta vie qu’un énième cours de physique quantique ou de mécanique des fluides.

Lucas Gautheron : C’est un projet étudiant qui a évolué. Aujourd’hui qui collabore au projet ? Est-ce qu’il y a des salariés à temps plein dessus ? Est-ce qu’il y a des contributeurs externes qui alimentent le code source ? Ça se passe comment ?

Jean-Baptiste Kempf : Au début c’était un projet étudiant et jusqu’à 2001 ce n’est pas open source, donc ce sont que des étudiants de Centrale qui peuvent s’y mettre.
En février 2001, quand il passe en open source, à ce moment-là il y a des gens qui commencent à contribuer, notamment un Hollandais et un Français qui habitait à Londres, qui commencent à aider. Chaque année, en fait, c’est un groupe d’étudiants qui vient et qui repart. Et ça marche comme ça jusqu’en 2005/2006 et là, le logiciel devient un peu trop gros et surtout devient un peu trop compliqué pour des étudiants donc le modèle ne marche plus. On se retrouve en janvier 2007 où on n’est plus que deux et demi, Rémi, moi et Christophe, donc là on se rend compte qu’il faut relancer différemment. En fait, c’est ça qui va amener à la création de l’association en 2008 et moi, pendant un an et demi, je vais trouver les nouveaux étudiants ou parler aux anciens étudiants qui sont maintenant professionnels pour dire « venez travailler, contribuer ».
C’est une période qui va finalement aller jusqu’à 2013/2014 où la plupart du développement est faite par des bénévoles sur leur temps libre.
À partir de 2012, je monte une entreprise à côté, qui est à côté de l’association et qui commence à embaucher des gens de l’association pour pérenniser un peu le logiciel, en particulier parce que l’open source, notamment le logiciel libre, est un peu moins sexy qu’il ne l’était parce qu’il s’est énormément professionnalisé. Les gens disent « pourquoi j’irais le faire gratuitement quand je peux le faire professionnellement » et surtout il y a les smartphones qui font que c’est beaucoup plus difficile qu’avant de développer pour les smartphones.
L’association existe toujours, je suis toujours le président depuis 2008 ; elle n’emploie personne, elle a très peu de moyens et les gens qui contribuent sont soit des gens externes soit bénévoles soit payés par les entreprises soit payés par mon entreprise.

Lucas Gautheron : Qui est la société Vidéolabs2, c’est ça ?

Jean-Baptiste Kempf : C’est la société Vidéolabs.

Lucas Gautheron : Elle fait quoi cette société ?

Jean-Baptiste Kempf : Elle fait du service professionnel, des fonctionnalités en plus pour VLC. En fait, maintenant on fait 70 % du travail de VLC. C’est une société SAS [Société par actions simplifiée] mais il n’y a pas d’investisseurs. On ressemble plus à une SCOP [Société coopérative et participative] qu’à une SAS. En 2012/2013, je voulais voir comment on pouvait pérenniser le modèle. J’avais de plus en plus d’étudiants qui me disaient « je veux faire le Uber de la farine ou le Airbnb des pierres tombales ou le lacet connecté ou le prochain Flappy Bird ». Aller bosser dans l’open source ce n’était pas le truc sexy, alors que pour moi les mecs de l’open source c’étaient normalement les gros cadors. Tout le monde voulait faire des startups, donc j’ai dit on va faire une startup autour de VLC. Ça permet aussi de récupérer les subventions parce que aujourd’hui il y a beaucoup de subventions – CIR [Crédit Impôt Recherche], JEI [Jeune entreprise innovante], FUI [Fonds unique interministériel], PIA [Paris Innovation Amorçage] et d’autres choses comme ça – qui ne sont accessibles qu’à des entreprises ou des laboratoires de recherche universitaire, mais quand tu es une association, tu ne peux rien avoir.

Lucas Gautheron : Vous ne faites pas de pub, pourtant ça représente une fortune ne serait-ce que la valeur des données que vous pourriez emmagasiner sur ce que consultent les gens, etc. C’est une mine d’or ça, non ?

Jean-Baptiste Kempf : Non. J’aurais pu me faire énormément d’argent si telle était la question, aucun problème ! Mais il est hors de question que je gagne de l’argent de façon pas éthique. Donc espionner les utilisateurs, mettre de la pub c’est-à-dire finalement espionner les utilisateurs ou tout ce genre de merdier, installer des toolbars pourris ou, grosso modo, des trucs d’antivirus qui sont finalement plus des virus qu’autre chose, c’est hors de question. Attention, je ne suis pas contre faire de l’argent et gagner de l’argent. Je suis contre le faire mal et pour le moment on n’a jamais trouvé une façon bien de faire de l’argent autour de VLC, donc on préfère ne pas en faire. Oui, c’est sûr, ça pourrait être beaucoup plus gros vu le nombre d’utilisateurs, mais on préfère le faire bien.

Lucas Gautheron : Il y a par exemple des gens qui vont ont approché, je crois que c’est Google qui avait proposé un contrat ?

Jean-Baptiste Kempf : On a eu Google, Google ce n’était pas le pire, on en a eu plein d’autres qui étaient bien pires. D’abord, Google, ils avaient une barre de recherche que tu mettais dans tes navigateurs, que tu rajoutais, qui te mettait tout pour que tu ailles tout faire sur Google. Après c’était pousser Chrome en même temps que l’installeur de VLC. Eux, à la limite, c’était encore à peu près propre. Après on a eu une quantité de mecs, et on en a toujours, qui viennent proposer des dizaines de millions pour faire de la merde.

Lucas Gautheron : Par contre, tu parlais des jeunes qui rêvent, tu disais de l'Airbnb des pierres tombales, c’est ça ? De choses comme ça. D’ailleurs, est-ce que c’est différent de l’époque où toi tu étais à Centrale ? C’est vraiment une généralité chez les jeunes aujourd’hui qui sortent des grandes écoles ? Si c’est le cas à quoi tu l’attribues ?

Jean-Baptiste Kempf : En fait, il ne faut pas croire que c’est pire qu’avant. Avant, quand ils sortaient de Centrale, Polytechnique, HEC, enfin bref !, toutes celles que tu veux, les mecs partaient faire du conseil, du conseil en stratégie ou conseil en organisation ou ils deviennaient un micro-pion dans des boîtes du CAC 40, que ce soit l’Oréal ou des trucs bancaires. Maintenant ils disent « en fait, je préférerais monter une petite entreprise et avoir un vrai impact ». Je trouve quand même que c’est plutôt bien. Le changement de mentalité est bien parce que les gens veulent créer un truc. Ça c’est bien. Après, de là à aller jusqu’à l’open source, non ! Ça n’arrive pas. Il y a beaucoup de choses à critiquer sur les startups, mais je trouve que maintenant le fait que tu aies envie d’aller monter une boîte plutôt que d’aller bosser en marketing chez l’Oréal c’est plutôt une bonne chose.

Lucas Gautheron : Quand Macron dit qu’il faut des jeunes Français qui aient envie de devenir milliardaires, il disait ça dans Les Echos en 2015, ça t’inspire quoi ?

Jean-Baptiste Kempf : C’est très compliqué parce que tout ce qui est financement, en fait, est très compliqué. Quand tu vas dans la Silicon Valley, tu as énormément de Français, tu as beaucoup d’Indiens et de Chinois. Tu te rends compte qu’il y a beaucoup de Français qui sont très bons à créer des choses, mais c’est vrai qu’il y a un problème de financement. Je ne pense pas que le but soit d’être milliardaire, par contre ce qui serait bien, ce qui serait utile, c’est que les gens qui ont des milliards ne soient pas juste des Américains. Je pense, évidemment, que ce n’est pas ce que lui pense. Lui pense la partie vraiment purement argent. Moi je pense juste qu’il est important d’avoir des leaders français, mais que tu peux les faire bien. En fait, l’argent doit être un moyen de faire des trucs bien et ça ne doit jamais être un but. C’est la grosse différence, moi je pense que ce n’est pas un but et lui pense que c’est un but.
Ce serait bien parce que ça permet de réinjecter dans les écosystèmes et notamment pour faire de la vraie tech, tout ce qu’on appelle maintenant un peu des deep techs a contrario de la French Tech. Il y a plein de technologies et c’est important, notamment pour le modèle social français, d’avoir encore des choses que tu puisses exporter. Sinon, en fait, tu passes ton temps à avoir ta balance commerciale négative et, finalement, la France s’appauvrit par rapport au reste du monde.
Ce qui est bien dans l'idée de la startup nation c’est de dire qu’il faut soutenir la création. Soutenir la création oui, mais pas n’importe comment et c’est ça la grosse différence, c’est que pour lui c’est quel que soit le prix : ils font des deals avec Google, avec Uber, avec Microsoft et ce n’est pas du pérenne. C’est vraiment juste on crée, on a plein de trucs, on peut avoir des capitaux et ça marche quelques années. Le problème, en fait, c’est que tout ça est sous perfusion permanente. Il faut énormément créer de startups pour que ça fonctionne.
Ça c’est sur la partie vraiment startup nation. Aucun d’entre eux n’a jamais monté de boîte ; que ce soit le ministre du Travail ou Macron, jamais ils n’ont rempli une fiche de paye. Ils n’ont aucune idée de comment ça fonctionne. Ils ont juste la vision « on va avoir plein de boîtes, ça va être bien, on va avoir des capitaux », mais quand tu fais du volume tu ne fais pas de la qualité.
Le problème des startups en général c’est un problème de financement. Monter des petites boîtes et les faire monter jusqu’à une ou à deux personnes, cinq personnes, dix personnes, ce n’est pas dur. La difficulté c’est comment tu passes de 10 à 100 ou à 200, avec des business modèles qui soient pérennes et qui soient éthiques. Et ça, en France on a complètement perdu ça. On a soit les gros groupes soit des tout petits trucs. Les Allemands ont été très forts, ils ont réussi, par exemple, à garder une capacité industrielle d’entreprises de 200, 500 personnes, et, en fait, c’est ça qui est important.
Pour ça il y a un gros problème, c’est qu’il faut des financements avec des levées de fonds importantes, qui sont ce qu’on appelle série B, série C. En France on n’a que de l’esbroufe, on a plein de petites startups dont la plupart c’est n’importe quoi. Mais, comme elles sont beaucoup sponsorisées au début, c’est facile de tenir un an ou deux ans parce que tu récupères ton chômage. Il faut quand même savoir que le premier investisseur en France s’appelle Pôle emploi. C’est vrai, c’est-à-dire que pendant 15 mois tu peux être payé avec ton ancien salaire pour créer une boîte. C’est absolument génial, c’est une très bonne idée. Aux États-Unis, il y a plein de boîtes qui auraient été tuées tout de suite parce qu’au bout de trois mois, six mois, tu te rends compte que ce n’est pas un truc qui marche. Là, en fait, on a plein de petites boîtes qui sont sur un marché qui n’existe pas et qui sont subventionnées, mais qui ne servent à rien, évidemment elles n’ont pas de but. On n’a pas le marché qui fait la sanction derrière ou d’investisseurs qui disent « ça c’est n’importe quoi, arrête ! ». En fait on perd beaucoup trop, on a trop de petites entreprises et de startups qui ne ressemblent à rien.
Quand tu regardes la Station F3 ou la French Tech4, tu as une pléthore de trucs qui sont ! Quand je te dis le Airbnb des pierres tombales ou le lacet connecté je te fais rigoler, mais franchement il y en a qui ne sont vraiment pas loin de ça.

Lucas Gautheron : Il y a la startup qui fait les slips anti-ondes, qui a recueilli des investissements de la BPI [Banque publique d'investissement].

Jean-Baptiste Kempf : Là, quand tu arrives sur les anti-ondes ! On est dans de l’anti-scientifique total et c’est n’importe quoi.
Il faut quand même faire attention, je modère un petit peu, aux États-Unis c’est pareil. En fait le ratio que tu as normalement, c'est que sur dix boîtes qui reçoivent de l’investissement, tu as en a une qui explose, deux qui sont à l’équilibre, qui sont des boîtes qui sont des boîtes normales et sept qui se pètent la gueule. Ça c’est le ratio normal, c’est un peu de darwinisme social, c’est vrai, mais c’est ce qui se passe.
Le problème c’est qu’aujourd’hui sur la French Tech on est plutôt à un, peut-être cinq et 100. Le problème c'est surtout qu’il y a plein de boîtes qui, quand elles commencent à vraiment décoller, se font rafler par des Américains qui ont beaucoup d’argent ou des Anglais, donc en fait on n’a rien ! Ça, c’est vraiment un des problèmes.
Le deuxième problème, c’est que les boîtes du CAC 40 considèrent que plutôt que de faire de l’innovation en interne elles vont plutôt aller faire leur shopping de startups, comme ça elles montrent qu’elles sont innovantes : « C’est super ! Regardez on est cool ! ». Ça fait super cool ! Leurs boards achètent des boîtes et ils n’en font rien ou ils la détruisent parce qu’en fait finalement « oui, mais tu comprends, ça nous prend un peu de marché ». Finalement, ces gros groupes vont avoir des gros soucis dans le futur parce qu’ils ne savent pas innover.

Lucas Gautheron : Justement là-dessus il y a un bouquin qui est intéressant, je ne sais pas si tu l’as lu, de Nick Srnicek, Capitalisme de plateforme. Il explique bien, notamment il fait une typologie des types de plateformes et il met de côté, par exemple, les Uber et Deliveroo. Selon lui, leur succès est vraiment dû à des conditions particulières qui ne sont pas amenées à durer : il y a un chômage élevé qui pousse les gens à se diriger vers des jobs mal payés. Par ailleurs il y a une politique monétaire qui fait qu’il y a du cash et qu’il y a des entreprises qui cherchent à investir un peu partout. Finalement on a l’impression que certaines de ces plateformes c’est un peu du toc, c’est-à-dire que derrière c’est surtout le lobbying, ce sont surtout les circonstances favorables qui font que ça existe et pourtant c’est désigné comme la quintessence de la startup.

Jean-Baptiste Kempf : Mondialement ce n’est pas considéré comme la quintessence de la startup.

Lucas Gautheron : Je ne dis pas, mais dans le langage un peu…

Jean-Baptiste Kempf : Ce qui est tout à fait vrai c’est surtout que c’est aussi de la condition légale. Les Français et en général les Européens ont ce que j’appelle cette diarrhée légale et adorent faire des trucs hyper-compliqués. En fait, ça devient tellement compliqué que tu crées des niches, en fait des failles. Ce qui n’est pas bien quand il y a trop de lois et qu’elles sont trop compliquées, c’est que les seuls qui en profitent ce sont les riches. Par exemple Uber exploite complètement le droit du travail, mais, en même temps, le droit du travail c’est tellement compliqué ! C’est une circonstance, ils sont très forts, c’est-à-dire qu’ils n’ont pas de morale, c’est l’exploitation totale.
Il y a des plateformes comme ça, là on parle de tout ce qui est ubérisation, même dedans tu as plusieurs niveaux. C’est-à-dire que quand tu commences un peu à voir ces entreprises, tu as des boîtes qui sont vraiment des sous raclures, Uber, et tu as des boîtes comme Airbnb, qui ont des problèmes en interne, c’est une boîte, mais ce ne sont pas des vrais connards.
En fait c’est très difficile parce que tu mets tout ça dans un groupe. Dans ces plateformes qu’on a appelées maintenant d’ubérisation, qui est de la désintermédiation totale et du profit de l’autoentrepreneur, tu as plein de choses différentes, des mecs qui sont un peu limite à des mecs qui sont vraiment des mecs crades.

Lucas Gautheron : Dans le bouquin, il parle un peu aussi des stratégies de ce qu’il appelle les plateformes pour s’étendre, dominer ; il y a justement un peu un catalogue de stratégies. D’abord il y a une stratégie qui consiste à développer des dépendances en créant des écosystèmes dans lesquels on verrouille complètement les gens. C’est ce que font par exemple les GAFAM, par exemple Facebook, où l’idée est qu’on puisse consulter Internet, vivre sur Internet sans sortir de Facebook.
Il y a d’autres stratégies comme exploiter les données, les algorithmes, pour asseoir leur domination en mettant des barrières d’entrée aux éventuels compétiteurs. Il cite l’exemple de Rolls-Royce qui loue ses moteurs et leur maintenance aux constructeurs d’avion et qui, derrière, peut utiliser toutes les données accumulées sur les données de contrôle pour avoir un avantage énorme.

Jean-Baptiste Kempf : Netflix fait la même chose.

Lucas Gautheron : Netfix fait la même chose, c’est-à-dire ? Tu peux expliquer ?

Jean-Baptiste Kempf : Avant Netflix toutes les données de production et de visionnage étaient à peu près partagées dans l’écosystème. Tu pouvais savoir, tu avais une connaissance globale avec Ciné Chiffres, avec Rentrak, avec des choses. Toute l’industrie avait les informations de quels films avaient fonctionné en télé, en radio, en DVD, etc. Aujourd’hui tu n’as aucune donnée. C’est-à-dire que tu n’as aucun moyen de savoir si La casa de papel ou Carnival Row a fait un million de vues, cinq millions de vues, dix millions de vues, cent millions de vues. En fait, ils utilisent ces informations de vues et de likes pour avoir un avantage incroyable. C’est-à-dire que Netflix, quand ils vont voir des producteurs, maintenant ils disent « je veux ça ». Ils ont la démographie, ils savent comment ils veulent que ça fasse… Ils ont quasiment des potentiomètres, autant de drama, autant de trucs comme ça. Ça c’est parce qu’ils ont des données très fortes. Mais tu ne peux pas mettre Netflix dans la même catégorie que Uber. Netflix n’exploite pas la misère humaine.

Lucas Gautheron : Ça peut être un problème d’être dépendants de plateformes qui occupent un espace.

Jean-Baptiste Kempf : C’est évident, mais, en même temps, personne ne travaille pour aller casser des plateformes. Il n’y a pas d’investissements. Le Media, vous êtes diffusés sur YouTube. YouTube c’est un monopole monstrueux.
Pourquoi est-ce qu’on a ces plateformes ? C’est qu’en fait il y a un système de winner takes all. C’est-à-dire qu’on s’est rendu compte que sur Internet, et c’est la première fois, c’est celui qui prend qui gagne. Tu ne vas pas arriver dans un triumvirat avec un leader qui a 40 % et puis deux/trois mecs qui ont 20 % derrière. Par exemple l’Oréal, ils ont un gros marché et, en fait, il y a quand même plein d’acteurs. Quand tu arrives sur des Facebook ou des Google, quand ils prennent le marché, ils ne s’arrêtent pas à 50 %, ils arrivent à 90 %, et ensuite tu ne peux pas t’en sortir. À ce moment-là, une fois qu’ils ont leur marché, ils utilisent les données, ils utilisent en fait surtout leur capacité légale et leur lobbying pour rester en place.
Par exemple la GDPR5 qui a été votée par les Européens contre les cookies, etc., soi-disant pour embêter Google, en fait ça a aidé Google parce que Google a eu la capacité financière pour s’adapter et tous les autres n’ont pas réussi.

Lucas Gautheron : Et ça fait chier les petits !

Jean-Baptiste Kempf : Et ça fait chier les petits ! En fait, ils ont un marché et c’est très difficile de casser leur marché. Ce que tu vas pouvoir faire c’est aller récupérer quelques petites niches qui ne sont pas intéressantes pour eux, mais c’est très difficile à casser parce que, justement, Internet a cet effet réseau, c’est ce qu’on appelle la loi de Metcalfe6 qui fait que la valeur d’un réseau est au carré du nombre de peers. En fait, tu es dans ce cas un peu bizarre qui fait que quand tu gagnes, tu gagnes tout le marché. Et, à ce moment-là, tu as des mécanismes techniques que tu n’avais pas dans les industries traditionnelles où tu peux rester en place et c’est impossible de te déboulonner.

Lucas Gautheron : Je t’ai aussi posé cette question parce que justement sur ces deux aspects particuliers qui est verrouiller les gens dans un écosystème et, par ailleurs, exploiter les données, quelque part, VLC, est-ce que vous n’êtes pas un peu l’anti-plateforme de ce point de vue ? Vous développez les moyens qui favorisent l’interopérabilité puisque votre souci c’est d’avoir quelque chose qui est assez universel en termes de contenus accessibles et qu’on peut décoder et, par ailleurs, vous créez un espace libre où les gens peuvent passer, consulter des contenus sans qu’il y ait une exploitation de leurs données. Vous incarnez une anti-plateforme, non ?

Jean-Baptiste Kempf : C’est vrai. On a un côté très décentralisé, mais, de fait, on n’est pas une plateforme. Aujourd’hui dans VLC tu n’as pas de contenu. Tu l’utilises pour regarder les contenus que tu as récupérés légalement ou illégalement, ce n’est pas mon problème. Les gens utilisent VLC pour faire plein de trucs. Il y a des gros connards qui utilisent VLC, il y a des mecs qui sont absolument des saints qui utilisent VLC, moi je n’ai pas le contrôle. On n’a pas de plateforme dans VLC. On se pose justement la question d’amener du contenu pour aller voir ce qu’on peut faire pour que les gens puissent justement apporter leur contenu à la masse sans devoir passer par une plateforme, mais ça demande une vision, une volonté et, malheureusement, de l’argent.
Par exemple moi je ne suis pas une plateforme, je ne pourrais pas avoir une plateforme, ça coûte trop cher ! Aujourd’hui je n’ai pas l’argent. C’est un peu la limite du modèle, c’est que pour aller se battre contre les plateformes, les grosses plateformes, il faudrait du cash et ce cash je ne l’ai pas.

Lucas Gautheron : On a parlé un peu de la question du cadre juridique. Tu as mentionné le fait qu’il y a VideoLAN qui est l’association et ta société qui ressemble un peu à une SCOP. Il se trouve que nous, au Media, il y a une association et une société et on veut se transformer en société coopérative. Je ne sais pas si tu connais Mobicoop, c’est un peu l’équivalent d’un BlaBlaCar mais en forme coopérative. Est-ce que tu penses que ça fait partie de la réflexion, cette question du cadre juridique ?

Jean-Baptiste Kempf : Oui, ça fait partie de la réflexion mais ça n’est pas suffisant. Là on ne parle pas juste des plateformes mais vraiment de la partie GAFAM. Par exemple tu vas prendre l’exemple d’Apple, Apple ils n’ont pas du tout la partie plateforme où ils arnaquent, quoi ! Ils vendent un truc hyper cher qui est un produit de luxe et les gens achètent pour plein de raisons sociales, mais ils sont moins limites que Facebook. Malgré tout, pour aller contre ces gens-là, ça va être très difficile d’aller concurrencer Apple.
En fait tu dérives des plateformes en général sur les GAFAM qui eux ont un tel poids, que leurs pratiques soient nouvelles ou anciennes. Que ce soit Uber ou Apple, ce n’est pas pareil. Et là c’est vrai que c’est très difficile parce qu’il va falloir des moyens de financement et surtout il faut que ce soit facile. Ça c’est un des problèmes principaux que je vois et je pense que c’est une des raisons pour lesquelles VLC fonctionne. Les gens n’utilisent pas VLC parce que c’est open source. 99,999 % des gens, , quand ils utilisent VLC, n’ont aucune idée que c’est open source ; ils n’ont aucune idée que c’est libre et ils s’en foutent. Ils utilisent VLC parce que ça marche. Et ça c’est important, c’est que quand tu arrives avec une alternative, il faut que l’alternative soit aussi facile à utiliser. Là on sort du cadre GAFAM ou même informatique, les gens ne vont pas changer. Si, à tout à tout problème social, ta réponse est « il faut changer les gens », tu as perdu. D’accord ? Je vais changer les gens. Non ! En fait tu ne changes pas les gens. Tu peux changer les gens si ce que tu leur proposes c’est soit un tout petit peu plus facile à utiliser – par exemple avec VLC c’est plus facile d’aller télécharger qu’avec l’iPad, donc les gens vont l’utiliser – soit tu es au même niveau de difficulté mais tu rajoutes un truc moral. Par exemple trier les ordures ce n’est pas très compliqué, ça te demande un effort supplémentaire mais le gain moral est tellement important que tu le fais.
Souvent dans les trucs open source ou même, en général, dans tout ce qui est environnement social, on te dit « il faudrait que tu fasses çà » et en fait le « ça » c’est un effort monstrueux.
Regarde Uber en tant qu’utilisateur, c’est tellement génial ! Je suis partout, je clique, ils arrivent. Les mecs ne peuvent pas annuler, ils ne peuvent pas t’engueuler. En tant qu’utilisateur, quel changement ! Ça a même changé le fait que les taxis sont quand même vachement plus polis maintenant qu’il y a 15 ans. Il ne faut pas oublier que le client, l’utilisateur final, le client-utilisateur, c’est l’important. En fait, beaucoup trop de gens qui veulent se battre contre les plateformes, contre les GAFAM, oublient qu’il faut faire des produits qui soient sexy et des produits fonctionnels. Oui, tu vas pouvoir atteindre 10 % de marché en disant « regardez, on se bat contre les méchants ». Super ! Le Media : « Regardez, on se bat contre TF1 ». Mais en vrai, si tu veux dépasser une petite niche, il faut quand même que tu apportes quelque chose qui soit aussi bien. Le problème c’est que pour atteindre le niveau de « aussi bien », il faut des gens et ces gens coûtent cher.

Lucas Gautheron : Justement, on a l’impression que si on veut faire aussi bien et pas aussi mal dans le sens moral du terme que les Facebook et les Google, il va falloir des moyens assez énormes. Tu dis qu’il y a la question du financement.

Jean-Baptiste Kempf : Attention ! Ils ne sont pas aussi énormes. En fait, tu as vu ce qu’ils ont fait. Tu as quand même un avantage, c’est que tu n’es pas le premier entrant. Tu peux te rendre compte qu’ils ont fait des conneries – ça ce sont les conneries – et surtout il y a des technos qui sont développées, donc ça coûte moins cher. Et surtout, si ton but n’est pas forcément d’écraser la concurrence, ta croissance peut être plus faible, donc tes moyens ne sont pas aussi importants. Par contre, ils ne sont pas nuls, il ne faut pas l’oublier !

Lucas Gautheron : Qu’est-ce qui manque justement ? Est-ce que c’est l’engagement des États ?

Jean-Baptiste Kempf : Au début, en fait il n’y aurait pas besoin de grand-chose. Mais là on a un tel retard que ouais, il faudrait avoir des investissements étatiques, je pense, par exemple sur certains sujets, avoir un OS de smartphone ouvert, l’équivalent de Google Docs ou d’Office 365, des choses comme ça que finalement tout le monde utilise. Je suis sûr qu’au Media vous utilisez Google Docs. Ouais ? [Rire gêné de Lucas Gautheron, NdT]. Évidemment. Là il y a un besoin. On a un tel retard qu’il y a un besoin. Il faut aussi avoir un système de financement de startups et de bonnes startups qui soit fonctionnel et vertueux. C’est possible, mais pour ça il faut avoir un cadre légal et il faut surtout avoir des hommes politiques qui comprennent ce qu’ils font et aujourd’hui on n’a pas ça en France.

Lucas Gautheron : On peut peut-être parler de l’exemple de Qwant7, le moteur de recherche français qui a quand même l’ambition assez grande de concurrencer les autres et qui a des financements, pour le coup, des financements européens même. Il y a quand même pas mal de controverses sur le sujet. En gros, on lui reproche, finalement, de réutiliser des technologies qui sont issues d’autres plateformes, de ne pas être une véritable alternative. C’est quoi le problème ? Je crois que c’est à RFI que tu as dit que tu voulais reprendre le truc, c’est ça ?

Jean-Baptiste Kempf : À un moment il y avait un article dans Le Monde qui était « Ils cherchent un nouveau CIO [Chief In­for­ma­tion Of­fi­cer] ». Ils ont trouvé, finalement ils ont pris le PDG adjoint. J’ai envoyé un mail en disant : « Vous êtes sûrs que vous ne voulez pas que je vienne ? » C’est une boutade, mais pas forcément.
Attention ! On a raconté tout et n’importe quoi. Il y a eu des controverses, je pense en particulier qu’ils ont fait des erreurs. Ils arrivent sur un marché qui est très compliqué, qui est très difficile, ils veulent aller vite. Personnellement, de ce que je comprends, je pense qu’il y a une partie du management de Qwant qui n’est pas assez bonne et qui est trop bien payée, mais surtout il y a une erreur de technique. Google ça a marché parce qu’à l’origine c’était techniquement meilleur. On revient à ce que je disais tout à l’heure, il faut que tes produits soient sexy. Si tu n’as pas des produits sexy, c’est embêtant.
Par contre, le débat, la polémique sur le fait qu’ils utilisaient le cloud Microsoft, c’est une fausse polémique. En fait, plus tard, ils pourront utiliser le cloud OVH s’ils sont fonctionnels. C’est juste que Microsoft leur a donné des crédits gratos et ils utilisent ça pour s’imposer. Ça ne me pose pas du tout de problème.
Il y a une autre polémique dans la sous-polémique qui est qu’ils utilisent les résultats de recherche de Bing, et là c’est un petit peu plus touchy, mais je comprends encore, il faut : tu as un retard, tout est justifiable. Tu peux prendre plein de raccourcis du moment que tu as un plan. C’est ça qui est important : avoir un plan pour en sortir. Une fois que tu utilises, tu déploies sur le cloud de Microsoft, si tu te débrouilles bien, une fois que tu déploies sur le cloud de OVH ça ne changera pas grand-chose. Utiliser les résultats de recherche de Bing c’est déjà plus embêtant parce que là tu dépends vraiment sur ton cœur de métier.

Lucas Gautheron : On ne peut pas accepter ça, le projet c’était justement…

Jean-Baptiste Kempf : Oui, mais quand tu commences ! Arriver aujourd’hui, le jour un, et monter un Google, comme ça [claquement de doigts, NdT], je te dis c’est 200 millions, 300 millions, peut-être un milliard, ça doit être un milliard pour avoir un truc qui est à peu près correct.

Lucas Gautheron : Est-ce que justement l’enjeu ne le justifie pas ?

Jean-Baptiste Kempf : Oui, mais où vas-tu trouver un milliard ?

Lucas Gautheron : Quand même, si on fait ça à un échelon… ?

Jean-Baptiste Kempf : Non, je n’y crois pas. Ça avait été un peu essayé dans le passé avec un truc européen dont j’ai oublié le nom, tu vois ça m’avait pas marqué, Quaero8, un truc comme ça. En fait, tu ne peux pas juste mettre de l’argent. Il faut aussi des gens qui leadent et qui aient l’envie.
Ce qui est bien chez Qwant c’est qu’ils ont quand même des mecs super bons. Il y a un mec comme Tristan Nitot [Tristan Nitot a quitté9 Qwant depuis mars 2020, NdT], ils ont monsieur Champeau qui sont vraiment des mecs qui comprennent ce qu’ils veulent et qui ont une vraie vision, mais je pense quand même que Qwant n’investit pas assez dans sa technique, mais ça c’est un avis de geek qui n’y travaille pas. VLC, c’est parce que techniquement c’est génial que ça fonctionne. Je pense que chez Qwant ils ont un peu oublié ça.

Lucas Gautheron : C’est un problème stratégique ou tu penses qu’il y a aussi un défaut de main d’œuvre qui est prête à se lancer dedans ?

Jean-Baptiste Kempf : Attends ! Ils arrivent, ils ont un projet. Ils doivent gérer des RH [Ressources humaines], des gens décentralisés, l’État qui arrive, les trucs politiques, tout le monde qui leur dit « regardez quand je fais cette recherche », les réseaux sociaux, etc. En fait c’est très compliqué. Ils ont grossi très vite et c’est difficile.
L’exemple typique, c’est Mozilla, une boîte qui a 500 millions de dollars par an et qui en fait une catastrophe : Firefox10 c’est maintenant 5 % des parts de marché alors qu’il en avait 30.
Grossir très vite, c’est difficile parce qu’il faut structurer. VLC on est tout petit et on est efficace aussi parce qu’on est tout petit.

Lucas Gautheron : Si l’enjeu c’est de reprendre possession du numérique et ne pas l’abandonner à des gens qui ont toutes sortes de projets mais qui ne sont pas forcément liés à nos intérêts, ça signifie, à priori, qu’il faut maîtriser toutes les technologies et toute la chaîne des composants et de la production. Utiliser des logiciels et des systèmes d’exploitation libres ça ne suffit pas, il faudrait par exemple pouvoir fabriquer nos propres processeurs. Est-ce que la France en est capable ?

Jean-Baptiste Kempf : Oui !

Lucas Gautheron : Est-ce qu’on en est capable ? On a déjà le niveau ? Qu’est-ce qui bloque alors ?

Jean-Baptiste Kempf : Il n’y a pas de technologie trop compliquée pour les Européens pour le moment. L’intelligence artificielle ce n’est pas un problème de technologie, c’est un problème de volume de données. C’est là la limite.

Lucas Gautheron : Oui, mais c’est quand même un problème ne serait-ce que ça parce qu’on n’a pas forcément envie d’accepter n’importe quel…

Jean-Baptiste Kempf : Oui, mais tu peux faire beaucoup de choses avant d’arriver aux limites. Oui, c’est sûr, tu as un retard techno, peut-être, mais avant d’arriver au moment où on a le retard technologique ! Aujourd’hui pour monter un Uber décentralisé, fédéré, il n’y a aucun problème technique. Arrête de nous raconter n’importe quoi ! Ça reste une mise en relation de gens sur Internet. C’est une plateforme, il n’y a pas de raison ! Ton Airbnb, c’est la même remarque !

Lucas Gautheron : Ce n’est pas forcément ce qu’on a envie de faire.

Jean-Baptiste Kempf : Ce que je veux dire c’est qu’avant d’arriver aux limites technologiques françaises… Tu mentionnais les processeurs. Je rappelle qu’en France on a un fondeur qui s’appelle ST Microelectronics qui est à Crolles, à Grenoble, qui a aussi une partie en Italie. Ils ont des capacités, on a des capacités et surtout il y a tout ce qui est maintenant open source sur les microprocesseurs avec tout le produit qui s’appelle Open Risk11. Il y a des choses à faire. Je ne crois pas à la barrière de la techno.
Par contre il y a trois problèmes : il y a un problème politique qui est un vrai problème c’est que nos dirigeants et alors là, de tous les partis, sont des gros nuls.

Lucas Gautheron : Pourquoi ils sont des gros nuls ?

Jean-Baptiste Kempf : Ils sont des gros nuls parce que ce sont des hommes politiques professionnels et parce qu’ils sont complètement dépassés. Ils ont 50 ans, et encore je suis poli parce que la moyenne d’âge au Sénat ça doit être plutôt 75, ils n’ont jamais rien compris et surtout ils sont, sans dire élite, d’une classe sociale où tout leur est arrivé directement. C’est le même problème que tu as à la tête de l’Oréal où tous mes anciens camarades de promotion centraliens pensent que faire des slides c’est bosser. Ils ont un tel décalage par rapport à la vraie vie qui fait qu’ils ne comprennent rien à Internet. Après l’histoire Griveaux puis l’histoire Castaner, maintenant ils se mettent à essayer d’attaquer l’anonymat sur Internet ou le pseudonymat alors qu’on sait qui c’est. Ça n’a pas été posté sur une plateforme.

Lucas Gautheron : C’est un prétexte !

Jean-Baptiste Kempf : Bien sûr, c’est un prétexte, mais pas seulement. Ils sont tellement à côté de la plaque. Ils ne sont pas juste un peu à côté de la plaque, ils sont tellement à côté de la plaque ! Donc il y a un problème politique grave.
Il y a un problème de financement, malheureusement, et de source de financement. Il faut que les grosses boîtes françaises réinvestissent dans les techs françaises et dans les techs, pas dans le hub, dans une énième plateforme de désintermédiation. Je pense que c’est le deuxième problème.
Le troisième problème, c’est un truc assez français, c’est de ne pas croire en la technologie. C’est bizarre, on fait beaucoup d’ingénieurs, mais en fait les ingénieurs sont considérés comme, je ne vais pas dire des sous-merdes, mais quand même pas loin. Aux États-Unis, les beaux gosses chez Google, chez Facebook, ce sont les ingénieurs. En France, les ingénieurs sont sous-payés, ils sont payés moins bien que les marketeux. On parlait de Qwant. Je parie que si on prend la grille de salaire, le directeur marketing est plus payé que le directeur technique. Et c’est un vrai problème parce que c’est comme ça que tu gardes les gens bons.

Lucas Gautheron : À quoi tu attribues ça, cette espèce de religion ? On délaisse un peu l’aspect technique ? D’ailleurs je voulais te demander : est-ce que tu ne souscris pas à la thèse d’Emmanuel Todd sur la crétinisation des élites ? Tu dis que le problème ce sont nos dirigeants politiques qui sont à la ramasse, les grandes boîtes n’investissent pas au bon endroit.

Jean-Baptiste Kempf : Je ne sais pas parce que je n’ai pas bien lu et là on va arriver vraiment dans la limite. Je vais dire une connerie, mais oui je pense qu’il y a un vrai problème d’élites et de reproduction sociale qui est que c’est trop facile pour eux. Comme c’est trop facile pour eux, en fait ils n’ont pas à faire l’effort.
Faire VLC, c’est du boulot. Quand les gens me demandent combien d’heures je bossais, je ne réponds pas parce que franchement il y avait des moments, il y avait des semaines, notamment quand je ne faisais pas ça à temps plein, où je faisais 90 heures, je prenais mes vacances pour aller faire des conférences VLC. Il y a un travail. Le travail est important et il ne faut pas l’oublier. C’est vrai qu’il y a un petit risque en France c’est d’oublier cette valeur et c’est dommage. On aime bien être cool en France, mais les Chinois et les Américains ne vous attendent pas !

Lucas Gautheron : J’ai une question un peu je ne dirais pas philosophique, quand même pas jusque-là. Il y a suffisamment d’utilisateurs de VLC pour dire que c’est une contribution qui n’est pas négligeable à l’économie mondiale d’une certaine façon. Finalement il y a pas mal d’entreprises qui peuvent s’en servir et s’en servir gratuitement. Est-ce que ce n’est pas un problème qu’elles puissent tirer un profit, profiter finalement de quelque chose qui a été conçu hors de leur cadre, qui est peut-être le fruit des formations dont vous avez bénéficié dans un établissement qui est public, Centrale ? Est-ce que cet accaparement-là ne te gêne pas ? Est-ce que finalement tu trouves que c’est normal ?

Jean-Baptiste Kempf : En fait, la partie open source et libre marche si tout le monde joue le jeu. C’est vrai que c’est un peu problème. En fait, là on parle de VLC, mais on a un peu dérivé. Il y a VLC et il y a les autres projets open source que les gens du grand public ne connaissent pas qui sont Ffmpeg, qui sont x264 qui est un encodeur vidéo fait par le projet VideoLAN12. En fait, toutes les vidéos que tu vois sur Internet, tout YouTube, tout Facebook, pas tout Netflix mais à mon avis quasiment, tout ce que tu vois en ligne en vidéo est fait par ce groupe de personnes, 50/60, la communauté VLC et deux/trois autres communautés à côté. Les plateformes et les grands groupes, en fait, ont vraiment un aspect prédateur, ils arrivent, ils prennent et surtout ils ne donnent quasiment rien. Ou ce qu’ils donnent c’est une sous-partie.
Si, par exemple, il n’y avait pas x264 en open source, l’encodeur vidéo de VideoLAN, ça coûterait à YouTube 20, 50, 100 millions de dollars par an, et ce qu’ils donnent à la communauté ce sont des miettes.
En fait c’est un problème moral de profiter et d’utiliser toutes les technologies open source en disant « elles sont mises à disposition, ça aide tout le monde, ça permet de ne pas redévelopper 40 fois le même truc et de se focaliser sur les choses qui sont vraiment à haute valeur ajoutée ». Mais, en même temps, il faut quand même jouer le jeu et tu as de plus en plus de gens qui ne jouent pas le jeu. Les entreprises françaises sont comme les américaines là-dessus, c’est-à-dire que vraiment tu n’as pas de moralisation.
L’État fait la même chose. L’État préfère payer des centaines de milliers, voire centaines de millions d’euros, des consultants pour aller faire des déploiements absolument débiles de paye – on a eu l’Éducation nationale 323 millions, Louvois [Logiciel unique à vocation interarmées de la solde pour le ministère de la Défense – et ça ne les gêne pas de mettre énormément de pognon dans des sociétés de service, par contre il n’y a aucun code qui est réutilisable et qui peut bénéficier à tout le monde. Ça c’est un vrai problème. Qu’une entreprise ne soit pas morale, finalement c’est le capitalisme ultralibéral. Tant pis ! Il faudrait le changer, etc., mais ce n’est pas moi, à ma petite échelle, qui vais le changer. Mais quand les États, notamment un État comme l’État français ou l’État allemand, dépensent des milliards, quand même, dans leurs outils informatiques et ne contribuent quasiment rien, c’est grave ! Alors qu’ils ont des exemples comme VLC qui sont grands. C’est un peu le problème, moi quand je me présente avec VLC, surtout aux politiques, je dis : « Bonjour, je fais le logiciel français le plus utilisé au monde et en fait, entre parenthèses, et le moins rentable. »

Lucas Gautheron : À ton avis, si les États ne font pas davantage pour l’imposition de ces plateformes qui profitent finalement, qui s’accaparent les fruits de l’innovation, est-ce que c’est parce que le rapport de force ne leur est pas favorable ou est-ce que c’est parce qu’ils adhèrent à cette religion-là que ces plateformes sont motrices de l’innovation, que finalement c’est normal ?

Jean-Baptiste Kempf : Tu as plusieurs parties. Sur la partie plateforme, par exemple le soutien à Uber ou Airbnb, c’est qu’en fait ils voient que ça permet d’embaucher de façon partielle des gens. Donc là « oh super, etc., ça fait embaucher des gens qui bossent, ça augmente un peu, ça soutient le PIB ». Et ça, à la limite, c’est un argument que je peux comprendre quand tu n’as pas d’alternative.
Après, sur la partie solutions numériques et vraiment solutions, là c’est du foutage de gueule total parce c’est juste par fainéantise, parce qu’ils connaissent ça et notamment parce que les hommes politiques ne connaissent que les gros groupes ; ils n’ont vu que ça et c’est la technique de save your ass. Tu ne prends que le leader parce que…

Lucas Gautheron : « Sauve ton cul », c’est ça ? Je traduis parce qu’on m’a dit qu’il fallait traduire.

Jean-Baptiste Kempf : Tu ne te feras jamais engueuler si le projet ne fonctionne pas parce que tu as choisi le leader : « Désolé, j’ai acheté Microsoft, je ne comprends pas pourquoi ça ne marche pas ! ». Alors que si tu prends un risque en prenant une plateforme plus petite, un truc français, et que ça ne marche pas, c’est toi qui te fais virer. En fait, vis-à-vis de tes supérieurs, tu sauves ton cul, tu prends le minimum de risques. Les hommes politiques français et les gens dans les grosses boîtes c’est la culture de « je ne prends pas de risques ». Il faut comprendre ça.
Un des points positifs de la French Tech, c’est qu’on a quand même un peu une culture du risque qui arrive. Avant, quand tu plantais une boîte en France, tu étais fiché à la Banque de France, tu étais tricard, tu ne pouvais plus faire de prêt, tu ne pouvais vraiment rien faire. Ça c’est très embêtant ! Les Américains aiment bien les gens qui ont planté une boîte parce qu’en fait, quand tu as planté une boîte avant tu as appris des trucs et en te plantant tu as appris plus qu’en ayant du succès. Les grosses startups qui ont fonctionné, c’est de la chance. Les mecs qui ne te disent pas que c’est de la chance ce sont des menteurs ou ce sont des mecs qui ont vraiment un ego monstrueux.
Par exemple Facebook ce n’était pas le premier réseau social, il y en avait plein avant qui marchaient, mais il était au bon moment, aux États-Unis, dans une bonne démographie. Son but original n’était pas du tout de faire Facebook, c’était d’avoir des photos des nanas pour les noter. Il faut quand même le rappeler ! Il était au bon moment et ça a cartonné.
Donc il faut beaucoup de travail, il faut pas mal de cash malheureusement, et ça, ça vient après, mais il faut avoir de la chance. Pour avoir de la chance, il ne faut pas avoir peur de prendre du risque, et en France on a cette aversion au risque très forte. C’est pour ça que c’est bien que les jeunes veuillent monter des startups. Je dis que c’est dommage qu’on leur laisse faire n’importe quoi, mais c’est bien parce que ça te donne la culture du risque en disant je vais essayer un truc et si ça merde eh bien ça merde, mais ce n’est pas grave !
Par exemple Le Media n’est pas diffusé sur la TNT. Vous avez essayé un truc, vous avez eu plein de problèmes, j’en suis sûr.

Lucas Gautheron : On va en parler au passé.

Jean-Baptiste Kempf : Pourquoi ? C’est hyper-important. Tu prends un risque, c’est un risque important de lancer des nouveaux médias et si ça marche c’est cool, si ça ne marche pas ce n’est pas grave, on en fera un autre.
Cette culture du risque est absolument absente chez les élites françaises et c’est dommage.
Qwant c’est super, ils ont une culture du risque, c’est un projet. Ils s’en prennent des baffes ! Les seuls gens qui ne se prennent pas de baffes ce sont les gens qui ne font rien et qui n’essayent pas : je veux être directeur ! Plutôt que de monter Qwant, ils pourraient être directeurs techniques chez l’Oréal, ils seraient payés dix fois plus, ils seraient tranquilles, ils ne foutraient pas grand-chose, ils seraient en réunion à se gratter le bide pendant des heures et des heures et à prendre des cafés.
C’est bien de créer et d’essayer. C’est dur, c’est sûr, et des baffes tu t’en prends, mais il n’y a qu’en ne faisant rien que tu ne prends pas de baffes.

Lucas Gautheron : Je voudrais finir par une question un peu personnelle mais pas trop, ne t’inquiète pas.

Jean-Baptiste Kempf : Tu peux poser des questions personnelles, au besoin je ne te répondrai pas.

Lucas Gautheron : D’accord. J’ai lu que tu te définissais dans Society comme un libertarien et cependant tu disais que tu n’étais pas choqué s’il fallait payer 50 % d’impôts. Comment tu vis cette contradiction ?

Jean-Baptiste Kempf : En fait c’est très compliqué. Je ne rentre pas du tout sur l’échiquier politique français- En France il y a plein de mots autour de la liberté, qui sont soit « libertarien » soit « libertaire », qui sont des notions qui sont finalement débiles et très loin de ma pensée parce qu’en fait, les libertariens américains, c’est Madelin, c’est l’ultralibéralisme, c’est le laisser-faire de faire n’importe quoi. Alors que moi je suis plus au sens vraiment liberté de la Révolution française, du slogan français, c’est vraiment la partie liberté sociale, pas du tout économique.
En fait je suis très embêté avec toute la gauche française qui, pour moi, ne fait que faire de l’interdiction. On a un côté français, je vais choquer pas mal de vos gars mais ce n’est pas très grave, qui est un côté très stalinien : « il y a un problème, on va interdire » et c’est un problème de la gauche française en général. Ça te fait juste plus, plus de lois qui sont compliquées, plus, plus d’impôts. En fait je suis absolument contre les lois compliquées. Je pense qu’on a trop d’impôts et de niches fiscales en France, pas en volume, ça ne me choque pas qu’on ait 55 % de prélèvements obligatoires. Ce qui me choque c’est que ces 55 % soient sur 400 impôts et 9000 niches fiscales. Les gens qui vont profiter des niches fiscales ou de la complexité légale, ce sont les gens qui ont l’argent pour se payer des fiscalistes, des juristes et des avocats. Les gens qui se font niquer la gueule à la fin ce sont les petites gens, ce sont les gens normaux.
Il y a encore des mecs qui font de la prison ferme : un agent qui a détourné de l’argent public, je crois que c’est 130 000 euros et il fait de la prison ferme. Nos hommes politiques, par contre, ce n’est pas 100 000, ce sont des millions et eux ne prennent jamais rien !

Lucas Gautheron : Ou quand ils vont en prison, on les fait sortir assez vite.

Jean-Baptiste Kempf : Balkany c’est la première fois ! Ce n’est pas grave que Balkany soit sorti, c’est embêtant, etc., mais l’important c’est qu’il soit rentré ; la première fois qu’on en a mis un en taule ferme, « ce soir vous allez en taule ». Ce n’est pas « oui, bon, on va faire un truc qu’on tournera en sursis, puis on a l’application des peines. » Moi je n’aime pas du tout le système que la gauche française pousse un peu, qui est « il y a un problème, on va faire une loi ». En fait on fait plein de lois, elles se battent les unes les autres, et ceux qui sont capables de passer entre les lois, ce sont les gens qui ont de l’argent ou du pouvoir. Je suis énormément pour avoir des trucs très simples. Par exemple on parlait impôts, je suis absolument contre tout ce qui est seuil. Je suis absolument contre les tranches parce que ça te fait des effets de seuil qui sont toujours problématiques.

Là je vais peut-être dire une connerie, on me corrigera, je crois que LFI [La France insoumise ] ne voulait plus de 5 tranches sur le revenu, mais passer à 11. C’est la même bêtise en fait ! C’est-à-dire qu’il ne faut qu’il y ait 5 tranches, 11 tranches, 20 ou 50. Il faut qu’il y ait une infinité des tranches. On n’est plus au 19e siècle ; on a des ordinateurs, on sait calculer, ça s’appelle une intégrale, il faut que tu aies une infinie de seuils au lieu d’avoir un système comme ça et on peut le définir.

Je suis pour un État beaucoup plus simple, des règles beaucoup plus simples.

Le problème c’est que les gens qui veulent des règles beaucoup plus simples, en général, c’est parce que de l’autre côté ce qu’ils veulent c’est moins d’État en volume. Moi je ne suis pas pour avoir moins d’État en volume, je suis pour avoir plus de liberté. Là on est dans les libertés fondamentales, on n’est pas du tout dans le libertarisme économique parce que je pense que les lois compliquées ça ne profite qu’aux élites et aux gros groupes.

Lucas Gautheron : Merci Jean-Baptiste Kempf.

Jean-Baptiste Kempf : De rien.

Voix off : Le Media est indépendant des puissances financières et n’existe que grâce à vos dons. Soutenez-nous sur lemediatv.fr. Et pour ne rien rater de nos contenus, abonnez-vous à nos podcasts.

La reconnaissance d’émotions dans la voix – Partie 2

mar, 08/18/2020 - 17:36


Titre : La reconnaissance d’émotions dans la voix – Partie 2
Intervenant·e·s : Laurence Devillers - Carole Lailler - Jean-Luc Marini
Lieu : Lab Pod, Axys Consultants
Date : juillet 2020
Durée : 36 min
Écouter ou enregistrer le podcast
Licence de la transcription : Verbatim
Illustration :
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Jean-Luc Marini : Bonjour Carole et bienvenue pour ce nouveau Lab Pod.

Carole Lailler : Bonjour Jean-Luc, ravie de te voir sous la pluie orageuse aujourd’hui.

Jean-Luc Marini : Aujourd’hui nous ne sommes pas seuls, car nous avons le plaisir d’accueillir Laurence Devillers qui est professeure en intelligence artificielle et chercheuse au LIMSI [Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur] pour parler ensemble de la reconnaissance d’émotions dans la voix.
Bonjour Laurence. Vous allez bien ?

Laurence Devillers : Bonjour Jean-Luc. Très bien. Merci. Bonjour Carole.

Carole Lailler : Bonjour Laurence, ravie de te retrouver.

Jean-Luc Marini : Comment est-ce qu’on s’y prend pour concevoir un système de reconnaissance automatique d’émotions dans la voix ? Aujourd’hui, si jamais je voulais monter un système de ce type-là, par où je commencerais et quelles sont les étapes indispensables ?

Laurence Devillers : Les étapes indispensables c’est d’avoir un corpus de valeurs qui soit étiquetées correctement.

Carole Lailler : Les données, toujours les données.

Laurence Devillers : Voilà. Il est nécessaire de travailler sur l’obtention des données et sur l’annotation des données.
Je pense que la meilleure façon de faire c’est d’avoir des données de terrain qui soient le plus proches possible de la façon dont le système va être utilisé. Les données qu’on utilise en laboratoire ou qui viennent de données trop protégées montrent bien qu’on n’est pas robuste après. Si je prends la reconnaissance faciale, vous avez des données où vous avez 90 % de reconnaissance avec des scores incroyables en laboratoire, je passe dans la vraie vie, il y a de la lumière partout, ça réverbère, j’ai une personne âgée qui a des rides, j’ai donc dix sourires en même temps ! Enfin ça devient vraiment très peu robuste, donc il est essentiel d’être sur le spontané.

Carole Lailler : Voilà ! Un autre exemple, assez trivial aussi, mais qui se comprend bien : un système qui a été appris sur de la parole lue va être totalement mauvais pour transcrire notre conversation parce qu’on vient de se couper la parole, par exemple, et là on n’est pas encore dans l’émotion, on est seulement dans la transcription. Cette robustesse amenée par « je réfléchis à mon cas d’usage et au type de données – qui est mon saint Graal ? – » pour essayer de retrouver et de construire, de penser à la collecte, le corpus qui ira bien pour l’apprentissage en respectant éthiquement, effectivement, les éléments de collecte et en ayant à cœur cette diversité de représentation des locuteurs est fondamentale.

Laurence Devillers : Et puis ce n’est pas suffisant, ça dépend de ce qu’on veut en faire après. Pour l’instant, avec Carole, on a expliqué l’étape 1, c’est-à-dire si je veux détecter ponctuellement une émotion. Je dirais que dans ces cas-là on aura peu de chance d’avoir des scores très performants parce qu’on n’aura jamais assez de données, on n’aura jamais vu assez de diversité et surtout on est hors contexte. L’essentiel c’est cette interaction dialogique : vous êtes dans un contexte particulier donc il faut prendre en compte ce contexte pour arriver à mieux anticiper ce que pourraient être, finalement, les réactions. Je pense que dès lors qu’on a mieux encadré la situation, en fait on est plus à même de pouvoir prédire des comportements avec plus de fiabilité.
L’alignement entre les deux voix, entre la voix de la machine qui propose quelque chose et ce que vous êtes en train de faire, est important ; le temps de latence est important. Il y a aussi énormément d’hésitations qui vont être subtiles à prendre en compte, qui seront importantes. Et puis je crois qu’on est vraiment quand même dans des systèmes d’in-communication à l’heure actuelle, c’est-à-dire qu’on est très loin de la co-construction dont parlait Carole, on est très loin de la préservation de la face, de la théorie de Goffman, c’est-à-dire faire attention à ce que l’autre ne perde pas la face dans l’interaction et on est très loin du jeu de négociation et de séduction qui existe dans l’interaction vocale entre humains.
Avec des machines il faut avoir un objectif très clair de ce qu’on veut et pas du tout imaginer qu’on va pouvoir détecter une foultitude d’émotions.
Si vous êtes intéressé par une émotion particulière pour une pathologie particulière comme le stress, la dépression, vous avez vraiment des catégories très typiques, il faut travailler dans cette continuité en essayant de collecter le plus de données de ce type-là, tout en ayant toujours en tête qu’on devrait utiliser les prédictions de ces systèmes comme étant des enrichissements et non pas comme étant quelque chose qui va nous donner une puissance de décision puisqu’on voit que ce n’est pas très fiable, que c’est très différent entre les humains. On ne peut pas faire confiance à ces systèmes dans l’état actuel de nos connaissances et de tout ce que j’ai vu développer dans l’industrie ; on ne peut pas faire confiance à ces systèmes. On peut juste utiliser ce qu’ils peuvent prédire comme étant des indices en plus dans une stratégie plus globale, conversationnelle, qui met en œuvre différentes capacités qu’on essaie de détecter dans le comportement des gens.
Et la façon dont on pose les questions va aussi influer énormément sur les réponses, donc il faut bien comprendre ce mécanisme-là de manipulation audio aussi.

Carole Lailler : Et vocal, c’était le sujet de ma thèse effectivement. Je suis tout à fait d'accord avec Laurence.

Laurence Devillers : Et vocal.
Il y a une expérience géniale, que j’ai trouvée géniale parce qu’elle marche, tout de suite on comprend très vite, qui a été faite par l’Ircam [Institut de recherche et coordination acoustique/musique] qui était la suivante. On voulait regarder l’impact de sa voix sur son propre ressenti émotionnel. Vous prenez des gens, vous leur demandez de prononcer des mots et, dans le casque retour où ils s’entendent parler, vous modifiez leurs voix en montant le pitch, en montant la fondamentale pour aller vers un son plus aigu et plus positif tel qu’on l’entend, une voix féminine. On monte le pitch. Les personnes réalisaient ce test et celles dont le pitch avait été modifié étaient globalement plus heureuses que celles dont le pitch n’avait pas été modifié. Donc on est sans cesse en train de s’écouter, d’écouter l’autre, et de modifier la perception qu’on a. Ces façons neuro-fines de comprendre l’impact des émotions, on en est très loin dans les systèmes qu’on met en place.
Je crois qu’ils peuvent être très puissants, mais il faut bien cadrer et bien comprendre là où c’est utile.

Jean-Luc Marini : C’est clair. On voit bien l’importance des corpus, effectivement, dans ces systèmes, d’avoir des corpus suffisamment diversifiés et correctement annotés, d’où ma question : comment est-ce qu’on annote aujourd’hui ces corpus ? Est-ce qu’il y a des techniques particulières ? Est-ce qu’il y a des modèles d’annotation ?

Laurence Devillers : Il y a tout un travail, le micro-travail de toutes les personnes non payées ou sous payées par les GAFA, qui sont tout le temps en train d’annoter des données, n’est-ce pas, pour nourrir tous ces systèmes qui vont être capables de comprendre votre profil, qui vous aident. Toutes ces données sont annotées à plein de niveaux différents, en feuilletage, par tout un tas de petites gens ; je ne sais pas comment c’est fait mais ça fait très peur parce que, finalement, où est l’expertise ? Elle est bien dans l’annotation qu’on est en train de mettre, non seulement dans la sélection des données mais aussi de l’annotation.
Dans l’apprentissage machine, tout le monde utilise à peu près les mêmes outils à l’heure actuelle. Quand j’ai fait ma thèse, j’ai codé un système particulier et après j’ai vérifié qu’il n’était pas bugé, qu’il n’y avait pas de problème en le comparant à d’autres, etc., mais j’ai fait complètement le système. À l’heure actuelle mes étudiants prennent les librairies qui sont en général celles des GAFA – on a quelques librairies en libre quand même – pour créer leurs systèmes. Donc c’est un jeu de puzzle qu’on assemble et toute l’expertise va être quand même beaucoup encore sur le choix de ces données. Toute l’intelligence que l’on mettait dans un système expert en disant « voilà les règles des experts pour essayer de reconnaître ça », là on met cette intelligence dans le choix des données et dans leurs annotations.
Comment on procède ? D’abord il faut discuter avec les personnes qui ont intérêt à utiliser un outil, quels types d’annotations elles veulent récupérer et pourquoi, et travailler sur ces annotations. Une fois qu’on a compris à peu près quelle est l’enveloppe voulue, à ce moment-là il faut se poser la question d’annoter, il faut annoter à plusieurs comme le disait Carole tout à l’heure ; à des moments on a eu 15 personnes qui annotaient en parallèle la même chose. On va essayer de regarder à partir de combien de personnes on arrive, finalement, à une annotation qui va être la même et on voit souvent qu’à partir d’une dizaine de personnes on arrive à peu près à converger.
Ce que j’avais fait à un moment donné, qui me paraissait intéressant, mais sans l’avoir développé plus et je pense que je vais encadrer des thèses bientôt, ce sera l’occasion d’aller jouer sur ces terrains-là, c’est travailler sur le pluri-labels. C’est-à-dire que vous avez des perceptions différentes liées non seulement à la difficulté du contexte dans lequel on vous demande de juger mais par rapport à ce que vous êtes, vous. Est-ce qu’il faut, finalement, faire rentrer tout le monde dans le même moule ou est-ce que la complexité des regards qui vont peut-être dire plutôt là c’est colère et là non, pour moi c’est neutre, et pour moi ça serait, ou plus fin que ça, est-ce qu’il faut pas prendre en compte différents regards et en faire ce que j’avais fait à un moment donné un vecteur, finalement, d’annotations, et avec ces vecteurs travailler sur un univers un peu plus riche, multi-facettes, autour de différentes perceptions humaines de l’objet qu’on cherche à modéliser.

Carole Lailler : Typiquement quand on cherche, on l’a fait avec Laurence, je le fais encore aujourd’hui dans des projets, à construire un guide d’annotation, les réunions d’annotation ne doivent pas être l’occasion d’une harmonisation-lissage parce que celui qui a la force de persuasion la plus forte par la parole va convaincre son petit voisin qu’il s’est trompé alors que parfois c’est juste parce que dans l’entourage, sur de la perception vocale par exemple j’ai eu le cas récemment, l’annotateur qui n’était pas forcément en accord avec ses petits camarades s’est vite rendu compte que dans son monde environnant, il n’entendait pas de voix jeunes, c’est ainsi, et qu’il avait donc une perception un petit peu différente, peut-être plus fantasmée, du moins différente. On n'a pas été dans un lissage où finalement on enlève ton label et on garde celui des autres, on a été davantage sur une réflexion de critères objectivables tant que faire se peut, même si c’est délicat, et dans cette réflexion, comme le dit Laurence, de multi-labels où l’idée ça va être d’avoir des intervalles de consensus plus qu’un label posé, certifié.

Jean-Luc Marini : Très bien, C’est très clair.
On pense souvent à de grands corpus. Un grand corpus c’est quoi en termes de taille ? C’est une centaine d’heures, c’est 500 heures, ce sont des milliers d’heures ?

Carole Lailler : Ça dépend de ce que tu veux faire, je sais que c’est une réponse très prudente et j’entends bien qu’elle le soit, mais c’est vrai que pour faire de la transcription de la parole ou de la reconnaissance en émotions – et Laurence a parlé tout à l’heure d’algorithmes de classification – est-ce que j’ai 22 labels, 22 thématiques ou 10 émotions, ou est-ce que j’en ai 4 ? Je ne suis pas sur la même répartition, la même nécessité d’apprentissage. C’est encore une fois très lié à ce que l’on veut obtenir en sortie et ce que l’on souhaite faire. C’est vrai que plus on a de données plus on est ravi, ne serait-ce que pour cet apprentissage de la diversité, des frontières, des voix ; Laurence parlait de la difficulté des voix jeunes qui ne sont pas encore, on l’avait dit dans un précédent Lab Pod, arrêtées physiologiquement, donc forcément elles sont d’une inventivité folle, ce qui est difficile à caler et à apprendre pour un système.

Jean-Luc Marini : En fait, il faut pouvoir tester, voir si effectivement c’est suffisant au regard des objectifs qu’on a définis et éventuellement retravailler le corpus pour essayer de l’enrichir si ce n’est pas le cas ?

Carole Lailler : Tout à fait. Il y a une dimension itérative et c’est pour ça que la semaine dernière je te disais que je n’aimais pas l’évaluation couperet, guillotine, et que je préférais quand les évaluations avaient l’intelligence d’accompagner le système et les processus parce qu’effectivement il y a cette nécessité d’avoir un œil sur le système comme on a un œil sur le lait quand il est sur le feu, d’une certaine façon.

Jean-Luc Marini : On parlait tout à l’heure d’émotions combinées. Comment est-ce qu’on procède en la matière ?

Laurence Devillers : Pour revenir quand même sur la taille des corpus, j’avais plutôt dit 1000 heures, c’est-à-dire que quand on parle de grand corpus c’est à ce niveau-là ; à partir d’une centaine d’heures on espère avoir des choses déjà intéressantes. Ce dont il faut se rendre se rendre compte c’est qu’à part les GAFA, les géants américains ou peut être quelques entreprises mais très peu, c’est difficile en ce moment d’avoir énormément de données, donc le monde de la recherche se tourne vers le small data, c’est-à-dire, en fait, qu’est-ce qu’on peut faire avec peu de données.

Jean-Luc Marini : C’est aussi un axe important aujourd’hui.

Laurence Devillers : Qu’est-ce qu’on peut faire avec peu de données ? Eh bien on peut en synthétiser d’autres qui ressemblent, donc on joue beaucoup sur les synthétiseurs avec des gammes, avec ces espèces de réseaux de neurones adversarial1 aussi ou alors avec une modélisation du conduit vocal et en essayant de modifier la parole de quelqu’un pour le faire passer d’un homme à une femme. Voilà ! On peut enrichir artificiellement avec des stimuli vocaux qu’on crée, donc ça va créer du bruit autour et un peu de diversité.

Carole Lailler : On peut dégrader une voix de studio enregistrée sur un joli plateau en faisant croire que c’est du téléphone par exemple.

Laurence Devillers : Ça c’est facile.

Carole Lailler : Soyons positifs. Donnons des choses un peu concrètes cette fois-ci.

Laurence Devillers : L’autre chose qu’on essaie aussi de faire c’est d’apprendre à la volée, notamment sur Internet en regardant les trucs de YouTube, etc., ou des films, mais c’est compliqué parce qu’il y a énormément de facteurs qu’il faudrait pouvoir trier et qu’on n’a pas des systèmes qui sont aussi intelligents que ça pour aller sélectionner des données. Ensuite, quand le robot entend quelqu’un qui parle, on pourrait aussi avoir des processus adaptatifs. C’est pareil, il faut les contrôler, sinon on risque d’avoir des systèmes qui vont diverger vers d’autres objectifs que ceux qu’on leur a donnés au début et qui seront intenables. Tout ça n’est pas mature.
Je dirais que l’utilisation de peu de données et d’une intelligence adaptative, c’est sûrement l’avenir puisqu’on n’aura jamais assez de données pour beaucoup et puis ça sera toujours très onéreux de les annoter, parce que, évidemment, on ne fait pas annoter par 15 personnes, en général dans les papiers on demande qu’il y en ait au moins deux, au mieux trois, rarement au-delà. L’autre chose aussi c’est que les annotateurs, en tout cas si on regarde les papiers de chercheurs, sont souvent des étudiants ; ils ont le même âge, ce sont trois garçons puisqu’on est dans le monde de l’informatique où on a peu de jeunes filles qui viennent faire des thèses ou des stages. On a donc une vision du monde qui est vu par quelqu’un qui a 22 ans, qui est masculin, qui a tel profil, donc ce n’est pas non plus la vision du monde des émotions entre quelqu’un qui…

Carole Lailler : Il faut qu’on échange nos annotateurs, Laurence, parce que moi j’ai le problème inverse, c’est-à-dire que les garçons sont d’accord pour faire un peu de dev, par contre ils laissent les annotations aux filles.

Laurence Devillers : On aurait pu dire que c’était l’inverse, mais c’est la même chose, il y a une discrimination c’est tout ce que je voulais dire, c’est-à-dire qu’on a un point de vue et pas forcément un point de vue riche. Quand j’avais commencé à faire des annotations, je m’étais dit qu’il fallait justement avoir des annotateurs masculins, féminins et de différents âges parce qu’au moins on avait une impression différente et on pouvait construire ces vecteurs multi-labels, multi-étiquettes, de façon plus riche.
Maintenant comment on fait pour les exploiter ? Eh bien il y a différentes stratégies que je ne vais peut-être pas toutes décrire, en tout cas ce sont des pistes de recherche pour l’instant, je ne pense pas qu’il y ait beaucoup de systèmes industriels qui utilisent du multi-label.

Carole Lailler : Non, mais ça commence pour justement les problématiques pragmatico-économiques que tu évoques, c’est-à-dire que la constitution des corpus a un coût, leur durée de vie aussi. Il y a la réalité du RGPD [Réglement général de protection des données] qui commence quand même à bien être intégrée, y compris dans les entreprises, donc cette volonté d’essayer de répondre à une problématique clairement circonscrite avec ce que l’on a, en mettant un peu de soin et d’attention à la préparation des données pour ne pas partir sur quelque chose de déceptive [trompeur, NdT], et un POC [] qui n’est jamais poursuivi parce que totalement décorrélé de la réalité, comme tu le disais tout à l’heure.

Laurence Devillers : Oui. Ça devient de plus en plus prégnant et important, c’est comment on donne des guides de bonne pratique, comment on mesure qu’un corpus n’est pas équitable, comment on mesure que sur le long terme vous avez une machine qui vous influence. À priori, dans le dialogue, on influence toujours, mais est-ce que c’est à tel point que ça en devient problématique ou est-ce que c’est juste normal ? Toutes ces questions autour de ce que j’appelle l’éthique, en fait, le respect de l’autre dans les choix qui sont faits par les machines ou les prédictions qui sont données par les systèmes de reconnaissance des formes sont à mon avis des choses qu’on va construire là, bientôt, et avec lesquelles il faudra jouer dans l’industrie. J’ai travaillé, par exemple, avec le Hub France IA2 sur le rapport qui a été produit par l’Europe, on a fait travailler une dizaine d’entreprises, que ce soit des grands groupes ou des startups – il y avait Dream Quark, il y avait aussi la SNCF ou la Société Générale pour vous donner des exemples – donc on a travaillé sur la faisabilité dans un monde pragmatique, comme tu dis, c’est-à-dire comment on fait pour passer des concepts de respect des droits de l’homme à quelque chose que je peux mettre en place comme mesure pour vérifier que mon système se comporte correctement. Il y a eu beaucoup de questions pour lesquelles on a demandé aux industriels : « Seriez-vous capables de faire quelque chose de cet ordre-là ? Pensez-vous que c’est tellement onéreux que vous le ferez pas ? ». En fait, essayer de comprendre la difficulté de la mise en place de ce genre de mesure.
Certes, ce sont des sujets qui vont arriver partout, ils arrivent aussi dans les projets qu’on est en train de monter, sur tous ces objectifs qui sont quand même de nouveaux systèmes avec de nouveaux usages. Et maintenant tous les projets européens insistent énormément : l’éthique ce n’est plus seulement les données, c’est finalement comment le système se comporte, comment il est évalué, audité, et est-ce que c’est fait dans un cadre suffisamment étudié, pas juste une vitrine.

Jean-Luc Marini : Tout à fait. Ce qui m’amène d’ailleurs aussi à poser la question de l’évaluation et notamment l’évaluation des performances : comment est-ce qu’on évalue les performances d’un système de reconnaissance d’émotions ?

Laurence Devillers : Normalement, dans une approche classique, pour évaluer le système on va prendre une partie de notre corpus de données pour faire de l’apprentissage, une deuxième partie pour faire du développement c’est-à-dire, en fait, savoir arrêter l’apprentissage et dire j’ai obtenu un modèle assez générique et pouvoir le tester sur une troisième partie. Donc j’ai trois parties : apprentissage, développement, test ; je teste sur la dernière partie. Ça c’est un protocole.
J’en ai un autre qui va être de faire, par exemple, dix tranches : je sépare mon corpus en dix parties et j’en utilise neuf pour l’apprentissage, je teste sur la dixième et puis j’échange, j’en prends neuf autres, je teste sur la dixième, comme ça j’essaie de tester tout mon corpus.
Une autre façon de faire c’est de regarder locuteur par locuteur pour que ça soit indépendant du locuteur. On met quelques locuteurs à part en test, on fait de l’apprentissage sur d’autres locuteurs et on va tester ceux-là et de la même façon on va jouer en échangeant les locuteurs qui sont en test pour avoir une moyenne des performances. Ça, ça nous permet d’être plus robustes, en fait, que le fait d’avoir juste un test, d’accord ?
J´irais encore plus loin. J’ai essayé de pousser à faire du cross corpus c’est-à-dire que j’ai un modèle que j’ai obtenu sur un corpus de données pour une tâche particulière, puis-je utiliser le même modèle sur une autre tâche où j’ai le même type d’émotions, par exemple de la joie, de la colère, des choses assez simples. Je vais aller chercher.
C’est intéressant de voir comment on peut passer d’une tâche à une autre, après avec toute la difficulté de prise de son, c’est-à-dire qu’il faut rester dans un environnement où la prise de son est similaire, sinon, là aussi, il faut faire un filtre. Par exemple, si on a une interaction avec un robot et ensuite on veut utiliser le même modèle pour passer au téléphone, certes là je pourrais parser un filtre pour arriver à ne prendre dans mon corpus que les fréquences jusqu’à 4000 hertz qui va être la bande passante au téléphone.

Carole Lailler : Ce que dit très bien Laurence, c’est qu’il va falloir évaluer, mais évaluer un élément et pas, quelque part, se laisser brouiller, puisqu’on parle d’ondes, par d’autres éléments qui viendraient mettre les travaux en échec alors qu’ils n’en sont pas finalement la source première, la cause première.

Jean-Luc Marini : Tout à fait. Vous qui êtes, je dirais, au fait de ce qui se passe un peu dans les laboratoires à un niveau déjà français, européen et international, comment évolue la recherche en matière de reconnaissance automatique d’émotions ?

Laurence Devillers : Il y a beaucoup de groupes. Quand j’ai commencé à travailler sur ce sujet en 2000, en France on devait être le seul groupe en détection des émotions dans l’audio. Sur la parole, sur la reconnaissance de la parole, il y a, en France, plusieurs sites qui sont reconnus, par exemple au Mans, à Avignon il y a un laboratoire qui s’appelle le LIA [Laboratoire d'Informatique d'Avignon], à l’INRIA, dans l’Est de la France, à Télécom. II y a plusieurs sites qui commencent tous à s’intéresser à ça ; c’est devenu un sujet qui a énormément attiré de monde.
On a vu aussi fleurir des compétitions dans les conférences, compétitions menées par des gens que je connais bien, ce sont des gens très bien, mais je suis contre ce genre de compétition qui laissent à penser que le domaine est suffisamment mature. En fait c’est faux. Si vous regardez les résultats de ces compétitions, on est souvent avec des 40 % d’erreurs ou 30 % d’erreurs, comme je disais tout à l’heure, ce qui n'est pas suffisant pour monter des vrais systèmes. Donc la détection de la personnalité dans l’audio ou des émotions, c’est très délicat.
Une des expérimentations que j’avais faite qui montrait vraiment bien cela et qui montrait aussi le fait dont on a parlé toutes les deux qui est que les émotions sont multimodales, par essence, c’était en fait d’avoir fait une prise de corpus multimodal sur des interviews qu’on faisait avec des étudiants sur le stress. On les mettait dans des situations qui les stressait et il y avait des captures audio, visage, profondeur de mouvement ; ils étaient sur une plate-forme de force, ils avaient une ceinture pour calculer le rythme cardiaque, ils avaient une autre capture de la conductance de la peau et d’autres facteurs physiologiques ; il y avait aussi des gestes qu’on pouvait repérer et, évidemment, on pouvait aussi se servir de questionnaires en psychologie pour essayer de comprendre dans quel état ils étaient. Donc on était sur du multimodal avec des questionnaires de psychologie très avancés sur la personnalité aussi pour essayer de détecter quel était le ground truth, c’est ça le Graal, où est la vérité, en gros. Eh bien on a pu montrer qu’il n’y avait pas de vérité sur l’un ou l’autre de ces canaux, il y avait une vérité différente suivant les individus. Par exemple, les individus très sportifs savent bien réguler leur rythme cardiaque, ils seront moins à même de tomber dans les pommes devant une situation anxiogène ou je sais pas quoi que d’autres. Nous sommes des animaux à sang chaud et très différents, en fait, vis-à-vis de ça.
Le marqueur le plus fiable pour le stress c’est encore un test sur la salive. On va effectivement trouver dans ce test sur la salive des facteurs qui sont assez objectifs.
Pour le reste, je dirais que c’est extrêmement délicat de ne prendre que la voix ou ne prendre que l’image ou ne prendre que les gestes, parce que c’est une combinaison de tout cela et, encore une fois, si on avait à catégoriser vraiment, il y a plusieurs groupes différents de gens qui réagissent à certains stimuli et d’autres qui ne réagissent pas. Donc il est extrêmement difficile, je pense, de trouver quelque chose de très fiable. Il faut être très malin dans la façon de construire les systèmes pour extraire des informations de comportement, donc il faut être très précis en fait sur ce qu’on veut atteindre.

Carole Lailler : La clé c’est ça, c’est ce qu’on veut au final. On voit quand même bien, en dehors de l’expérimentation en labo, la difficulté d’un outil qui nécessite un prélèvement de salive en amont et en aval d’une situation, effectivement. Cette idée de calibrer ce que l’on cherche à faire en restant humble, pour le coup travailler avec beaucoup d’humilité, c'est réellement un point d’ancrage à bien avoir en tête.

Jean-Luc Marini : C’est clair. Pour terminer sur une note un peu plus ludique, je crois, Laurence, que vous avez beaucoup travaillé sur des robots humanoïdes, des agents conversationnels capables de détecter des émotions chez les êtres humains que nous sommes. Je crois que vous leur avez même consacré un livre. Est-ce qu’un robot dit émotionnel peut nous donner l’illusion qu’il ressent des émotions ?

Laurence Devillers : C’est effectivement une très bonne question. Merci d’avoir parlé de ce livre, Les robots émotionnels, que j’ai sous-titré Santé, surveillance, sexualité et l’éthique dans tout ça. Les robots n’ont pas d’émotions, pas de sentiments, pas d’hormones de désir ou de plaisir, pas d’intentions propres, je pourrais continuer, pas de conscience, etc., mais on leur en prête. Donc ils sont capables d’imiter sans ressentir, de parler sans comprendre, de raisonner sans conscience. Par contre, nous sommes tout à fait, dans différentes situations, capables de les humaniser. C’est donc cet anthropomorphisme, c’est-à-dire cette projection des capacités humaines qu’on fait sur les machines, qui pose problème et non. Disons qu’il faut comprendre parce que derrière il pourrait y avoir des risques de manipulation de ces machines, on prendrait plus soin de la machine que des êtres humains à côté de nous parce que la machine serait toujours bienveillante et toujours de notre avis ; on deviendrait dépendants affectivement, on s’isolerait des humains, on perdrait une certaine liberté parce que ce serait la machine qui déciderait pour nous et puis, surtout, ça va amplifier les stéréotypes.
Comme je l’ai dit tout l’heure, il y a 80 % des informaticiens qui sont des garçons, il y a 80 % des artefacts qui ont des voix, des noms féminins – Alexia, Sofia – quand ce ne sont pas des robots humanoïdes, comme vous le dites, qui sont donc très féminins. On en fait des assistants serviles, des robots compagnons ou des robots sexuels, mais cette représentation de la femme à travers toutes ces machines, agents conversationnels ou robots, est « questionnante » parce que c’est meta. Chaque fois que j’ai rencontré des industriels qui parlaient des systèmes qu’ils mettaient en place ils me disaient : « J’ai fait des tests – Ah, très bien, vous avez fait des tests » et je respectais tout à fait ça. Ils avaient effectivement fait des tests tout à fait honnêtes, fiables, etc. Les hommes préféraient des voix de femmes la majorité du temps, surtout quand elles sont là pour prendre soin, donner des renseignements, etc. Quand il s’agit d’un médecin, on préfère une voix d’homme, d’où le stéréotype. Et de l’autre côté, quand on demandait aux femmes : « Vous préférez quoi ? », elles préféraient aussi des voix de femmes. Vous voyez ! Donc si on garde en tête que les préférences vont toujours aller vers des voix de femmes, nous serions environnés, et c’est un peu la petite fiction que j’écris au début de ce livre, d’objets féminisés qui nous répondent, que ce soit la voiture, votre montre, le frigo pourquoi pas, l’agent conversationnel robotique qui s’occupe de la maison, votre téléphone et tout un tas d’objets qui synchronisent votre vie, qui vous parlent avec une voix féminine et qui vont finalement décider pour vous.
La petite scène qui introduit mon livre c’est complètement l’idée de montrer que pour vous aider avec bienveillance, pour vous assurer une meilleure santé, je peux aussi vous faire vivre un enfer qui est que vous ne décidez plus rien du tout pour vous. La machine vous prend rendez-vous pour le médecin, décidant, elle, que vous avez besoin de ça ; l’assurance augmente ses prix dès que vous prenez un verre d’alcool, etc.

Jean-Luc Marini : C’est très clair !

Laurence Devillers : On se fait une idée des robots « émotionnels », émotionnels entre guillemets, les émotions dans les robots n’existent pas.
Par contre, on va de plus en plus loin dans l’imitation de l’humain à travers ces machines, dans la ressemblance à l’humain, donc il peut y avoir une confusion. C’est en ça qu’il faut se questionner : faut-il aller aux frontières de l’humain dans la ressemblance ?
Et pour l’intériorité qui n’existe pas, il n’y a pas de corps, il y a pas de viscères et il n’y a pas de conatus comme en parle très bien Spinoza, donc il n’y a pas d’étincelle de vie, il n’y a pas de désir, eh bien il y a quand même des chercheurs – j’en ai rencontré notamment au Japon, en Australie – et je pense qu’il y a plusieurs laboratoires qui s’intéressent à ça, à mettre une espèce d’homéostasie à l’intérieur de ces machines, c’est-à-dire des façons de régler le plaisir, la douleur, les émotions qui nous, humains, nous faut réagir, nous font nous enthousiasmer, nous font créer, nous font avoir ces intuitions. Comment, dans une machine, pourrait-on simuler, puisqu’il n’y a pas, encore une fois, de viscères, il n’y a pas de vivant, avec juste des programmes, les différentes notions de plaisir, de douleur, pour que la machine ait des intentions ?
Plus on s’approche, en fait, des comportements de l’humain, plus on tend à brouiller ces frontières et plus il est nécessaire d’apprendre comment va interagir avec ces machines demain.

Carole Lailler : Ça devient angoissant.

Jean-Luc Marini : C’est tout à fait clair.
Merci beaucoup à vous deux pour cet échange qui, je l’espère, aura passionné nos auditeurs.

Laurence Devillers : Ça ne doit pas être si angoissant que ça, il faut rester raisonnable. Ils sont plutôt sympa quand on travaille avec.

Jean-Luc Marini : Exactement. Je crois d’ailleurs, Laurence, que vous avez publié dernièrement un autre ouvrage qui, pour le coup, est sur un autre sujet, même si on est toujours assez proche, qui est sur la souveraineté numérique dans l’après-crise.

Laurence Devillers : Oui.

Jean-Luc Marini : Vous pouvez nous en dire un petit peu plus sur le contenu de cet ouvrage ?

Laurence Devillers : En fait, pendant la crise, on s’est quand même rendu compte qu’on était dépendants des acteurs chinois pour les médicaments, les masques et tout un tas de choses qu’on ne crée plus ; il n’y a plus d’industries en France et en Europe pour produire ces différents produits dont on a besoin. Eh bien, de la même façon, il faut qu’on se questionne sur la souveraineté et la gouvernance de l’IA puisque on s’est rendu compte, pendant la pandémie, qu’on avait tous besoin d’être connectés, que finalement la télémédecine a fait un bond incroyable. Peut-être que si on avait eu des robots pour désinfecter des endroits, on aurait évité à des gens d’être contaminés. Cette distance que permet d’avoir la machine est très importante. On s’est donc rendu compte de l’intérêt de ces systèmes et on a vu arriver très vite des solutions, Zoom, pour toute l’interaction qu’on a sous différents systèmes de télévision et que c’était avant tout les GAFA qui avaient ces objets. De la même façon, Facebook a, par exemple, proposé des iPad dans les Ehpad, dans les maisons de retraite.
Donc ils ont mis le pied dans la porte dans beaucoup de secteurs, en santé, en éducation, pour l’assistance aux personnes âgées, et d’autres encore, donc il est nécessaire que l’on prenne réellement conscience qu’on n’est pas maîtres, en ce moment, des décisions sur le numérique. On l’a très bien vu avec le StopCovid ; peu importe si vous êtes pour ou contre le StopCovid qui était un algorithme de traçage. Il y a quand même une un paradoxe énorme ; on met beaucoup nos données sur les réseaux sociaux – Instagram ou autres – sans se préoccuper de la partie de vie privée ou d’intimité que l’on met sur le réseau. Et là on demandait à la population de s’inscrire sur un système pour essayer, avec une pseudonymisation de chacun, c’est-à-dire sans envoyer le numéro de téléphone de chacun, en étant protégé, en envoyant ses données sur un serveur qui aurait pu les utiliser pour mieux comprendre comment la pandémie se développait ou, au contraire heureusement, était plus restreinte. Mais là on a vu un tollé sur tous les médias disant « que fait-on de nos libertés ? », parce que c’était quelque chose que le ministère de la Santé allait gérer. Les serveurs étaient chez Thalès et on a eu peur de cette gouvernance, finalement de notre démocratie, alors qu’on n’a pas peur de mettre toutes nos données sur tous les agents que sont les GAFA, Google, Apple, Facebook, Amazon, Microsoft, IBM. Donc à un moment donné il faut se poser la question : pourquoi ?

Jean-Luc Marini : Vous avez tout à fait raison. C’est d’ailleurs un sujet d’actualité dont on parle aussi dans un autre domaine qui est celui de la Défense, de la sécurité, où effectivement la souveraineté numérique pose question.
Écoutez, merci beaucoup Laurence pour l’ensemble de ces explications.

Laurence Devillers : Merci.

Jean-Luc Marini : Merci Carole d’avoir accepté cet échange à trois voix et puis à très bientôt pour un prochain Lab Pod. Bonne soirée à vous.

Carole Lailler : Merci.

Laurence Devillers : Merci Carole. Merci à vous. À bientôt.

Carole Lailler : Merci à toi.

Jean-Luc Marini : À bientôt.

La reconnaissance d’émotions dans la voix – Partie 1

mar, 08/18/2020 - 17:23


Titre : La reconnaissance d’émotions dans la voix – Partie 1
Intervenant·e·s : Laurence Devillers - Carole Lailler - Jean-Luc Marini
Lieu : Lab Pod, Axys Consultants
Date : juillet 2020
Durée : 23 min
Écouter ou enregistrer le podcast
Licence de la transcription : Verbatim
Illustration : Modulation-de-frequence, Wikimedia Commoons - Domaine public
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Jean-Luc Marini : Bonjour Carole et bienvenue pour ce nouveau Lab Pod.

Carole Lailler : Bonjour Jean-Luc, ravie de te voir sous la pluie orageuse aujourd’hui.

Jean-Luc Marini : Aujourd’hui nous ne sommes pas seuls, car nous avons le plaisir d’accueillir Laurence Devillers qui est professeure en intelligence artificielle et chercheuse au LIMSI [Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur] pour parler ensemble de la reconnaissance d’émotions dans la voix.
Bonjour Laurence. Vous allez bien ?

Laurence Devillers : Bonjour Jean-Luc. Très bien. Merci. Bonjour Carole.

Carole Lailler : Bonjour Laurence, ravie de te retrouver.

Jean-Luc Marini : Laurence, avant d’entrer dans le vif du sujet, vous serait-il possible de vous présenter et de rappeler aux auditeurs qui ne vous connaissent pas encore quel est votre domaine de recherche au LIMSI ?

Laurence Devillers : Je vais me présenter en disant aussi ce que je fais.
Je suis professeure en informatique à la Sorbonne sur des domaines autour de la langue. Je parle aussi beaucoup d’éthique, des systèmes automatiques et d’IA. J’ai une chaire en IA au CNRS qui s’appelle HUMAAINE, HUman-MAchine on Affective INteraction & Ethics. L’idée c’est de travailler sur l’interaction humain-machine, que ce soit un robot ou un agent conversationnel ou toute forme de système capable de converser avec les humains. Je travaille aussi avec des robots, comme j’ai dit, dans l’idée d’aider par exemple dans des situations de vulnérabilité, donc des personnes âgées, ou aussi sur l’interaction avec des enfants pour regarder quels sont les comportements des enfants devant ces machines.
Mon sujet d’expertise maintenant depuis les années 2000 c’est principalement l’affective computing, qu’on appelle l’informatique émotionnelle, qui comprend trois grands domaines : reconnaître les émotions, faire un traitement conversationnel, trouver une stratégie en prenant en compte ces informations et puis générer et synthétiser des stimuli par la voix, le visage, les gestes, qui soient émotionnels.

Jean-Luc Marini : C’est parfait. C’est très clair Laurence, et ce sont des domaines qui intéressent beaucoup nos auditeurs.
Si vous le voulez bien, je vous propose de rentrer dans le vif du sujet. Une première question c’est tout bêtement qu’est-ce qu’une émotion ? Laurence, Carole ? Laurence peut-être.

Laurence Devillers : Je peux répondre à cette question. C’est un sujet délicat. Il y a énormément de papiers dont c’est le titre, qu’est-ce qu’une émotion ?, avec finalement des chercheurs de différents champs, différentes disciplines, qui ne vont pas avoir tous les mêmes définitions, c’est la première complexité. Je dirais qu’on confond souvent dans le langage, en tout cas en informatique, émotion avec affect qui est un terme qu’on utilise plutôt en psychologie. Les affects regroupent les émotions, les humeurs, les dispositions affectives, en fait beaucoup de réactions qui sont différentes. Klaus Scherer est quelqu’un qui en a très bien parlé ; il était professeur en psychologie à l’Université de Genève, UniGe. Il s’est beaucoup intéressé pendant toute sa carrière aux émotions, il avait classé ces différents affects avec différentes dimensions. Par exemple, quelle est la plus rapide et la plus courte ? Eh bien c’est par exemple l’émotion, quand vous réagissez à quelque chose en peu de temps, c’est précis, il y a un événement qui suscite cette émotion et elle va durer peu de temps. Si je pense maintenant par exemple à l’humeur, pour différencier, peut-être qu’il n'y a pas un événement particulier qui va susciter votre humeur, elle risque de durer peut-être toute la journée. Elle est donc très différente de par son amplitude, sa durée, de l’émotion.
Pour chaque catégorie il avait fourni un tableau sur cinq dimensions différentes, proposant de classifier ces différentes réactions affectives que la machine ne sait absolument pas, en ce moment, catégoriser de la même façon.

Jean-Luc Marini : C’est clair. Carole, tu veux peut-être ajouter quelque chose par rapport à ce que vient de nous expliquer Laurence ?

Carole Lailler : Avec plaisir.
Effectivement, elle a très bien dit la nécessité de distinguer une émotion, une acmé, quelque chose qui se passe et qui peut se traduire aussi bien par votre discours que votre posture physique ou même l’absence de discours, et un état d’esprit : différencier la tristesse d’un pic de tristesse, d’une mélancolie qui vous prend le dimanche soir au seuil de cette nouvelle semaine qui arrive. Effectivement on est dans la nécessité d’une définition et de rester pragmatique, de rester dans ce pic d’activité qui peut être appréhendé dans le langage par exemple.

Jean-Luc Marini : D’accord.

Laurence Devillers : Je dirais aussi quelque chose qui est quand même important, c’est que la machine ne sait pas les détecter les émotions, elle ne sait détecter que l’expression de nos émotions puisque nos émotions sont internes, elles se rapportent plus aux sentiments qu’on ressent ou qu’on interprète, et pas, en fait, à ce qu’on est forcément en train d’exprimer ; elles sont cachées. Ce que la machine va détecter c’est finalement ce qu’on veut bien laisser apparaître ou qu’on laisse apparaître malgré nous.

Carole Lailler : Le « malgré nous » est important. Tu te souviens bien, Laurence, de la petite anecdote que tu pourras commenter. Laurence mène de nombreuses expérimentations parfois avec des petits robots connus, pensez à certaines pubs télévisées, et j’ai été amenée à l’occasion d’une visite sur un tout autre projet à entrer, pour le jeu, dans cette expérimentation. Comme Laurence en était encore aux balbutiements de l’expérimentation et que je n’étais pas du tout représentative de son corpus d’apprentissage, eh bien l’émotion détectée me concernant, parce que j’ai une voix qui se pose, parce que je parle vite et fort, était la colère, alors que c’était, pour reprendre une expression un peu célèbre, malgré lui aussi, « à l’insu de mon plein gré », si j’ose dire, puisque je n’étais pas du tout en colère et ravie de rendre visite à Laurence. Voilà !

Laurence Devillers : Tu as tout à fait raison de le noter et c’est principalement ce que j’essaie de dire maintenant, c’est qu’en fait ces systèmes ne sont absolument pas robustes. En ce moment les systèmes de détection des émotions faciales ou à travers les indices acoustiques, si je prends ces deux-là, mais c’est la même chose avec des indices physiologiques, n’apportent pas des solutions qui sont plus que 70 % de bonnes classifications dans les cas de contexte réel. En laboratoire on peut avoir moins lorsqu’on restreint le champ des possibles, mais, lorsqu’on se retrouve dans un contexte très spontané, on a souvent ces 30 % d’erreurs, ce qui n’est déjà pas si mal. La machine arrive à donner par exemple quatre émotions, à distinguer quatre émotions différentes, mais c’est absolument insuffisant pour un grand nombre de développements qu’on voit pourtant arriver en ce moment que ce soit pour parler de justice, de recrutement ou même en médecine.
J’ai tendance à penser, pour l’instant en tout cas, que si on ne rajoute pas du sens par rapport à ce qu’on fait actuellement qui est principalement lié à l’expressivité non-verbale, que ce soit dans la musique de la voix, les gestes ou le comportement facial, si on ne rajoute pas le sens du contexte dans lequel on est et le sens des mots qu’on vient de prononcer, en tout cas s’il y avait des mots, qu’on comprenne un peu plus le sens de ce qui est en train de se passer, on n’arrivera pas à des systèmes suffisamment robustes.
De la même façon, les émotions qu’on appelle la peur – par exemple la peur de perdre de l’argent, la peur de perdre sa vie, la peur pour quelqu’un – se manifestent de façons très différentes et surtout, toutes ces émotions sont très liées à l’individu, à sa personnalité. On parle d’idiosyncrasie, c’est lié à ce ressenti ; c’est lié aussi à sa culture, même à son enfance, au milieu dans lequel il vit, et c’est vrai que tous ces facteurs de variabilité additionnelle montrent toute la complexité de la détection automatique des émotions.

Jean-Luc Marini : Très bien. Du coup ça m’amène une question : pourquoi est-ce qu’on est amené à détecter l’expression de nos émotions ?, puisque j’ai bien compris qu’il fallait parler d’expression de nos émotions.

Laurence Devillers : Pourquoi ? On peut imaginer des applications dédiées à un individu, par exemple pour un suivi de pathologie, que ça soit une maladie comme la maladie de Parkinson ou que ça soit une dépression. Si on pouvait suivre la personne tout au long de la journée à travers l’exploitation de ses données audio ou comportementales pour savoir dans quel état elle se trouve, on serait plus à même de l’aider et de la soigner, par exemple pour modifier les médicaments qu’on donne ou bien pour affiner un diagnostic. C’est évident que quand on va chez son médecin, que ça soit un psychiatre, un psychologue ou un médecin généraliste, on y va au temps t et lorsqu’on a des crises dépressives ou des crises de différentes pathologies, ce n’est pas forcément au moment où on va voir son médecin, ça peut être dans le temps. C’est vrai que c’est important de comprendre comment le malade, finalement, réagit à différentes interactions autour de lui. Je pensais par exemple les troubles bipolaires qui sont une maladie liée aux émotions ; c’est ne pas maîtriser sa colère. C’est une maladie qui affecte beaucoup les familles parce que souvent la personne se met dans des colères noires quand elle est dans son intimité. Vous voyez ! Le médecin ne s’en rend pas forcément compte, donc après ce sont les dires des uns et des autres et ce n’est pas forcément facile d´aider la personne qui n’arrive pas à maîtriser ce type d’émotions.
Tout va se jouer si on sait contextualiser suffisamment et personnifier, c’est-à-dire qu’on a adapté le système à la voix de la personne. Sans cela c’est un peu magicien, donc on aura beaucoup de bêtises.

Carole Lailler : Dans ce que tu dis il y a aussi une notion d’historicité, de capture de la longueur des différents moments de la journée. Tu parlais de la prise de médicaments, ça peut être aussi la détection de la non-prise de médicaments et arrêter le problème ou aider le patient avant qu’on arrive à un paroxysme où les conséquences et pour la famille et pour l’individu sont terribles.

Laurence Devillers : Donc on voit que c’est important d’essayer de faire ça. C’est important aussi de le faire pour surveiller les différents objets qui viennent d’autres mondes, peut-être d’autres cultures, et pour lesquels il faut être vigilant. On n’a pas tous les mêmes règles et normes, je pense qu’on l’a vu tous vu en Europe avec la GDPR1 [General Data Protection Regulation]. On a cette attention à la vie privée en Europe qu’on n’a pas forcément en Chine, qu’on n’a pas forcément de la même façon aux États-Unis, donc il est faut être vigilant suivant ce qu’on veut mettre en place comme outils autour de nous pour soigner les gens les plus âgés, pour éduquer les enfants, etc.
On a besoin, en fait, de construire des environnements qui permettent d’auditer les systèmes, de les évaluer et de vérifier sur le long terme comment ils vont aussi modifier nos comportements. Tout ce champ de recherche est actuellement très émergent et c’est bien qu’on commence à en prendre conscience. C’est bien aussi qu’on voie des lois arriver. Si je parle des premières personnes qui travaillent sur des lois autour des chatbots et des agents conversationnels ce sont les Américains qui, en Californie, ont sorti une loi pour dire « il ne faut pas faire une machine qui soit confusable, qu’on puisse confondre, en fait, la voix d’un humain et celle d’un artifice, d’une machine ». On devrait aussi adopter ce genre de lois.
Je sais que sur la reconnaissance faciale un grand nombre de chercheurs en affective computing, donc sur les émotions, sont en train de monter au créneau en disant que ce n’est pas assez fiable, ce n’est pas assez robuste pour qu’on puisse utiliser comme on commence à le faire en France aussi, pour le recrutement par exemple. Pour trier des dossiers d’étudiants, on va leur demander d’interagir verbalement avec un système, de répondre à des questions et sur leurs réponses on va aller chercher les inflexions de la voix, la fluidité, le rythme, mais aussi sur le langage : est-ce qu’il a une complexité de langage très importante ou pas ?, et juger à partir de ces différents facteurs, qui sont quand même très liés à sa personnalité, si on va regarder le CV de plus près ou pas. Donc je vous dis pas, si vous avez un enfant qui a un cheveu sur la langue ou qui a une petite modification de prononciation, il ne passera pas avec ce genre de système !

Jean-Luc Marini : Très clair, c’est très clair. Du coup une question qui me vient tout de suite à l’esprit, c’est comment est-ce qu’on détecte les émotions dans la voix ? Quels sont les systèmes qu’on met en place ?

Laurence Devillers : Bonne question. Bien sûr, vous avez raison.
Pour construire un système de détection d’émotions dans la voix ou de détection d’objets ou de détection de cancer dans une zone, ce sont les mêmes problématiques de reconnaissance des formes. C’est-à-dire qu’on va utiliser des algorithmes d’apprentissage, il y en a de plusieurs sortes, qui nécessitent, non pas comme dans les algorithmes qu’on utilisait précédemment de spécifier le problème, là on va chercher à nourrir un algorithme de connaissances à partir de données. Donc on doit collecter ces données et la plupart des systèmes actuels marchent sur des apprentissages dit supervisés, c’est-à-dire qu’il ne suffit pas de collecter par exemple des sons si je parle de détection d’émotions dans la voix, il faut aussi avoir étiqueté c’est-à-dire, en fait, annoté des segments d’audio en disant « là c’est de la tristesse, là c’est de la joie », ou les étiqueter avec des dimensions d’expressivité : ici c’est peut-être positif, ici c’est très actif.
Il y a différentes façons de procéder, en tout cas il est nécessaire d’avoir des données, de bien les choisir et d’avoir vérifié aussi l’annotation qui est présente. À partir de là, on utilise un grand nombre de différents outils. Les derniers outils en vogue que tout le monde connaît maintenant ce sont les outils de deep learning, d’apprentissage profond, qui sont des réseaux de neurones. Je les ai utilisés la première fois pour faire de la reconnaissance de la parole dans les années 92 pour ma thèse, et depuis ça marche. Il y avait déjà deux couches cachées et c’était déjà avec une espèce de récurrence temporelle, ça ressemble à l’ancêtre de ce qu’on utilise actuellement dans les meilleurs systèmes dits de deep learning. Mais surtout, le grand progrès qu’on a fait ce n’est pas au niveau des concepts qu’on manipule mais c’est au niveau de fulgurance des moyens de calcul qu’on a actuellement. Sinon ce sont les mêmes problématiques. Il faut bien choisir ses données et les équilibrer pour que ce ne soit pas discriminant. Vous imaginez un système où il n’y a que des voix d’hommes, eh bien on ne va pas reconnaître les voix de femmes.
C’est la même chose avec un système, c’est la majorité des systèmes actuels, de reconnaissance d’émotions dans la voix qui ne marchent pas sur les voix âgées ou des voix d’enfants, donc on a tout cette variabilité qui n’est pas prise en compte. Ils ne sont peut-être pas dans la cible, mais une voix âgée de 60 ans qui chercherait du travail ne passerait pas non plus. On va donc chercher des voix et standardiser. Or ces standardisations sont tout sauf ce qui est utile à mon avis actuellement, surtout si on pense à des systèmes qui marchent dans différentes cultures.
L’implication serait peut-être qu’on pourrait niveler la façon de se comporter et être devant un système qui a appris sur un corpus que l’on dit générique, pour que finalement la machine nous reconnaisse ou éviter d’être reconnu par la machine.
Ces systèmes apprennent et ensuite les modèles qui sont obtenus à partir d’un corpus de données, donc de certaines voix, sont utilisés pour qu’une voix inconnue qui est en train de dire « je ne suis pas content » [prononcé en imitant la colère, NdT] puisse être analysée de la même façon et que la machine prédise que c’est plutôt de la colère ou de la joie.
Comme l’a très bien dit tout à l’heure Carole, ce n’est pas toujours évident de reconnaître des stimuli dans différents contextes, surtout si on a pas assez de contextes qui rentrent en compte.

Carole Lailler : C’est ça aussi le problème du contexte et de ce qu’on accepte de prendre en compte, la préparation des données comme l’a si bien dit Laurence, que ce soit pour la transcription, mais, plus encore, sur l’annotation pour l’accord inter-annotateurs, pour que cette annotation ait du sens et ne soit pas non plus le fait d’une interprétation du « labellisateur » qui engendre donc un apprentissage pour le coup biaisé par ce regard. Donc vraiment un travail en amont sur la préparation des données et également en aval, voire en flux continu, d’évaluation pour être bien sûr qu’on reste dans un cœur d’apprentissage qui soit éthiquement maintenu, responsable et lié aux cas d’usage que l’on cherche à obtenir, avec pragmatisme évidemment.

Laurence Devillers : C’est compliqué. En plus les émotions, en tout cas dans ce que j’avais monté dans mon HDR [habilitation à diriger des recherches], sont souvent mélangées, c’est-à-dire qu’on n’a pas forcément conscience de ces aspects-là. J’avais traité des corpus dans des call centers, dans des centres d’appel. Les personnes pouvaient être à la fois tristes et soulagées par exemple. Dans dans des contextes particuliers d’urgence ou de santé, on a des réactions où on réagit face à quelque chose d’anxiogène qu’on est en train de vivre et, en même temps, on vient vous aider, donc il y a aussi dans la voix une tessiture liée à quelque chose de très positif où justement on pousse l’autre à venir nous aider donc en étant très reconnaissant. Ce mélange d’indices est très difficile à comprendre. Nous, humains, utilisons énormément de stratagèmes et avons l’habitude de nous adapter à tout ça, pour les machines c’est extrêmement difficile. Il n’y en a pas encore.

Carole Lailler : Il y a une réalité à comprendre qui est celle de l’interaction, c’est-à-dire qu’il y a cette volonté de se préserver et de présenter à l’autre sa meilleure face, son meilleur aspect, son meilleur jour, aussi bien dans le sourire ou dans les yeux brillants que l’on peut faire, que dans la tonalité de sa voix. Et en même temps, en fonction du type d’interaction, de la volonté d’aller asticoter l’autre ou au contraire de maintenir avec lui une communication réussie et apaisée, la volonté de lui proposer des choses ou de lui en interdire d’autres. Donc ce jeu de construction à deux qui avance, mais qui, de temps en temps, se permet de stagner, qui prend des chemins de traverse, c’est une réalité que nous possédons, nous, humains à des degrés différents et qu’il devient extrêmement complexe de faire apprendre à un système quel qu’il soit.

Laurence Devillers : Oui, principalement dans la communication quand même.

Jean-Luc Marini : Au niveau des indices pour discriminer les émotions, comment est-ce que vous procédez ? Est-ce qu’il y a des indices plus pertinents que les autres ou, je dirais, c’est vraiment selon les cas qu’il faut travailler ?

Carole Lailler : Le pitch des voyelles ! J’aime bien les voyelles en français.

Laurence Devillers : Il n’y a pas que les voyelles, il y a aussi des bruits à haute fréquence. Il y a beaucoup d’indices. On avait beaucoup travaillé avec Klaus Scherer et avec des collègues à l’international avec des corpus assez variables. J’avais justement mis des voix âgées pour que ce soit encore plus compliqué. En fait, pendant quinze ans le Graal a été de trouver le set d’indices les plus utiles, donc on a travaillé sur du cross corpus pour vérifier la robustesse de différents indices et essayer d’établir une liste minimale d’indices. On était arrivé à moins de 100 caractéristiques ; avec Klaus Scherer et d’autres gens, on a fait de belles publications là-dessus. Et puis sont arrivés en 2010 à nouveau les réseaux de neurones avec une puissance de calcul et de projection qu’on n’avait pas. C’est-à-dire qu’au lieu de donner des critères qu’on va pré-calculer avec tout un tas d’outils d’analyse du signal comme la fréquence fondamentale, les variabilités de la fréquence fondamentale ou les harmoniques sept moins l’harmonique trois, il y avait tout un tas de connaissances perceptives et de cas d’analyse du signal sur les données audio, au lieu de faire ça on est parti sur du brute force, c’est-à-dire partir directement du signal ou de sa représentation spectrographique pour essayer de détecter des émotions. C’est alors le deep learning multi-couches et les CNN [Convolutional Neural Networks] qu’on va utiliser, qui sont des façons de filtrer le signal, mais en partant du bas niveau, réellement du bas niveau sans à priori, sans l’à priori de ces calculs experts. On a pu montrer – c’est la dernière thèse que j’ai fait soutenir – qu’on avait les mêmes résultats avec un système qui est nourri en brute force, donc à partir du signal sans faire d’expertise para-linguistique, sans extraire les indices, et puis un système où on a cette première couche qui est une expertise quand même puisqu’on sait quels sont les meilleurs paramètres. Évidemment ils sont liés à la prosodie, c’est-à-dire la variation de l’énergie dans la voix, la variation du rythme, la variation de la fréquence fondamentale, du timbre de la voix, et puis aussi quelques indices de qualité vocale : vous chuintez, vous avez une particularité ou beaucoup d’hésitations aussi.

Donc on a des indices de tous ces différents niveaux qui sont utilisés normalement dans les systèmes à expertise. Mais depuis peu on va au-delà des performances de ces machines grâce à des outils qui utilisent brute force, c’est-à-dire le signal brut.

Jean-Luc Marini : À très bientôt pour un prochain Lab Pod. Bonne soirée à vous.

Carole Lailler : Merci.

Laurence Devillers : Merci Carole. Merci à vous. À bientôt.

Carole Lailler : Merci à toi.

La « souveraineté numérique », pour quoi faire ?

mar, 08/18/2020 - 12:55


Titre : La « souveraineté numérique », pour quoi faire ?
Intervenant·e·s : Laure de la Raudière - Tarik Krim - Bernard Benhamou - Divers auditeurs - Éric Delvaux
Lieu : Le téléphone sonne - France Inter
Date : 13 août 2020
Durée : 39 min
Écouter ou enregistrer le podcast
Site de présentation de l'émission
Licence de la transcription : Verbatim
Illustration : Point d’interrogation bonhomme blanc 3D, Fotomelia - Creative Commons Deed CC0.
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Comme une nouvelle guerre froide, la souveraineté numérique déchire la Chine et les USA. La France et l’Europe ont-elles une ambition dans ce domaine ?

Transcription

Éric Delvaux : Émission ce soir sur notre souveraineté numérique. Les enjeux sont si importants qu’ils génèrent une nouvelle forme de guerre entre la Chine et les États-Unis, guerre économique mais pas seulement, car la souveraineté numérique c’est aussi une question de sécurité de nos propres données, celles que nous confions allégrement aujourd’hui aux GAFAM américains.
La France et l’Europe sont-elles condamnées à rester numériquement dépendantes des puissances étrangères ? Et dans la perspective de la 5G et dans la perspective de la transition écologique quelles sont les autres voies numériques possibles et à quelles conditions ? C’est donc le thème du Téléphone sonne de ce soir

Voix off : Le téléphone sonne, 01 45 24 7000

Éric Delvaux : Avec trois invités ce soir pour nous éclairer.
Laure de la Raudière, vous êtes députée Agir d’Eure-et Loir, vous êtes aussi coprésidente du groupe d’étude de cybersécurité et souveraineté numérique à l’Assemblée nationale.
En studio Tariq Krim, entrepreneur et ancien vice-président du Conseil national du numérique1.
Également en studio Bernard Benhamou, secrétaire général de l’Institut de la souveraineté numérique2.
Merci d’être venus ce soir à France Inter pour répondre aux auditeurs.

Bernard Benhamou : Merci à vous.

Tariq Krim : Merci à vous.

Éric Delvaux : La première question est pour vous Laure de la Raudière : de qui la France est-elle numériquement dépendante ?

Laure de la Raudière : On est principalement dépendants aujourd’hui des États-Unis. Ça peut changer, on pourra être aussi dépendants des Chinois pourquoi pas pour certains services, mais aujourd’hui nous dépendons massivement de ce qui s’appelle les GAFAM, Google, Amazon, Apple, Facebook, Microsoft qui sont des géants du numérique et on utilise leurs services quotidiennement.
La crise du covid nous a montré à quel point on était profondément dépendants du numérique. Je dirais heureusement même que le numérique était là. Le télétravail a été multiplié par 10, les téléconsultations en matière de santé par 100, le e-commerce par 2 et parallèlement aussi les cyberattaques ont été multipliées par 4.

Éric Delvaux : Tariq Krim, ce qui est en jeu c’est donc l’économie, on va le voir un peu plus tout à l’heure, ce sont aussi nos données personnelles avec quels risques, précisément, qu’elles soient confiées aux GAFAM ?

Tariq Krim : Ce qui est intéressant c’est qu’à chaque fois qu’on utilise son téléphone ou son ordinateur, ces plateformes collectent des données pour mieux nous connaître, pour ensuite nous servir de nouveaux produits, influencer nos comportements, nos achats. En fait, ces plateformes sont devenues de gigantesques réservoirs de données qui sont hébergés, hélas, aux États-Unis.

Éric Delvaux : Quand le gouvernement a choisi par exemple en France de confier l’hébergement de nos données de santé, donc nos secrets médicaux, à l’Américain Microsoft, ce qu’on appelle le Health Data Hub3, Bernard Benhamou on vous a entendu crier au loup en vous inquiétant de certaines dérives possibles. Quels types de dérives ?

Bernard Benhamou : De nombreuses dérives sont possibles à partir d’un projet de ce genre qui, au départ, est animé de bonnes intentions puisqu’il s’agit d’améliorer la santé au travers de nouvelles technologies, en particulier d’intelligence artificielle. L’idée est louable. La réalisation par un acteur américain de cette taille, avec ces ambitions-là sur le secteur, permet d’avoir toutes les inquiétudes sur le fait que cela puisse déboucher effectivement sur une appropriation de ces données, à la fois par des acteurs industriels – ce qui est déjà le cas manifestement –, mais aussi par des services de renseignement puisque les États-Unis ont des lois qui s’appliquent à toutes les sociétés où que soient localisées leurs données, y compris en Europe, si elles sont américaines. Donc par définition il y avait là un risque et on y est allé beaucoup trop vite. Je dirais que la crise covid a peut-être accéléré la chose. Effectivement je crois qu’il est temps, il est important de réfléchir parce que ce qui se joue là ce n’est pas une application de traçage comme StopCovid4, c’est le futur de notre système de santé sur les 10, 20 ou 30 ans qui viennent.

Éric Delvaux : Sur les abus aux États-Unis l’administration américaine avait envisagé d’imposer des tests de santé en entreprise en fonction des informations de santé de son personnel recueillies sur le Net, avec même des pénalités pour les employés ?

Bernard Benhamou : Oui, c’était même pire que ça puisqu’ils voulaient imposer, c’était une loi dite HR1313 que l’administration Trump a voulu passer, ils voulaient imposer des tests génétiques en entreprise, et ceux qui ne les auraient pas passés, ceux qui auraient refusé de se faire tester génétiquement, auraient dû payer entre 4000 et 5000 dollars par an. Heureusement la chose n’a pas pu se faire parce qu’il y a eu un changement de majorité à la Chambre qui a empêché que la loi progresse, mais il faut bien avoir en tête que ce genre de scénario, qui ressemble un peu à ce que font les Chinois avec le contrôle génétique de leur population et le contrôle des comportements de leur population avec ce qu’ils appellent le crédit social5, c’est une chose qui n’est pas totalement impossible dans des pays occidentaux et dans des démocraties libérales comme on se plaît à s’appeler par rapport à ça. Donc cette évolution vers un système de contrôle et de surveillance, que certains appellent le capitalisme de surveillance, n’est pas un scénario de science-fiction, c’est une possibilité concrète de nos régimes, à l’heure actuelle.

Éric Delvaux : Laure de la Raudière, d’ailleurs quelle a été votre position quand le gouvernement que vous soutenez au sein du groupe Agir a confié nos données médicales à Microsoft ? Qu’avez-vous dit ? Comment avez-vous réagi ?

Laure de la Raudière : J’ai d’abord posé la question de savoir pourquoi on avait choisi Microsoft et pas un acteur français ou un acteur européen et quelles avaient été les garanties qui avaient été prises vis-à-vis de nos données de santé. Déjà des données personnelles, je préférerais qu’elles soient hébergées en France auprès d’un acteur français pour être assurée que ma vie privée soit bien gérée avec les lois auxquelles j’ai souscrit en fait. Je réponds à votre question, mais vous savez qu’il y a une loi américaine qui s’appelle le CLOUD Act6 qui permet aux juridictions américaines de saisir toutes les données où qu’elles soient hébergées dans le monde, à partir du moment où ce sont des données hébergées chez un acteur américain.

Éric Delvaux : C’est un problème d’extraterritorialité.

Laure de la Raudière : Je vous remercie de le dire, extra-territorialité, si les données sont hébergées chez un acteur américain, ce qui est le cas de la quasi-totalité de nos données aujourd’hui. Donc c’est un enjeu majeur de savoir comment l’État français va protéger nos données de santé s’il y a une réquisition d’un juge américain qui voudrait avoir accès à nos données de santé.

Éric Delvaux : Est-ce que vous vous êtes fait entendre par le gouvernement ? Est-ce que vous avez fait un petit forcing auprès du gouvernement ?

Laure de la Raudière : Oui, bien sûr, bien évidemment qu’on a fait un forcing. Ils nous ont dit qu’aujourd’hui, par rapport aux exigences de fonctionnement informatique, en fait des exigences qu’il y avait dans le cahier des charges informatique, il n’y avait pas d’offre européenne qui permettait de satisfaire l’ensemble des exigences. Ce qui est le cas aussi de toutes les grandes entreprises françaises ou européennes, c’est-à-dire que ce n’est pas une spécificité de l’État français. Aujourd’hui ce que nous disent les DSI, que ça soient les DSI de l’État ou les directeurs des services d’information des grands groupes, c’est que le niveau de prestation de Google, d’Amazon ou de Microsoft est très en avance par rapport à ce qu’on est capable de faire. Donc il y a un gros enjeu aujourd’hui de développer cette offre, c’est un enjeu majeur de souveraineté.

Éric Delvaux : On va en parler après. On va aborder après les solutions et les perspectives.
Tariq Krim, Laure de la Raudière, la députée dit qu’il n’y avait pas d’offre en Europe pour héberger nos données de santé.

Tariq Krim : Je ne suis pas vraiment d’accord avec cette position. Je crois que ce que l’on voit déjà, comme le rappelait Bernard avec la question de la souveraineté, c’est qu’il y a deux choses en fait. La première, c’est une forme de démission, on a considéré qu’on ne pouvait plus rien faire en France. Il faut savoir que certaines technologies qui vont être utilisées par le Health Data Hub ont été développées par des Français, notamment sur les logiciels libres en intelligence artificielle on est très bons. Le vrai sujet c’est la question de l’hébergement, c’est la question de définir des politiques ambitieuses dans ce domaine. Et ce que l’on voit aujourd’hui, on voit ça depuis une vingtaine, une trentaine d’années, c’est que le pouvoir politique qui n’est plus technologique, qui n’a plus de compétences technologiques, va au plus rapide et le plus rapide c’est de se dire finalement, si on doit faire Health Data Hub en un an, on va utiliser Microsoft parce que c’est plus rapide.

Éric Delvaux : Je vous coupe, pardon, ça veut dire qu’il y aurait eu des solutions françaises de cloud ?

Tariq Krim : Bien sûr. Il y a des dizaines de solutions. La vraie question c’est la question de l’hébergement : est-ce que le logiciel qui fait tourner la France est hébergé en France ?, ce qui est possible. On a des acteurs très connus, Outscale, OVH, Scaleway, etc., et bien d’autres ; il y en a une quinzaine ou une vingtaine. Les hôpitaux, les cliniques hébergent des données de santé, des données numériques depuis une vingtaine, une trentaine d’années, donc ce n’est pas quelque chose de nouveau. Par contre, ce qui est important c’est de se dire est-ce qu’on met tous les moyens sur la table pour développer des industries numériques en France ? Ou est-ce que, comme malheureusement on l’a vu maintenant avec Renault, avec Airbus, avec Orange, on décide de délocaliser la recherche et développement ? Il faut le savoir, et je pense que les auditeurs doivent le savoir, à chaque fois que l’on dit on va travailler avec Google, avec Facebook, avec tous ces grands acteurs, ça veut dire que les centres de recherche et développement d’Orange, de Nokia, de Renault, de tous les grands acteurs, vont être supprimés.

Éric Delvaux : Bernard Benhamou, secrétaire général de l’Institut de la souveraineté numérique, vous souhaitiez réagir.

Bernard Benhamou : Oui. C’est-à-dire qu’à l’heure actuelle on sait très bien que l’argument qui a été mis en avant par le gouvernement c’est un argument de rapidité en disant effectivement « nous avons privilégié les fonctionnalités sanitaires au détriment d’une politique industrielle ». Cet argument qui était pratiquement audible dans les années précédentes parce que ça n’attirait pas autant l’attention aujourd’hui, surtout dans une période de crise comme la pandémie, on se rend compte que c’est extrêmement dangereux parce que ces outils numériques sont essentiels pour le fonctionnement de nos sociétés. Ils définissent notre société sur le long terme et si nous ne faisons pas en sorte de dresser, à un moment donné, des barrières – même si le terme n’est pas sympathique – par rapport à des technologies qui peuvent constituer un risque, surtout effectivement de surveillance, en particulier avec les Chinois mais aussi avec les Américains, nous ne développerons jamais notre propre écosystème, nous ne deviendrons jamais indépendants, souverains pour rependre le terme, et nous ne serons pas capables de définir notre futur numérique. Et ça c’est une chose qui va être déterminante politiquement pour les 10, 20, 30 ans qui viennent.

Éric Delvaux : On va aller au standard de France Inter 01 45 24 7000, avec une première question de Jean-Claude. Bonsoir Jean-Claude.

Jean-Claude : Bonsoir et merci de prendre ma question. J’étais un petit peu sur cette ligne, ce que défendait votre précédent intervenant sur la question de la santé en disant dans différents domaines il y aurait des possibilités. Il y a un exemple qui n’est peut-être pas assez connu, mais il y avait quelque chose qui s’appelait eBay, la vente entre particuliers en France et partout en Europe. Est arrivé Le Bon Coin et en un an on ne parlait plus d’eBay, tout le monde était sur Le Bon Coin. C’est un exemple.

Éric Delvaux : Et Le Bon Coin est en train de racheter eBay me semble-t-il.

Jean-Claude : C’est possible en plus, je ne savais pas, merci.
Il y a d’autres domaines, évidemment Amazon. En fait en France on avait une vielle tradition : le catalogue Manufrance a existé, après il a eu La Redoute, il y a eu la Camif, etc. Il y a un problème de cahier des charges. C’est vrai qu’il y a les prix, mais si on fait mieux au point de vue avis des consommateurs, etc. ; il y a une petite entreprise, relativement, LDLC, dans le domaine informatique, qui marche très bien. Donc ça peut très bien se généraliser, surtout avec La Poste en arrière ligne, il n’y a pas de problème.
Il y a un autre domaine. On parle de Microsoft mais, en fait, dans les collèges français les élèves travaillent très souvent sur du logiciel libre pour ne pas acheter les licences Microsoft, dans tous les domaines, traitement de texte, etc., et même la Gendarmerie pour la confidentialité parce qu’il y a évidemment des back doors, des portes d’espionnage, dans tous les logiciels Microsoft, c’est ce que demande la CIA.

Éric Delvaux : Voilà pour votre constat. Et la question ?

Jean-Claude : Le dernier exemple c’est Google. En France on a des mathématiciens, les algorithmes c’est avant tout des mathématiques et on devrait pouvoir y arriver. Donc où est la volonté ? Les moyens existent, ils sont là et en plus il y aura une demande parce qu’il y a des tas de pays dans le monde qui sont évidemment très intéressés par le logiciel libre, par l’indépendance, par la sécurité des données, donc il y a réellement un marché.

Éric Delvaux : Bernard Benhamou, secrétaire général de l’Institut de la souveraineté numérique, qui manque de volonté dans cette affaire ?

Bernard Benhamou : Je dirais qu’il y a une sorte de renoncement généralisé de nos décideurs depuis effectivement une dizaine ou une quinzaine d’années sur le mode « de toute manière on a loupé la marche, on n’a pas réussi à créer de vrais acteurs de taille internationale ». Monsieur citait eBay qui a été créé par quelqu’un qui était aussi français, Pierre Omidyar, mais de fait on n’a pas de société à empreinte internationale, peut-être à part BlaBlaCar qui est un beau succès européen et un début de succès international. Donc, quelque part, on a eu une sorte de renoncement sur le mode « de toute manière c’est perdu, donc on fait affaire avec ceux qui effectivement tiennent le haut du pavé ». Je le répète, c’était quelque chose de « compréhensible », entre guillemets, ou d’audible il y a quelques années quand on ne voyait pas les risques de dérives de surveillance, de dérives politiques comme on a pu le voir avec le scandale Cambridge Analytica7, où on voit que l’Internet peut faire basculer des élections. Maintenant on n’a plus le luxe de la naïveté par rapport à ça. Il y a eu Snowden8 qui nous a démontré ce qu’étaient les programmes de surveillance de la NSA, il y a eu ce scandale Cambridge Analytica et bien d’autres, on pourrait en citer d’autres, donc maintenant c’est bien de notre futur, y compris politique, dont il s’agit. Donc effectivement, ce renoncement devient toxique, devient dangereux.

Éric Delvaux : Tariq Krim.

Tariq Krim : J’allais dire, pour reprendre ce que disait Bernard, aujourd’hui nous sommes dans l’Amérique de Donald Trump, ce n’est plus l’Amérique d’Obama. D’une certaine manière il y avait une forme d’ambiguïté, on travaillait avec des Américains, les choses fonctionnaient bien. Sauf que aujourd’hui quand vous voyez la guerre entre les États-Unis et la Chine c’est très simple, d’ici 2050 la Chine sera numéro un, l’Inde sera numéro deux.

Éric Delvaux : Sur quelle base ?

Tariq Krim : Au niveau mondial, en termes d’économie.

Éric Delvaux : Sur l’économie.

Tariq Krim : Et ni la France ni l’Allemagne ne seront dans le top 10. La raison pour laquelle la technologie est si importante pour les Américains c’est qu’elle leur permet d’avoir encore je dirais une corde, une possibilité de tenir la Chine. Regardez ce qui s’est passé avec TikTok qui est quasiment en passe d’être interdit, avec Huawei. Que se passerait-il en France si du jour au lendemain Donald Trump, et il le peut par un décret exécutif, disait « Google ne peut plus opérer en Europe ». Plus de Google mail, plus de Waze, plus rien. Comment fait-on ? Quel est le plan B ? Et aujourd’hui, je dirais que le débat sur la souveraineté numérique a évolué vers cette question : quel est notre plan B ?

Éric Delvaux : Laure de la Raudière, députée Agir, si on se place dans la perspective de la 5G en France, est-ce qu’il va donc falloir écarter le Chinois Huawei de la future 5G française ? C’est d’ailleurs une hypothèse de l’ANSSI, l’Agence nationale de sécurité des systèmes d’information. Vous êtes favorable à ça ?

Laure de la Raudière : Je suis favorable à suivre les recommandations de l’ANSSI qui est une agence qui a une très bonne réputation au niveau international et qui aura une décision très juste par rapport aux enjeux de sécurité concernant nos données et nos citoyens. Si l’ANSSI dit qu’il faut écarter Huawei de certaines antennes – dans un premier temps elle a dit pas partout et après on ne renouvellera plus les antennes qui sont Huawei – eh bien il faut le faire, d’autant plus que ça favorisera nécessairement deux champions européens que sont Nokia et Ericsson. On a la chance d’avoir des équipementiers réseaux en Europe, on a tout intérêt à les pousser, à développer des innovations qui correspondront aux besoins à la fois des citoyens et des industries, puisque le réseau 5G est un enjeu de compétitivité industrielle majeur pour la France.
Je voudrais juste revenir sur l’aspect politique, quand même, sur la souveraineté numérique puisqu’en tant que députée ça fait 13 ans que je porte ces enjeux à l’Assemblée nationale et 13 ans que je m’épuise à dire ce qu’ont dit les deux précédents orateurs, Tariq Krim et Bernard Benhamou, et que la Commission européenne a été très lente à prendre l’enjeu des technologies numériques et à les mettre comme un enjeu stratégique au niveau européen. La première fois que c’est vraiment mis dans la feuille de route de la Commission européenne en tant qu’enjeu industriel, technologique, stratégique, c’est en 2019, c’est avec la nouvelle Commission en fait. Il y a un commissaire qui est en charge du marché intérieur qui est Thierry Breton, qui est en plus le commissaire que la France a choisi, qui connaît parfaitement ces enjeux. Donc on doit porter cette ambition politique de bâtir une souveraineté numérique en Europe.
Je suis d’accord avec l’auditeur qui est intervenu c’est qu’il y a des parts de marché qu’on peut reprendre. Sur le cloud, par exemple, il y a une volonté de la France et de l’Europe de déployer un cloud européen qui soit au niveau de compétitivité des offres américaines et ça c’est essentiel.

Éric Delvaux : Je vous coupe Laure de la Raudière. Quand Thierry Breton que vous évoquiez, le commissaire européen du marché intérieur déclare au début de l’été qu’il faut assurer la souveraineté numérique de l’Europe, est-ce que ça fédère pour autant une réelle stratégie européenne ? Je vous pose la question Tarik Krim, ou est-ce qu’on en restera finalement à une simple déclaration d’intention ?

Tarik Krim : En fait ce qu’il faut comprendre c’est que tous les pays ne sont pas alignés de la même manière. Prenons l’exemple de l’Allemagne. L’Allemagne a une obsession c’est protéger son industrie de l’espionnage industriel chinois, notamment les machines-outils. Très tôt ils ont compris qu’il fallait travailler localement. Prenons un exemple : BMW, pour sa solution autonome, a développé quelque chose en interne. Renault travaille avec Waymo qui est, en fait, une filiale de Google. Aujourd’hui en France, tant qu’on n’a pas compris que nous sommes essentiellement un pays de services et quelle vision du numérique nous souhaitons mettre en avant, avant même de l’exporter puisqu’on parlait tout à l’heure de cette idée qu’on peut aussi exporter une vision du numérique un peu plus apaisée, différente du modèle des GAFAM, il faut d’abord se mettre d’accord sur quel type de numérique on veut.

Éric Delvaux : 01 45 24 7000, le standard de France Inter, on va aller au standard avec vous Isabelle. Bonjour Isabelle.

Isabelle : Bonjour. Merci France Inter pour vos émissions toujours très intéressantes.

Éric Delvaux : C’est gentil.

Isabelle : Merci d’avoir pris mon appel.
Je voulais apporter un témoignage plutôt qu’une question, mais on est toujours ouvert au débat. Je voudrais tout de même que soit exprimée sur les ondes la question de quelle société voulons-nous et quelle société numérique ? Il faut arrêter de dire que le numérique c’est écolo. Maintenant on commence à avoir des études au niveau de toute l’énergie grise, l’énergie masquée, le problème des rebuts, etc. Il faut arrêter de dire « faites-vous soigner par l’intelligence artificielle » ou alors que les gens qui le disent se fassent soigner par des robots et on en reparlera après. C’est peut-être mieux que les acteurs soient français plutôt qu’américains ou chinois, mais il faut aussi reconnaître que le modèle économique des entreprises du numérique est basé sur la viralité. Comme on est en saison de virus, c’est bien de viralité dont il s’agit, c’est-à-dire créer des besoins, créer de la captation d’attention. Au début on nous a vendu le numérique en disant ça vous fait gagner du temps. Je suis désolée tout autour de moi, dans la vraie vie, les gens ont de moins en moins de temps libre parce qu’ils ont toujours le nez sur leurs écrans. Je pense qu’il est important qu’il y ait une réflexion citoyenne qui remonte après au niveau des décideurs politiques. Cette réflexion est amorcée par certaines personnes, par certains groupes, associations, mais elle est encore insuffisamment entendue. De quelle société voulons-nous ?

Éric Delvaux : Merci Isabelle de ce témoignage, vous nous appeliez de la Drome, Peyrus précisément.
Tarik Krim, comment rendre notre souveraineté numérique en phase avec la transition écologique c’est justement une de vos marottes, le slow web notamment dont vous faites la promotion, ça ressemblerait à quoi ?

Tarik Krim : Historiquement il y a eu deux visions de l’informatique. La première c’est de dire que l’informatique est un simple outil qui va nous aider à devenir plus intelligents, à faire plus de choses et une autre vision, qui est d’ailleurs la vision dominante aujourd’hui, qui est de dire que l’informatique va nous remplacer, va réfléchir à notre place, c’est un peu le modèle de l’intelligence artificielle. Cette idée du slow web c’est cette idée que finalement la technologie doit être présente quand on en a besoin et absente quand on n’a en pas besoin. Ce qui est drôle et c’est le paradoxe que disait Madame, c’est que d’une certaine manière nous avons gagné du temps grâce à tous ces outils, à nos téléphones, et ce temps que nous avons gagné nous le passons sur nos téléphones.

Éric Delvaux : Sur les mêmes outils.

Tarik Krim : Sur les mêmes outils, à consommer. En fait il y a une sorte de boucle, ce qu’on appelle aux États-Unis le capitalisme de surveillance où, finalement, nous sommes la denrée, c’est-à-dire que notre attention devient la valeur économique et cette attention doit être captée. Le patron de Netflix disait qu’il est en compétition avec le sommeil, c’est-à-dire que finalement cela va au-delà de ce qui est bon également pour nous. D’un point de vue de la consommation, effectivement, ce capitalisme de surveillance, cette idée qu’on doit analyser, transformer en données absolument tout, consomme une énergie folle et curieusement ce sont ces mêmes outils qui fragmentent les débats politiques et qui nous empêchent, en fait, de reprendre le contrôle du long terme.

Éric Delvaux : Une souveraineté numérique en phase avec la transition écologique, c’est une question politique disait à l’instant notre auditrice.
Laure de la Raudière, ça fait plus d’une décennie que vous portez ces questions à bout de bras. C’est compatible et c’est entendu par la classe politique de faire de la souveraineté numérique un parallèle avec la transition écologique ?

Laure de la Raudière : En tout cas c’est une transformation profonde de la société comme l’est la transformation écologique que nous devons avoir. Dans cette transformation numérique de la société, on doit définir politiquement et avec les citoyens quelles valeurs ont veut avoir dans notre société. Aujourd’hui nos valeurs communes sont mises à mal avec cette transformation numérique de la société, nos valeurs de vie privée, la lutte contre les propos haineux. Parfois même les valeurs démocratiques sont challengées, on l’a vu avec l’usage, en fait, des réseaux sociaux pour manipuler l’opinion à grande échelle depuis une puissance étrangère. Ça a été prouvé par exemple dans le cadre du Brexit, ça a été prouvé dans le cadre du référendum sur l’indépendance de la Catalogne de mémoire. On voit bien que cette transformation numérique de la société engendre de nouveaux risques et met à mal, en fait, des valeurs communes qui sont les valeurs qu’on a décidées pour notre société. C’est aussi le cas de la lutte contre les fausses informations qui se diffusent plus rapidement sur le Web que les bonnes. On doit challenger ensemble et trouver les moyens de pouvoir conserver nos valeurs communes dans cette nouvelle société et c’est extrêmement complexe.

Éric Delvaux : Laure de la Raudière, ma question était : est-ce que vous êtes entendue par les gouvernements, par vos collègues au Parlement lorsque vous leur parlez d’écologie et de transition numérique ?

Laure de la Raudière : Sur le problème du numérique c’est souvent un problème de compétences.

Éric Delvaux : La classe politique n’est pas compétente techniquement aujourd’hui pour prendre des décisions ?

Laure de la Raudière : Je dirais que depuis 2017 il y a eu un changement radical au sein de l’Assemblée nationale. Parmi les nouveaux député·e·s il y a beaucoup plus de député·e·s très compétent·e·s sur les enjeux numériques par rapport à avant. On commence à avoir une maturité sur les débats. Avant souvent en fait on votait des choses qui ne permettaient pas d’avoir des résultats par rapport aux objectifs qu’on se fixait.

Éric Delvaux : On va retourner au standard. Merci. Pardon de vous couper, je veux également donner la priorité aux auditeurs de France Inter avec Pascal qui nous appelle du Lot. Bonsoir Pascal.

Pascal : Bonsoir.

Éric Delvaux : Quelle est votre question ?

Pascal : C’était pour revenir sur le droit américain qui s’applique dès lors qu’un produit que vous achetez est payé en dollars, le produit tombe sous le coup du droit américain. Pour mémoire vous aviez BNP qui a, en négociant, été condamnée, qui a une très forte amende aux États-Unis de façon à être disculpée par rapport à des histoires comptables, ce n’est pas grave. Renault a été obligé, quand Trump est parti de l’Iran, de quitter l’Iran parce que, bien sûr, ses voitures sont vendues en dollars, donc hégémonie américaine de ce côté-là. Personnellement je suis avec Google au niveau de ma boîte mail, je sais que tout ce qui est sur ma boîte mail relève du droit américain, c’est marqué dans les textes encore mis à jour dernièrement.

Éric Delvaux : Votre question. Ça c’est le constat. Vous avez une question ou c’est juste un commentaire ?

Pascal : La question c’est quand est-ce que l’Europe, puisque c’est eux qu’il faut plutôt privilégier, je ne pense pas que la France à elle toute seule arrivera à quelque chose.

Éric Delvaux : Ça se passe effectivement au niveau européen plus qu’au niveau national.

Pascal : Personnellement je pense qu’au niveau européen il faut arrêter l’hégémonie américaine. Que l’État français donne à Microsoft…

Éric Delvaux : Nos données de santé, nos secrets médicaux.

Pascal : Nos données médicales, c'est donné à l'épouse de Bill Gates qui, elle, développe des logiciels et des médicaments artificiels adaptés à chaque cas de personne, ce sont des sociétés qu’elle possède qui développent ce genre de médicaments, donc c’est leur donner pleins pouvoirs par rapport à nous ici en France, donc permettre à des laboratoires américains de développer plus vite les produits. Par rapport au covid, par exemple, ce sont eux qui auront la mainmise parce que les données auront été récupérées bien avant que l’État français ne puisse lever le petit doigt.

Éric Delvaux : Merci Pascal de ce témoignage et de cette question.
Bernard Benhamou, secrétaire général de l’Institut de la souveraineté numérique, les questions reviennent un peu en boucle, mais quelles sont donc les alternatives pour échapper aux GAFAM et aux Chinois aujourd’hui ?

Bernard Benhamou : L’alternative c’est déjà de poser une limite, c’est-à-dire de dire qu’il est des données qui ne peuvent ni ne doivent être traitées autrement que par des sociétés européennes sur le sol européen, c’est ce qu’on appelle le principe de localisation des données. C’est un principe qui est évoqué mais pour l’instant pas encore mis en œuvre et qu’il nous faudra mettre en œuvre quand il est question de données aussi sensibles que les données relatives à la santé, les données ethniques, les données relatives aux opinions politiques, etc. Ces données-là, par définition, ne devraient pas pouvoir être traitées par des acteurs américains et encore moins pouvoir être rapatriées aux États-Unis.
Je rappellerai pour mémoire qu’il y a quelques jours, c’est tout récent, la Cour de justice de l’Union européenne a annulé l’accord qui permettait à plus de 4000, presque 5000 sociétés américaines de traiter les données des Européens aux États-Unis, ce qu’on appelait le privacy shield, peu importe, eh bien cet accord a été rompu parce que justement les données des Européens ne sont pas protégées correctement.
Donc quand vous me dites quelle est la première chose à faire, c‘est déjà établir un diagnostic clair en disant qu’on ne peut pas se permettre le risque et on l’a vu, madame de la Raudière le rappelait sur les manipulations électorales, on ne peut plus se permettre le risque de voir nos sociétés entièrement dirigées, pilotées de l’extérieur par des sociétés ou des États qui peuvent être hostiles, comme on l’a vu effectivement avec la Russie pour le scandale Cambridge Analytica entre autres.
Par définition, je reviendrai aussi sur un point. Il a été dit, en gros, qu’il y avait un risque par rapport effectivement à l’accélération des langages de haine, ça été l’objet d’un débat à l’Assemblée il y a quelque temps, mais le problème c’est que les sociétés comme Google ont tout intérêt à ce que des propos radicaux soient échangés sur la plateforme.

Éric Delvaux : Pourquoi ?

Bernard Benhamou : Prenons par exemple YouTube. Ce n’est pas compliqué, plus une vidéo est considérée comme radicale, plus les experts ont remarqué qu'elle devient virale et plus les gens restent, excusez-moi l’expression, scotchés dessus. Or Google vit du temps que vous passez à regarder de la publicité. Leur algorithme a été modifié pour favoriser des vidéos qui sont de plus en plus radicales. Vous avez une sociologue qui a étudié cela, Zeynep Tufekci, qui dit que YouTube est peut-être le principal outil de radicalisation politique du 21e siècle. Ce propos-là doit nous faire comprendre que ce n’est pas à la marge que l’on doit corriger le tir, c’est certaines choses, y compris ce l’on appelle dans le jargon technique le micro-ciblage, c’est-à-dire le fait de pouvoir adresser une publicité ou un message à une ou deux ou cinq personnes et non pas à des millions comme on le faisait auparavant avec des panneaux publicitaires, mais bien effectivement des messages, comme on le voit sur Facebook ou sur Google, qui sont adressés à quelques personnes. C’est ce type de fonctionnement que nous Européens, puisqu’il a été question d’un modèle européen, qu’est-ce que pourrait être un numérique à visage européen ?, eh bien typiquement ce serait un numérique où le ciblage, la modélisation des comportements de chacun n’est plus la règle absolue, ce qui est à l’heure actuelle le cas avec la publicité sur Internet.

Éric Delvaux : Au standard de France Inter Matthieu nous appelle de Bretagne. Bonsoir Matthieu.

Matthieu : Bonsoir.

Éric Delvaux : Quelle est votre question ?

Matthieu : Je suis délégué à la protection des données pour une collectivité territoriale et à notre niveau local on voit que la seule chose qui ait réellement fait changer les pratiques en termes de protection des données à caractère personnel c’est le RGPD9, le Règlement général sur la protection des données.

Éric Delvaux : Qui est un droit européen qui renforce notre protection au niveau européen.

Matthieu : Exactement. Et ce qui est très surprenant c’est d’entendre la majeure partie de vos interlocuteurs parler exclusivement du niveau national, comme s’il y avait la moindre chance qu’on puisse !
Le fait que vous n’ayez pas de député européen alors que c’est à ce niveau-là que ça se joue, c’est très surprenant. Voir qu’on raisonne encore comme si la France était une échelle suffisante pour faire bouger les comportements alors que la raison pour laquelle la Chine, la Russie ou les États-Unis ont des entreprises capables d’atteindre ces masses critiques, c’est justement parce qu’elles ont une taille suffisante pour avoir des levées de fonds qui permettent de faire changer les choses.

Éric Delvaux : Sur le choix des invités ça me regarde en particulier et je confirme que nous avons bien fait aussi d’inviter une députée, même si, vous avez raison, ça se passe surtout au niveau européen, il n’empêche qu’il y a aussi en France un mot à dire et c’est ce que fait Laure de la Raudière, députée Agir, qui s’occupe depuis 13 ans déjà je crois des questions numériques en France et qu’elle fait le relais. Cela dit un député ou une députée européenne aurait été aussi la bienvenue. Maintenant effectivement, on le dit depuis le début, mais on va le rappeler, Tarik Krim, ce n’est pas au niveau national que ça se joue. Cette souveraineté numérique sera d’abord européenne ?

Tarik Krim : Pas que. Il faut bien voir les choses. Si on parle de guerre économique, on l’a vu avec la crise du covid, l’Europe a un peu explosé en vol sur la question des masques, sur les outils de traçage, on aurait dû se coordonner sur plein de choses. Donc déjà d’un point de vue économique chaque pays réfléchit d’abord à lui-même et à sa capacité de créer de l’emploi. Ce qu’il y a derrière la question de la souveraineté numérique c’est essentiellement la question d’avoir de l’emploi qualifié en France. Est-ce qu’on forme des ingénieurs en France pour qu’ils travaillent dans des sociétés en France ou est-ce qu’on les forme pour qu’ils aillent chez Google, Facebook, Amazon, ce qui est d’ailleurs une petite partie d’entre eux, mais qui pourrait bientôt devenir une majeure partie si on n’a pas de plan de B.
D’un point de vue européen ce qui est intéressant c’est qu’on a, je dirais, une approche beaucoup plus diplomatique. Ce qui est intéressant avec le RGPD c’est que c’est victoire diplomatique de l’Europe. Pour la première fois on a dit voilà comment on va faire les choses.

Éric Delvaux : Le Règlement général de protection des données.

Tarik Krim : Absolument, le Règlement général de protection des données, d’ailleurs le CLOUD Act, cette fameuse loi américaine, a été fait un peu en opposition au RGPD, il faut le dire et maintenant ça commence à inspirer d’autres pays. Le Japon s’est dit on va faire un standard un peu similaire, la Californie. En fait, quand on est novateur et quand on invente quelque chose d’un peu plus éthique, une vision qui est vraiment la nôtre, on inspire d’autres pays. Mais il ne faut pas oublier qu’il y a plusieurs niveaux, il y a l’aspect dans quel monde numérique veut-on vivre et surtout quelle va être la place de la France d’un point de vue économique dans un monde qui est essentiellement numérisé ?

Éric Delvaux : Sur la place de la France, Laure de la Raudière vous souhaitiez réagir à l’intervention de notre auditeur Matthieu de Bretagne.

Laure de la Raudière : Oui, simplement pour rappeler qu’on a la chance aujourd’hui d’avoir au niveau européen Thierry Breton qui connaît très bien ces enjeux de part son profil professionnel précédent.

Éric Delvaux : Capitaine d’industrie aussi.

Laure de la Raudière : Voilà, capitaine d’industrie dans le domaine du numérique. Il est commissaire européen en charge du marché intérieur et c’est avec lui qu’il faut travailler sur tous ces enjeux. Je vais donner un exemple : je pense que le droit de la concurrence doit évoluer au niveau européen pour permettre des régulations des acteurs tels que Google, tels qu’Amazon, qui sont des acteurs systémiques en position de quasi-monopole et quelquefois ils abusent de leur position dominante. Qu’on puisse faire des régulations ex ante en fait du droit de la concurrence et non pas ex post. Aujourd’hui, quand une petite entreprise startup est en conflit avec Google ou Amazon ça met six ans, sept ans, huit ans à être jugé jusqu’au bout. Quelquefois elle a gain de cause, mais elle est déjà morte, elle ne peut plus exister sur son marché parce que Google l’a tuée par des pratiques anti-concurrentielles. Typiquement ça, ça doit être vu au niveau européen.
Deuxième chose qui doit être vue au niveau européen, on n’a en pas parlé, ça me parait un enjeu très important, ce sont les histoires de monnaies virtuelles. Il y a eu une prise de conscience des chefs d’État au moment de l’annonce par Facebook de Libra. Là ça les a choqués d’un point de vue atteinte à la souveraineté de l’État, en fait, souveraineté numérique, parce qu’un acteur privé disait qu’il allait faire une monnaie virtuelle et un acteur qui relie deux milliards d’individus dans le monde. Là aussi on peut l'envisager. Il faut que l’Europe puisse émettre une monnaie virtuelle basée sur l’euro pour défendre la valeur de l’euro dans le cadre d’échanges en monnaies virtuelles, sinon on n’existera plus non plus en termes de monnaie.

Éric Delvaux : Il y avait deux chapitres dans votre intervention, j’ai bien retenu les monnaies virtuelles. Je voudrais revenir sur le droit européen de la concurrence. Quand on évoquait le fait d’évincer Huawei de la 5G française, est-ce que ce serait de la discrimination commerciale ? Est-ce que ce serait bien compatible avec le droit européen à la concurrence ? Bernard Benhamou.

Bernard Benhamou : Il y a aussi les questions de concurrence, bien sûr, mais lorsqu’il est question de sécurité nationale, les règles européennes ne s’appliquent pas. Donc si l’on considère, comme l’ANSSI a eu l’occasion de le dire récemment avec l’excellent Guillaume Poupard10, par définition on ne peut pas aller vers des solutions qui mettent en péril la sécurité collective des Français ou des Européens. Je rappellerai justement par rapport à ces questions de concurrence d’acteurs étrangers que le ministre de la Justice de Donald Trump a dit par rapport à la 5G « nous sommes faibles nous Américains, donc nous allons racheter Nokia et Ericsson ».

Éric Delvaux : Ça nous embête, donc on rachète !

Bernard Benhamou : Exactement. Ça veut dire en clair que nous, Européens, devenons la proie que l’on vient dépecer. D’un côté nous sommes le marché qui permet effectivement à ces sociétés de se développer et de l’autre côté on vient dépecer nos cerveaux, nos entreprises.
Je rappellerai un dernier point : il nous faut envisager clairement aujourd’hui des mesures non seulement comme il a été dit ex ante pour empêcher des fusions, mais peut-être même dé-fusionner des sociétés, comme l’Europe a su le faire dans le passé quand il s’agissait de turbines d’avion ou d’autres choses. Séparer des sociétés qui sont devenues trop puissantes, c’est-à-dire démanteler pour employer les termes, c’est une chose que l’on doit réellement envisager aujourd’hui.

Éric Delvaux : Vous pensez à qui ? Vous pensez auxquelles ?

Bernard Benhamou : Je pense en particulier à Facebook et à Google, mais pas qu’eux. En particulier ces deux-là. Les économistes de la Commission européenne ont reconnu après les auditions qu’ils avaient menées au moment du rachat de WhatsApp que, je cite « ils s’étaient fait avoir », c’est-à-dire, en gros, que tous les engagements que Facebook, la main sur cœur, s’était engagé à tenir n’ont pas été tenus et on a maintenant un mastodonte qui effectivement ne doit possiblement sa survie dans les années à venir que par l’intervention de Trump qui va bloquer son concurrent chinois TikTok.
Là on est face à un jeu qui n’est absolument pas juste, comme diraient les économistes, c’est un jeu qui est totalement déséquilibré et dans lequel l’Europe doit et peut intervenir pour dire que ces fusions-là ne peuvent pas continuer dans la durée au risque, effectivement, de perturber l’ensemble de l’économie de ce secteur.

Éric Delvaux : Et pour aller au bout de l’exemple de la 5G et de Huawei, les Britanniques, eux, ne tergiversent pas, ils ne veulent pas entendre parler de Huawei dans la future 5G britannique. Tariq Krim, est-ce que vous estimez que la France, dans ce dossier, minaude au lieu de s’imposer sur ce marché ?

Tariq Krim : Quand on parle 5G, en fait ce qu’il faut comprendre c’est qu’au-delà de la vitesse c’est un réseau qui va donner encore plus de contrôle aux opérateurs et notamment aux GAFAM. Donc la question à se poser c’est est-ce qu’on peut construire une 5G alternative ? Ce qui est intéressant c’est qu’en France il y a des sociétés notamment comme Amarisoft qui permettent de faire de la 5G locale à plus bas coût, qui sont elles-mêmes en train de disrupter des sociétés comme Huawei. Malheureusement, comme on a souvent l’habitude en France, on ne travaille qu’avec les gros acteurs, on n’a pas assez regardé ce qui se fait en France.
Je le répète encore une fois, en France on a vraiment beaucoup de solutions, d’ingénieurs de talent, il faudrait qu’on leur donne les moyens de se développer.

Éric Delvaux : Et bien merci d'avoir répondu aux auditeurs de France Inter. Ça passe très vite effectivement.
Merci à vous Laure de la Raudière, députée Agir, merci Tarik Krim, entrepreneur et ancien vice-président du Conseil National du Numérique, et merci beaucoup Bernard Benhamou, secrétaire général de l'institut de la souveraineté numérique.

Dans quelques secondes il sera 20 heures.

Revue de presse de l'April pour la semaine 33 de l'année 2020

lun, 08/17/2020 - 23:06

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[LeMagIT] Développement: 10 outils open source populaires à ne pas négliger

✍ Chris Tozzi et Gaétan Raoul, le vendredi 14 août 2020.

Les outils de développement propriétaires ne manquent pas sur le marché, et la plupart d’entre eux fonctionnent assez bien. Cependant, les développeurs qui optent pour des outils open source bénéficient de nombreux avantages.

[Next INpact] Le logiciel libre arrive au sein de la Centrale d'achat de l'informatique hospitalière (¤)

✍ Marc Rees, le vendredi 14 août 2020.

La CAIH vient de lancer un appel d’offres. Objet ? Proposer des logiciels sous licence libre à ses 1 200 membres établissements de santé. Un mouvement qu’avait réclamé Olivier Véran, du moins lorsqu’il était député.

[Silicon] Open Source: Facebook rejoint la Fondation Linux

✍ Ariane Beky, le vendredi 14 août 2020.

Facebook rejoint les membres les plus influents de la Fondation Linux et place sa responsable open source au conseil d’administration de l’organisation.

[Le Monde Informatique] 430% de cyberattaques en plus sur les composants Open Source

✍ Maryse Gros, le jeudi 13 août 2020.

La chaîne logicielle des entreprises est de plus en plus dépendante des composants open source qui lui permettent d’innover plus rapidement. Mais les projets intègrent aussi des centaines de dépendances avec d’autres projets open source qui peuvent contenir des failles. L'édition 2020 du State of the Software Supply Chain indique une hausse de 430% des cyberattaques de nouvelle génération visant à infiltrer ces composants.

[ZDNet France] Accord Google/Mozilla: vers une prolongation

✍ Catalin Cimpanu, le jeudi 13 août 2020.

Selon plusieurs sources, Google devrait rester le moteur de recherche par défaut de Firefox pour les trois prochaines années.

[usine-digitale.fr] Mozilla, développeur du navigateur Firefox, licencie 250 personnes

✍ Julien Bergounhoux, le mardi 11 août 2020.

Mozilla Corporation, filiale de la fondation Mozilla en charge du navigateur Firefox, a annoncé ce 11 août son intention de licencier environ 250 employés. L’entreprise met en cause la crise économique liée à la pandémie de Covid-19, ses plans d’avant crise n'étant plus tenables.

Appel d'offres de la Centrale d'Achat de l'Informatique Hospitalière sur le logiciel libre

lun, 08/17/2020 - 17:19

La CAIH (Centrale d'Achat de l'Informatique Hospitalière) vient de lancer un appel d’offres pour proposer des logiciels libres à ses 1 200 membres établissements de santé. C'est une bonne nouvelle et l'April encourage les entreprises du libre à se saisir de cette opportunité. La date de clôture est le 25 septembre 2020 à 12h30.

Pour rappel, la CAIH a un accord-cadre avec Microsoft depuis 2015, renouvellé en 2019 pour quatre ans. Cet appel d'offres est donc plutôt un bon signe d'une volonté de la CAIH de proposer une alternative respectueuse des libertés et des données personnelles. L'appel d'offres porte sur la fourniture 1:

  • D’étude de faisabilité, de chiffrage et d’analyse de risque de migration d’un pan fonctionnel du SI de santé vers de l’Open Source ;
  • De solutions « clients », « serveurs » et services en ligne « Open Source » agréé HDS ou opérés sur des cloud HDS de nos adhérents ;
  • De prestations de migration depuis les technologies « Oracle » et « Microsoft » vers de l’Open source ;
  • De services de maintenance, de tierce maintenance applicative, de prestations autours de technologies Open Source ;
  • De services d’infogérance de solutions Open Source.

Le CCTP (cahier des clauses techniques particulières) détaille les besoins fonctionnels et les unités d'œuvre : étude de faisabilité de migration vers le libre ; poste de travail libre ; serveurs ; visioconférence ; espace collaboratif ; suite bureautique libre et logiciels métiers ; base de données pour remplacer Oracle… C'est un marché qui couvre donc de très nombreuses technologies libres.

Le contrat est un accord-cadre mono-attributaire non alloti 2. L'April regrette ce choix. L'accord-cadre multi-attributaire est la règle par défaut de la commande publique. Notamment parce que cela permet de renforcer la concurrence en permettant aux entreprises type PME d'accéder plus largement aux marchés publics. Et le monde du logiciel libre est avant tout constitué de PME. Espérons que cela n'empêchera pas des réponses à cet appel d'offres, soit par une entreprise unique soit par un groupement d'entreprises.

Tous les documents utiles pour répondre à cet appel d'offres sont disponibles sur la plateforme des achats de l'État.

  • 1. Les extraits du document utilisent le terme Open Source, l'April préfère le terme logiciel libre
  • 2. L'accord-cadre mono-attributaire est un accord passé avec une seule entreprise (ou un groupement) pour l'ensemble des lots du contrat correspondant aux différentes prestations demandées dans le marché public. Un accord multi-attributaire permet à des entreprises de candidater à un ou plusieurs lots en fonction de leur domaine de compétence et est de ce fait bien plus accessibles aux entreprises type PME.

Geoffrey Knauth nouveau président de la FSF et Odile Bénassy intègre le conseil d'administration

lun, 08/17/2020 - 08:41

La Fondation pour le Logiciel Libre (FSF) a annoncé la nomination de Geoffrey Knauth comme nouveau président. La FSF accueille également une nouvelle membre au sein de son conseil d'administration en la personne d'Odile Benassy, membre de longue date de l'April. Odile porte d'ailleurs fièrement un t-shirt April sur la page d'annonce de la FSF. Toutes nos félicitations à Geoffrey et à Odile. L'April aura plaisir à travailler avec la Fondation pour le Logiciel Libre comme elle le fait depuis sa création.

Comment lutter contre les dérives du Net ? Arthur Messaud

jeu, 08/13/2020 - 11:19


Titre : Comment lutter contre les dérives du Net ?
Intervenant·e·s : Arthur Messaud - Pascale de la Tour du Pin
Lieu : Matinale de LCI
Date : 15 mai 2019
Durée : 4 min 20
Écouter ou enregistrer le podcast
Licence de la transcription : Verbatim
Illustration : logo de La Quadrature du Net - Licence Creative Commons CC BY-SA 4.0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Le 15 mai 2019, sur le créneau de la rubrique du '6h40', Arthur Messaud, juriste à La Quadrature du Net, était l'invité de La Matinale de LCI et interrogé par Pascale de la Tour du Pin pour évoquer Facebook et sa modération.

Transcription

Pascale de la Tour du Pin : Bonjour Arthur Messaud, vous êtes juriste à La Quadrature du Net1. Merci d'être avec nous sur le plateau.

Arthur Messaud : Bonjour.

Pascale de la Tour du Pin : Je voudrais juste vous faire réagir au reportage que l'on vient de voir, ces modérateurs du Net qui travaillent. On a vraiment le sentiment que c'est encore très artisanal.

Arthur Messaud : Ça l'est complètement et ça va le rester. Là on voit quelqu'un qui est à Dublin mais, en fait, la plupart des personnes qui vont être employées dans ces fonctions vont plutôt être en Asie, en Afrique, en Amérique du Sud. Elles vont être employées dans des conditions salariales terribles et des conditions de travail, on l'a vu, qui sont lamentables.

Pascale de la Tour du Pin : C'est vrai que l'on comprend peut-être mieux comment les géants d'Internet ont effectivement du mal à contenir des contenus qui sont notamment terroristes. Ce sera le thème du jour qui sera abordé autour d'Emmanuel Macron à l’Élysée aujourd'hui, alors que l'on apprend ce matin que Facebook va restreindre l'usage de sa plateforme Facebook Live de vidéos en direct. Est-ce que c'est suffisant ?

Arthur Messaud : Non, c'est de la poudre aux yeux. Ce qui s'est passé sur Facebook au moment de l'attentat de Christchurch2, de la tuerie, c'est que la personne qui a fait cette tuerie s'est filmée elle-même en live et a diffusé sur Facebook Live. En fait, cela a été vu par 100, 200 personnes, par très peu de gens, mais notamment par des alliés de ce tueur qui ont pris la vidéo et l'on dupliquée sur Facebook. Ils ont réussi très facilement à passer outre « l'intelligence artificielle » de Facebook qui est, en fait, une passoire. Sur YouTube, il y a eu le même problème. Ces technologies que l'on nous vante comme magiques, sont très facilement contournables par des humains un peu organisés. Il suffisait typiquement de changer un peu la couleur de la vidéo pour rendre tout leur système inopérant.

Pascale de la Tour du Pin : Excusez-moi, ça paraît dingue ! Je ne suis pas une initiée ! Comment se fait-il que Facebook ne l'ait pas fait ?

Arthur Messaud : En fait, Facebook ne peut pas le faire, ne pouvait pas le faire. Facebook a deux armes : son intelligence artificielle qu'il présente comme une solution magique mais qui ne marche pas du tout, on l'a vu, elle n'a pas du tout marché, ou des milliers de salariés, de modérateurs, comme on a vu, qui ne peuvent pas gérer des millions et des millions, voire des milliards de personnes sur Facebook parce que c'est beaucoup trop dur. Facebook, Google pareil, Twitter aussi, se sont mis dans une situation qui est impossible à résoudre. Il y a beaucoup trop de personnes au même endroit qui discutent de beaucoup trop de choses pour pouvoir facilement lutter contre le harcèlement, contre la propagande terroriste. Lui-même ne va même pas sortir de cette situation-là ! On voit aujourd'hui que Facebook, à la place de diminuer en taille, rachète et fusionne différentes entreprises. Maintenant on a WhatsApp et Instragram qui ont rejoint le groupe Facebook, alors que c'est le processus inverse qu'il faudrait faire. Il faudrait compartimenter tout ça pour faciliter l'organisation collective de ces espaces-là.

Pascale de la Tour du Pin : On fait comment ? À vous écouter, il n'y a pas de solution.

Arthur Messaud : Il n'y a pas de solution, si ! Il n'y a pas de solution à la place de Mark Zuckerberg, par exemple, qui était invité cette semaine par Emmanuel Macron, reçu comme un chef d’État. Monsieur Macron s'imagine que Zuckerberg va être la solution, va apporter une solution. Non, leur système est fondamentalement vicié et ne pourra pas être une solution aux problèmes qu'on rencontre sur Internet.
La solution c'est de permettre aux gens de partir de ces plateformes fondamentalement nocives pour aller sur d'autres plateformes de plus en plus nombreuses, beaucoup plus petites et à taille humaine qui, elles, peuvent gérer de façon cohérente le harcèlement, les conflits. Ce n'est qu'en diminuant la taille, en revenant à des structures humaines, comme était Internet avant, que l'on y arrivera.

Pascale de la Tour du Pin : Mais les géants d'Internet sont-ils d'accord avec vous ? Enfin, c'est inenvisageable puisque vous parliez effectivement de fusions, du fait qu'ils cherchent à devenir de plus en plus gros.

Arthur Messaud : Les géants d'Internet ne sont pas du tout d'accord. Ce n'est pas notre problème. Par contre, ce qui nous pose souci, ce sont les utilisateurs, les utilisatrices, est-ce qu'ils sont d'accord avec l'idée de partir de Facebook ? Aujourd'hui, ce qu'on voit, c'est que plein de gens sont très insatisfaits de Facebook, notamment à cause de tous les scandales qu'on a en matière de données personnelles, par YouTube pareil, par Twitter où il y a un climat extrêmement anxiogène.

Pascale de la Tour du Pin : Ce sont les utilisateurs qui doivent agir ?

Arthur Messaud : Les utilisateurs n'aiment pas ces plateformes mais on voit bien qu'ils ne partent pas. Il ne partent pas parce qu'il y a un vrai problème d'enfermement : partir de ces plateformes c'est souvent se couper, s'isoler de sa famille, de ses amis, de ses collègues. Cet enfermement n'est pas un enfermement qui est naturel. Techniquement c'est un enfermement qui est entretenu par ces plateformes pour nous menacer, pour nous dire « soit vous restez avec nous, vous vous soumettez à notre surveillance économique, à notre publicité, soit vous partez et vous perdez vos amis ». Alors que techniquement, en matière de technique du Web, la loi pourrait parfaitement et simplement imposer à ces plateformes la possibilité que l'on puisse partir de Facebook, par exemple pour aller ailleurs, dans un endroit plus petit, et continuer à parler avec nos amis. On pense que ça c'est la vraie solution de fond. La solution proposée aujourd'hui par Macron, avec une proposition de loi contre la haine en ligne qui se trompe complètement de schéma parce qu'eux pensent que ce sont les géants d'Internet qui vont apporter la solution alors que ce sont les géants la cause du problème.

Pascale de la Tour du Pin : Donc la solution va provenir des utilisateurs et c'est le message que vous souhaitiez passer ce matin. Merci beaucoup Arthur Messaud d'être venu sur le plateau de La Matinale ce matin. On revient dans une petite minute.

Enseignement supérieur, recherche et logiciel libre - RMLL2018

mar, 08/11/2020 - 17:50


Titre : Enseignement supérieur, recherche et Logiciel Libre
Intervenant·e·s : Oliver Rack - Loïc Horellou - Myriam Criquet, interprète - Guy Chouraqui
Lieu : Rencontres Mondiales du Logiciel Libre - Strasbourg
Date : juillet 2018
Durée : 1 h 04 min
Visualiser la vidéo
Licence de la transcription : Verbatim
Illustration : capture d'écran de la vidéo
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Penser les politiques publiques numériques par le biais de l'Université et des Grandes Écoles : quelles pédagogies et quels investissements ? Enjeux et voies de transition pour les communs numériques.

Transcription

Guy Chouraqui : Il est 18 heures 23, c’est une heure raisonnable pour démarrer ; notre retard n’est pas excessif et l’essentiel est marqué au tableau comme vous le voyez avec, sur l’écran, le titre, le propos, la thématique que nous allons aborder ensemble et les deux intervenants qui sont pour l’instant présents c’est-à-dire Loïc Horellou et Oliver Rack. Nous attendons peut-être Bibiana Boccolini, mais je n’ai pas de nouvelles donc nous verrons bien dans les minutes qui viennent si nous avons ce point de vue qui vient de l’Amérique du Sud.

Il y a un point particulier qu’il faut aborder au démarrage, c’est le fait qu’il y aura un intervenant qui s’exprimera en allemand mais dont l’intervention sera traduite ; c’est un confort très grand mais qui s’assortit d’une petite servitude qui fait qu’il faut nécessairement dans les interactions entre le public, entre les auditeurs et les intervenants, laisser un petit décalage pour que le temps de la traduction s’effectue et que le dialogue s’instaure de manière correcte. C’est un problème de fond qui n’a rien à voir avec le numérique et c’est bien lié à l’un des problèmes de l’Europe qui est la diversité des langues que nous parlons. Pour l’instant français avec Loïc Horellou, l’allemand et peut-être un peu plus tard l’espagnol avec Bibiana Boccolini.

La thématique générale est suffisamment bien exprimée par le titre. Le propos concerne l’université, l’éducation, les grandes écoles. L’impact du numérique, de la culture numérique, est à double tranchant comme c’est très souvent le cas : une facilitation des échanges, une facilitation donc de l’éducation, de la transmission des connaissances et, en même temps, des effets pervers qui sont liés au fait que la pression économique sur l’éducation est considérable. Durant ma carrière j’ai été témoin à l’université de Strasbourg du fait que le poids économique des grandes firmes informatiques lamine complètement les logiciels libres, à part des efforts individuels qui ont une portée forcément limitée.

Nous allons voir ces ouvertures, ces possibilités et, en même temps, ces difficultés que je qualifiais il y a instant d’effets pervers, nous allons voir cela par le portrait que va nous donner Oliver Rack à propos de l’Allemagne. Il se trouve qu’Oliver Rack est très intéressé par les aspects politiques de ces techniques numériques pour l’Europe et pour le monde entier et ce point de vue est très informé puisque vous avez, Oliver Rack, participé à énormément d’actions autour de l’open government, le gouvernement ouvert naturellement et, par votre voix, nous allons entendre un peu votre point de vue et la problématique que nous allons proposer à nos auditeurs. Je donnerai ensuite la parole à Loïc Horellou naturellement. Oliver Rack, à vous.

Oliver Rack : OK. Thank you. I’m Oliver Rack, at first I want to excuse myself that I can’t speak French that well – just « un peu comme ci, comme ça ». But I'd like to encourage us all to train more in English since now that the Brits are out of Europe, we can now all speak English much easier without any winner in this language war of the last decades. Now Germany and France are getting more and more in focus for collaboration from a European point of view, as a new nucleus of Europe. Therefore, we are here in a nice region where there is a good prosperous cross-border rich and may be we will see what this collaboration between France and Germany will be in the next years.
The open government. We are facing new times where information and knowledge are managed by private companies and there is a big shift of power from that and we don’t know how the next decades will look like in this matter but we know that government has the public value in its DNA. So this is where we can say “OK this is our fallback”, to have this as a fallback in technological transformations, we should empower it much more as a role-model for technological transformations. And therefore it’s good for the government to open up, to be transparent in the one way to see what this system of government and administration is running like to have the system safety on the one hand but on the other hand to have innovation dynamics and joint powers in knowledge between government, civil society, the science and research people but also enterprises too. And this is now more and more principle and culture that governments open up which was mainly implemented, or lets say driven, in the US and the UK. A strong driver was Barack Obama when he started the Open Government Partnership in 2011 together with the Brazilian administration in this time to roll out this principle of co-creation throughout the world, now there is like a network of competencies on the one side but also of evaluation. Open government roll outs in the participating member states. And now there are 75, France since a couple of years is a member of this network, Germany stepped in December 2016 in Paris when there was a big assembly.
What has this got to do with Open Source and Open Data? Quite a lot. Co-creation can really work. There have to be open systems in each matter. There has to be Open Access and Open Science to exchange this knowledge. And from this point of view, especially when it comes to Open Science, organizing information is one of the basic meanings of viewing human beings, therefore it should be a human right to have the tools for organizing information to knowledge, as accessible, as usable as possible. And also data for sure. And when it comes to artificial intelligence which is really quite a rising topic, I wouldn't say issue, a rising topic, there will be kicked a lot of new questions, also in a societal matter, what AI makes to societies. And for this it is very important to have a look inside how AI mathematics and heuristics are working, which data are used for it, which data are used for training AI. And so this would be a good deal to have this as open as good as possible.

Myriam Criquet, interprète : Nous allons maintenant traduire ce qui a précédé. Oliver Rack nous a parlé de l’Open Government en nous expliquant que nous sommes en train de faire face à de nouvelles problématiques et ces nouvelles problématiques interrogent le pouvoir. Nous ne savons pas, bien sûr, où est-ce que nous allons aller, mais ce que nous savons c’est que les technologies de l’information vont s’imposer aussi aux gouvernements et c’est pour ça que les administrations s’y sont intéressées.
Le savoir, le partage des connaissances, a intéressé les gouvernements et la société civile mais aussi les entreprises. Il y a de plus en plus d’initiatives qui se produisent tout autour de l’Europe. Il y a des réseaux de compétences qui se créent mais aussi des réseaux d’évaluation.
La France et l’Allemagne ont créé ces réseaux et ces réseaux travaillent sur une co-création entre l’open source et l’open data. En fait, l’open source et l’open data sont des parties de l’open science et tout un réseau d’échange d’informations en est la base.
C’est une base qui devait être reconnue par tous parce que c’est en particulier la base des droits de l’homme. Et la data, particulièrement, est impactée, intéresse ces réseaux. C’est très important, en fait, d’avoir dans ces réseaux un regard sur ce qui se passe dans les mathématiques et de savoir comment ces data sont appréhendées par elles pour connaître les utilisations et celles qui sont positives.

Guy Chouraqui : Merci beaucoup pour l’écho que vous donnez à l’intervention d’Oliver Rack qui était faite en anglais et non pas en allemand comme je l’avais prévu, mais vous avez donné une image tout à fait exacte pour autant que je puisse en juger. Réaction.

Loïc Horellou : Réaction ou plutôt une autre série d’exemples qui vont être tirés de ce que je connais. Je suis enseignant dans une école d’art et je suis designer, à côté, d’interactions, d’interfaces, etc. Les écoles d’art, à la différence de gouvernements, de régions entières ou de pays, sont des petites administrations et comme toutes les administrations, les petites structures, on est aussi amené à travailler avec des données, des logiciels, etc. Dans les structures de l’échelle de celle d'où j’interviens, il se trouve que le responsable informatique ou la responsabilité du réseau informatique de l’école, il n’y a qu’une personne qui doit gérer des questions très pratico-pratiques de comment les gens réussissent à avoir une connexion wifi qui fonctionne et au choix des logiciels qui vont être faits par l’école.

Et malheureusement, sur ces choix-là, ce qu’on constate c’est que la plupart du temps on va vers les solutions les plus faciles, les plus clefs en main qui sont celles amenées par les grands groupes informatiques : sur tout ce qui va être de l’ordre du travail collaboratif on va souvent s’orienter vers des plateformes Google ou Microsoft Office. Du côté de la Haute École des arts du Rhin, c’est Microsoft qui a été choisi puisque la société avait pu amener la garantie que les serveurs seraient hébergés sur le continent européen. Donc voilà ! Les choix de logiciels qui sont faits sur des structures de 400, 600, 700 usagers sont faits comme ça. Et du côté de mon activité de designer, c’est ce que je pouvais constater aussi sur des petites collectivités, des petites villes, c’est-à-dire qu’elles, elles ont un ou deux agents de la mairie ou un ou deux employés qui ont un regard plus ou moins pertinent ou plus ou moins critique sur la manière dont on va utiliser ces outils-là, et puis les choix sont faits par ces personnes-là. En général il y a la question de budget qui rentre en ligne de compte et après tout le monde, en fait, bricole un petit peu.
J’expliquais tout à l’heure qu’on a travaillé il y a deux ans avec les médiathèques de Strasbourg sur la question de leurs fonds bibliographiques et les notices. Et alors qu’on est dans une période où les systèmes se complexifient de plus en plus, on a de l’échange de données dans tous les sens, on parle d’API [Application Programming Interface], etc., j’ai découvert à ma grande surprise que les réseaux de médiathèques, pour s’échanger des informations entre eux, utilisaient toujours un format de fichier qui s’appelle le MARC1 [MAchine-Readable Cataloging], qui a plus de 40 ans, qui avait été créé par la bibliothèque du Congrès des États-Unis dans les années 70, et qui est un format qui paraît, quand on ouvre le fichier, complètement antédiluvien avec un encodage ISO qui ne ressemble à rien, donc il faut trouver des analyseurs qui ont été bricolés par des responsables de médiathèques dans leur coin, etc. Et c’est vrai que j’ai l’impression qu’on est dans un monde où on parle de très grands systèmes et au final la sectorisation, la compartimentation de tout un tas de structures fait que beaucoup de gens se retrouvent à bricoler et à prendre des décisions dans leur coin sans avoir connaissance d’initiatives qui vont voir des impacts, qui vont permettre des grandes ruptures techniques à des échéances énormes.

Guy Chouraqui : On peut peut-être maintenant donner le temps de retransmettre à l’intention d’Oliver Rack l’expérience que Loïc vient de nous dire ; donc à l’intention d’Oliver Rack, merci.

Myriam Criquet, interprète : Loïc Horellou teacher in the Haute École des arts du Rhin… [Traduction en anglais de l'intervention précédente, NdT]

Oliver Rack : Yeah, yeah, should turn this scale structure, but there are also financing problems in bigger scale structures. Sure the transformation, this digital transformation is not something which comes for free. And we have one big partner, this is the European Union, which has strong interests in a European way of digitalization. And also in digitalization there is the chance of cohesion and convergence of the European Union, there is a new field where there can be European standards, stuff like this. So we have for example the field of e-government, we have the field of how can we harmonize or standardize meta-data structures across Europe and for example the INEA2 wich is the Innovation and Networks Executive Agency is strongly interested in having the standards, they are giving grants for that. So I think the one thing is we don't know what will be the best standards so there is a lot of research currently, but this is nice and also the small places and the small institutions can apply for some grants. So when it comes to digitalization, it's not only a technical question, for sure it's an all political question what way digitalization runs, but it's also a question of building up capacities in technological issues but also in let's say fund-raising issues. When you do something in digitalization in the institutions you should build up a good fund-raising culture and structure so you can take part in this big European process. They currently are the strongest in financing besides the business development financing in digitalization like the French techs3, but in research and in implementing digitalization in the public sector issues, it is mostly to find in the European Union.

Guy Chouraqui : Merci.

Myriam Criquet, interprète : Oliver Rack a parlé de l’aspect financier. Bien sûr la transformation numérique est une question à laquelle l’Union européenne porte un grand intérêt et la digitalisation est un terme qui l’intéresse aussi par rapport aux standards européens que l’on pourrait avoir. Des standards européens qui seraient à la fois pour le e-gouvernement mais aussi pour harmoniser les standards des données et sur ce thème il y a quelque chose qui a un fort impact.
Oliver Rack est d’accord avec Loïc Horellou sur la question du financement. La question, en fait, c’est que nous n’avons pas aujourd’hui, nous ne connaissons pas aujourd’hui la bonne façon finalement, la façon unique de fonctionner. On se rend compte que la question de la solution numérique ce n’est pas seulement une question technique, c’est aussi une question qui est politique et financière et les véritables interrogations sont celles qui portent sur les choses suivantes : comment construire, en fait, les capacités à pouvoir faire cette transformation numérique et comment ensuite arriver à les financer. Et en fait la recherche, comme les administrations, devront passer par des business développements.

Guy Chouraqui : Avec ces séries de points de vue et les traductions que vous venez de nous donner, il s’est passé presque une demi-heure et sans doute, vu les sujets brûlants qui ont été abordés à la fois politiques, économiques et techniques, l’auditoire aurait sûrement le désir de s’exprimer à son tour. Vous pensez qu’on peut donner effectivement la parole à l’auditoire à ce stade de la conversation ?

Loïc Horellou : Si je peux juste ajouter une remarque sur ce qui vient d’être dit et après je pense qu’effectivement…
Oui, je suis tout à fait d’accord sur ces questions, la question des fonds à trouver pour pouvoir développer, tant dans l’enseignement supérieur que les administrations, etc. Ce qui est quand même génial c’est qu’on se rend compte qu’en fait des structures privées aussi grosses que Microsoft, Google, Apple, etc., sont prêtes à amener leurs solutions gratuitement et que ça génère une espèce de distorsion de concurrence absolument gigantesque à l’égard de structures locales privées également qui, elles, ne peuvent pas se permettre de donner leurs outils ou leurs solutions ou leur expertise parce qu'elles ne s’en sortiront pas. Là où les très grands groupes sentent bien qu’ils vont avoir un levier. Si je prends les étudiants qui sont tous sur une solution Office du côté de notre établissement, là on a accès à un abonnement gratuit, peut-être que certains vont finir par payer, à un moment ou un autre, 30 ou 40 euros l’année pour avoir accès à des outils qui leur paraissent assez intéressants. De même chez Google pour pouvoir avoir de l’espace de stockage sur leur drive, etc. Ce qui fait que là ils ont un public captif qui est super. Il y a eu des énormes partenariats signés par l’Éducation nationale en France, je crois que c’était avec Microsoft aussi.
On a, du côté des écoles d’art, les mêmes types de problèmes avec Adobe qui, en plus, est dans une situation de quasi-monopole sur les solutions qu’il amène. En fait il y a très peu de culture du logiciel libre, des solutions annexes qui existent, chez les décideurs et les administrateurs, etc. Je le vois dans l’école où j’interviens : on a tenté, avec certains collègues, d’avoir du débat, de sensibiliser l’administration de l’école à ces questions et on se rend compte qu’au moment de prendre la décision on va quand même vers la solution qui parait la plus simple, la plus facile, la plus immédiate, qui est de passer par des grands groupes au détriment des données qu’on pourrait générer, au détriment de ces histoires de captivité des usagers, etc. Il y a quelque chose de l’ordre de la collecte de fonds et vraiment de la médiation de ces questions-là et de la sensibilisation des administrations et des décideurs qui paraît essentielle.

Myriam Criquet, interprète : Loïc Horellou says he is OK with you… [Traduction en anglais de l'intervention précédente, NdT]

Oliver Rack : Yeah, there is a lot of truth in, so this is why I think that the public responsibility should be engaged and empowered to give us alternatives. There's nowhere written that a public sector driven or a public ownership driven software should be not as good as a private. We have public financed television, which is mostly better than the private television! So there are ways out, but we are just starting with it, we maybe are starting a little late, but I think this should be really a task and it's a big task, maybe this is only a task that can only be solved on a European level, that we have alternatives in software, in platforms, which is also more important because on platforms, software are built on, so the dependency from other markets and from other economies, from foreign economies is scaling there. And this is what the European Union is trying with FIWARE4 as a platform5 under European Public License for smart cities, because they have identified this problem, and so it should be in other topics too. One big issue is like social media platforms, where I say: what is the difference between social media and television? It’s the kind how media are organized these days. Why shouldn't this be like ARTE, a public financed or co-financed – but I give some fees it's OK? But in a libre way of running like our European culture as US are. So I know what you are saying, these are the real issues, it can't be only solved on the shoulders of community, of developers. It’s smaller the use case is, the harder it is to have a good maintenance software so there should be a public duty in it.

Myriam Criquet, interprète : Oliver Rack nous a expliqué qu’il partage ce que pense Loïc. La responsabilité du public doit être engagée et il faut effectivement faire monter en capacité et en compétences les personnes qui sont des personnes publiques, des décideurs, sur les alternatives qui existent aux logiciels privateurs. Il n’y a pas, en fait, de fatalité à ce qu’on utilise des logiciels privateurs et il pense qu’on pourrait faire un parallèle entre la télévision publique et la télévision privée. La télévision publique, selon lui, est de meilleure qualité que la télévision privée et, en fait, l’éducation aux alternatives aux logiciels privateurs, donc le logiciel libre, est déjà commencée. Bien sûr c’est un gros travail, mais ce travail doit se faire avec l’Europe qui pense non seulement en termes de logiciels mais aussi en termes de plateformes. En termes de plateformes, pourquoi ? Parce qu’en fait il y a une dépendance aux autres marchés, notamment aux économies extérieures à l’Europe qui se nichent là, donc l’Europe est en train de penser une licence publique européenne pour les Smart Cities et elle pense aussi aux plateformes de réseaux sociaux.
La différence entre les réseaux sociaux et les télévisions, c’est surtout la façon dont ils sont organisés. Pour lui le Libre ne peut pas résider seulement, ne peut pas simplement peser sur les épaules, dit-il, d’une petite communauté de développeurs, c’est une question dont l’Europe doit aussi s’emparer.

Guy Chouraqui : Si vous êtes d’accord, je demande au public. Nous avons le temps maintenant pour des réactions de l’auditoire qui ne peuvent pas manquer vu la diversité et la profondeur de tous les problèmes qui ont été présentés à travers l’exemple d’une école d’art et à travers l’exemple de l’expérience de Oliver Rack. Donc aux auditeurs de s’exprimer pour l’une ou l’autre question.

Public : J’entends parler de captivité du public par rapport à Microsoft et Google, par rapport à des formats qui seraient plus faciles à prendre et, du coup, et plus jolis à regarder. Je pense que c’est un mauvais calcul ; le fait que ce soit gratuit ce n’est pas une solution. Le logiciel libre est souvent aussi gratuit dans plusieurs cas. En fait, ce qui se passe, c’est qu’on n’a pas abordé la notion de pérennité des données d’une part et aussi des données qu’on va fournir à tous ces GAFAM. Par l’intermédiaire, l’utilisation du logiciel libre, tout ça est exclu. C’est-à-dire qu’on ne va pas laisser de données personnelles à ces GAFAM, d’une part, et d’autre part la pérennité des données est assurée. Donc en fait enfermer l’utilisateur dans un format propriétaire, c’est l’enfermer dans l’utilisation de données à court terme. Si vous voulez utiliser des données à long terme, il faut évidemment choisir le logiciel libre.

Loïc Horellou : Oui. Je suis tout à fait d’accord. Je relatais l’exemple de ce qui se passe vraiment dans la tête des gens qui sont en situation de prendre ces décisions-là et c’est très difficile de les faire évoluer sur ces questions-là.
La seule raison qui leur a fait choisir Microsoft à la place de Google, c’était cette question de serveur européen, donc il y avait quand même un embryon de conscience de la localisation des données, mais pour tout le reste c’était assez ardu. Il y a vraiment une question de sensibilisation des décideurs finaux et des gens qui prennent des décisions qui sont assez peu exposés, en fait, directement à la question du Libre. On est plutôt, il me semble, sur des questions d’outils métier. C’est-à-dire qu’à un moment les gens ou les structures ou les DSI ou les administrations quand ils ont un outil métier qui leur convient, qu’il soit libre ou privé, ils le gardent, parce qu’en fait ils mettent tellement de temps à évoluer et à transformer leur usage qu’en fait ils deviennent assez feignants avec ça ou plus très curieux parce que ça fait beaucoup de travail après. Ils ont été nourris à des solutions Microsoft pendant des décennies, ils ont été nourris avec des ActiveX dans Explorer pendant des décennies, etc., et c’est très dur de les faire sortir de ces systèmes-là. Je parle sur les petites structures.

Il n’y a pas longtemps on a eu à rencontrer la DSI de l’université Strasbourg pour tout un tas de choses, notamment la question du réseau, l’accès fibre optique, etc., et quand vous avez des DSI bien en place avec tout un tas de spécialistes et de spécialités là-dedans, je pense que c’est beaucoup plus simple, en fait, d’évoluer sur ces usages-là. En général on se rend compte que, de toute façon, des outils et des solutions libres sont beaucoup plus employés dans ces contextes.
Mais sur les petites structures, c’est là qu’Oliver Rack a raison, il manque probablement une initiative à grande échelle de type européen ou au moins à échelon national pour mettre en évidence des solutions libres, open source avec une pérennité de données et des formats ouverts, mais qui soit portée par des acteurs de suffisamment grande échelle pour que les gens soient rassurés sur ces outils-là, parce qu’en fait on se rend compte qu’il y a beaucoup de crainte chez les gens qui sont en situation de prise de décision.

Myriam Criquet, interprète : Loïc told that… [Traduction en anglais de la réponse de Loïc Horellou, NdT]

Public : Je vais poser ma question en anglais parce que c’est plus une réaction à Oliver.

So Oliver, I totally agree with what you are saying, but in the same time there is a kind of a discrepancy, between European policies that go towards neoliberalism and policies that go toward free software. I'm well aware that free software and open source is compatible within a neoliberal system, but still I think that there is a tension. How do you imagine that it could be resolved?

Oliver Rack : This depends on the critical mass because it is a political decision. In the administration of the European Union, you have like in every administration responsibilities for economic development, for transatlantic cooperation and on the other side you have responsibilities for public good, public administration and public servants. So it's not just one policy, it depends, what the council decides, where the road map runs too. So it's up to us to showcase open solutions, to advertise them, to have a critical mass in these questions; that this critical mass can be mirrored in our representatives in the Parliament. So this is the questions, but I think that we have a better mixture than like in the US on this question, but we have to maintain this political opinion and this European position because I think there is really a space in this transformation where Europe can find its place. It's another kind of economical development, we have a tradition in, we call it "Technikfolgen", that is the outcomes of technology. We have a special culture in Europe, especially in Germany and France, so this can be somewhen also an advantage in this geography of Europe when people say ah its good for us to live here, because there's a European way in development, it's not an Asian or Chinese way, it's not a North American US way, it's a European way. So this should be maintained that we keep this track, I think the track is quite OK, currently.

Myriam Criquet, interprète : Une personne dans l’assistance a posé une question à Oliver, en anglais, en lui disant qu’elle était totalement d’accord avec lui mais qu’il y avait une tension, semble-t-il, entre les politiques mises en place et l’open software et le logiciel libre.
Oliver a répondu que l’administration avait ses responsabilités, prenait ses responsabilités, parlait beaucoup de développement économique et qu’il y avait en fait plusieurs politiques : les politiques pour le développement économique, les politiques sur le bien public, sur les administrations et sur les services. Pas une politique unique. En dehors de cela c’est à nous de nous prendre en charge et de montrer des cas d’usage, d’ouvrir des solutions et puis de faire une masse critique qui pourrait influencer nos représentants.

Nous avons, selon lui, à maintenir cette position particulière qu’a l’Europe et cette opinion politique particulière des Européens. Ce n’est pas simplement et seulement une question économique. Nous avons une tradition et une culture spécifique en Europe, spécialement en France et en Allemagne, et c’est cette culture spécifique, en plus de notre territoire, qui peut être un avantage pour le logiciel libre.

Public : I have a question for Oliver. My question is as follows, some months ago, actually I conducted some audits on government websites in Germany and French one as well, and I've been surprised to see that on German websites, for example, you don't have any tracking software such as Google Analytics, which are installed on this. And when I conducted my audit I found no government website in Germany using solutions such as Google Analytics where actually in France I found some. And my question was as follows: do you have some specific guidelines in Germany when you are working in the public sector, when building a web site? Do you have some specific guidelines which are saying, for example: “you should not use any specific solution, or you should use only free software or open source solutions”. That's my question, because I looked for France and couldn't find such a guideline and I was wondering if in Germany you have some? And what is the name of these guidelines if it exists? Thank you.

Oliver Rack : I'm not so deep in this question, but there is the General Data Protection which is a guideline of what has to be, what has to be the state of the art in privacy. And you think there are better protections in Germany on the governmental website than in France? OK! That's interesting. No, for sure there are guidelines when it comes to accessibility, I know from these guidelines, there are also European guidelines. But, how the privacy is translated in work papers, how you have to build the website, I don't know.

Loïc Horellou : De mon côté je sais juste qu’effectivement ces questions de Google Analytics on les voit fréquemment apparaître dans les cahiers des charges de certaines commandes publiques en France. Donc il y a une demande de ça parce qu’à nouveau c’est probablement le système dont tout le monde a entendu parler !

Oliver Rack : How many websites did you check?

Public : 200.

Oliver Rack : Oh, really!

Public : Yeah 200 actually, I just find the website which was indexing let's say all the German government websites and I just send a bot on all of them in order to see which tracking code was installed on the source code, I did the same thing for France. And I have been surprised to see this huge difference which was really; in Germany you have zero Google solution, whereas for France you still have some websites which are still carrying the tracking count, they do a lot of cleaning but there are still some. And I was surprised to find that out, and I wanted to know if it's more privacy awareness or if it was more specific guidelines you had. Thank you.

Oliver Rack : em>For sure, in Germany privacy is a really strong culture, this comes from history, it comes from the Third Reich and it comes also from East German history so that there have been strong maintenance of the citizens. So the General European Data Protection is mainly influenced from German activists. So this may be the reason, but now we have all the same law. Did you check it before the… OK. Do you want to check it now again? Aha, but this would be interesting!

Myriam Criquet, interprète : Il a été posé une question à Oliver. Il y a quelques mois, une personne dans l’assistance a bénéficié d’un contrat, d’un audit pour le gouvernement allemand. Elle devait regarder les trackers qui étaient sur les sites web du gouvernement. Elle a fait une comparaison entre ce qui se passe en France et ce qui se passe en Allemagne et s’est rendu compte qu’en Allemagne il n’y avait pas de trackers. La question qu’elle a posée est : est-ce que vous avez, en fait, des sortes de guides à suivre ou pas ?
Oliver a répondu que le Règlement général sur la protection des données6 formait peut-être les guidelines, les lignes directrices, et que c’était aussi l’actuel état de l’art en la matière, mais que, à sa connaissance, il n’y avait pas d’autres guidelines. Il se rappelle des guidelines, des lignes directrices sur l’accessibilité.
Google Analytics semble apparaître en France, nous a dit Loïc, sur les offres publiques de façon générale.
Cela vient peut-être, nous répond Oliver, du fait que ces 200 sites qui ont été regardés par la personne du public montre qu’il y a une plus grande conscience, une plus grande culture de la vie privée en Allemagne qui vient du fait qu’il y a eu, dans l’histoire en Allemagne, une période où il y avait donc l’Allemagne de l’Est et l’Allemagne de l’Ouest et le RGPD est venu en grande partie de l’intervention d’activistes allemands.

Public : À mon sens il y a une question, quand on parle d’Enseignement supérieur de Recherche et de logiciel libre qui ne doit surtout pas être oubliée, quand il s’agit d’expliquer pourquoi le logiciel libre est important dans les universités et les écoles dont les écoles d’art, c’est ce que permet le logiciel libre comme ouverture, élargissement de la porosité entre l'éducation, l’enseignement, la recherche et le développement. C’est-à-dire que les laboratoires de recherche publics dans les universités ainsi que tous les chercheurs qui peuvent travailler, comme Loïc, dans des écoles d’art ou Anne qui est là, Anne Laforet, le logiciel libre en étant utilisé par les enseignants et les chercheurs qui peuvent eux-mêmes contribuer à ces logiciels, eh bien ça permet de vraiment créer ce cercle vertueux, à mon sens, qui peut, du coup, profiter à l’intégralité de la société et non pas à des sociétés privées particulières. C’est, à mon sens, l'une des questions majeures de ce soir.

Loïc Horellou : Une réaction. Ce qui se passe en école d’art, tout à l’heure on parlait du repas de ce soir, je pense qu’en école d’art beaucoup de gens sont un peu flexitariens. C’est-à-dire que plein d’étudiants, d’enseignants ont envie du bien-être de l’humanité, mais le problème c’est que dès qu’il faut évoluer sur nos méthodes et changer un petit peu ce qu’on fait, ça devient plus compliqué.
Beaucoup de gens sont quand même prêts à utiliser des solutions privées parce qu’elles paraissent être les plus faciles et les plus immédiates et cette question des logiciels libres est plutôt prise en compte par les étudiants qui sont les plus pointus, les plus avancés et dans ces réflexions et dans l’usage des outils numériques informatiques.
Ce qu’on essaye quand même de signaler à la masse des étudiants avec certaines personnes dont Anne qui est ici, c’est que ce qu’on constate en particulier dans le champ artistique c’est qu’en fait un logiciel c’est un outil et que cet outil-là, en général, il est développé avec une pensée de la personne qui l’a créé. À un moment, utiliser des logiciels qui sont utilisés par des millions de personnes, eh bien on a des millions de personnes qui pensent de la même manière et qui font des choses de la même manière. Et particulièrement dans le domaine des écoles d’art où on essaye d’avoir une pensée par et pour la création, ça peut devenir compliqué. C’est-à-dire qu’en fait on voit trop fréquemment des nouvelles fonctionnalités qui émergent dans des outils Adobe par exemple et qui sont immédiatement adoptés par la plupart des utilisateurs. On a l’impression qu’ils ont fait quelque chose de super nouveau et que c’est génial et fait ils ont appuyé sur un bouton de la nouvelle fonctionnalité. Et ça c’est quand même aussi très compliqué d’en faire prendre conscience aux étudiants et, par extension, aux gens qui vont être responsables des achats dans les écoles.

Guy Chouraqui : Voilà. Encore une question ?

Public : La traduction.

Guy Chouraqui : Oui, l’interprétariat.

Myriam Criquet, interprète : Someone asked a question… [Traduction en anglais des propos précédents, NdT])

Guy Chouraqui : Puis-je, à titre personnel, mais je suis sûr que je me fais l’écho de beaucoup d’entre vous, demander à l’interprète, à la traductrice, de prononcer son nom, car elle a fait un travail que je considère comme remarquable dans l’improvisation en temps réel, le temps réel qui est un challenge pour tous les informaticiens. Vous avez donc fait un travail si bon que je serais très heureux que vous prononciez votre nom à haute voix, à côté de ceux de Loïc Horellou et d’Oliver Rack. Madame ?

Myriam Criquet, interprète : Bonjour. Je m’appelle Myriam Criquet et je suis de l’association Montpel'libre7. Je suis désolée, j’ai fait ce que j’ai pu et j’ai essayé de faire au mieux.

Guy Chouraqui : J’ai une très grande gratitude pour le travail que vous avez effectué ; je vous en remercie personnellement et aussi au nom de tout le monde.
Nous avons atteint la limite d’une heure, largement dépassée d’ailleurs depuis quelques instants et, à moins qu’il y ait quelque chose qui vous empêche de dormir par la suite si vous ne le dites pas maintenant, nous allons nous séparer en remerciant beaucoup les intervenants et, une fois de plus, notre interprète. Merci.

[Applaudissements]

Internet et libertés publiques : qu’est ce qui a changé depuis Snowden ? - Félix Tréguer

mar, 08/11/2020 - 10:27


Titre : Internet et libertés publiques : qu’est ce qui a changé depuis Snowden ?
Intervenant·e·s : Félix Tréguer - Edward Snowden, voix off du traducteur - Julian Assange, voix off du traducteur - Olivia Gesberg
Lieu : Émission La Grande table, France Culture
Date : 20 septembre 2019
Durée : 32 min 40
Écouter le podcast
Présentation de l'émission
Licence de la transcription : Verbatim
Illustration : Félix Tréguer - Licence Creative Commons Attribution 3.0
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Les révélations d'Edward Snowden ont-elles provoqué plus qu'une prise de conscience ? Que nous disent-elles de l'utopie déchue d'Internet? Félix Tréguer, co-fondateur de la Quadrature du Net, nous en parle dans L’utopie déchue(Fayard, 2019).

Transcription

Olivia Gesberg : Alors qu’Edward Snowden publie ses Mémoires vives, autobiographie de l’homme qui a tout risqué pour dénoncer la surveillance globale selon Le Seuil son éditeur, ces révélations ont-elles provoqué plus qu’une prise de conscience ? Les États-Unis ne menacent-ils plus d’être à la tête d’un système de surveillance de masse en collectant nos données ? En d’autres termes, Internet et libertés publiques, depuis Snowden qu’est-ce qui a changé?
On en parle avec notre invité, fin connaisseur du milieu, sociologue et hacktiviste comme il le dit, c’est-à-dire hacktiviste avec un « h », un peu hacker sur les bords, chercheur associé au Centre Internet et Société du CNRS, cofondateur de La Quadrature du Net1. Félix Tréguer bonjour.

Félix Tréguer : Bonjour.

Olivia Gesberg : Vous publiez aujourd’hui chez Fayard L’utopie déchue - Une contre-histoire d'Internet du XVème-XXIème siècle. Vous remontez loin !

Félix Tréguer : Oui. Je reviens à la création de l’imprimerie qui correspond aussi à la genèse de l’État moderne pour retracer un peu les stratégies de contrôle des moyens de communication et de comprendre un petit peu comment Internet a pu en faire les frais.

Olivia Gesberg : Ça a toujours fonctionné de la même manière ? Chaque fois qu’un moyen de communication est né on a tenté de le contrôler ?

Félix Tréguer : Il y a eu d’abord des appropriations subversives, contestataires, par des groupes qui contestaient les pouvoirs et puis, effectivement, la mise en place de logiques similaires à travers les époques pour réamorcer des dispositifs de surveillance, de censure, de propagande, donc on assiste, effectivement, à des mécanismes un peu similaires avec Internet.

Olivia Gesberg : Et pourtant, l’imprimerie reste une invention géniale ! Ce n’est pas vous qui publiez aujourd’hui un livre qui allez dire le contraire.

Félix Tréguer : En effet.

Olivia Gesberg : Est-ce que vous en diriez autant d’Internet ?

Félix Tréguer : Est-ce qu’Internet reste une invention géniale ? J’avoue que je suis dans une période un petit peu sceptique. Je crois qu’on a absolument besoin des livres. Je pense que c’est un moyen de communication beaucoup plus low tech comme on dirait, c’est-à-dire une technologique beaucoup plus simple, et je crois de plus en plus que dans les technologiques extrêmement complexes, Internet en est une, il y a des formes de pouvoir qui s’immiscent et des problèmes essentiels liés à ces technologies. Ce qui est sûr aussi c’est qu’Internet comme réseau et l’ordinateur qui compose ce réseau, l’ordinateur en tant que machine, restent des outils qui sont le fruit d’une époque, en fait, et on aurait pu penser une machine alternative.
Internet a constitué un réseau informatique alternatif qui portait beaucoup d’espoirs et de potentialités, mais il a été modelé par le monde saturé de rapports de domination dans lequel il a été introduit c’est pour ça que c’est aussi devenu un instrument de pouvoir, même s’il sert encore, évidemment, les mobilisations, les formes d’organisation, la libération de la parole de certains groupes. C’est l’outil dont on se saisit aujourd’hui pour porter ces revendications, porter ces discours contestataires. Peut-être qu’on aurait pu très bien le faire aussi avec des livres, avec du courrier. C’est une question que je me pose, en effet.

Olivia Gesberg : Vous parlez maintenant presque comme mon grand-père alors que vous n’avez même pas 40 ans, que vous faites partie de ceux qui y ont cru, de ceux aussi qui dominaient la technologie. Imaginez ceux qui, en plus, ne la comprennent pas et ne la manipulent pas comme vous êtes capable aussi de le faire, Félix Tréguer, dans quelle incompréhension ils doivent être aujourd’hui. En 1989, quand le 3W2 voit le jour derrière Tim Berners Lee, quel âge avez-vous ?

Félix Tréguer : Trois ans.

Olivia Gesberg : Trois ans. Donc là c’est un peu le livre de la maturité qui rassemble quand même vos illusions perdues ; on va comprendre comment elles se sont alimentées, par quoi ces déceptions ont été nourries.
Internet est une technologie pensée à ses débuts, vous l’évoquiez aussi, comme libératrice, plutôt égalitariste ou émancipatrice. Ses concepteurs n’avaient pas prévu qu’elle ferait l’objet d’une telle instrumentalisation aujourd’hui ?

Félix Tréguer : Non. C’est peut-être ce qui surprend, en fait, lorsqu’on considère un peu l’histoire des enjeux politiques autour de l’informatique depuis les années 50/60. Je crois que ce qui change et ce qui conduit à l’apparition de ces discours pleins d’espoir et pleins de projets démocratiques dans les années 80, fin des années 80 et au début des années 90 avec l’apparition d’Internet et du Web, ce qui s’est passé c’est sans doute l’apparition d’une machine particulière, une incarnation particulière de l’informatique qu’est l’ordinateur personnel qui apparaît au début des années 80 et qui, du coup, transforme complètement la perception que l’on peut avoir de cette technologie. C’est-à-dire qu’avant, l’ordinateur c’était des grosses machines qui équipaient les grandes bureaucraties publiques et privées, donc c’était une machine associée, une technologie associée à l’ordre technocratique. L’ordinateur personnel porte la potentialité de distribuer le pouvoir, d’avoir cet outil extrêmement puissant entre les mains des individus, donc effectivement avec l’horizon d’une appropriation plus égalitaire d’une technologie extrêmement puissante, d’où de grands espoirs.

Olivia Gesberg : Le pouvoir et le savoir, c’est ça ?

Félix Tréguer : En effet. C’est vrai que dans les utopies internet il y a évidemment cette idée de pouvoir construire une bibliothèque universelle, transfrontière, qui recèlerait l’ensemble des savoirs de l’humanité sous forme numérisée. Moi, ce que m’a apporté un peu à cette recherche historique c’est de comprendre à quel point il y avait, je l’avais d’ailleurs un peu perçu dans mon expérience militante, une mémoire oubliée des luttes passées et de cette critique de l’informatique.
Peut-être que si cette histoire avait été mieux connue, on aurait su avoir des discours peut-être plus mesurés quant à l’aspect politique d’Internet et aux enjeux qui se nouaient dès les années 90 autour de cette technologie. Peut-être qu’on aurait pu voir que les risques de recentralisation – peut-être qu’on pourra revenir sur la manière dont tout cela se passe –, comment les formes de recentralisation de l’architecture qui sous-tend Internet étaient porteuses de graves dangers qui avaient été très bien repérés par les groupes militants des années 60/70 qui voyaient vraiment l’informatique comme une technologie dangereuse, d’où d'ailleurs déjà des scandales à l’époque autour des questions de surveillance, d’où la création par exemple de la CNIL3 en 1978 en réponse à ces scandales. Donc je pense qu’il y a un enjeu autour. C’est ce que j’essaye un peu de faire dans ce livre, c’est un outil de débat et c’est aussi une manière de retracer une histoire complexe parce que je pense qu’on agit mieux dans le présent lorsqu’on comprend cette histoire et la manière dont elle structure nos sociétés et nos manières de penser.

Olivia Gesberg : Certains ont donc un peu, à vous entendre, quand même pêché par naïveté ou par orgueil, des militants du départ ou des concepteurs trop naïfs, vous dites « gonflés par leur dédain du vieux monde, ces hackers ont ignoré les mises en garde de ceux qui les ont précédés ». C’était qui ces hackers ?

Félix Tréguer : Je pense à des personnages dont on parle souvent, pas tant hackers et je ne suis pas non plus hacker. C’est vrai que le qualificatif d’hacktiviste avec un « h » est un peu usurpé s’agissant de moi ; je ne suis pas quelqu’un qui maîtrise grandement la technique, j’ai beaucoup fréquenté des hackers à La Quadrature du Net et ailleurs. J’allais vous parler de John Perry Barlow qui est un des paroliers du Grateful Dead, icône de la contre-culture américaine, qui a ce célèbre texte, cette célèbre déclaration en 1996, alors que les États-Unis s’apprêtent à adopter l’une des premières lois de censure d’Internet, où il s’adresse aux géants du vieux monde et il fait la Déclaration d’indépendance du cyberespace4. Il y avait effectivement cette idée d’un espace qui était, par essence, impossible à réguler, à contrôler, qui, du coup, allait renvoyer les États et les grandes organisations industrielles aux poubelles de l’histoire. C’est l’un des discours peut-être un peu emphatique, d’ailleurs John Perry Barlow qui est mort l’an dernier a mis de l’eau dans son vin à la fin de sa vie en revenant notamment sur cette déclaration un peu tonitruante qui, en même temps, a captivé .

Olivia Gesberg : Et qui a capté l’esprit d’une époque aussi, l’élan, l’utopie qui pouvait être portée à ce moment-là.

Félix Tréguer : Absolument.

Olivia Gesberg : Du coup, les porteurs de cette contre-culture n’ont pas préparé suffisamment de garde-fous pour transformer le rapport de force. Ils ont acté dès le départ qu’ils allaient prendre le pouvoir avec cet outil citoyen, au lieu de penser aux failles qu’ils étaient déjà en train de laisser ou de créer ?

Félix Tréguer : Non, je ne leur ferais pas ce grief puisque je pense qu’alors même qu’ils étaient en train de nourrir cet imaginaire utopiste de cet affranchissement des veilles lois politiques de ce monde, ils étaient déjà dans la lutte, déjà dans le combat. De fait, comme je le disais, John Perry Barlow à l’époque est déjà engagé dans un combat juridique contre cette loi de censure qui, d’ailleurs, se soldera par un succès puisqu’elle aboutit, à l’époque, à une jurisprudence très favorable à la liberté d’expression sur Internet de la part de la Cour suprême des États-Unis, donc je pense qu’on ne peut pas faire le reproche à cette génération. Moi je m’y retrouve complètement, c’est ce que je dis dans ce livre, je m’inclus dans ce groupe de gens ayant entretenu des discours utopiques et qui, face aux discours techno-critiques qui étaient déjà opposés par certains intellectuels, certains militants, même s’ils restaient, malheureusement, un peu marginaux dans le débat, on leur a expliqué que c’étaient des luddites et qu’ils voulaient revenir à la bougie et ce genre de choses. Le grief n’est pas tant sur le fait qu’il y ait une démission et qu’on a oublié de lutter, c’est sans doute certaines œillères que ça a pu provoquer et la manière dont on a écarté des débats importants sur la technologie en tant que telle.

Olivia Gesberg : Vous dites qu’on ne peut pas comprendre ce qui se joue aujourd’hui si on ne pense pas Internet aussi en termes de nouvel espace public à la manière à la fois d’Habermas, tel qu’il le définissait, ou encore de Michel Foucault. Pourquoi ? Comment comprendre cet espace que l’État va tenter de contrôler ?

Félix Tréguer : Parce que je pense effectivement que ce concept d’espace public qui renvoie à l’espace de circulation des idées, des opinions et qui façonne, du coup, un peu les représentations que l’on se fait, les idées qui nous animent, cet espace public comme le décrit très bien Habermas a joué un rôle fondamental dans l’histoire de la démocratie, dans la démocratisation de nos sociétés. Du coup, il m’a semblé que c’était un terrain intéressant pour, justement, comprendre la manière dont il a toujours été soumis à des rapports de pouvoir, à des formes d’opposition entre pouvoir et résistance. D’ailleurs c’est une dimension que Habermas5 néglige un peu dans son histoire de l’espace public, son archéologie de l’espace public plus exactement qui est, en fait, sa thèse publiée en 1962. C’est un ouvrage qui a eu beaucoup d’influence. J’ai commencé ces recherches en le relisant et j’étais frustré, en fait, de voir à quel point justement ces questions auxquelles on se heurtait déjà s’agissant d’Internet, de censure, de surveillance, l’utilisation des droits de l’homme pour résister aux politiques de contrôle mises en place par les États, comment cette histoire était en fait négligée dans la trajectoire qu’il propose. Donc j’ai été lire beaucoup d’historiens, retrouver quelques archives qui permettent de vraiment mettre en exergue la manière dont l’espace public comme espace démocratique de nos sociétés est en prise à des rapports de pouvoir qui l’éloignent un peu de l’idéal démocratique qu’il est censé servir.

Olivia Gesberg : Vous racontez aussi comment les premiers à avoir alerté sur les dangers de l’informatique pour le droit à la vie privée sont les informaticiens eux-mêmes, déjà dès les années 70 il y avait eu une affaire avec le journaliste Christopher Pyle. C’était 60 ? 70 ?

Félix Tréguer : C’est aux États-Unis dans les années 70.

Olivia Gesberg : C’était aux États-Unis, les révélations qu’il a pu faire dans le Washington Monthly sur l’existence d’un programme de surveillance aussi des citoyens américains. Et c’est encore un informaticien qui va agir, Edward Snowden6, faire ses révélations. Dans ce livre Mémoires vives qui paraît aujourd’hui, son autobiographie, Edward Snowden revient sur son parcours d’informaticien employé d’une société privée sous-traitant les données des services de renseignement américain. Il raconte aussi comment il a mis à jour cette cybersurveillance des citoyens après le 11 septembre et il parle aujourd’hui encore d’un système de surveillance généralisée.

Edward Snowden, voix off du traducteur : Tout ce que vous faites, tous ceux à qui vous parlez, tous ceux qui vous intéressent, tout ce que vous lisez de mille manières différentes, ces choses sont capturées et contrairement à ce qui se passait avant, depuis des décennies, elles sont désormais stockées pour toujours.
Et puis il y a maintenant la capacité pour n’importe qui, une organisation criminelle, votre propre gouvernement, d’envoyer un code d’exploitation sur votre téléphone pour en prendre le contrôle. Ils peuvent voir ce que vous voyez sur votre smartphone. Vous avez payé pour l’avoir, mais c’est le hacker qui le possède.

Olivia Gesberg : Edward Snowden interrogé chez lui, en Russie, par les équipes de TF1, Edward Snowden perçu comme un traître par les autorités américaines. Est-ce qu’il reste pour vous un héros, même si le mot est un peu large ?

Félix Tréguer : Je n’aime pas le héros, le mot « héros » ne me plaît pas trop non plus, mais je pense, effectivement, que c’est quelqu’un d’extrêmement courageux, qui a pris des risques immenses pour porter à la connaissance du public la réalité des pratiques contemporaines en matière de surveillance.

Olivia Gesberg : Et donc ? Il est quoi pour vous ? Un lanceur d’alerte avant tout ?

Félix Tréguer : Un lanceur d‘alerte avant tout et, encore une fois, quelqu’un de courageux et très respectable et une figure extrêmement importante dans nos combats.
C’est vrai qu’à l’époque, en 2013, lorsque Laura Poitras et Glenn Greenwald, les journalistes avec lesquels Snowden a travaillé, font les premières révélations basées sur les documents fournis par Snowden, ça a déclenché une controverse mondiale, une prise de conscience jamais vue auparavant alors même que certains éléments avaient déjà été fournis par des lanceurs d’alerte depuis le milieu des années 2000 quant aux pratiques de la NSA. Donc ça a été un moment où, même si on était déjà dans une phase un peu de désillusion je crois, avant même l’arrivée de Snowden, on assiste, au moment des révélations, à une espèce de sursaut avec une controverse immense qui se noue et des espoirs très forts que cette controverse, que cette prise de conscience puisse aboutir justement à une transformation des politiques en la matière, à l’adoption de cadres juridiques qui puissent contraindre les agences de renseignement et la manière dont se déroule la surveillance massive d’Internet. Malheureusement, ces espoirs-là aussi ont été déçus.

Olivia Gesberg : La rupture n’est pas advenue. Ce n’est même pas qu’elle n’a pas été aussi grande qu’on aurait pu l’imaginer, c’est qu’elle n’est pas advenue. Il y a eu un début de prise de conscience, mais ? Mais quoi en fait ? On n’avait pas les outils pour changer les choses après ces révélations ou la volonté ?

Félix Tréguer : On avait bien évidemment les outils. Encore une fois je crois que s’il y avait la volonté politique et si le contexte politique était plus favorable, il y aurait tout à fait moyen de respecter les libertés publiques et de construire un Internet différent. On échafaude les solutions depuis 25 ans justement en réponse aux projets de loi répressifs qui sont proposés pour contrôler cet espace de communication, donc les solutions existent. Je crois que ce qui est s’est passé c’est une flambée antiterroriste en réalité, c’est, quelques mois plus tard, à partir de 2014 la situation en Syrie et l’instrumentalisation de cette situation pour promouvoir encore et toujours des projets de lois antiterroristes extrêmement attentatoires aux libertés publiques qui, s’agissant d’Internet, vont permettre de justifier des formes de censure toujours plus poussées, automatisées, privatisées — on pourra y revenir — s’agissant de la surveillance. Les attentats de Charlie Hebdo par exemple, en janvier 2015, créent un contexte dont le gouvernement de l’époque et notamment Manuel Valls se saisissent pour imposer cette loi qui est dans les cartons depuis un moment, mais le contexte politique n’existait pas pour la faire passer, donc sur le coup de l’émotion liée aux attentats il y a un contexte qui fait que politiquement on peut légiférer et venir blanchir des pratiques de surveillance massive qui existaient depuis des années mais qui existaient dans l’illégalité puisqu’il n’y avait aucune base juridique pour les encadrer et pour assurer leur constitutionnalité.

Olivia Gesberg : Est-ce que vous diriez comme Pierre Haski, le fondateur de Rue89, que Snowden incarne un changement de paradigme déjà, c’est-à-dire le passage de la surveillance ciblée, personnalisée, à la surveillance de masse ?

Félix Tréguer : Encore une fois Snowden a permis l’émergence d’un débat, de documenter l’état de l’art en matière de surveillance massive d’Internet autour des années 2010 en réalité, puisque certains de ses documents étaient plus anciens, étaient déjà un peu anciens. Mais, en fait, je crois que cette surveillance massive, exploratoire, où l’on capte les données de tout le monde pour, ensuite, retrouver des pistes et éventuellement des suspects, cette dimension-là, ce changement d’échelle dans la surveillance se fait de manière graduelle depuis les années 80. Déjà, à la fin des années 90, il y avait eu une controverse sur les pratiques de surveillance de la NSA et des agences alliées, un début de controverse aussi sur les pratiques des services de renseignement français, c’était la controverse autour du programme Echelon, dès 98, où un rapport du Parlement européen7 est commandité, documente cette surveillance. On envisage de protester contre ces pratiques menées par les agences américaines, on se rend compte que l’Allemagne, la France et le Royaume-uni font la même chose, on leur dit que ce n’est sans doute pas légal et qu’il va falloir mieux encadrer ces choses-là et puis 2001, crise antiterroriste, et tous les projets répressifs déjà envisagés par l’État profond depuis quelques années sont mis sur le devant de la table et passent dans le droit commun.

Olivia Gesberg : Vous évoquez par la suite aux États-Unis comme en France ou ailleurs l’adoption de plusieurs lois jugées liberticides, mais vous dites que ce que vous n’êtes pas tous parvenus non plus à ralentir c’est l’emprise des GAFAM, des GAFA plus Microsoft, sur nos vies privées et la manière dont ils peuvent aussi concourir à capter toutes ces données qui vont permettre une surveillance de la part de ces acteurs privés. Vous révélez aussi des formes d’alliance entre les États et ces acteurs privés, ces seigneurs du capitalisme numérique comme vous les qualifiez. Quand est-ce que ça s’est joué ces premières alliances-là et pourquoi ?

Félix Tréguer : Je crois que si on doit s’interroger sur l’évolution majeure intervenue depuis Snowden, c’est vraiment ce rapprochement-là. C’est-à-dire qu’en 2013, l’une des premières révélations de Snowden porte justement sur la collaboration de Yahoo, Facebook, Microsoft, Google, ces grandes entreprises américaines du numérique, avec la NSA, c’est le programme PRISM8 bien documenté à l’époque. S’ensuit une controverse immédiate où ces entreprises sont accusées de collaborer activement avec les services de renseignement américain, des démentis de leur part, le déploiement de solutions de chiffrement. Elles mettent en place des groupes de lobbyistes à Washington pour juguler les pouvoirs des agences de renseignement en la matière, en fait, en réalité davantage pour assurer un peu plus de transparence sur ces programmes secrets. Donc, là où je veux en venir, c’est la mise en scène d’une résistance et d’une opposition très forte entre ces entreprises qui restent un peu influencées par un idéal hippy, contre-culturel, californien et qui, du coup, ont cette image de marque-là, qui était passablement écornée par ces révélations, donc elles cherchent à la défendre et à vraiment se distinguer de l’appareil sécuritaire américain.
Très vite, dès 2014, ce qu’on voit poindre, dès 2015 en particulier dans le contexte antiterroriste, ce sont des pressions très fortes mises sur ces entreprises pour lutter contre la propagande terroriste. En réalité, lorsqu’on regarde aussi les chiffres fournis par ces entreprises, le nombre de requêtes émanant des autorités nationales pour l’accès aux données des utilisateurs de ces boîtes a grimpé en flèche de manière quasi exponentielle, donc on a vu des rapprochements toujours plus forts. J’ai le souvenir, par exemple, de Bernard Cazeneuve, ministre de l’Intérieur français, qui voyage dans la Silicon Valley en février 2015, quelques semaines après les attentats de Paris, qui va demander une plus grande collaboration de ces acteurs en matière de lutte antiterroriste.
Tout ça a mené à des évolutions très fortes qui se traduisent aujourd’hui par la présentation de textes au niveau de l’Union européenne, au niveau français aussi. Que ce soit sur le terrorisme, sur les discours de haine, on assiste à des rapprochements toujours plus forts où, en fait, les États cooptent ces entreprises pour assurer leur politique de censure. Ce sont les débats qu’on a aujourd’hui, par exemple sur les discours de haine ou sur le terrorisme. À mon sens, on crée des dispositifs, on demande à ces entreprises de développer des outils basés sur l’intelligence artificielle pour détecter et retirer automatiquement les contenus, ce qui va à l’encontre de toutes les revendications portées par les militants d’Internet depuis les années 90 qui, justement, s’appuient sur la loi de 1880 sur la presse, demandent une protection judiciaire de la liberté d’expression y compris sur Internet, et là on a une forme de privatisation. Ce sont ces entreprises qui paramétreront leurs filtres automatiques, souvent en lien avec des prestataires et ce qu’on appelle des tâcherons du clic, employés dans des pays à bas salaire, pour assurer les politiques de modération en lien avec ces machines.
En fait on a une reconfiguration des bureaucraties dédiées à la censure qui s’accompagne d’un recul extrêmement fort des libertés publiques. Aujourd’hui on est sur les questions de discours de haine, de terrorisme et je pense qu’on peut facilement prédire une extension de ces dispositifs à tout autre type d’abus en matière de liberté d’expression, sachant déjà que la définition du terrorisme est, par essence, très large et qu’elle peut déjà couvrir tout un tas d’actions, notamment d’actions militantes, qu’on n’associe pas du tout au terrorisme normalement.

Olivia Gesberg : À vous entendre ça va aller de mal en pis, ce n’est pas forcément très réjouissant !
Avec nous le sociologue Félix Tréguer jusqu’à 13 heures 30. Il est l’auteur de L’utopie déchue - Une contre-histoire d’Internet qui vient de paraître chez Fayard.

France culture, il est 13 heures 19.

[Virgule musicale]

Voix off : France Culture – La Grande Table – Olivia Gesberg.

Olivia Gesberg : On a évoqué ensemble la figure d’Edward Snowden, à savoir comment était le monde avant ses révélations, comment il était après, ce après on va continuer à en parler avec vous. Edward Snowden qui publie actuellement dans le monde entier et notamment en France, traduite et éditée par le Seuil une autobiographie Mémoires vives où il revient sur son parcours et sa vie aujourd’hui.
Il y a une autre figure de la révélation, pourrait-on dire, c’est celle de Julien Assange. À quoi ressemblait juste avant de l’entendre, Félix Tréguer, le monde avant les révélations WikiLeaks9 ?

Félix Tréguer : Je pense qu’il y avait déjà beaucoup d’éléments qui pointaient les dérives des guerres américaines menées sous les mandats de George W. Bush, mais là encore la puissance des révélations d’Assange et de WikiLeaks avec l’aide de la lanceur d’alerte Chelsea Manning qui est aujourd’hui encore en prison.

Olivia Gesberg : Elle a été arrêtée en mai 2010, vous le racontez, à la suite de ces révélations.

Félix Tréguer : Puis libérée par Obama et de retour en prison puisqu’elle refuse de témoigner contre Julien Assange qui lui-même a été arrêté en avril dernier.

Olivia Gesberg : Et qui est toujours réfugié ?

Olivia Gesberg : Non, justement, il a été rattrapé par la police britannique. Il était déjà en prison depuis sept ans, de fait, dans l’ambassade de l’Équateur de Londres et désormais il est dans une cellule d’une prison britannique.
Donc le monde d’avant WikiLeaks. WikiLeaks est un projet de transparence radicale qui vient mettre à mal le secret d’État qui, là encore, est complètement ancré dans la tradition démocratique et libérale au sens du libéralisme politique, puisque le secret d’État est assez consubstantiellement contraire à l’idéal démocratique, à l’idéal de délibération collective.
Assange, dès 2006, théorise une entreprise de journalisme et de transparence radicale, qui se matérialise avec WikiLeaks et qui déboule sur la scène géopolitique de manière fracassante en 2010 avec les fuites massives orchestrées, permises par Chelsea Manning, sur les guerres américaines et c’est notamment d’abord la vidéo qui montre l’assassinat de civils irakiens et de journalistes de Reuters en Irak, à Bagdad, par un hélicoptère et des soldats américains, puis les câbles diplomatiques sur la guerre afghane et irakienne et enfin les câbles diplomatiques, en décembre 2010, qui, là encore, révèlent les bruits de couloir et les négociations d’arrière chambre de la diplomatie mondiale.

Olivia Gesberg : Devant la caméra d’Arte, quand il témoigne et se raconte, il donne en tout cas le sentiment qu’il avait l’espoir que ces révélations allaient changer quelque chose. Écoutez.

Julien Assange, voix off du traducteur : Quand nous avons révélé que les trois dernières présidences ont été totalement infiltrées par les États-Unis, que les présidents ont été personnellement écoutés, quelle aurait dû être la réaction de la DGSE et des autres services secrets français ? Ils auraient dû immédiatement venir nous voir et nous demander « en savez-vous plus ? Comment avons-nous échoué à protéger le président contre l’espionnage américain », mais ce n’est pas arrivé. Pourquoi ? Je ne pense pas que les services de renseignement français soient des idiots. Ils savaient que c’était la première chose à faire, mais ils craignaient d’affronter les Américains. Ces préoccupations étaient tellement puissantes qu’ils ont préféré passer pour des victimes plutôt que de comprendre ce qui s’était passé.

Olivia Gesberg : L’espionnage par une puissance étrangère est-il terminé ? Est-ce qu’on peut dire que ce qu’espérait Julien Assange est arrivé ?

Félix Tréguer : Non, évidemment pas, ces choses-là se poursuivent et c’est de l’ordre des relations interétatiques depuis très longtemps. Il n’y a pas vraiment de raison que ça change. Ce que montre justement, sans doute, cette espèce d’indifférence opposée par l’État français à ces révélations, c’est le fait que ce sont des choses qui sont malgré tout complètement acceptées et normalisées dans les relations diplomatiques. Ces formes de surveillance c’est plus gênant lorsque ça concerne des populations civiles, des groupements militants qui militent pour les droits de l’homme.
Je pense que non, évidemment que ces formes d’espionnage continuent.

Olivia Gesberg : Publiquement on a l’impression qu’il y a quand même une prise de conscience qui a été réalisée, que des lois, des règlements ont été adoptés pour tenter de protéger notamment nos données personnelles. On pense au Règlement européen, au RGPD10, qui a mis en place un système de conditions générales pour les utilisateurs. Est-ce que tout ça est opérant pour vous ?

Félix Tréguer : Je pense que le combat juridique reste pertinent et indispensable. C’est notamment le champ d’action de La Quadrature du Net et de beaucoup d’autres associations de défense des droits de l’homme. Il est important d’occuper ce terrain et je crois qu’on peut obtenir certaines petites victoires.
Malgré tout, je suis forcé de constater dans la longue histoire de l’informatique, si on remonte justement aux années 70 et à la création de la CNIL, qui déjà était censée permettre de juguler les atteintes massives à la vie privée rendues plus faciles par l’informatique, qu’historiquement, en fait, ces modes d’action trouvent leurs limites. Dans le contexte historique qui est le nôtre, ces limites doivent nous amener à envisager d’autres modes d’action, d’autres modes de contestation, pas pour les abandonner, mais il faut les accompagner d’autres formes d’opposition, de refus plus peut-être radical des formes d’informatisation qui conduisent à rendre les rapports de pouvoir encore plus difficiles à contester, à transformer.

Olivia Gesberg : Et sur ce point-là vous semblez être sur la même ligne qu’Edward Snowden interrogé cette fois par France Inter, c’était lundi.

Edward Snowden, voix off du traducteur : De toute façon vous n’avez pas le choix, vous devez utiliser Google, Facebook, tout cela, vous devez avoir un téléphone portable. Tout ça fonctionne contre vous et ce n’est pas par choix. Vous n’exprimez pas votre consentement éclairé et même lorsque vous avez cliqué sur un bouton « Je suis d’accord » pour avoir un cookie qui va vous suivre ; vous savez, quand vous allez sur un service il faut cliquer sur un document et si vous voulez l’ouvrir pour le lire ça fait 600 pages ; personne ne le lit ! Ça ce n’est pas du consentement éclairé et ce n’est pas une excuse. Ce sont véritablement des choses contre lesquelles il faut lutter. Ce qu’il faut changer ce n’est pas les entreprises, ce n’est pas ce téléphone portable, ce n’est pas ce logiciel. Il faut changer le système et ça se produit à tous les niveaux : sur le plan social, sur le plan commercial et sur le plan juridique, sur le plan gouvernemental.

Olivia Gesberg : Comment agir Félix Tréguer quand on n’a pas le choix ? Changer le système, vous semblez dire à peu près pareil dans ce livre qui ne veut pas être un livre de résignation puisque vous appelez à ne pas battre sa coulpe mais à bien identifier nos erreurs et faire en sorte qu’elles ne se reproduisent pas.

Félix Tréguer : Le système numérique, le macro-système informatique dans lequel on vit et qui occupe une place toujours plus importante dans nos sociétés, au-delà même de l’espace public médiatique et de la communication médiatique, c’est l’ensemble de nos sociétés, de nos bureaucraties qui migre vers ces technologies. Effectivement, on se retrouve un petit peu dans une contradiction en apparence insurmontable lorsqu’on conteste ce système et son orientation. Un peu de la même manière que des syndicalistes ou des salariés, des travailleurs engagés dans une lutte dans leur usine contre le capitalisme continuent à vivre dans une société capitaliste et, forcément, ça implique des formes de contradiction. On est obligé de vivre dans un monde que l’on refuse.
Cela étant, je pense justement que l’enjeu aujourd’hui c’est de se rendre compte de la nécessité d’une désescalade technologique, d’affirmer, comme je disais, un refus vis-à-vis des trajectoires technologiques et numériques dominantes, que ce soient des technologies comme la reconnaissance faciale, que ce soit la dématérialisation à outrance des bureaucraties, des services publics avec les conséquences très concrètes dans la vie des gens que cela peut avoir. Ça peut aussi passer par la prise de conscience individuelle des formes d’aliénation liées à l’addiction qu’implique notre rapport aux écrans.
Je pense que, du coup, il y a une prise de conscience collective et la nécessité de désirer une vie avec moins d’informatique, avec moins de technologie de manière générale et ça, c’est un désir qui reste à construire. Cela étant, il y a aussi beaucoup une prise de conscience croissante, je crois, et des luttes de plus en plus nourries sur tout un tas de fronts, que ce soit sur l’informatique dans l‘agriculture et le puçage des animaux, que ce soit l’informatisation des écoles et de l’Éducation nationale tout entière, que ce soit l’arrivée de ces technologies de contrôle social, de police prédictive, de reconnaissance faciale dans nos villes, au-delà d’Internet, c’est pour donner plein d’exemples de ces multiples fronts.
L’un des enjeux aujourd’hui, et je pense que ça renvoie aussi à des enjeux stratégiques très forts dans les mouvements écologistes qui s’affirment aujourd’hui avec force, c'est la nécessité de bâtir des ponts et de construire un refus. C’est en articulant ces nouveaux modes d’action peut-être plus radicaux, en fait ils existaient depuis longtemps mais en tout cas il faut les réinvestir, que l’on saura mieux contester le système, construire et renouer avec l’horizon démocratique.

Olivia Gesberg : Merci beaucoup à vous Félix Tréguer. L’utopie déchue - Une contre-histoire d’Internet vient de paraître chez Fayard.
Merci aussi à toute l’équipe de La Grande Table. À la réalisation aujourd’hui c’était Gilles Blanchard…

Pages