Aller au contenu principal

Motie MME Séverine de LAVELEYE

Détails du document

🏛️ KAMER Législature 55 📁 1947 Motie 📅 2020-10-20 🌐 FR
Commission GEZONDHEID EN GELIJKE KANSEN
Auteur(s) Laveleye (Ecolo-Groen); Christophe, Lacroix (PS)
Rapporteur(s) Merckx, Sofie (PVDA-PTB)

📁 Dossier 55-1947 (4 documents)

📄
001 motie

🗳️ Votes

Partis impliqués

CD&V Ecolo-Groen MR N-VA PS PVDA-PTB VB Vooruit

Intervenants (7)

Franck Dumortier (VUB) Marco Pancini (YouTube) Martin Ruby (Facebook) Gilles Vanden Burre (Ecolo-Groen) point de contact (inter) Steven Creyelman et Erik Gillissen (VB) Christophe Lacroix (PS)

Texte intégral

26 avril 2021 DE BELGIQUE Voir aussi: Doc 55 1947/ (2020/2021): 002: Texte adopté par le comité d’avis

FAIT AU NOM DU COMITÉ

D’AVIS DES QUESTIONS SCIENTIFIQUES ET TECHNOLOGIQUES PAR MME Séverine de LAVELEYE ET M. Christophe LACROIX RAPPORT L’INTELLIGENCE ARTIFICIELLE (ET LES ALGORITHMES) ET L’IMPACT SUR LES MÉDIAS SOCIAUX DANS LE PROCESSUS DÉMOCRATIQUE

N-VA : Nieuw-Vlaamse Alliantie Ecolo-Groen Ecologistes Confédérés pour l’organisation de luttes origi PS Parti Socialiste VB Vlaams Belang MR Mouvement Réformateur CD&V Christen-Democratisch en Vlaams PVDA-PTB Partij van de Arbeid van België – Parti du Travail de Belgi Open Vld Open Vlaamse liberalen en democraten Vooruit cdH centre démocrate Humaniste DéFI Démocrate Fédéraliste Indépendant INDEP-ONAFH : Indépendant - Onafhankelijk MESDAMES, MESSIEURS, Votre comité d’avis a examiné le thème de l’intelligence artificielle (et les algorithmes) et l’impact sur les médias sociaux dans le processus démocratique au cours de ses réunions des 7 et 21 janvier, 4 et 18 février, 3 mars, 23 juin, 14 juillet, 22 septembre, 6 et 20 octobre 2020, et des 19 janvier, 2 et 9 février et 2, 23 et 30 mars 2021

PREMIERE PARTIE

– AUDITIONS I. — PROCÉDURE Le 19 novembre 2019, le Comité d’avis des questions scientifiques et technologiques a décidé, sur la base des propositions des différents groupes politiques et sur proposition de son président, de choisir comme premier thème de la 55e législature le sujet suivant: “L’intelligence artificielle (et les algorithmes) et l’impact sur les médias sociaux dans le processus démocratique (l’affaire Facebook, la désinformation ciblée, les “fake news”, etc.)”.

Le Comité d’avis a procédé aux auditions suivantes à ce sujet: — du professeur Hugues Bersini (ULB), le 7 janvier 2020; — de la professeure Antoinette Rouvroy (UNamur), le 21 janvier 2020; — de la professeure Katleen Gabriels (Maastricht University) et du professeur Leo Neels (professeur émérite à la KU Leuven et à l’UAntwerpen), le 4 février 2020; — de MM. Marco Pancini (Public Policy Lead EMEA, YouTube) et Bruno Schröder (Chief Technological Officer, Microsoft Benelux), le 18 février 2020; — de M. Nathanaël Ackerman (SPF BOSA) et du professeur Ike Picone (VUB), le 3 mars 2020; — de Mmes Catelijne Muller (ALLAI/High-Level Expert Group on AI) et Nathalie Smuha (KU Leuven), le 23 juin 2020; — de M. Martin Ruby (Head of Public Policy Benelux and Nordics, Facebook), le 14 juillet 2020;

— de Mme Laetitia Avia (Assemblée nationale), le 22 septembre 2020; — de M. Alexander Schäfer (Bundesministerium der Justiz und für Verbraucherschutz), le 6 octobre 2020; — de M. Joe Westby (chercheur/conseiller, Amnesty Tech, Amnesty International), le 20 octobre 2020; — de MM. Franck Dumortier (VUB) et Jan Penfrat (European Digital Rights), le 2 février 2021; — de MM. Alain Luypaert (Police fédérale) et David Stevens (Autorité de Protection des Données), le 9 février 2021.

II. — AUDITION DU 7 JANVIER 2020 A. Exposé introductif du professeur Hugues Bersini (ULB) Cette IA qui nous cible et qui nous trompe 1. Introduction Nous n’avons jamais été aussi prévisibles que depuis quelques années, et ce à partir des myriades de données que nous abandonnons dans les serveurs des immenses entreprises informatiques qui prennent graduellement le contrôle de nos existences. C’est à raison que Google prétend nous connaître mieux que nous.

Notre “prévisibilité”, et cela au départ de notre “profilage” continu, n’a de cesse de se faciliter à l’ère de la démultiplication des capteurs, de l’explosion de nos traces numériques, des technologies de stockage de type Big Data, des algorithmes d’apprentissage et d’infrastructures matérielles parallélisées, tous chaque jour plus voraces et plus puissants. Chacun de nos gestes, à quelque moment de la journée, se trouve espionné par un capteur qui l’enregistre sur les serveurs et l’utilise au profilage de nos comportements.

Par la suite, nous allons détailler ce profilage, les bénéfices que nous sommes censés en retirer et aussi, de manière bien plus préoccupante, les menaces qui pèsent sur nos libertés et nos démocraties. Nous allons passer en revue les mécanismes à l’oeuvre et les conséquences de plus en plus problématiques de cette nouvelle forme d’espionnage, de profilage et de ciblage de nos comportements. 2. L’auto-complétion L’auto-complétion est sans doute la forme la plus élémentaire et la moins nocive de ce profilage.

En quoi

consiste-t-elle? Vous tapez un courrier sur Word ou sur WhatsApp que vous démarrez par “Cher…”, et automatiquement le logiciel vous propose de compléter ce début de phrase par “Monsieur” plutôt que “Ami” ou “Collègue”. Vous lancez l’application “Waze” pour trouver l’itinéraire le plus efficace afin de vous rendre à destination, et automatiquement, celui-ci vous propose par ordre de préférence un premier ensemble de destinations possibles.

Comment procède cette auto-complétion? Par simple étude statistique de vos comportements. C’est parce que vous vous rendez souvent à cet endroit que Waze vous le suggère en priorité, et c’est parce que “Cher Monsieur” démarre plus fréquemment vos courriers que “Cher Ami” ou “Cher Collègue”, que Word ou WhatsApp vous propose de le rédiger à votre place. Il se s’agit là de rien d’autre qu’une facilitation d’usage, une anticipation bienvenue de vos agissements, et finalement rien de moralement condamnable.

Nulle nouveauté ne vous est proposée, ce profilage assez inoffensif somme toute ne fait qu’extraire des régularités statistiques et les mets à votre disposition pour gagner du temps. Bien sûr, mais comme à chaque fois dans ce document, on pourrait s’inquiéter de l’espionnage incessant de nos comportements par Facebook, Google ou Amazon. Comme j’aurai l’occasion de le mentionner plusieurs fois, ce n’est pas tant cette captation qui fait débat, nécessaire à leur fonctionnement le plus élémentaire (comment pourrait fonctionner Waze sans vous localiser) mais bien l’usage que ces entreprises en font.

Ici, il ne pourrait s’agir que de gagner du temps et vous faciliter la vie, rien de particulièrement répréhensible à priori. On notera toutefois qu’à ce stade, et cela sera important par la suite, l’auto-complétion ne vous propose rien de nouveau, rien que vous ne sachiez déjà. 3. Élargir les horizons On comprend bien, dans un but éminemment commercial, que les GAFAM ont pour vocation, n’ont pas de vous proposer ce que vous connaissez ou possédez déjà, mais bien de nouveaux produits sensés pour séduire.

Leur modèle d’affaire dépend essentiellement de votre réponse à leurs incitatifs commerciaux. Leur survie ne dépend que de votre inclinaison à cliquer sur les liens qu’ils vous suggèrent. Pour bien assimiler leur mode de fonctionnement, nous nous trouvons maintenant en présence de deux catégories d’acteur: les consommateurs et les produits. Les premiers comme les seconds sont caractérisés par un ensemble d’attributs: nom, marque, prix… et aussi par les liens qui les unissent, par exemple, un tel consommateur a apprécié un tel

produit. Comment Amazon va-t-il vous proposer un produit nouveau dont il espère que vous ferez l’acquisition? Le premier mode de fonctionnement se base sur la similarité des produits. Si vous avez aimé le livre d’un tel auteur, alors il y a de fortes chances que vous apprécierez également d’autres livres, mais du même auteur ou du même genre (polard, guide de voyage…). La seule exigence algorithmique pour que cela puisse fonctionner est d’établir une mesure de similarité entre les produits.

On perçoit bien deux limitations à cela: d’abord l’immensité du catalogue que cela exige (doiton prendre en compte tous les livres existant?), ensuite la restriction de cela aux produits d’une seule et même catégorie, car comment mesurer la similarité entre “l’être et le néant” de Jean-Paul Sartre et la dernière proposition de ravioli de la marque Buitoni. Et c’est là que Amazon et les autres ont fait montre d’un génie indéniable pour étendre rationnellement l’offre des possibles: il suffit de jouer sur la faculté d’imitation des consommateurs.

Si Mr X qui a aimé l’être et le néant a aussi aimé les ravioli Buitoni, alors Mr Y qui, lui, n’a juste aimé que l’être et le néant pourrait être susceptible de se régaler également des ravioli Buitoni. Il s’agit donc ici d’ouvrir très largement les horizons par grégarité interposée, chaque consommateur devenant un parfait référentiel pour chaque autre. Cette stratégie dite d’apprentissage et faisant largement appel aux algorithmes d’intelligence artificielle peut également se trouver validée en évaluant sa capacité à correctement prédire vos goûts en effet.

Vous savez que Mr X a apprécié les produits A, B et C, et vous imaginez ne pas connaître les derniers produits appréciés par Mr Y. Vous tentez alors de le prédire à partir de ce que vous savez de tous les autres consommateurs auxquels Mr Y ressemble. Si votre prédiction est correcte et retrouve bien les appréciations de Mr Y, vous pouvez être confiant quant à la capacité de votre algorithme de correctement prédire les goûts de Mr Y, et de décider d’en faire la base de votre ciblage commercial.

4. Faut-il baser la recommandation sur la prédiction? C’est à ce stade qu’un premier questionnement de type sociologique, sinon politique, se pose de manière très incisive: faut-il baser la recommandation de nouveaux produits sur la seule prédiction, comme le font les GAFAM pour l’essentiel? On conçoit, comme cela a été

très largement décrit dans la littérature, l’effet d’enfermement que cela provoque sur le consommateur qui, du coup, ne consomme que ce qu’il serait spontanément incité à consommer. Il ne lira, ne verra, d’écoutera que ce qu’il serait incité à faire par la simple grégarité sociale et simple imitation de ses proches. Les algorithmes d’IA renferment les Internautes dans une subjectivation croissante, leur restreignent les horizons (quand bien même ils sont censés les ouvrir) en les encourageant et les renforçant dans leurs premiers choix.

On conçoit aussi la dangerosité d’un tel ciblage en matière d’information et de sensibilisation à l’actualité. Les Internautes ne s’informent que de nouvelles qu’ils sont censées appréciées ou qui s’inscrivent parfaitement dans leur manière de voir. Une question lancinante alors se pose d’une toute autre manière de cibler, beaucoup plus objectivante, et proposant des nouveaux éléments culturels ou informationnels provenant soit d’une instance supérieure (comme l’étaient à l’époque les critiques littéraires ou des sources informations indiscutables) ou sur un bien plus large échantillon statistique.

Nos parents se rappellent d’une époque où l’émission “Apostrophe” dictait nos choix en matière littéraire, et non pas les recommandations d’Amazon. Ces algorithmes de ciblage sont évidemment ceux que l’on trouve à l’origine des matraquages électoraux ou publicitaires dans des périodes de grandes sensibilité et vulnérabilité politique. Vous êtes pour le Brexit et ne recevez sur votre profil Facebook, votre compte mail ou tout autre compte de réseaux sociaux, que les informations vous confortant dans votre position, insistant sur les bienfaits du Brexit et l’urgence de son application.

Idem pour l’inexistence du réchauffement climatique ou la nuisance provoquée par l’arrivée massive des migrants et l’imminence d’un grand remplacement. L’information est un bien public, la culture également, et il est particulièrement préoccupant que la diffusion de ces biens soit de plus en plus privatisée et accaparée par les GAFAM qui, tout préoccupés qu’ils soient par leur maximisation du profit, ont tout intérêt à vous enfermer dans une bulle consumériste dont il devient de plus en plus difficile de s’extirper, au vu de leur omniprésence et des occasions de plus en plus nombreuses à leur disposition pour vous cibler.

La seule parade à laquelle il me soit possible de songer, est de redonner ces lettres de noblesse à des instances d’opinion reconnues comme supérieures et forcer les plateformes numériques à leur donner la place qu’elles méritent, opinions qui ne soient pas le simple résultat d’une accumulation statistique,

mais bien la reconnaissance par les pairs d’une forme éminente de diffusion du savoir. 5. Ce qui cible davantage que ce qui est vrai Vous proposez juste ce qui vous plaît ou ce à quoi il vous est difficile de résister devient encore plus inquiétant, par la possibilité de créer du faux mais du faux exécuté parfaitement sur mesure. Il est tout à fait possible aujourd’hui d’usurper la voix de votre enfant vous implorant de lui venir en aide par un important transfert d’argent sur le compte de ces soi-disant ravisseurs.

Vous aimez la propagande en faveur du Brexit? Des algorithmes ingénieux peuvent aisément concocter des faux documents, mais reprenant exactement ce qu’il vous plait de lire à ce sujet. Ici, nous allons encore beaucoup plus loin qu’un simple filtrage subjectif de l’existant, car il s’agit bien d’une parfaite mystification ciblée, qu’il va devenir de plus en plus difficile de déceler. Les algorithmes. aujourd’hui sont capables de composer des fausses chansons des Beatles auxquelles se laissent prendre même les plus adulateurs de ce groupe légendaire, idem pour des peintures de Van Gogh.

Dès lors, vous pensez bien, rien de plus élémentaire que de produire des faux tweets ou des faux messages de propagande, avec tous les éléments argumentatifs ou sémantiques qui tapent dans le mille et les rendent imparables. Ici, il n’est plus seulement question de vous cibler en filtrant l’existant, mais bien pire encore, de vous inventer une toute nouvelle réalité, détournée, mais bien plus conforme à vos attentes.

De plus, il est possible de produire ces faux messages et de les diffuser sur le Web avec une facilité déconcertante. Il est possible également de tester leur efficacité et, si besoin est, d’accentuer celle-ci. Face à cela, une seule parade: mettre à profit les mêmes algorithmes à l’origine de ces faux, mais cette fois-ci afin de déceler la supercherie. Seuls les algorithmes capables de produire ces faux seront en mesure de les détecter.

Il s’agira, comme bien souvent en informatique, d’une course poursuite entre les bons et les mauvais hackers (et les pouvoirs publics de former et de soutenir ces derniers), chacun utilisant les mêmes outils mais dans un objectif opposé.

6. Conclusions En conclusion de ce bref document, je pense indispensable que les pouvoirs publics retrouvent un droit de regard sur les algorithmes de profilage et de ciblage abondamment utilisés sur le Web et les réseaux sociaux. Il est indispensable qu’ils en régulent l’usage et surtout questionnent leur mode de fonctionnement. Cette surveillance, profilage et matraquage continus, soulèvent, à juste titre, de très nombreuses réserves, telles celles du viol de vie privée, de la restriction de nos choix de consommation et d’information, d’un conformisme social amplifié et beaucoup d’autres.

Souvent, ces algorithmes, nourris de données jusqu’à saturation, ne font que confirmer l’évidence, enfoncer des portes ouvertes, taper de manière insistante sur des clous dont ne sort plus que la tête, en ce compris en matière de préjugés. Pouvoir bénéficier dans le traitement de votre cancer de la connaissance et du suivi d’un maximum de malades qui vous ont précédé, ne fait sans doute plus l’objet d’une telle avalanche de critiques.

La personnalisation de votre thérapie et même, quelques recommandations d’achat inspirées d’autrui, troublent beaucoup moins qu’un flux d’information en adéquation absolue avec vos préjugés politiques, à fortiori lorsque ceux-ci flirtent avec les extrêmes. Et pourtant, s’agissant d’un même genre de pratique et d’une même famille d’algorithmes à l’origine de tous ces profilages, de ces personnalisations, il est important de limiter ces attaques aux usages plutôt qu’aux techniques, et d’ainsi, innocenter les développeurs d’algorithmes d’apprentissage machine de ce qu’en font les Amazon, Facebook et autres Google.

Il n’y a pas de mauvaises données, il n’y a que des mauvais usages de ces données, idem pour les technologies. Et c’est aux pouvoirs publics, en compagnie des chercheurs en informatique et en IA, de regagner la maîtrise de ces outils numériques afin de détourner leur exploitation à la maximisation de nos biens publics. B. Questions et observations des membres et réponses de l’orateur M. Christophe Lacroix (PS) fait observer qu’en tant que membre de l’assemblée parlementaire du Conseil de l’Europe, il traite principalement de dossiers relatifs aux droits de l’homme.

À cet égard, différents rapports consacrés à l’intelligence artificielle sont en cours de préparation sous l’égide du Conseil. M. Lacroix lui-même est rapporteur d’un rapport ayant pour sujet: “Prévenir

les discriminations potentielles liées à l’usage de l’intelligence artificielle”. L’exposé de M. Bersini confirme les constatations du rapporteur. Un premier constat qui s’impose est que face à certains abus, il ne suffit pas de condamner moralement et qu’il faut que les responsables politiques légifèrent et élaborent des règlements afin que les droits de l’homme soient respectés, notamment le droit à la culture et à la diversité culturelle: l’intervenant aimerait connaître l’avis de M. Bersini à ce sujet.

Ainsi qu’il est ressorti des auditions menées au Conseil de l’Europe, les algorithmes et l’intelligence artificielle sont également utilisés par les pouvoirs publics dans le but de discriminer et d’imposer des mesures restrictives à leur propre population: l’intervenant évoque les pays scandinaves et le Royaume-Uni où des données relatives à la consommation de gaz et d’eau sont par exemple couplées à des données relatives aux allocations sociales et à l’aide sociale: lorsque l’algorithme détecte certaines disparités à cet égard, les allocations sociales sont interrompues.

Cette situation a donné lieu à des milliers d’erreurs avec toutes les conséquences qui en découlent: qu’en pense M. Bersini? À cela s’ajoutent des exagérations politiques: à cet égard, M. Lacroix renvoie aux dépenses faramineuses consenties notamment par des partis extrémistes, comme le Vlaams Belang, dans des campagnes sur les médias sociaux. Il demande s’il est préférable d’interdire toute propagande et tous messages politiques sur les médias sociaux ou d’avoir une action régulatrice plus modérée afin de pouvoir maintenir la démocratie.

M. Hugues Bersini répond qu’il est nécessaire de légiférer mais les autorités peuvent par ailleurs prendre euxmêmes en main les algorithmes ou, en d’autres termes, développer leurs propres algorithmes alternatifs au lieu de légiférer sur les algorithmes existants. Les algorithmes existants, qui sont entre les mains d’entreprises privées comme les GAFA (Google, Apple, Facebook, Amazon), fonctionnent en effet selon la logique de la maximisation non pas de l’utilité publique mais de leurs propres profits: en d’autres termes, leur logique les oblige, entre autres, à inciter à la consommation.

À titre d’exemple, l’orateur fait référence à la situation à Bruxelles où toutes les écoles utilisent la technologie Google Drive, ou à la France où on veut confier à Microsoft la gestion toutes les données de santé. Une autre possibilité est que les autorités développent et proposent elles-mêmes des algorithmes alternatifs dans

le but d’améliorer la vie de leurs citoyens ou d’influencer leur comportement. Cette dernière peut également consister en une forme d’espionnage ou de surveillance impliquant, par exemple, le contrôle de la consommation d’électricité dans le but de la réduire, dans le cadre d’objectifs de développement durable. Cela semble plus louable à l’orateur que les exemples cités par M. Lacroix et pourrait faire l’objet d’une décision du législateur.

Les citoyens eux aussi devraient par ailleurs pouvoir participer à l’élaboration de tels algorithmes, qu’ils pourraient accepter s’ils étaient informés de la finalité de cet “espionnage “: dans ce contexte, l’orateur fait référence aux compteurs intelligents en France qui n’ont pas été acceptés parce qu’ils étaient considérés par le public comme une forme d’espionnage. Il s’agit donc d’une forme de gouvernance alternative à la gouvernance politique classique.

L’orateur note que la professeure Antoinette Rouvroy, qui sera bientôt entendue par cette commission, est une farouche opposante à cette gouvernance algorithmique; cependant, l’orateur lui-même estime qu’elle peut être un moyen très efficace à condition que sa finalité soit bonne et que sa légitimité soit reconnue par les citoyens. Enfin, l’orateur souligne que M. Salvini va probablement devenir le prochain Premier ministre de l’Italie grâce à sa maîtrise et à sa manipulation extrêmes des réseaux sociaux tels que Facebook et Twitter.

Il ne s’agit même pas de discours haineux ou de messages négatifs, mais seulement de messages extrêmement ciblés. Dans certaines circonstances, l’orateur peut donc admettre une restriction ou une interdiction de certaines propagandes politiques sur les réseaux sociaux. Mme Séverine de Laveleye (Ecolo-Groen) identifie dans le débat en cours les trois problématiques suivantes: premièrement, les atteintes à la vie privée (ici, il est possible de légiférer et c’est déjà en cours), deuxièmement, le conformisme politique et culturel, et troisièmement, le nivellement par le bas.

Dans l’exemple de Bernard Pivot mentionné ci-dessus, il y avait aussi une sorte de conformisme culturel autour de l’image idéale du bourgeois cultivé blanc. Nous avons donc toujours été orientés vers un certain courant de pensée, par les médias mais aussi par les autorités, mais alors qu’il y avait peut-être cinq chaînes de télévision auparavant, leur nombre a maintenant explosé.

Par ailleurs, l’intervenante souhaite demander à M. Bersini s’il estime souhaitable de légiférer afin de limiter ou réduire les coûts des campagnes des partis politiques? Quelles possibilités l’orateur voit-il à cet égard au niveau fédéral? M. Hugues Bersini souligne qu’il existe des malentendus majeurs en ce qui concerne la notion de vie privée: ce n’est pas l’accès aux données privées qui serait mauvais en soi (même la fonction d’ajout automatique citée a finalement accès à vos données personnelles comme, par exemple, le GPS) mais l’utilisation qui est faite de ces données: celle-ci nécessite le consentement de la personne concernée.

En d’autres termes, il n’y a pas de mauvaises données, il n’y a qu’une mauvaise utilisation des données. À titre de comparaison, l’orateur fait référence à une conversation privée avec le médecin généraliste dans laquelle le citoyen confie des données privées hautement confidentielles à son médecin parce qu’il sait que ce dernier n’en abusera pas. Sur ce point, une plus grande participation des citoyens est en tout cas nécessaire.

L’actuelle procédure de consentement ne fonctionne pas: les GAFA et d’autres entreprises soumettent à l’utilisateur des textes kilométriques qui ne sont pas lus parce que trop longs et trop difficiles. La seule solution est de commencer à éduquer les gens très tôt, en particulier à l’école primaire, afin qu’ils comprennent les enjeux, notamment dans le cadre d’un cours sur les algorithmes: de cette façon, les citoyens peuvent voir de leurs propres yeux ce que l’on peut faire avec ces données et être sensibilisés à leur utilisation, ce qui va au-delà de la simple notion de vie privée.

Une telle réflexion sur les algorithmes peut parfaitement se faire avec la participation des citoyens. En ce qui concerne le conformisme, l’orateur admet que “Apostrophe” était aussi un programme très ciblé mais à l’époque il y avait plusieurs programmes à la télévision que l’on pouvait regarder et différents canaux d’information étaient également disponibles, alors que de nos jours les gens ne sortent plus de leur bulle: le problème aujourd’hui est que quand quelqu’un aime la musique rap, il n’entend plus rien d’autre à cause de l’algorithme.

Il y a donc un cloisonnement, un enfermement dans une bulle, alors qu’il y a effectivement beaucoup de diversité dans l’offre culturelle. En ce qui concerne la propagande politique, le problème est qu’elle ne coûte rien comme instrument de campagne, il est donc très difficile de légiférer ici. Les vidéos que, dans l’exemple cité, M. Salvini publie plusieurs fois par jour sur Facebook ou Twitter ne coûtent rien.

Mme Séverine de Laveleye (Ecolo Groen) relève que, pour la Belgique, des chiffres sont bien disponibles

en ce qui concerne les dépenses des partis politiques pour leurs campagnes sur les réseaux sociaux dans la période précédant les dernières élections législatives. M. Georges Dallemagne (cdH) parle d’un paradoxe: d’une part, il existe un contrôle tellement énorme et croissant de nos préférences, de notre culture, de notre consommation, etc. que l’on peut parler d’un contrôle de notre “être humain” au profit des décideurs économiques mais aussi politiques. (La Chine, en particulier, est devenue, pour les autres pays, le grand modèle d’un tel système fermé, avec d’énormes pouvoirs de contrôle et des sanctions croissantes pour ceux qui s’écartent de la norme).

D’autre part, M. Bersini a indiqué que l’utilisation d’algorithmes pouvait également profiter au bien-être général de la société: le membre souhaiterait plus d’explications sur ce point. L’intervenant cite à cet égard M. Colmant, qui dit ne pas savoir s’il pense et s’exprime encore en toute liberté. En outre, M. Bersini a déclaré que les autorités publiques doivent reprendre le contrôle des algorithmes.

Pourquoi ne pas créer une transparence à 100 % sur les façons dont nous sommes manipulés: une très grande opacité règne actuellement à cet égard. Pourquoi les entreprises privées ne pourraient-elles pas être obligées de respecter certaines règles et certaines conditions de transparence? C’est bien le cas pour les producteurs de viande, par exemple, qui doivent également fournir de nombreuses informations sur leurs produits.

Il est préférable d’exiger la transparence sur le fonctionnement de ces algorithmes, plutôt que de demander aux autorités de créer leurs propres algorithmes: qu’advient-il en effet dans ce cas lorsqu’il s’agit d’un pays non démocratique (c’est déjà le cas actuellement). Ensuite, l’intervenant constate que certains partis politiques utilisent les réseaux sociaux d’une manière inappropriée. Il souligne que les faux contenus sont visionnés trente fois plus que les contenus exacts: il en va de même pour les avis ou messages brutaux ou violents par rapport aux avis ou messages plus nuancés et modérés.

Dans une lutte aussi inégale, le responsable politique nuancé est perdant d’avance: les algorithmes concernés favoriseront toujours les opinions brutales et mensongères. Enfin, l’intervenant considère que le contrôle des messages et des campagnes politiques est une matière complexe. En effet, qu’est-ce qui est politique et qu’est-ce qui ne l’est pas? Cette notion est difficile à circonscrire. Il faudra néanmoins pouvoir sanctionner les mensonges et les contre-vérités, comme c’est le cas également pour

d’autres produits tels que, par exemple, les produits à base de viande, où la vente de viande de cheval comme étant de la viande de bœuf est notamment punissable. L’intervenant plaide en faveur de la création d’une Haute autorité de l’information sur les réseaux sociaux, où siègeraient des magistrats qui puissent sanctionner les contre-vérités, la calomnie et la discrimination sur les réseaux sociaux.

Enfin, l’intervenant plaide en faveur de l’interdiction de l’anonymat sur les réseaux sociaux, étant donné que cet anonymat a une influence très néfaste, puisque les intéressés sont souvent très agressifs verbalement: tout comme la burqa a été interdite sur la voie publique, il doit également être possible de prendre une mesure analogue sur les réseaux sociaux. M. Kris Verduyckt (sp.a) confirme l’absence de transparence des algorithmes utilisés, par exemple, par Facebook.

Toutefois, l’entreprise concernée ne peut-elle pas invoquer que l’algorithme est en fait une sorte de secret d’affaires ou, en d’autres termes, l’ADN de son produit, notamment dans le cadre de la concurrence qui l’oppose aux autres entreprises? En outre, le membre peut souscrire à ce qui a été dit au sujet des algorithmes et de l’enfermement dans une bulle, mais la technique du recensement d’opinions ne constitue-t-elle pas un contrepoids à un tel nivellement? L’intervenant fait référence aux évaluations, notamment sur Booking.com ou Tripadvisor, qui sont très utiles pour les autres utilisateurs et fournissent souvent de bons conseils.

Mme Yngvild Ingels (N-VA) insiste sur le fait que tout le monde est bien conscient de l’effet de “bulle” mais signale par ailleurs que nous n’avons encore jamais eu accès à autant d’informations. Ne serait-il pas préférable d’apprendre aux enfants à exercer leur sens critique à cet égard? Autrefois, certaines personnes croyaient en effet également que tout ce qui était écrit dans les journaux était vrai: ce phénomène s’est tout simplement amplifié aujourd’hui.

Elle répond par l’affirmative à la première question de M. Verduyckt. Il s’agit en effet du modèle économique des GAFA. Quiconque n’est pas d’accord avec l’algorithme utilisé peut toujours quitter Facebook. Il va de soi que la liberté d’expression ne peut nullement être restreinte et que l’éducation est déterminante. Mme Tinne Van der Straeten (Ecolo-Groen) a entendu beaucoup de choses jusqu’à présent au sujet des

grandes entreprises mais qu’en est-il des plus petites entreprises, comme Tiktok et Snapchat, qui sont partiellement secrètes: sont-elles différentes des grandes entreprises? M. Erik Gilissen (VB) confirme également que nombreux sont ceux qui vivent dans une bulle et sont poussés dans une certaine direction. Il est justifié de s’en plaindre. Par ailleurs, nul ne voit d’inconvénient à essayer de bannir certaines opinions politiques.

Quel est le point de vue de l’orateur à ce sujet? Faute de temps, M. Hugues Bersini répond globalement à ces questions. Il répond que les économistes opèrent traditionnellement une distinction entre les biens privés et les biens publics. Les pouvoirs publics, a fortiori le Parlement, sont compétents pour les biens publics, le reste relevant du marché, de l’économie et des entreprises. Or, la distinction entre ces deux catégories ne cesse de s’estomper car plusieurs applications, telles que Tiktok et Snapchat, visent à capter votre attention.

L’accès à l’enseignement (le décret concernant les inscriptions à Bruxelles est une forme d’algorithme), la mobilité, la transition énergétique, etc., sont des biens publics. Pour ces derniers, deux formes de gouvernance sont possibles: premièrement, l’approche politique classique au travers de la législation et de la réglementation et, deuxièmement, la gouvernance algorithmique qui est bien sûr la nouvelle approche.

La deuxième forme peut être très efficace pour formater les comportements, comme on le voit sous une forme excessive en Chine, mais peut aussi présenter de grands avantages, et être très efficace pour, par exemple, limiter la consommation d’énergie en pilotant efficacement les changements de comportements, comme par exemple pour réduire la consommation énergétique dans les dix prochaines années. Il s’avère qu’il est beaucoup plus facile de modifier les comportements avec des algorithmes qu’avec des lois.

Par exemple, la Chine a réussi à faire disparaître tous les vélomoteurs à essence en un an. L’intervenant est favorable à ce que les algorithmes soient utilisés par les citoyens comme des moyens permettant d’améliorer leur vie, et plaide pour une plus grande participation citoyenne. Les algorithmes relatifs aux biens publics doivent bien sûr être transparents et devraient même éventuellement être co-écrits par des citoyens.

Cela ne signifie toutefois pas que tous les citoyens doivent pouvoir programmer en Java: il est assez facile de comprendre ces algorithmes. Pour les biens privés, par contre, il existe un marché très concurrentiel et l’algorithme constitue la base de

cette concurrence. Par conséquent, la confidentialité est essentielle. Si elle disparaissait, la concurrence pourrait elle-même manipuler l’algorithme visé. Cette confidentialité est dans l’ADN des GAFA. Le danger est justement que les algorithmes utilisés pour les biens privés le soient aussi pour les biens publics comme la mobilité et la consommation d’énergie: à Bruxelles, par exemple, tout le monde utilise Google Maps et Waze, qui sont très nuisibles et déterminent la mobilité dans nos villes à 100 %, les pouvoirs publics étant totalement mis hors-jeu.

Il est inacceptable que les pouvoirs publics abandonnent un bien public aussi important que celui-là. Ils doivent s’en emparer, voire développer leurs propres algorithmes (comme l’orateur a déjà commencé à le faire) en vue de pouvoir lutter à armes égales mais avec un autre objectif que les GAFA, qui ont tendance à mêler les biens publics et privés dans le seul but de maximiser leurs profits. III. — AUDITION DU 21 JANVIER 2020 A.  Exposé introductif de la professeur Antoinette Rouvroy (UNamur) Mme Antoinette Rouvroy (UNamur) considère que le comité d’avis a choisi cette thématique avec justesse, étant donné qu’elle touche à l’essence même de la démocratie et que le législateur ne peut, façon de parler, scier la branche sur laquelle il est assis.

L’oratrice entrevoit un paradoxe évident: d’une part, les idées utopiques à l’égard d’Internet en vogue dans les années 90, à savoir la promesse d’une gigantesque démocratisation et d’une société plus égalitaire dans laquelle le débat public ne serait pas seulement mené, comme c’est le cas aujourd’hui, par des personnalités célèbres ou connues, mais par tout un chacun, indépendamment de son statut social ou de ses compétences: cette vision épouse l’idéal de la “désintermédiation” ou de la suppression des gardiens ou des filtres.

Cette évolution devait conduire à une “horizontalisation” considérée comme positive. Qui plus est, dans les années 90, Internet était également considéré comme une forme d’intelligence collective où le résultat collectif est supérieur à la somme de ses parties. Enfin, durant cette période, Internet était également considéré comme un espace public élargi permettant d’aborder toute une série de questions délaissées dans le débat public.

D’autre part, on découvre en 2018 le scandale “Cambridge Analytica”, cas d’école de marketing

politique, d’abus de médias sociaux et de fake news. L’hyperpolarisation de la sphère politique qui en a résulté a heurté de plein fouet les idéaux démocratiques d’Internet: intelligence artificielle, algorithmes et Internet lui-même ont été utilisés pour optimiser des intérêts particuliers et servir des finalités de marketing politique. Dès 1990, Jean Baudrillard, dans son ouvrage “La transparence du mal”, a dénoncé ce danger: “La désintermédiation mène au démocraticide”.

Autrement dit, ce qui apparaissait comme une chance pour la démocratie, à savoir la reproduction technologique d’une immanence risque aujourd’hui de détruire les prémisses épistémologiques de la politique même. Pour le dire autrement et de façon caricaturale: l’optimisation algorithmique entraîne une automatisation de nos propres erreurs. Comment pouvons-nous tirer parti de ce dispositif technique pour augmenter l’intelligence humaine? L’optimisation algorithmique peut-elle être autre chose que la reproduction d’une situation de fait mais intenable? Dans ce contexte, l’oratrice opère une distinction entre l’intelligence humaine et l’intelligence artificielle.

L’intelligence artificielle est capable de faire des choses que l’homme ne pourra jamais faire, notamment sa capacité inédite de synthétiser la diversité: c’est-à-dire de détecter et de découvrir des modèles (“patterns”) ou des corrélations entre des données innombrables et très disparates. Cela permet d’établir des modélisations qui peuvent servir à formuler des prévisions. Cependant, l’IA ne peut pas comprendre les causes sous-jacentes de cette modélisation, ni donner un sens au résultat de cette synthèse automatique.

L’intelligence humaine, en revanche, est la seule capable d’interpréter ces modèles et de leur donner un sens. Les données numériques deviennent ainsi les nouvelles coordonnées de la modélisation de la vie sociale. Ce ne sont pas les paroles ou actes concrets des individus mais les données numériques qui sont utilisées pour développer des scores de profil, des hiérarchies, etc., qui vont permettre de classer, évaluer et approcher les individus à des fins de marketing commercial et publicitaire.

À titre d’exemple, l’oratrice fait référence aux messages politiques ciblés déjà utilisés dans la campagne d’Obama et aussi dans celle de Trump. En ce qui concerne la campagne de Trump, ce sont les algorithmes qui vont orienter la publicité électorale et adapter le contenu des messages pour les envoyer ensuite spécifiquement à la partie de l’électorat la plus indécise et la plus susceptible d’être influencée.

Grâce à la masse de “phéromones numériques” que nous diffusons en permanence et presque en “temps réel” sur Internet et sur les réseaux sociaux, il est très facile de déduire les traits de personnalité de chacun (psychographie), sans connaître son nom. Il s’agit de caractéristiques telles que le fait que vous croyez surtout les choses parce que les autres les croient aussi ou, par exemple, ce qui vous effraie le plus.

Sur cette base, on va développer des messages publicitaires politiques (“design”) en fonction de ces peurs inconscientes ou subconscientes. De cette façon, les gens sont activés non pas au niveau de leur rationalité mais au niveau de leurs impulsions (“pulsions”). Sur cette base, les messages publicitaires pro-Trump contiennent massivement un discours faisant appel à la peur de perdre quelque chose. Les algorithmes sont en effet capables de déduire certains traits de personnalité à partir d’un certain nombre de données numériques et de les traiter de façon ciblée.

Les sciences comportementales ont montré que les gens sont beaucoup plus motivés par la peur de perdre quelque chose que par l’espoir de gagner quelque chose. Comment fonctionnent cette désinformation (ou “fake news”)? Si le résultat nous convient, nous parlons d’“éducation populaire”; dans le cas contraire, de “fausses informations”. Aujourd’hui, l’adage suivant s’applique à Internet et aux algorithmes: “l’infrastructure code les usages”.

À cet égard, Mme Rouvroy se réfère à l’argument utilisé par Mark Zuckerberg en réponse au scandale de Cambridge Analytica: “Facebook n’est qu’une communauté d’utilisateurs qui doivent se comporter de manière responsable (et donc ne pas publier de fausses informations)”. La réalité du modèle économique de ces réseaux sociaux est cependant que les “fake news” sont principalement créées en Macédoine, par des adolescents qui sont rémunérés en fonction des messages publicitaires (cliqués) sur leurs pages.

Les fausses informations circulent jusqu’à six fois plus vite que les vraies sur Internet et les réseaux sociaux. C’est le résultat du modèle économique d’Internet, qui rémunère les personnes en fonction du trafic ou du passage qu’elles génèrent sur leurs pages. Cela implique que la viralité de cette fausse information est très difficile à combattre car elle est financée par la publicité: ainsi, les intéressés peuvent, grâce à la propagande politique, empocher 4 à 10 fois plus que le revenu moyen de la population nationale.

Zuckerberg prétend avoir des “politiques” pour lutter contre ce phénomène: en d’autres termes, Facebook demande à ses utilisateurs d’être aimables les uns

envers les autres: derrière cela, se cachent cependant des “fonctionnalités” beaucoup plus fortes, en particulier des éléments d’infrastructure qui entraînent une utilisation opportuniste de ces plateformes. En effet, le modèle économique consiste à financer l’utilisation d’Internet par la publicité et il sera très difficile de changer cela, indique l’oratrice. Peut-on rendre Internet payant? Les gens sont-ils prêts à payer pour utiliser Internet ou à le financer par l’impôt? L’oratrice souligne un certain nombre de problèmes sociaux et d’équité évidents dans ce contexte, notamment la question du “travail numérique” (“digital labor”): dans cette approche plus large, l’inégalité est examinée au niveau mondial, par exemple en termes de délocalisation: la possibilité d’externaliser, par le truchement de certaines plateformes d’Amazon, le travail répétitif pour quelques centimes dans d’autres pays.

Bien que les fausses nouvelles soient donc un problème infrastructurel, il demeure essentiel d’investir dans l’éducation aux médias et dans la critique des médias: c’est de cette façon que l’on développera le sens critique du citoyen à l’égard d’internet. D’autre part, il ne faut pas surestimer l’incidence sur la démocratie: l’internaute ne croit pas automatiquement toutes les fausses nouvelles, même pas lorsqu’il les relaye.

Ainsi que l’a fait observer le sociologue Dominique Cardon, il existe différentes manières de traiter les informations et différentes raisons peuvent conduire à relayer certaines fausses nouvelles, par exemple le souhait d’appartenir à un groupe déterminé. Lorsqu’on relaye un message – ce qui se fait par un simple mouvement de doigt ou un clic – cela n’implique pas qu’on souscrit à l’information que l’on partage ou qu’on l’a même comprise.

C’est en discutant de l’information avec leurs proches, dans l’espace public, que les gens se l’approprient. Quoi qu’il en soit, il est très important de disposer d’un véritable espace public, que l’oratrice définit comme suit: “un espace de délibération à propos de la chose commune, irréductible à la seule juxtaposition des intérêts individuels”; cet espace est totalement distinct des réseaux sociaux, qui ne sont constitués que d’une “juxtaposition de bulles spéculatives”, l’espace d’information étant dès lors hyper-individualisé.

Ledit espace public présuppose certaines choses, tel qu’un certain nombre de conditions épistémologiques déjà décrites par Condorcet, notamment une langue commune. Les réseaux sociaux, en revanche, requièrent la solitude et l’isolement de l’environnement: chacun doit en effet saisir son smartphone et s’isoler: cela crée des bulles hyper-individuelles, si bien que chacun est seul

devant son propre écran et qu’il n’est pas question de communauté: lorsqu’une personne vous contredit par exemple, vous pouvez la bloquer, ce qui n’est pas possible dans la vie réelle. Les algorithmes entraînant une personnalisation de l’environnement informationnel jouent un rôle totalement néfaste qui correspond parfaitement à l’esprit hyper-individualiste de notre époque, les individus nourrissant une certaine haine du banal et souhaitant être uniques et exceptionnels et reconnus comme tels par internet.

À l’heure actuelle, la capacité des citoyens à dépasser leurs intérêts individuels est menacée par ces algorithmes de personnalisation qui permettent à chacun de se sentir unique, de faire preuve de solipsisme et de ne pas tenir compte des autres. Les choses étaient différentes à l’ère de la télévision. Tout le monde voyait en effet le même journal télévisé, mais tout ce qui est donné à voir sur Internet est ce qui suscitera une sorte d’engagement, selon les algorithmes, de manière à ce que l’internaute reste au maximum sur la page concernée de sorte à maximiser la probabilité que ce dernier cliquera sur certains messages publicitaires se trouvant à gauche ou à droite du contenu.

L’oratrice souligne toutefois que les algorithmes infrastructurels de chaque réseau social sont totalement différents: là où, à titre d’illustration, Facebook tente de susciter un engagement maximal (de manière à ce que l’internaute reste le plus longtemps possible sur la page concernée), Google essaie, par exemple, de miser au maximum sur la pertinence. Les modèles sont dès lors très diversifiés. Il s’agit à chaque fois d’un univers totalement différent.

Outre les “fake news”, il est également question de l’utilisation de données massives dans des campagnes électorales. Cette pratique va aujourd’hui bien au-delà de la simple volonté de mieux comprendre l’électorat. À titre d’exemple, l’oratrice renvoie à la campagne électorale d’Emmanuel Macron en France. Ce dernier a fait du porte-à-porte en soumettant un questionnaire aux citoyens leur demandant ce qui les avait dérangés et réjouis au cours de l’année écoulée.

Cette approche semble parfaitement démocratique à première vue mais court-circuite l’espace public: il ne s’agit en effet pas de débattre des plaintes de tout un chacun, mais d’un simple enregistrement passif de plaintes individuelles. M. Macron a analysé ces réponses à l’aide de la technique du datamining et il en a déduit son programme politique. L’oratrice considère qu’il ne s’agit pas de politique en l’espèce mais d’une optimisation d’un programme politique, d’un calcul.

Toutes les réponses sont en effet

enregistrées sans évaluation et le programme en est déduit presque automatiquement. En politique, par contre, il s’agit de proposer quelque chose qui remet le statu quo en question et le transforme également. En ce qui concerne les “faits alternatifs”, une expression qui est notamment utilisée par Donald Trump, l’idée communément répandue est que les faits et la vérité correspondent ou sont équivalents.

Ce n’est jamais le cas en réalité: la vérité est ce qui arrive aux faits après avoir été soumis aux épreuves de l’interprétation, de la vérification et de la véridiction. C’est précisément à ce niveau d’interprétation, qui est irréductible à un simple calcul, que l’intelligence humaine se manifeste. Il importe de revaloriser la vraie démocratie épistémologique face à l’impérialisme des sciences des données, qui ne sont pas des sciences mais des techniques n’ayant aucun lien avec la réalité: il ne s’agit que de systèmes d’optimisation.

L’utilisation de ces algorithmes transforme l’espace politique en un espace spéculatif, une forme de trading à haute fréquence (high frequency trading) où des opérations difficiles et laborieuses mais essentielles comme la discussion, l’interprétation et la décision n’ont plus leur place. En effet, décider consiste précisément à trancher à partir d’éléments indécidables et d’incertitudes. À défaut, c’est non d’une décision mais d’un calcul qu’il s’agit.

L’oratrice ne prône pas, en l’espèce, la nostalgie du “c’était mieux avant”. C’est de l’avenir de la politique ellemême qu’il est question: l’oratrice renvoie notamment à des déclarations de Jacques Derrida. La politique commence où les limites de la représentabilité sont atteintes. En effet, si l’on croit en l’idéologie des sciences des données, c’est la fin de la politique car tout se trouve déjà dans les données elles-mêmes.

Mais qu’en est-il notamment des éléments non calculables ou non numérisables comme l’inquiétude à l’égard des générations à venir qui n’ont pas encore laissé de traces numériques? Nous devons arrêter de prétendre d’être en état de mettre en place une représentation politique parfaite et infaillible: il faut au contraire conserver l’ouverture et l’indécidabilité. La politique est en effet une lutte perpétuelle qui se répète à l’infini et qui n’est jamais tranchée ou définitive.

Il convient de souligner, à cet égard, que l’on gouverne, depuis dès le XVIIIe siècle, en se fondant sur des statistiques qui avaient l’ambition non pas de remplacer

la réalité, mais bien d’en donner une représentation avec un objectif neutre. La politique se fonde sur l’intention de réaliser des progrès sociaux à partir de la conviction que le statu quo peut être amélioré et que l’avenir est ouvert. Nous devons donc résister à la tentation de remplacer la politique par des algorithmes, ce qui n’est pas simple compte tenu de la prétendue neutralité axiologique des calculs réalisés par les algorithmes ou du “langage des choses”, qui soutient que les choses sont neutres.

Nous ne devons pas nous laisser séduire par l’illusion d’une politique qui serait objective et calculée. Enfin, l’oratrice a peu de recommandations concrètes à formuler: la menace d’un cauchemar algorithmique n’est réelle que si nous renoncions à nous gouverner nous-mêmes. Il ne s’agit pas de diaboliser les algorithmes en tant que tels, ce ne sont en effet que des méthodes de calcul. Quoi qu’il en soit, l’oratrice préconise de ne pas abandonner l’espace politique aux GAFA: les algorithmes qui sont des machines, en réalité, peuvent nous y aider.

Ils peuvent nous rendre plus intelligents si nous les utilisons correctement sans fantasmer. Invoquer les fake news est la façon idéale de fuir à nos responsabilités: l’oratrice renvoie à l’usage qu’en fait le Président Trump: il s’agit toujours de ce qui nous déplaît. L’oratrice plaide en faveur d’une approche positive dans laquelle la politique consiste en un “projet sans prédiction” (au lieu d’une “prédiction sans projet”, comme le font les algorithmes).

Bien que le projet sans prédiction puisse échouer, il faut présenter un projet et solliciter ensuite le suffrage des électeurs.

B. Questions et observation des membres Mme Frieda Gijbels (N-VA) constate que l’oratrice a terminé sur une note moins pessimiste en ce qui concerne l’utilisation des possibilités techniques offertes par les algorithmes. Elle manifeste par contre un grand scepticisme quant au fonctionnement des réseaux sociaux et à leur influence sur la politique. L’oratrice estime-t-elle que davantage de réglementations voire d’interdictions sont nécessaires? Mme Séverine de Laveleye (Ecolo-Groen) estime que la déclaration de l’oratrice concernant les fake news est incompréhensible et choquante.

Elle aurait souhaité plus de précisions à cet égard. Elle demande en outre quelles initiatives législatives sont possibles.

M. Steven Creyelman (VB) fait observer que les fausses nouvelles sont souvent confondues avec les nouvelles que l’on n’aime pas entendre. La démocratie n’est vraiment pas menacée lorsqu’on entend une autre opinion. Si toutefois l’intelligence artificielle avait pour but de lutter contre les opinions désagréables, on se dirigerait tout droit vers un régime autoritaire. L’intervenant estime qu’il s’agit en l’occurrence essentiellement de lutter contre un seul parti, à savoir le VB.

On ne contrôle en effet pas les réseaux sociaux comme on contrôlait et contrôle les médias traditionnels. L’intervenant s’enquiert ensuite de la manière dont on peut éviter que l’on utilise l’intelligence artificielle pour rechercher et sanctionner des opinions dites “erronées”. L’intervenant demande également si Mme Rouvroy voit peut-être des objections au marketing direct. Cette forme de profilage existe en effet depuis de nombreuses décennies.

Les brochures publicitaires sont déposées dans votre boîte aux lettres en fonction de votre travail, votre sexe, votre équipe de football, etc. L’intervenant constate enfin que d’aucuns tentent actuellement d’expliquer les victoires politiques de la N-VA et du VB par l’utilisation de fausses nouvelles: cela est totalement injustifié. En revanche, il est question de fausses nouvelles dans certains autres secteurs proposant des biens et services douteux (l’intervenant renvoie à cet égard notamment au mouvement antivaccin).

De quelle manière l’intelligence artificielle et les algorithmes peuvent-ils être utilisés pour lutter contre ces réels phénomènes de fausses nouvelles?

C. Réponses de l’oratrice

Est-il possible ou souhaitable de réguler les réseaux sociaux? Ce n’est pas évident, sauf peut-être par la taxation des GAFA, ce qui n’est bien sûr qu’une régulation marginale. En tout état de cause, ces plateformes paient peu, voire pas d’impôts. De même, limiter l’utilisation possible des données à caractère personnel, par exemple en appliquant l’approche de l’Union européenne en matière respect de la vie privée, n’est qu’une approche marginale du phénomène réel et ne supprime pas les possibilités de se livrer au profilage et à la psychographie. Quelle juridiction pourrait réglementer cela, à part peut-être le droit de la concurrence? En tout cas, l’impact réel, sur le comportement électoral, de la désinformation véhiculée par les réseaux

sociaux doit être démontré et prouvé. Nous ne savons en effet rien sur le sujet, dès lors que nous ne disposons pas de données qualitatives. Va-t-on restreindre la liberté d’expression en fonction de risques réels mais non démontrés? Le cas échéant, c’est un choix de société qui nécessite un débat entre élus: l’oratrice n’a aucune légitimité dans ce domaine. Elle conclut qu’il sera très difficile de réguler les réseaux sociaux.

Le développement d’algorithmes qui détectent les “fake news” et donnent un avertissement sur le degré de fiabilité de ces informations est possible et en cours, entre autres chez Facebook. Une approche pédagogique peut être utilisée, dans laquelle l’internaute est averti, par exemple, par la présence d’une bande rouge en bas de la page concernée. De telles approches présupposent une coopération intelligente entre les personnes et les machines.

À cet égard, l’oratrice souligne que la machine qu’est Google n’accepte que très peu l’intervention humaine, afin de ne pas prêter le flanc à la critique de partialité. La remarque sur les fausses informations et l’éducation populaire n’était qu’une boutade provocatrice. Il est très compliqué et peut-être impossible de donner une définition formelle des “fake news”, même si cela serait très utile pour les détecter.

Il est très difficile d’en formaliser la détection (mais, d’un autre côté, quand vous en voyez une, vous la reconnaissez). Si la définition devait être réduite à “tout ce qui n’est pas vrai”, l’humour, l’ironie, les récits (pour enfants) et autres en feraient partie, mais aussi, par exemple, tous les plans ou projets, dès lors qu’ils ne correspondant pas à des faits réels: non seulement cela est impossible à appliquer, mais cela rendrait également Internet très ennuyeux.

L’oratrice conclut qu’il sera très difficile de faire une loi contre les “fake news”. À cet égard, l’oratrice souligne que le principal adversaire de Trump est en fait la vérité. Trump suit une logique complètement différente: c’est lui qui décide de la réalité et de la vérité. Ses messages de “fake news” le légitiment encore plus dans sa position de pouvoir, comme c’est le cas pour de nombreux autres dirigeants totalitaires.

Le seul remède contre les “fake news” est la démocratie, l’élaboration collective du sens. L’oratrice répond par ailleurs à M. Creyelman que le marketing direct a en effet toujours existé, mais que dans le passé, on travaillait à partir de catégories reconnaissables: il s’agissait certes d’abstractions et de réductions, mais en tant que telles, elles étaient reconnaissables et attaquables. Le marketing psychographique, en revanche, fonctionne sur la base de profils individualisés qui ne sont pas comparables aux catégories statistiques

traditionnelles, qui ont trouvé et trouvent toujours leur origine dans une convention entre des personnes. IV. — AUDITION DU 4 FÉVRIER 2020 A. Exposés introductifs 1. Exposé introductif de la professeure Katleen Gabriels (Maastricht University) Dr. Katleen Gabriels, Assistant Professor Maastricht University L’exposé se base sur les sources suivantes: — Gabriels, K. (2019). Regels voor robots. Ethiek in tijden van AI.

Brussel: VUBPRESS. — Gabriels, K. (2019). Position paper AI. Thema Mens en ethiek. Voor de Vaste Tweede Kamercommissie Economische Zaken en Klimaat, advies voor de Nederlandse AI-strategie. Den Haag: Tweede Kamer. — Gabriels, K. (2016). Onlife. Hoe de digitale wereld je leven bepaalt. Tielt: Lannoo. En quoi l’intelligence artificielle (IA) consiste-t-elle? Aujourd’hui, l’intelligence artificielle (IA) induit de profonds changements pour les raisons suivantes: 1. nouvelles évolutions et applications technologiques, 2. augmentation de la capacité de stockage, de la vitesse et de la puissance de calcul (qui, selon la loi de Moore, double tous les 18 mois) et 3. big data, ces mots désignant la création d’ensembles de données gigantesques permettant d’entraîner les algorithmes.

Ce sont ces ensembles qui suscitent de nouvelles inquiétudes sur le plan éthique: les ensembles de données tendancieux (biased datasets), les hypernudges et la personnalisation soulèvent des problèmes de transparence, de contrôle (des utilisateurs), de respect de la vie privée et d’autonomie. Les philosophes établissent souvent une distinction entre l’IA forte et l’IA faible. L’IA sert à réaliser des tâches spécifiques et à imposer un objectif limité.

Les machines se comportent comme si elles étaient intelligentes (simulation). L’assistant vocal Siri (Apple), par exemple, fonctionne dans le cadre d’un ensemble de fonctions prédéfini. L’IA forte est, en revanche, dotée d’une conscience de soi, d’une volonté libre et d’intelligence – encore loin d’exister et on peut se demander si elle verra jamais le jour. Certains chercheurs de premier plan, dans le domaine de l’IA, notamment Max Tegmark,

préfèrent ne pas utiliser la dichotomie IA forte – IA faible car AlphaGo (DeepMind) relève de l’IA faible. Cette dichotomie sous-évalue, selon lui, ce dont ces systèmes sont déjà capables. Il est crucial d’établir une distinction entre ce que l’IA permet déjà de faire, ce qu’elle ne peut pas encore faire et ce qu’elle ne pourra sans doute jamais faire, notamment pour éviter un nouvel “hiver de l’IA” et apaiser les craintes de la population.

La langue et les émotions constituent encore un défi majeur en matière d’IA, et il convient dès lors d’observer les applications commerciales d’un œil critique (dont un grand nombre ne sont pas fiables), et de se concentrer sur la poursuite de la recherche (dans le cadre du traitement automatique du langage naturel [TALN] et de la détection des émotions). Les domaines d’application sont très nombreux.

Ils vont de la médecine et des soins de santé à la vie publique, ce qui inclut le transport autonome, pour ne citer que quelques exemples. Le big data et l’internet des objets contribuent aux possibilités offertes par l’IA et en sont absolument indissociables. Aucun robot ni application basée sur l’IA ne se développe seul: ce sont des humains qui opèrent ces choix et qui, par conséquent, en sont responsables.

Les chercheurs Deborah Johnson et Mario Verdicchio évoquent un “aveuglement sociotechnique” pour désigner le fait d’ignorer tous les acteurs et toutes les décisions (prises par) des humains nécessaires à l’élaboration des systèmes basés sur l’IA. Cambridge Analytica “Ce n’est pas ma faute. Je n’ai pas fabriqué la bombe. J’ai uniquement révélé son existence”. Voici ce qu’affirmait, début 2017, Michal Kosinski, psychologue et expert en science des données.

Un an plus tard, l’affaire Cambridge Analytica éclatait, portant le nom d’une entreprise spécialisée dans la communication stratégique en période électorale. Or, c’est un modèle psychologique élaboré par Kosinski qui fut à la base du scandale révélé par le lanceur d’alerte Christopher Wylie. En 2013, alors qu’il travaillait encore à l’université de Cambridge, Kosinski a publié, en collaboration avec d’autres scientifiques, une étude démontrant que des caractéristiques telles que le sexe, l’intelligence et l’orientation sexuelle pouvaient être prédits avec une grande précision sur la base des données individuelles disponibles en ligne.

En 2013, les informations relatives aux mentions “j’aime” étaient facilement disponibles car les comptes Facebook étaient, par défaut, en mode “public”.

Pour leur étude, Kosinski et son équipe ont développé l’application “myPersonality”: les utilisateurs de Facebook pouvaient compléter ce test de personnalité et recevaient ensuite leur profil psychologique. Ils avaient également la possibilité d’offrir leurs données au projet de recherche: près de 60 000 Américains ont volontairement cédé leurs données, à savoir leurs mentions “j’aime”, leurs informations démographiques et les résultats de tests psychométriques.

La psychométrie prévoit des traits de personnalité et relève de la psychologie expérimentale. Depuis longtemps, elle est notamment utilisée à des fins pédagogiques et dans le cadre de procédures d’admission, par exemple pour déterminer qui, sur la base de caractéristiques comportementales, a le plus de chances de réussite à l’université. Dans 88 % des cas, le modèle de Kosinski a correctement identifié les hommes homosexuels ou hétérosexuels dans l’échantillon de données analysé et, dans 85 % des cas, les électeurs démocrates et les électeurs républicains.

Le test est toujours disponible, dans une autre version et sous un autre nom (“Apply Magic Sauce”). Cette application analyse vos “j’aime” Facebook, vos tweets et vos publications LinkedIn et vous communique ensuite vos traits de personnalité. Vous pouvez également partager ces données avec les chercheurs de l’université de Cambridge. Dans la conclusion de leur article, Kosinski et son équipe avaient déjà indiqué que leur modèle de prédiction pourrait avoir des conséquences négatives s’il était appliqué à un large groupe de personnes sans solliciter leur consentement éclairé.

C’est la raison pour laquelle ils ont insisté sur l’importance de la transparence et du contrôle de l’utilisateur à l’égard des données. Au lendemain de la publication de 2013, Kosinski a été approché par un jeune chercheur, Aleksandr Kogan, psychologue à l’université de Cambridge et créateur de l’entreprise Global Science Research. Il lui a présenté une demande de Strategic Communications Laboratories (SCL Group), société mère de CA.

Celle-ci s’intéressait aux méthodes de Kosinski et lui a demandé, en échange d’un “montant important”, accès aux données de MyPersonality. Invoquant le secret professionnel, Kogan a refusé de communiquer la finalité de cette demande. Kosinski s’est alors renseigné au sujet de SCL et a appris sur le site web de cette entreprise qu’il s’agissait d’une “agence mondiale de gestion électorale” qui proposait des services de marketing fondés sur des modèles psychologiques.

Kosinski a également découvert que Kogan avait enregistré une entreprise en lien économique avec SCL.

Aleksandr Kogan a vraisemblablement copié les méthodes de Kosinski, en développant l’application “This is your digital life”, qui était un test de personnalité que l’on ne pouvait remplir que sur Facebook. Lorsque Kosinski s’est rendu compte de ce qui était en cours, il a rompu tout contact avec Kogan et en a informé l’université de Cambridge, déclenchant un conflit gênant car ces deux hommes y étaient employés.

Kogan s’est ensuite installé à Singapour, où il s’est fait appeler “Dr. Spectre”, et Kosinski a rejoint l’université de Stanford. Les personnes qui remplissaient le questionnaire “This is Your Digital Life” n’autorisaient pas seulement Kogan à accéder à leur profil Facebook, mais aussi à tous leurs contacts Facebook, qui n’ont donc jamais donné leur consentement. Au total, il a pu réunir les données de millions d’utilisateurs Facebook que CA a ensuite achetées.

Les publicités sont évidemment le modèle économique des plateformes comme Facebook. CA a recouru au microciblage comportemental (behavioral microtargeting): sur la base des informations relatives à leurs comportements en ligne, des publicités ciblées sont adressées aux utilisateurs. Ceux-ci sont répartis selon différents profils en fonction de leur domicile, de leur sexe, de leurs intérêts et d’autres traits de personnalité.

Le microciblage comportemental est en fait l’étape logique suivante dans le fonctionnement de l’industrie de la publicité. Avant l’arrivée des médias sociaux, la science du comportement était déjà importante à l’égard des objectifs du marketing et de la publicité. La personnalisation permet aussi de maintenir les personnes plus longtemps sur les sites web ou sur les applications: comme pour les machines à sous, des données sont conservées et, sur la base de celles-ci, des entreprises essaient de maintenir les utilisateurs le plus longtemps possible sur la plateforme.

Par le biais des données partagées, un “dialogue” permanent se met en place avec le publicitaire, même si cette “conversation” est invisible. Facebook est, en ce sens, un “médiateur” entre les usagers et les publicitaires. Karen Yeung appelle “hypernudging” le recours au nudges dans un environnement numérique. Les hypernudges résultent d’une personnalisation poussée. Les nudges sont généralement statiques et identiques pour tous les individus entrant en contact avec eux.

Les hypernudges sont individualisés et modifiés sur la base d’un feedback instantané. Le fil d’actualité Facebook est personnalisé: il est différent pour chaque utilisateur. Les hypernudges peuvent influencer le comportement mais leur fonctionnement sous-jacent est obscur. En mars 2018, Christopher Wylie, qui avait travaillé comme analyste de données pour CA, a révélé que les données de plus de 80 millions d’utilisateurs de Facebook avaient été utilisées pour créer des messages électoraux

numériques ciblés et personnalisés. CA a également utilisé d’autres données, achetées à des courtiers en données personnelles, pour étoffer ses données déduites des “j’aime”, des cookies et de l’application “This is Your Digital Life”. Wylie a collaboré avec Aleksandr Kogan sur ce projet. Cette mine de données illégalement obtenues a permis à CA d’envoyer des publicités aux électeurs britanniques à propos du référendum sur le Brexit et aux électeurs américains à propos de l’élection présidentielle de 2016.

CA a également diffusé de fausses informations par le biais de ces publicités. CA a spécifiquement travaillé pour le camp du Leave (Leave. EU) à l’occasion du référendum britannique et pour la campagne de Donald Trump. Durant les primaires du parti républicain, cette entreprise d’analyse de données a également travaillé pour Ted Cruz, également candidat à l’investiture républicaine. En 2015, le quotidien britannique The Guardian a publié un article sur la coopération entre CA et Cruz; le nom d’Aleksandr Kogan y était déjà mentionné, et le fonctionnement problématique de CA y était déjà dénoncé, notamment en raison du fait que les utilisateurs de Facebook n’étaient pas conscients de son mode de fonctionnement.

Le 27 février 2018, Alexander Nix, PDG de CA, a été interrogé au cours d’une audition sur les informations mensongères (fake news) organisée par une commission parlementaire britannique (Digital, Culture, Media and Sport Committee). Cette audition a eu lieu avant les révélations de Wylie, si bien que Nix était alors dans une position relativement confortable. Il a éludé de nombreuses questions ou n’a pas vraiment répondu.

Durant cette audition, Nix a déclaré que ces pratiques étaient “répandues” et tout sauf nouvelles. En effet, l’ancien président Barack Obama avait également eu recours à des analyses détaillées de mégadonnées au cours de ses campagnes de 2008 et de 2012, et le monde de la publicité utilise ces techniques depuis de nombreuses années. Ce dernier argument illustre le “désengagement moral” (moral disengagement): puisque toute l’industrie le fait, pas seulement nous, nous ne sommes pas les seuls responsables.

Nix a ainsi minimisé sa responsabilité personnelle dans les dégâts qu’il a provoqués. Nix n’a bien évidemment pas souligné que l’ensemble des données avait été obtenu illégalement. Il a également minimisé la responsabilité de CA à cet égard: “Notre métier n’est pas l’exploration de données ou toute autre activité similaire. Nous sommes une entreprise d’analyse de données et notre travail consiste donc à faire parler les données, à analyser de gigantesques ensembles de données afin d’en dégager des tendances et à utiliser ces données pour faire des prédictions portant sur des

groupes-cibles. Nous essayons seulement d’appliquer des algorithmes à ces données pour les faire parler. Il a bien insisté sur le verbe “essayer” et a rejeté la faute sur les algorithmes (qui font tout le travail). Ce que Nix s’est bien gardé de préciser, c’est que ces algorithmes ont évidemment été développés et utilisés par des humains. Selon Nix, la publicité personnalisée est bonne pour la démocratie et pour l’électeur car elle lui permet de recevoir des informations correspondant totalement à ses intérêts et, partant, aucun message non pertinent.

Pour Nix, “cela ne peut être que positif et cela ne peut être qu’une bonne chose pour la politique, la démocratie, la communication et la publicité”. En insistant sur le fait qu’il s’agit d’une “bonne chose”, il présente cette pratique comme un acte moral: qui pourrait s’y opposer? CA et sa société mère SCL ont fait faillite après ce scandale. En avril 2018, Aleksandr Kogan a également été interrogé par le Parlement britannique.

Au cours d’interviews accordées à la presse, Kogan avait alors révélé avoir longtemps cru que ce qu’il faisait était “convenable”. “Nous pensions que les utilisateurs étaient tous au courant et qu’ils étaient indifférents, mais nous avions tort. Pour cela, je présente mes excuses.”. Dans sa déclaration, il rejette la responsabilité sur l’utilisateur, mais ne remet pas en cause l’utilisation illégale d’un test de personnalité, l’acquisition illégale de données et l’absence d’informations aux utilisateurs.

Le 21 mars 2018, Mark Zuckerberg a publié sur Facebook un message pour présenter ses excuses pour ce scandale: “Nous avons la responsabilité de protéger vos données et si nous ne pouvons pas le faire, nous ne méritons pas de vous servir”. Or, Facebook était au courant de l’utilisation abusive de ces données depuis 2015, depuis la publication de l’article précité du Guardian. Dans son message sur Facebook, Zuckerberg a admis que des journalistes britanniques l’avaient informé que Kogan avait partagé les données de son application avec CA, ce qui allait à l’encontre des conditions d’utilisation de Facebook, les utilisateurs n’ayant pas donné leur autorisation à cette fin.

Zuckerberg a aussi écrit qu’il avait immédiatement fait supprimer l’application de Kogan, et qu’il avait demandé à Kogan et à CA de prouver officiellement qu’ils avaient supprimé toutes les données obtenues illégalement, ce qu’ils ont fait ultérieurement (en offrant des garanties). Zuckerberg et Facebook ont cru CA lorsque cette société a affirmé qu’elle avait détruit les données visées et qu’elle n’appliquait plus les techniques incriminées.

Zuckerberg n’avait jamais rendu cette information publique, jusqu’à ce que les révélations de Wylie l’y obligent en 2018. En plus du message public de Zuckerberg, Facebook a fait publier des annonces en pleine page dans plusieurs journaux britanniques et

américains pour présenter ses excuses. Ces excuses ne semblent guère crédibles, étant donné que Facebook était au courant de ces pratiques depuis 2015 et que cette société n’a présenté ses excuses qu’après l’éclatement du scandale. Zuckerberg a été interrogé sur le rôle de Facebook par le Sénat américain le 10 avril 2018 et par Parlement européen le 22 mai 2018. Au cours de son audition au Sénat américain, il a admis que Facebook n’avait pas réussi à protéger les données de ses utilisateurs, mais a ensuite indiqué qu’il était également du devoir de l’utilisateur, qui a progressivement acquis plus de contrôle sur ses données, de modifier ses paramètres d’utilisation personnels.

Quoi qu’il en soit, Cambridge Analytica a violé les conditions générales de Facebook et les utilisateurs étaient impuissants face à ces pratiques. Les paroles et les actes de Mark Zuckerberg se contredisent régulièrement. Dans un article d’opinion, il a fait l’éloge du RGPD, mais en pratique, il n’applique pas rigoureusement ses règles. Des photos privées ont, par exemple, été partagées avec des tiers sur Facebook à la suite d’un bug.

En vertu du RGPD, les victimes de ce bug devaient être averties du problème dans les 72 heures. Mais Facebook les a averties presque trois mois après l’apparition de ce bug, au lieu de le faire dans les trois jours. Barack Obama a, lui aussi, utilisé les médias sociaux, des analyses de mégadonnées et le microciblage comportemental durant ses campagnes présidentielles. En 2007, la campagne d’Obama a déjà mené des expériences simples et peu onéreuses sur les plateformes numériques, comme des tests A/B.

Dans le cadre de ces tests, deux ou plusieurs versions du même contenu sont testées sur plusieurs utilisateurs: une partie de ces utilisateurs visionne la version A et les autres la version B. La version gagnante est celle qui donne les meilleurs résultats, par exemple la version qui a rassemblé le plus de clics. Une affiche de campagne présentant une photo de la famille Obama s’est révélée la plus populaire des affiches.

En 2014, le chercheur Zeynep Tufekci a lancé une mise en garde contre le pouvoir et l’influence des outils informatiques utilisés à des fins politiques dans l’espace public virtuel. La collecte de mégadonnées a été dissimulée aux citoyens ciblés par des publicités sur mesure. Cela crée un paradoxe en matière de transparence: les entreprises et les autorités publiques ont intérêt à ce que les consommateurs et les citoyens que nous sommes fassent preuve de plus de transparence mais, ironiquement, ce sont elles qui devraient se montrer plus transparentes dans la communication de leurs intentions.

La chercheuse américaine Shoshana Zuboff appelle cela “le capitalisme de surveillance”: il s’agit de techniques permettant aux entreprises d’utiliser des expériences humaines pour alimenter gratuitement des pratiques commerciales dissimulées. Bien évidemment, il est difficile, voire impossible de déterminer dans quelle mesure CA a réellement influencé le vote des électeurs. Il n’existe aucun lien de causalité directement tangible à cet égard.

Plusieurs détracteurs et universitaires doutent que CA ait réellement pu tenir ses promesses, à savoir associer les préférences politiques aux traits de personnalité et peser sur ces préférences. Les problèmes éthiques liés à ce scandale s’expliquent en grande partie par un manque de transparence à l’égard du fonctionnement de la psychométrie, de la personnalisation et du microciblage comportemental, ainsi qu’à propos de la manière dont la collecte des données se déroule.

Les universitaires auraient pu demander à avoir davantage leur mot à dire dans le débat public après la publication de l’article du Guardian sur les effets néfastes de ces pratiques en 2015. À quel point sommes-nous influençables? Dans une série de cinq expériences contrôlées, des chercheurs américains ont manipulé des résultats de telle manière qu’un moteur de recherche indique une nette préférence pour un candidat politique particulier sur la simple base de son classement dans les résultats de recherche.

Il s’est avéré que les personnes interrogées qui, avant de lancer leur recherche, n’exprimaient aucune préférence spécifique manifestaient ensuite une préférence significative pour le candidat qui apparaissait de manière positive en haut du classement. Septante-cinq pour cent des personnes interrogées prenant connaissance des résultats arrangés ne se sont même pas rendu compte que le classement avait été manipulé.

Dans le groupe témoin, dont les résultats de recherche n’avaient pas été manipulés, les opinions n’ont guère changé de manière significative. Celui qui manipule bien les algorithmes des moteurs de recherche peut influencer les pensées. Cela ne pose en soi pas nécessairement problème, pourvu qu’il y ait une concurrence suffisante entre les moteurs de recherche. Le moteur de recherche de Google est cependant consulté par la grande majorité des utilisateurs: l’entreprise ne souffre guère de la concurrence.

Manipulation et désinformation Les algorithmes peuvent orienter les comportements, tels que le comportement d’achat et même de vote, et les pensées. En soi, c’est une bonne chose que les algorithmes fassent des choix pour nous: dans le cas des moteurs de recherche par exemple, il serait en effet impossible d’apporter une quelconque structure dans toutes les informations disponibles en ligne. Cela devient

plus effrayant lorsque les algorithmes nous induisent délibérément en erreur, comme l’a fait Facebook dans une étude à grande échelle sur les émotions: en 2013, 689 003 utilisateurs ont reçu des informations très positives ou très négatives dans leur fil d’actualité, ou aucune. Les résultats ont montré que ceux qui ont été exposés à des messages négatifs se sont également mis à poster des messages moins positifs.

L’effet inverse a été observé parmi les utilisateurs ayant reçu des informations positives: ils étaient plus enclins à envoyer eux-mêmes des nouvelles positives. Les émotions des autres sur Facebook influencent donc nos propres sentiments. Les 689 003 utilisateurs ignoraient qu’ils prenaient part à une étude avec des algorithmes manipulés. Les algorithmes calculent également ce qu’un utilisateur individuel trouve intéressant.

Ils effectuent ce calcul sur la base de son comportement en ligne. Nous influençons donc nous-mêmes les algorithmes. Ceux de Facebook, notamment, utilisent la personnalisation comme une forme de filtre: en fonction de ce qu’une personne recherche, publie et partage et des personnes qu’elle connaît sur le réseau social, les algorithmes calculent quelles informations et quels messages cette personne verra ou non.

Il est en effet impossible de montrer chaque mise à jour de chaque “ami” et de chaque page “aimée” sur le fil d’actualité d’une personne: les informations doivent donc être filtrées. Cela fait longtemps que les critiques mettent en garde contre l’apparition d’une monoculture due au fait que les utilisateurs peuvent se retrouver coincés dans une “bulle filtrée” ou une “chambre d”écho’: la personne voit uniquement les messages qui l’intéressent et risque ainsi d’être confortée dans ses idées et ses convictions, sans être confrontée à de nouvelles idées ou à de nouveaux arguments, et donc sans être défiée intellectuellement.

Le risque d’être mal informé va plus loin que les algorithmes, les chambres d’écho et les bulles filtrées. En tant qu’internaute individuel, on peut de toute façon contrôler beaucoup plus soi-même ce que l’on voit lorsqu’on est à la recherche d’une information spécifique. L’internet est un agglomérat de sites formels, comme ceux des pouvoirs publics et des banques de données scientifiques, de sites informels comprenant les médias sociaux et les blogs, de sites commerciaux et politiques, d’informations publiques, comme les sites accessibles au public, d’informations privées, comme les boîtes mail, etc.

En principe, “tout le monde” peut mettre des informations en ligne et les partager. Il convient donc de juger soi-même de la fiabilité des informations et de distinguer le bon grain de l’ivraie. Et c’est là que, souvent, le bât blesse. Vu la masse colossale d’absurdités

qui circulent en ligne, nous avons tous intérêt, jeunes et vieux, à faire preuve d’une nécessaire résilience et d’un solide esprit critique par rapport à ce que nous lisons sur internet et donc à être toujours vigilant. Le problème de la fiabilité ne se pose bien sûr pas qu’en ligne. Les nouveaux moyens de communication comme les médias sociaux rencontrent notre propension séculaire au mensonge, aux ragots et à la simple répétition d’informations non fondées.

L’internet est rempli de désinformations et de canulars; leur diffusion a lieu à grande échelle à l’adresse de personnes partageant les mêmes opinions, qui se confortent mutuellement dans leurs convictions. En fait, il s’agit souvent, en l’occurrence, d’une forme de folklore contemporain qui s’inscrit dans la lignée de la transmission orale et qui ne continuerait pas à exister si les gens n’avaient pas ce profond besoin social de partager des histoires et des informations en vue d’être en contact avec d’autres personnes.

Sur certains sites, comme snopes.com, on peut vérifier la fiabilité des histoires. Mais il n’empêche que les fausses informations se diffusent très facilement en ligne. Cette diffusion a lieu sous la forme de faux profils et de photos truquées, mais aussi parce que certains sites peuvent avoir des objectifs sous-jacents qui ne sont pas toujours tout de suite évidents, comme des objectifs commerciaux ou politiques ou de propagande.

Si à cette problématique s’ajoutent encore des algorithmes qui filtrent les informations sur la base d’idées auxquelles les personnes adhèrent déjà, le problème s’aggrave encore. Une personne critique à l’égard de la vaccination (un “anti-vaccins”) se verra confortée dans son opinion si elle ne voit, dans la chambre d’échos de son fil d’actualités, que des messages indiquant que la vaccination est nuisible.

Cette situation est surtout dangereuse lorsque les personnes ne se défient pas elles-mêmes intellectuellement en recherchant d’autres point de vue et arguments. Il s’agit donc, au fond, d’un problème auquel on peut surtout s’attaquer de manière structurelle. Il y a moyen de le faire avec un enseignement de qualité, qui apprendrait à chacun, depuis l’enfance, à adopter une attitude critique face aux informations, qu’elles soient en ligne ou non.

2. Exposé introductif du professeur Leo Neels (professeur émérite à la KULeuven et à l’UAntwerpen)1 Impact de l’IA et des algorithmes sur les médias sociaux dans le processus démocratique Prof. (em.) dr. Leo Neels – Droit des médias, KULeuven et UAntwerpen Voir texte en annexe.

Ancien CEO de VTM (1989-1993), ancien président de BELGA (1993-2013) L’IA ET LES ALGORITHMES L’IA et les algorithmes sont des instruments de marketing utilisés sur les médias sociaux. Ils effectuent un profilage des utilisateurs de services soi-disant “gratuits” sur la base de toutes les données qu’ils leur “volent” en espionnant constamment leur comportement sur Internet et en recueillant des données.

Cela augmente considérablement l’efficacité du marketing. En effet, les utilisateurs des médias sociaux font l’objet d’un profilage intégral: les médias sociaux captent l’intégralité de nos données sur la base du contenu de nos courriels, des sites que nous consultons et de la durée que nous y consacrons, des “j’aime” et “amis” ou pouces levés que nous y partageons, et adressent ensuite des annonces publicitaires de manière très spécifique à des utilisateurs potentiellement intéressés.

Et les consommateurs sont moins ennuyés par des annonces publicitaires pour des produits et des services qui ne les intéressent pas. Le plus important, c’est que nous sommes réduits à un profil de données et identifiés de cette manière. C’est – en résumant trop – ce que font les algorithmes, et l’IA peut amplifier tout cela. L’orateur estime que tant les algorithmes que l’IA peuvent présenter des avantages sociaux et personnels considérables – nous ne sommes qu’au début de cette évolution.

Ce modèle de marketing, sur la base duquel fonctionnent les “réseaux sociaux”, a cependant des effets désastreux sur le processus démocratique. Il ne favorise pas l’échange d’opinions rationnelles, n’encourage pas la contradiction raisonnable, n’alimente pas le débat public avec un contenu validé, ne promeut pas le sens et n’inspire pas la confiance ou l’engagement. Ce sont pourtant les caractéristiques fondamentales indispensables d’une société démocratique fondée sur une citoyenneté active: privée de ces éléments et de ce fondement, la société démocratique se délite et la démocratie est en difficulté.

Nous en sommes là. L’instrument du marketing vise en effet le contenu. Outre qu’il est actif en ce qui concerne l’efficacité des publicités et leur portée, il a un impact sur le contenu que l’on recherche sur les “réseaux sociaux”. Dès lors, ces plates-formes technologiques proposent de plus en plus de contenus du type de ceux que l’utilisateur recherche, et elles créent des “bulles” de personnes partageant les mêmes idées.

Les gens se retrouvent dès lors, lentement mais sûrement, prisonniers d’un cercle où tous partagent le même contenu et les mêmes convictions, sans cesse reconfirmés. Le questionnement critique des opinions et des idées y devient marginal ou disparaît, et l’illusion d’avoir absolument raison y est alimentée. À mesure que de plus en plus de contenus extrêmes sont diffusés via les plateformes technologiques, la radicalisation et la polarisation augmentent, et l’attitude critique envers l’information s’affaiblit.

Bien que les plates-formes technologiques aient considérablement augmenté notre accès à l’information, il faudra qu’il y ait de plus en plus d’utilisateurs vigilants si l’on veut éviter que les opinions s’appauvrissent et se délitent. L’IA et les algorithmes ont donc également acquis une influence destructrice sur le débat public, qui est le fondement de tout État de droit démocratique. Or, c’est précisément sur la base de l’échange ouvert d’idées qu’une société démocratique peut exister.

En 2019, Freedom House a conclu son dernier rapport annuel sur les “réseaux sociaux” par le titre “The Crisis of Socio/ Media “. Selon Freedom House, la liberté est de plus en plus menacée sur le web par les instruments et les tactiques de l’autoritarisme numérique, qui se sont rapidement répandus dans le monde entier. Des régimes répressifs, des dirigeants élus aux ambitions autoritaires et des fonctionnaires partisans sans scrupules ont exploité les espaces non réglementés des plateformes des réseaux sociaux pour les transformer en instruments de distorsion politique et de contrôle social.

Bien que les “réseaux sociaux” aient parfois servi à mettre tout le monde sur un pied d’égalité dans l’optique du débat social, ils tendent désormais dangereusement vers l’“illibéralisme”, en exposant les citoyens à une remise en cause sans précédent de leurs libertés fondamentales. En outre, une diversité étonnante d’autorités publiques déploient des outils sophistiqués pour identifier et suivre les utilisateurs à une échelle considérable

GARDIENS

(“GATEKEEPERS”) ET CHAMBRES D’ÉCHO Yascha Mounk a souligné que les techno-optimistes étaient particulièrement intéressés par les nouveaux médias. Ceux-ci devaient permettre aux citoyens de rendre compte eux-mêmes de l’actualité, de dénoncer les abus, de diffuser des opinions libres, de contrôler les actions des autorités publiques et de promouvoir la participation civique. Ils ont évoqué l’évolution de la Malaisie, des Philippines et de la Chine, ainsi que le “printemps arabe”, où l’on a répondu aux balles par des

tweets. Ces exemples sont toutefois autant de sources de doutes car les gains démocratiques, dans ces pays, ont été plus limités qu’on ne le pensait initialement. Certaines voix, par exemple celle de Cass Sunstein, sont plus prudentes. La liberté, selon Sunstein, présuppose la possibilité d’organiser sa vie librement, de l’orienter comme bon nous semble. Les gens ont besoin de savoir comment ils peuvent construire leur avenir.

À défaut, ils se sentent trop limités dans leurs possibilités et risquent d’abandonner. De plus, l’internet désoriente peut-être plus qu’il n’oriente: les internautes peuvent sélectionner leurs propres sources d’informations – ou pensent le faire – mais c’est ainsi que se créent les fameuses “chambres d’écho” qui réunissent des personnes qui partagent les mêmes opinions. Paradoxalement, il est donc possible que la facilité accrue de communication avec n’importe qui dans le monde induise une nette réduction de la communication sur les divergences de vues sociales et politiques les plus marquantes.

Yascha Mounk souligne que les réseaux sociaux ont principalement supprimé les gardiens (“gatekeepers”) de la communication. Avant l’avènement des “réseaux sociaux”, les autorités publiques et les grands éditeurs de presse surveillaient davantage la “norme d’un débat public acceptable”. Dans toute bonne démocratie, il s’agissait d’un frein majeur à l’égard des contenus purement racistes, des théories conspirationnistes et des mensonges flagrants.

C’est ainsi que la démocratie libérale s’est stabilisée. Dans tout régime autocratique, en revanche, les gardiens limitent les critiques éventuelles à l’encontre du dictateur, et sont un obstacle à la démocratisation. LES VALEURS ET LES INSTITUTIONS SONT LES FONDEMENTS DE L’ÉTAT DE DROIT, DE LA DÉMOCRATIE ET DE LA CRÉATION DE RICHESSE L’évidence scientifique indique que les valeurs et les institutions similaires aux nôtres permettent aux sociétés de développer une importante activité économique à long terme et de créer de la richesse.

Ces valeurs vont de la sécurité juridique et la reconnaissance légale de la valeur juridique des contrats aux libertés individuelles, y compris la liberté de commerce et d’industrie, ou encore, l’égalité. Les libertés d’opinion et d’expression en font également partie intégrante. C’est important car, sans ces libertés, il n’est pas possible d’établir et de publier des faits exacts et des opinions valables.

Le “libre-échange des idées” (free trade in ideas), également connu sous le nom de “marché des idées” (marketplace of ideas),

exprime la puissance d’idées qui doivent être suffisamment fortes pour survivre dans une concurrence ouverte de différentes idées. Ces mêmes libertés garantissent également la possibilité de développement et d’épanouissement des individus, qui est également nécessaire en tant que fondement d’une citoyenneté active dans toute société démocratique, et qui est également à la base de la supervision et du contrôle de l’action des autorités publiques

ÉQUILIBRE DES POUVOIRS

(CHECKS AND BALANCES) En démocratie, l’équilibre des pouvoirs (checks and balances), défini dans la Constitution, revêt une importance particulière. Tout régime représentatif, notamment, est régi par l’équilibre des pouvoirs dès lors que la population se prononce au travers du droit de vote, les élus s’exprimant ensuite en toute légitimité. Des élections libres récurrentes, le suffrage universel ou encore la séparation des pouvoirs législatif, exécutif et judiciaire font partie de cet arsenal.

L’équilibre des pouvoirs doit protéger contre les déviations de l’un ou de l’autre pouvoir dans l’exercice du pouvoir, mais aussi ordonner, dans une certaine mesure, la multiplicité excessive des pensées et des opinions et permettre de surveiller le cadre démocratique de l’État de droit. En outre, des normes démocratiques non écrites améliorent également le fonctionnement de la démocratie: le concept de tolérance mutuelle, tout d’abord, ou l’idée que les partis en concurrence s’acceptent mutuellement en tant que rivaux légitimes, ainsi qu’une certaine retenue (forbearance), ou l’idée que les hommes et les femmes politiques doivent faire preuve de retenue dans l’exercice de leurs prérogatives.

Les dirigeants rivaux doivent se considérer comme des adversaires légitimes et résister à la tentation d’abuser du contrôle temporaire qu’ils exercent sur les institutions pour maximiser un avantage partisan. Ces règles élémentaires de tolérance et de retenue sont “les garde-fous d’une démocratie libérale”. Ces dernières années, nous avons progressivement perdu de vue la sagesse de ces règles élémentaires et leur importance vitale pour une démocratie saine.

Les dirigeants politiques ont multiplié les tentatives pour exploiter leurs pouvoirs temporaires jusqu’à l’extrême, et ont de moins en moins respecté la légitimité de leurs adversaires. En Belgique, ce phénomène est bien connu sous la forme notamment du cloisonnement, de la particratie et du corporatisme.

“LE CHIEN DE GARDE PUBLIC DE LA DÉMOCRATIE” La Cour européenne des droits de l’homme ne cesse de rappeler que la liberté d’expression est un des fondements essentiels d’une société démocratique, et une des conditions fondamentales de son progrès et de l’épanouissement de chaque individu. Elle protège tant les informations et les opinions accueillies favorablement ou avec indifférence, que celles qui nous choquent, nous préoccupent, voire même nous offensent.

C’est en effet ce qu’exigent le pluralisme, la tolérance et l’ouverture d’esprit, sans lesquels aucune société démocratique n’est concevable. En particulier en ce qui concerne le rôle de la presse et des médias dans une société démocratique, la Cour souligne constamment que, si ceux-ci doivent respecter certaines limites, notamment préserver l’honneur et la réputation ou le droit à la vie privée d’autrui, ils ont néanmoins le devoir essentiel de diffuser, d’une manière compatible avec leurs responsabilités et devoirs essentiels, des informations et des idées sur toutes les questions sociétales d’intérêt général.

Il reste dans l’intérêt d’une société démocratique de permettre à une presse libre d’exercer son rôle vital de “chien de garde public de la démocratie” en sauvegardant sa capacité à communiquer librement sur toutes les questions sociétales d’intérêt général. Il est essentiel de toujours garder à l’esprit les principes précités en examinant le rôle de la liberté d’information et d’expression dans et pour une société démocratique: ce sont les normes qui s’imposent – y compris à l’égard des informations qui seraient traitées par le biais de l’intelligence artificielle et des algorithmes.

Nous ne devons pas oublier qu’il s’agit de techniques numériques, qui impliquent qu’elles peuvent être utilisées à des fins de manipulation. “LIVING TOGETHER”, VIVRE ENSEMBLE, SAMEN-LEVEN Dès qu’il est question de points litigieux, sources de polarisation, les fondements de la société sont en jeu. Il est alors primordial que les autorités opèrent des choix sociétaux. Dans ce cas, les autorités doivent réellement faire preuve de fermeté en ce qui concerne les règles de base de la communication sociale et les exigences du vivre-ensemble.

Les autorités doivent protéger les principes d’interaction entre les individus, ceux-ci étant essentiels pour des valeurs telles que le pluralisme, la tolérance et l’ouverture d’esprit, sans lesquels il n’y a pas de société démocratique. Telle est une véritable

tâche essentielle pour les autorités, et une préoccupation fondamentale dans notre démocratie moderne. Il va sans dire que des choix devront être opérés dans le cadre de la convention des droits de l’homme. Cet aspect a été abordé dans un arrêt du 1er juillet 2014 de la Cour européenne des droits de l’homme concernant l’interdiction de la burqa en France (CEDH, 1er juillet 2014, dans l’affaire SAS. c.

France), qui a indiqué ce qui suit: “§ 153. En outre, certes, comme le souligne la requérante, en interdisant à chacun de revêtir dans l’espace public une tenue destinée à dissimuler son visage, l’État défendeur restreint d’une certaine façon le champ du pluralisme, dans la mesure où l’interdiction fait obstacle à ce que certaines femmes expriment leur personnalité et leurs convictions en portant le voile intégral en public.

Il indique cependant de son côté qu’il s’agit pour lui de répondre à une pratique qu’il juge incompatible, dans la société française, avec les modalités de la communication sociale et, plus largement, du “vivre ensemble”. Dans cette perspective, l’État défendeur entend protéger une modalité d’interaction entre les individus, essentielle à ses yeux pour l’expression non seulement du pluralisme, mais aussi de la tolérance et de l’esprit d’ouverture, sans lesquels il n’y a pas de société démocratique (paragraphe 128 ci-dessus).

Il apparaît ainsi que la question de l’acceptation ou non du port du voile intégral dans l’espace public constitue un choix de société.” Les exigences du “vivre-ensemble”, “samen-leven”, “the requirements of living together” peuvent donc restreindre les droits individuels, ce qui implique qu’elles l’emportent sur l’exercice de libertés fondamentales

COMMENT GOUVERNER UN

PEUPLE-ROI? L’ART

D’ÊTRE GOUVERNÉ La liberté d’expression a toujours une relation quelque peu problématique avec l’exercice de l’autorité, ce qui n’est pas si surprenant. Dans ses réflexions sur le déclin de l’État de droit, Schaap a souligné que le droit à la liberté d’expression, si important, protège contre les interdictions punitives des autorités ecclésiastiques ou laïques, mais qu’il repose aussi sur un ordre reconnu, faisant autorité, et qui, bien entendu, préserve la société libre et tolérante qui constitue l’objectif visé. L’autorité doit alors non seulement tolérer elle-même les opinions dissidentes, mais aussi exiger cette tolérance de la part de ses citoyens. Ensuite, il s’agit de reconnaître que la liberté et l’ordre doivent être maintenus en équilibre, ce qui exige de la modération de la part de ceux qui

invoquent cette liberté; selon Schaap, on ne sait pas à l’avance où se situe l’équilibre. Le philosophe français Tavoillot a récemment aussi abordé la question (Pierre Tavoillot, Comment gouverner un peuple-roi? L’art d’être gouverné, 2019). Il met en garde contre le déclin démocratique, voire contre un âge post-démocratique. On distingue trois causes à la déception actuelle de la démocratie libérale: elle souffre (i) d’une terrible crise de la représentation, (ii) d’une grave impuissance publique et (iii) d’un profond déficit de sens.

Cela signifie simplement que nous avons perdu à la fois (i) le peuple qui a fondé la démocratie libérale, (ii) le gouvernement qui maintient la démocratie et (iii) l’horizon qui doit guider la démocratie. Ce que nous avions pris pour un progrès acquis – la démocratie – se révèle en réalité un vertigineux chantier. Nous voguons entre le cauchemar de l’impuissance publique et le spectre de l’autoritarisme.

Nous sommes chargés de réconcilier la liberté du peuple et l’efficacité du pouvoir. Il plaide en faveur de l’art d’être gouverné et appelle cela le secret de l’obéissance volontaire: “l’art de gouverner est surtout un art d’être gouverné”

CONFIANCE ET DÉBAT PUBLIC

Tavoillot cite trois causes expliquant les dysfonctionnements de la démocratie: une terrible crise de la représentation, une grave impuissance publique et une absence de sens profondément ressentie. Au niveau mondial, on observe un recul du nombre de citoyens qui vivent sous des régimes démocratiques, et à l’inverse une montée en puissance des dirigeants autocratiques. Le dernier rapport annuel de Freedom House sur l’état de la démocratie dans le monde est intitulé: “Democracy in Retreat.

Freedom in the World”. De plus, dans les États démocratiques, le degré de satisfaction des citoyens quant au fonctionnement de leur démocratie est faible. C’est ainsi que, selon l’Eurobaromètre, 50 % seulement des citoyens de l’UE se disent satisfaits de la démocratie, alors que le taux de satisfaction des citoyens en Flandre est de 65 %. Ce sont des chiffres inquiétants, qui appellent à l’action. Un État de droit démocratique ne peut pas fonctionner correctement sans une confiance franche de la part de ses citoyens.

PERSPECTIVE, CONNAISSANCES, OBJECTIF

La société manque d’un discours fédérateur. Les grandes idéologies se sont désagrégées, et ne fédèrent manifestement plus. De nombreux éléments indiquent que les États-providence ont le grand désavantage de susciter une certaine passivité dans le chef des citoyens. On a “droit” à de nombreuses prestations, ce qui donne l’impression que ces prestations sont automatiques. L’engagement diminue, l’idée de réciprocité (“quidpro-quo”) ou les nobles pensées sur la solidarité sont reléguées à l’arrière-plan. Plus l’État-providence offre de prestations, plus les citoyens semblent renoncer. Il nous manque un défi collectif qui nous fasse rêver, tel que celui d’envoyer un homme sur la lune, lancé par le président John Fitzgerald Kennedy en 1962 aux États- Unis. Son appel qualifiait l’espace de nouvelle frontière et invoquait l’esprit pionnier américain. Dans le contexte de ce que l’on a appelé la Guerre froide, il a imprégné son discours d’un sentiment d’urgence et de destin, et souligné la liberté dont disposaient les Américains de choisir leur destin au lieu de se le faire imposer par les circonstances ou par des tiers. À un moment où nous disposons de larges connaissances, alors que nous sommes justement confrontés à une zone d’ombre, comme l’application du modèle de marketing des algorithmes aux communications globales par le biais des médias sociaux, nous devons avoir le courage de restaurer l’importance de la connaissance et de faire reposer la politique, mais aussi la lutte contre les abus, sur la science et sur l’évidence. Dans le cadre de la gestion de la chose publique, nous ne pouvons pas non plus nous passer d’une réévaluation du fondement de l’expertise et de la connaissance. Nous devons redonner un sens et un objectif à notre avenir, et réinventer la gestion du bien commun. Une part non négligeable du préjudice que nous subissons en raison de l’influence négative décrite du modèle de marketing des médias sociaux sur la démocratie n’est possible que parce qu’il règne dans les démocraties modernes un vide qui les mine. Nous pouvons et nous devons combler ce vide, avec les citoyens et avec de vrais dirigeants politiques qui élaborent à nouveau une perspective à long terme, font preuve de détermination et prennent les choses en main.

B. Questions et observations des membres Mme Yngvild Ingels (N-VA) demande comment le monde politique peut s’attaquer à ce problème. Elle se fait moins de soucis pour les enfants, puisqu’ils peuvent être éduqués de manière critique avec des ressources

multimédias. Il y a cependant lieu de s’inquiéter, notamment, de l’existence de trucages vidéo ultra-réalistes: sur les médias sociaux, il est maintenant déjà techniquement possible de faire dire à des personnes des choses qu’elles n’ont jamais dites: comment faire face à cette situation en tant que pouvoirs publics? M. Kristof Calvo (Ecolo-Groen) estime qu’il faut plutôt faire preuve d’inspiration et ne pas se contenter de réguler.

C’est à juste titre que M. Neels met en garde contre un excès de répression, mais quelles mesures répressives concrètes propose-t-il? En ce qui concerne les observations de l’intervenante précédente, M. Calvo demande s’il existe une coopération entre les organisations néerlandophones et francophones, vu qu’il s’agit d’une compétence des Communautés (la manière dont les jeunes abordent les médias): y a-t-il une collaboration entre les deux Communautés? M. Steven Creyelman (VB) constate que les fausses nouvelles doivent visiblement expliquer la victoire ou la défaite de certains partis politiques.

Les fausses nouvelles ne sont toutefois pas celles que l’on n’aime pas entendre ou qui sont communiquées sous une forme douteuse. Faut-il, selon les orateurs, une définition claire des fausses nouvelles et, dans l’affirmative, quelle est cette définition? Le fait que certains partis politiques ont perdu les élections ne signifie en effet pas que la démocratie est menacée. Comment peut-on empêcher que l’intelligence artificielle soit utilisée pour lutter contre certaines opinions à propos de certains partis politiques? L’intervenant demande ensuite s’il n’est pas question en l’occurrence de la poursuite du marketing direct? Par ailleurs, c’est toujours l’autre qui est pointé du doigt, mais n’est-il pas également nécessaire de responsabiliser les utilisateurs mêmes? La plupart des gens ferment simplement les pop-ups et messages sans même les regarder.

Le professeur Neels estime que le débat public s’appauvrit. L’intervenant fait cependant observer qu’au cours des années quatre-vingt et nonante du siècle dernier, les articles de presse positifs à propos du Vlaams Belang se comptaient sur les doigts de la main: à cette époque, les gardiens humains étaient en effet encore à l’œuvre. Le même orateur estime que la démocratie touche à sa fin, mais a-t-il jamais été question de démocratie en ce qui concerne la collecte d’informations?

C. Réponses des orateurs

Mme Katleen Gabriëls (Maastricht University) répond à la question relative à l’hypertrucage: de nombreux adultes gagneraient aussi à suivre une certaine éducation aux médias dans ce domaine. Les autorités doivent faire réaliser de la recherche fondamentale à ce propos, d’une part, au sujet des solutions techniques potentielles et, d’autre part, en matière de régulation (notamment la mention obligatoire des sources); ensuite, il est essentiel d’éduquer à la lecture et à la pensée critiques en matière d’informations. Les fausses nouvelles ne sont pas neuves au demeurant (cf. les hoaxes – fausses alertes); la plateforme snopes.com (USA) est une bonne plateforme. En ce qui concerne la coopération entre les communautés française et flamande, il n’est pas nécessaire de réinventer l’eau chaude: l’oratrice plaide en faveur de la coopération avec le Rathenau Instituut, un excellent institut néerlandais de recherche sur “l’évaluation technologique”. Faut-il redéfinir la notion de fausses nouvelles? Beaucoup de choses passent par les algorithmes, l’hypernudging et les outils informatiques utilisés à des fins politiques. Combattre l’Intelligence artificielle et les opinions? En 2016, l’algorithme AlphaGo (Deep Mind) a battu un être humain au jeu de Go, un jeu de plateau complexe. Alphabet a ensuite utilisé l’algorithme AlphaGo sur YouTube pour que les gens restent connectés à la plateforme plus longtemps. Pour un tel outil, peu importe qu’il doive apprendre un jeu de plateau complexe ou distraire délibérément les gens (“distraction by design”). En outre, personne ne sait exactement comment ces moteurs de recherche fonctionnent exactement et il est également question d’“optimisation de la recherche”. Google joue lui-même également un rôle ambigu à cet égard: ils prétendent qu’ils n’interviennent pas et que les utilisateurs décident de tout, mais contre paiement, par exemple, vous apparaissez en tête des résultats de recherche. Il y a effectivement une poursuite du marketing direct. À cet égard, l’oratrice se réfère à la rhétorique d’Alexander Nix lors de son audition à propos de Cambridge Analytica (voir ci-dessus). De plus, il convient de sensibiliser non seulement les utilisateurs mais aussi les politiciens: en effet, une campagne politique est menée sur les réseaux sociaux

pendant toute une année et des montants importants sont investis pour que le contenu sponsorisé atteigne le public. Par ailleurs, cela dépasse évidemment les utilisateurs: c’est ainsi que le créateur du bouton “retweet” regrette maintenant son invention et compare ce bouton au fait de donner une arme chargée à un enfant de quatre ans. Une piste technique pourrait consister à prévoir un délai de quelques secondes.

Ensuite, si on lisait vraiment les conditions générales (les “Terms and Conditions”) vraiment en entier, on ne parviendrait probablement plus à travailler, car ils sont beaucoup trop longs: dans la littérature, on appelle cela le paradoxe de la transparence (si tout est expliqué, c’est trop long à lire, mais si le résumé est trop succinct, des informations précieuses sont perdues). L’oratrice plaide pour que l’on oblige les entreprises à indiquer les aspects les plus importants en une dizaine de secondes.

Cette tâche incombe au monde politique: il n’y aura pas d’autorégulation en la matière. Enfin, en ce qui concerne l’action engagée par la Belgique contre Facebook, il s’est avéré que même si on n’avait pas de profil sur Facebook, on était quand même suivi: il ne suffit donc pas de responsabiliser l’utilisateur. M. Leo Neels (professeur émérite à la KULeuven et à l’UAntwerpen) répond d’abord à la dernière question: la démocratie existe-t-elle? Il répond qu’en ce qui le concerne, l’imperfection de la démocratie et de la liberté est de loin préférable à la prétendue perfection de l’absence de liberté.

Le concept de “We the people”, autrement dit, la nation, est un concept très large et n’englobe pas seulement ceux qui ont toujours été ici mais aussi ceux qui arrivent, à savoir les réfugiés et les migrants. La Cour européenne des droits de l’homme ne cesse de souligner que le fait de souscrire à un cadre de valeurs démocratiques suppose des concessions de la part des individus concernés. En ce qui concerne les trucages vidéo ultra-réalistes, M. Neels renvoie aux réponses de Mme Gabriëls.

Pour ce qui est des mesures répressives, l’orateur plaide en faveur d’une grande réserve. En effet, il y a déjà de nombreux interdits en Belgique. Ce n’est pas ça le problème; le problème, c’est le respect des règles. La justice est trop sollicitée, il y a déjà trop de règles. Ce qu’il faut faire, selon l’orateur, c’est durcir les règles anti-concurrence. Cela devra cependant se faire lieu au niveau européen, car la Belgique est trop petite.

En tout cas, il ne faut pas s’attendre à ce que les États- Unis interviennent dans ce domaine. Pourtant, c’est aux États-Unis qu’on trouve le bon exemple: quand,

au 19ème siècle, les grands monopoles (chemins de fer, banques, pétrole, etc.) sont devenus tellement grands qu’ils risquaient de surpasser Washington sur le plan politique, on a créé l’“Anti-Trust-Authority” et ces grandes entreprises ont été saucissonnées. En matière de réglementation, les Belges sont passés maîtres dans l’art d’élaborer de nouvelles lois. L’orateur estime pourtant qu’il est préférable que la législation intervienne a posteriori.

Sur ce point, les dictatures anticipent toujours. M. Neels plaide en faveur de la création de “legal shelters”, où on laisserait d’abord naître quelque chose de nouveau et où on pourrait simplement observer le phénomène. Il cite à cet égard l’exemple de l’émergence d’Uber, société maintenant considérée par de nombreux voyageurs comme une amélioration phénoménale, tant il est vrai que les règles qui régissent les taxis représentent une législation purement corporatiste, qui a abouti à un service abominable.

Face au “bad speech”, nous avons besoin d’un contrediscours de meilleure qualité et plus nourri. En d’autres termes, la démocratie doit être alimentée par des perspectives et par du contenu. Nous devons élaborer un récit mobilisateur. L’orateur s’adresse enfin directement aux mandataires ou aux représentants politiques qui siègent au sein de cette commission. Selon la Constitution, les parlementaires représentent en effet également ceux qui ne les ont pas élus, c’est-à-dire tout le monde ou toute la nation.

Cela implique qu’ils doivent apprendre à réfléchir en dehors de leur carcan politique partisan. On voit en effet réapparaître dans les opinions politiques la même perversion que celle que l’on observe sur les réseaux sociaux: dénigrer est devenu plus important qu’échanger des arguments. Nous avons donc besoin d’un nouveau récit mobilisateur et fédérateur. L’orateur renvoie à ce qu’il a dit à ce sujet lors de son exposé.

La notion de “parti politique” est définitivement dépassée et a perdu sa pertinence. La mission des représentants politiques est essentielle pour maintenir un véritable ordre juridique démocratique. À l’échelon mondial, de moins en moins de gens vivent d’ailleurs en démocratie

ANNEXE

V. — AUDITION DU 18 FÉVRIER 2020 1. Exposé introductif de M. Marco Pancini (YouTube) M. Marco Pancini (YouTube) est directeur des politiques publiques pour l’Europe, le Moyen-Orient et l’Afrique (EMEA). Fort de plus de dix années d’expérience dans le domaine de la sécurité en ligne, il est étroitement associé aux efforts fournis par YouTube pour garantir chaque jour la sécurité de ses utilisateurs. Il remercie le comité d’avis de l’avoir invité, tout en lui offrant la possibilité de s’exprimer en anglais.

Les sujets examinés aujourd’hui par le comité d’avis sont cruciaux. Il s’agit notamment de la réglementation relative à l’intelligence artificielle, de la désinformation, de l’intégrité de nos élections, etc. Google s’engage à assurer la qualité de l’information fournie et une collaboration continue afin d’améliorer les moyens disponibles pour lutter contre les contenus néfastes (tels que la désinformation) en ligne.

L’orateur exposera aujourd’hui les efforts fournis par YouTube et présentera les initiatives déjà prises par l’entreprise; il présentera aussi les possibilités existantes en vue de renforcer la coopération entre les entreprises, les pouvoirs publics et la société civile afin de s’attaquer à cette problématique. Comment YouTube assume sa responsabilité YouTube est une plateforme ouverte, où chacun peut télécharger une vidéo et la partager avec le monde entier.

L’accessibilité de la plateforme a contribué à la création d’innombrables opportunités économiques, à la croissance d’une communauté d’utilisateurs et à la possibilité d’un apprentissage continu. À l’heure actuelle, des millions de créateurs présents sur YouTube ont fidélisé tout un public à travers le monde, ce qui a permis à nombre d’entre eux de créer des entreprises florissantes. Parallèlement, YouTube a toujours appliqué à sa communauté d’utilisateurs des règles strictes2 qui définissent clairement ce qui est autorisé ou non sur la plateforme.

YouTube conçoit ses systèmes et actualise sa politique pour répondre aux besoins changeants de ses utilisateurs et de la société. Par exemple, les vidéos contraires à la politique de la plateforme ne représentent https://www .youtube .com /intl /nl /about /policies /#community -guidelines.

à l’heure actuelle qu’un faible pourcentage du nombre total de vues enregistrées sur YouTube. Et l’entreprise s’attelle en permanence à réduire davantage ce chiffre. Ainsi, grâce aux efforts fournis par YouTube ces dix-huit derniers mois, le nombre de vues enregistrées pour des vidéos supprimées ultérieurement pour cause de violation des règles a diminué de 80 %. Notre approche de la responsabilité se résume en quatre “R” (en anglais): — Nous retirons (Remove) le plus rapidement possible les contenus qui enfreignent notre politique. — Nous élevons (Raise up) des voix autorisées et fiables lorsque les gens sont à la recherche de nouvelles et d’informations, surtout dans les moments de “breaking news”. — Nous réduisons (Reduce) la diffusion de contenus “borderline” et de désinformation préjudiciable. — Et enfin, nous plaçons la barre plus haut pour les chaînes YouTube qui gagnent de l’argent sur la plateforme en récompensant (Reward) les créateurs fiables.

Progrès en matière de désinformation — Ces dernières années, nous avons utilisé ces quatre approches pour lutter contre la désinformation. Bien que nous restions vigilants face aux nouvelles menaces, nous sommes fiers des progrès que nous avons réalisés. — Nous avons augmenté la présence de contenu de qualité en mettant en œuvre, entre autres, deux produits fondamentaux: la section “Top des Actualités” dans les résultats de recherche YouTube et la section “Actualités” sur la page d’accueil YouTube3.

Ces produits mettent en évidence des sources de contenu qui font autorité et sont désormais disponibles dans plus de 40 pays, dont la Belgique. — Nous avons travaillé particulièrement dur pour diffuser des informations utiles et faisant autorité au sujet des élections. Au début de cette année, nous avons, par exemple, lancé des panneaux d’information dans les résultats de recherche YouTube. Concernant les candidats officiels se présentant à l’élection du Parlement européen, ils aidaient les utilisateurs dans leur recherche d’informations faisant autorité. https://support .google .com /youtube /answer /9057101 ?hl =fr.

— Nous avons poursuivi notre stricte application des politiques de YouTube4 contre les informations trompeuses et l’usurpation d’identité. De septembre 2018 à août 2019, YouTube a supprimé plus de 10,8 millions de chaînes pour violation de sa politique de spam, de tromperie et d’escroqueries, et plus de 56 000 chaînes ont été supprimées pour violation de sa politique d’usurpation d’identité. Nous avons également adopté un large éventail d’approches pour lutter contre les opérations d’influence politique, dont nous avons régulièrement rendu compte au cours des deux dernières années. — Nous avons également réduit les recommandations pour tout contenu qui est très proche d’une violation d’une ligne de politique, mais ne la viole pas, y compris des tentatives de diffusion de fausses informations nuisibles.

Grâce aux changements que nous avons apportés au cours de l’année dernière, les recommandations portant sur ce type de contenu sont 50 % moins nombreuses qu’auparavant. YouTube a commencé à expérimenter ce changement au Royaume-Uni, en Irlande et sur d’autres marchés européens et continuera au fil du temps à l’appliquer dans d’autres pays encore. Ce ne sont là que quelques-uns des efforts que nous avons déployés pour combattre la désinformation sur YouTube.

Nous reconnaissons que notre travail dans ce domaine n’est jamais terminé. C’est pourquoi nous collaborons avec les autorités publiques, les entreprises et des experts du monde entier afin de continuer à améliorer nos initiatives. Opportunités de collaboration accrue Et dans cet esprit, je voudrais terminer en discutant des opportunités de futures collaborations accrues. Tout d’abord, le Code de bonnes pratiques de l’UE contre la désinformation5 est une base importante sur laquelle nous pouvons tous construire.

Lancé il y a un peu plus d’un an, le code a été élaboré à la lumière des travaux que nous et d’autres avons menés avec des experts et des éditeurs du monde entier pour améliorer la qualité des informations en ligne et stimuler les compétences numériques des utilisateurs. Dans le cadre de ce processus, nous avons fourni des rapports réguliers sur nos efforts pour lutter contre la désinformation et nous avons continuellement incorporé les recommandations de la Commission européenne et d’autres parhttps://www .youtube .com /intl /fr /about /policies /#community https://ec .europa .eu /digital -single -market /en /news /code -practice -disinformation.

ties prenantes. Cette façon de coopérer nous a aidés à comprendre les besoins et les contraintes des uns et des autres et à trouver de meilleures façons de lutter ensemble contre la désinformation. Deuxièmement, nous devons continuer à soutenir les efforts de recherche collaborative. Par exemple, nous avons investi dans la recherche sur la détection des médias synthétiques (également appelés Deep Fakes ou “contrefaçons profondes”) et avons publié6 des ensembles de données pour aider les chercheurs du monde entier à améliorer l’avancée dans la détection audio et vidéo.

Nous avons également mis à disposition les données de notre rapport de transparence des informations sur la publicité électorale7 afin que les chercheurs et autres puissent effectuer leurs propres analyses. Les autorités publiques, les entreprises et d’autres acteurs peuvent travailler ensemble pour soutenir une recherche efficace de ce type. Conclusion En conclusion, nous sommes convaincus que la lutte contre les contenus préjudiciables en ligne est une responsabilité partagée, c’est pourquoi nous sommes si déterminés à organiser des réunions et des collaborations comme celles-ci.

Nous nous engageons à faire notre part et j’ai hâte de répondre à vos questions aujourd’hui et de travailler avec chacun de vous à l’avenir.” 2. Exposé introductif de M. Bruno Schröder (Microsoft Benelux) IA, fake news et manipulation M. Bruno Schröder (Microsoft Benelux) retrace tout d’abord brièvement l’historique des fake news par le passé: il en ressort qu’il ne s’agit pas du tout d’un phénomène neuf ou récent.

Il renvoie notamment au “Pamphlet War” qui s’est déroulé au Royaume-Uni aux 16e et 17e siècles: la diffusion à grande échelle de pamphlets (+141 % en 1641 et +98 % en 1642) y a été à l’origine de la guerre civile qui a éclaté le 22 août 1642. D’autres exemples plus récents sont la “Guerre des mondes” (une pièce radiophonique d’Orson Welles diffusée le 30 octobre 1938, qui simulait une invasion d’extraterrestres), ou, plus récemment, l’émission de télévision de la RTBF intitulée “Byebye Belgium”, qui mettait en scène la scission effective de la Belgique. https://ai .googleblog .com /2019 /09 /contributing -data -to -deepfake -detection .html. https://transparencyreport .google .com /political -ads /region /BE ?hl =nl.

L’exemple le plus récent auquel il renvoie est celui des élections présidentielles américaines en 2015-2016. À chaque fois, des médias différents ont été utilisés, à savoir l’imprimerie, la radio et la télévision, et, plus récemment, les réseaux sociaux sur internet, et ce phénomène est chaque fois allé de pair avec une appropriation des codes de production de la vérité: il ne s’agit clairement pas, à cet égard, d’un problème de nature technologique.

Plus récemment, nous avons assisté à l’évolution des “deep fakes”, qui nécessitent davantage d’expertise et de moyens techniques, vers les “cheap fakes”, qui nécessitent moins d’expertise et de moyens techniques et dans le cadre desquels les choses sont simplement mises dans un contexte différent (il s’agit à cet égard de techniques comme le “face swapping”, les “lookalikes”, le “recontextualizing” etc.).

Cette évolution est fortement liée à l’augmentation énorme et permanente de la puissance de calcul des ordinateurs. L’orateur souligne qu’il ne s’agit pas d’une question technologique mais d’une rupture dans le processus de construction de ce qui est jugé vrai, accompagnée d’un effet clairement disruptif. Dans le cas de l’émission “Bye-bye Belgium”, il ne s’agissait pas, en effet, d’une histoire totalement invraisemblable mais surtout d’une rupture avec le code de communication journalistique: si elle avait été diffusée en dehors du journal télévisé, elle aurait automatiquement été vue comme une fiction.

Il s’agit dès lors d’un nouveau canal dont les codes n’ont pas été intégrés dans la société et d’une modification des institutions associées à la construction de ce qui est jugé “vrai”. Quelles solutions a-t-on envisagées contre les nouvelles mensongères à travers l’histoire? Au XVIIe siècle, la “Royal Society” a été créée en plein chaos, sur le plan de l’information, afin de faire la lumière et de reconstruire la communauté.

Cette association réunissait des individus d’une grande intelligence et de bonne volonté, capables de penser au-delà de leur sphère d’intérêts limitée, et qui ont élaboré une série de règles qui, quoique partielles et incomplètes, visaient à établir une vérité qui faisait l’unanimité. L’émission radiophonique “War of the worlds” a suscité une multitude de réactions, notamment de la part de Lyman Bryson, qui a affirmé que l’absence d’encadrement de la radio était l’un des éléments les plus dangereux de la culture moderne.

Cette émission a donné lieu à l’élaboration de la “FCC Fairness Doctrine”, qui

impose que des points de vue opposés soient aussi systématiquement entendus au cours de la discussion d’opinions controversées à la radio ou à la télévision. Cette législation a ensuite été abolie, en 1987, mais ce principe a été maintenu jusqu’en 2011: c’est son abolition qui a permis à des canaux d’information comme Fox news, etc., de voir le jour, et qui a induit une polarisation croissante dans les médias des États-Unis d’Amérique.

Sur les réseaux sociaux, la “vérité” est affirmée, principalement au travers de points de vue individuels et émotionnels, et non plus établie ni argumentée. La recherche de l’objectivité est présentée comme un préjugé (“bias”) ou comme l’expression de ce qui est politiquement correct. Les institutions du “vrai” ne font plus partie du lieu de la discussion. L’orateur estime que, ces derniers temps, en Belgique, les deux champions de la communication ont été Bart De Wever et Raoul Hedebouw.

À cet égard, l’orateur renvoie également aux “rebellions féminoïdes”, notamment aux mouvements MeToo, BlackLivesMatter, gilets jaunes, Occupy WallStreet, Extinction Rebellion et Climate Strike. Les réseaux sociaux permettent de s’opposer à différents phénomènes et de se rassembler en ligne. Il s’agit d’une forme d’opposition exprimée par un groupe donné contre certaines déficiences structurelles, le premier mouvement de ce type ayant été “MeToo”.

Grâce aux médias sociaux, ces nouvelles formes de rébellion ont pu se développer, et elles obéissent aux règles du web: elles sont émotionnelles, auto-organisées par des pairs, virales, rapides et agiles. La société digitale révèle ainsi l’existence de frustrations structurelles non prises en compte, ainsi que l’incapacité institutionnelle de résoudre ces frustrations. La transformation des mécanismes de production du “vrai” nourrit ces mouvements et l’intelligence artificielle renforce l’efficacité de ce type de fonctionnement.

Il s’agit d’un moyen efficace pour le profilage, la dissémination au moyen d’algorithmes (comme YouTube, Facebook etc.) et l’amplification. L’orateur renvoie, à ce sujet, à la startup “yonder” (https://www .yonder .co /), spécialisée dans l’analyse de l’information sur les media sociaux. L’orateur rappelle que le problème n’est donc pas de nature technologique, mais qu’il s’agit de la remise en question des institutions du vrai et de la transformation des problèmes jugés importants (construction sociale).

À cet égard, il renvoie à la stratégie de Cambridge Analytica en faveur du Brexit, qui s’est concentrée sur la motivation des personnes qui n’allaient normalement

jamais voter: cette stratégie lui a permis de remobiliser trois millions de personnes qui ont fait pencher la balance en faveur du Brexit. Les solutions Quant aux solutions, on pourrait, au niveau législatif, faire bloquer le contenu mais ce sera difficile. En effet, il ne s’agit pas toujours d’informations inexactes ou de désinformation. Ainsi, lors de la campagne du président Trump, une vidéo a été utilisée mettant en scène un enfant noir jouant avec un révolver.

Bien qu’il ne s’agisse pas d’une fake news, ce genre de vidéo peut avoir une influence considérable sur des populations pauvres et blanches du Sud des États-Unis (les “white nationalists”). Parallèlement, on pourrait envisager de bloquer les acteurs (après analyse des corrélations). En tout état de cause, il faut prouver l’intention de nuire. Une autre piste intéressante est ce qu’on appelle la PSD-2 (la directive sur les services de paiement) des données à caractère personnel afin de stimuler l’émergence de plateformes alternatives.

À cet égard, il s’agit en réalité d’une réglementation émanant du secteur bancaire qui, depuis deux ans, oblige les banques à transmettre les coordonnées et les informations relatives à leurs clients à toutes les instances autorisées par ces derniers, le but étant de casser le monopole que les banques exercent sur leurs clients. Ainsi, des acteurs autres que Facebook peuvent avoir accès aux informations relatives à leurs clients et les écosystèmes de l’information peuvent être multipliés.

Parallèlement, sociologues et anthropologues doivent mener une étude scientifique sur les nouveaux modèles utilisés pour créer une vérité. Enfin, il faut également étudier les analyses des corrélations: comment savoir que l’on a affaire à une désinformation lorsque le message est authentique mais n’est adressé qu’à un public cible donné? Soulignons à ce propos que les métadonnées contiennent certains éléments qui l’indiquent: la Belgique a acquis une grande expérience en la matière et a même fait figure de précurseur, notamment avec l’entreprise “Netcortex” qui, dans les années 90 du siècle dernier, opérait dans le secteur bancaire.

L’orateur a également travaillé sur cette question. En tout état de cause, considérer que la solution consiste, pour utiliser la métaphore du coronavirus, à éviter tout contact pour ne pas être contaminé, n’est pas efficace. Il faut en revanche instaurer des filtres et légiférer, ce qui n’exclut pas totalement le risque de censure bien sûr. L’intelligence artificielle permet d’analyser des métadonnées et de démontrer des corrélations: l’orateur cite l’exemple de @Joe_America1776, qui a

posté 580 000 tweets et en a “liké” plus de 21 500, dont la méta-analyse a révélé qu’il s’agissait bien évidemment d’un “bot”. Parallèlement, on peut aussi avoir recours à la technologie utilisée pour détecter les “spams”. On peut néanmoins s’interroger sur la légitimité de tels contrôles. Un élément essentiel est évidemment l’amélioration de l’éducation aux médias: à cet égard, il convient de se concentrer sur les capacités individuelles et sur la responsabilité du lecteur/auditeur.

Cette approche ne tient cependant pas compte du rôle des institutions, des plateformes technologiques et des médias. Or, il convient de la conjuguer à une approche globale de la société. Il faut réinventer la création sociale du vrai en élaborant de nouvelles règles pour prendre en compte les faits, les preuves et la notion de vérité elle-même: à cet égard, il conviendra de tenir compte des nouveaux processus sociaux de la production de la vérité.

Il faudra en outre transformer l’écosystème des médias sociaux, en contrôlant les inférences et non les données proprement dites: ce contrôle devra reposer sur une approche coopérative et multidisciplinaire. L’orateur évoque plusieurs pistes pour y parvenir: la création d’un “groupe de travail sur les métadonnées” chargé d’identifier les sources de désinformation. Ou la création d’une coalition humaniste de référence, chargée de produire les nouveaux principes de vie en société.

Tous les acteurs de la société devront être associés à ce processus: les acteurs politiques, scientifiques, sociologiques, anthropologiques, technologiques et de la communication. En ce qui concerne la législation, l’orateur plaide en faveur de l’application du principe dit de législation minimum viable (Minimum Viable Legislation): il s’agit d’un concept inspiré d’un concept utilisé dans le monde des start-ups pour désigner le produit minimum qu’une start-up peut mettre sur le marché (minimum viable product ou MVP).

En outre, la législation doit également pouvoir être modifiée rapidement afin de permettre de réagir rapidement aux nouvelles évolutions, comme le font les start-ups.

B. Questions et observations des membres et réponses des orateurs Mme Séverine de Laveleye (Ecolo-Groen) demande aux deux orateurs de définir le concept de fake news. Elle leur demande également de donner, si possible,

des exemples de législation utile mise en place pour réguler la manipulation et l’utilisation des fake news. M. Steven Creyelman (VB) demande aux deux orateurs de définir les notions de fake news et d’informations trompeuses: ces concepts ne peuvent bien évidemment pas être définis comme étant des informations qui ne font pas plaisir. L’intervenant renvoie à cet égard au monopole historique dont dispose les médias traditionnels sur le façonnage de l’opinion de l’homme de la rue.

Il s’attarde ensuite sur l’évaluation des fausses nouvelles, notamment exposée par le représentant de YouTube, dont il est ressorti que les gens jouent également un rôle dans l’évaluation. Il est clair que cela génère certaines faiblesses, comme l’influence de l’avis de l’évaluateur (subjectivité) et le phénomène des “communautés”, qui s’entredéchirent sur les médias sociaux. Comment YouTube et Microsoft gèrent-ils ces phénomènes? L’intelligence artificielle est quelquefois considérée comme la solution, mais sur le plan éthique, elle n’est pas neutre: ne risque-t-on pas d’obtenir le résultat inverse en recourant à l’intelligence artificielle, à savoir combattre les opinions non souhaitées plutôt que les fausses nouvelles? M. Georges Dallemagne (cdH) tient à formuler une observation au sujet de la constatation de M. Schröder, selon lequel il ne s’agit pas d’un problème technologique.

L’échelle et les possibilités de nuire se sont en effet sensiblement accrues, et ce, en grande partie grâce à la technologie. En outre, la capacité de nuire en dehors de son propre groupe s’est aussi énormément accrue. On constate ainsi que certaines puissances étrangères déstabilisent un autre pays démocratique via les médias sociaux (l’intervenant renvoie à l’exemple de la Russie). La technologie confère ainsi une nouvelle dimension au problème.

L’intervenant s’intéresse ensuite à la fracture invoquée dans la création sociale du vrai: il renvoie à cet égard aux ouvrages de M. Harari. Le risque existe que les valeurs communes auxquelles adhèrent encore nos sociétés, ainsi que le vivre-ensemble proprement dit soient définitivement détruits par les médias sociaux. Aujourd’hui, les utilisateurs des médias sociaux disposent de très peu de moyens pour décider ce qu’ils veulent recevoir comme (fausses) nouvelles, tout cela est très opaque.

Peut-être faudrait-il malgré tout essayer de fournir quelques leviers aux utilisateurs, par exemple

faire en sorte qu’ils aient eux-mêmes accès aux algorithmes-clés plutôt que d’être manipulés comme un jouet inerte par des forces incompréhensibles. Mme Frieda Gijbels (N-VA) demande à M. Pancini comment, de quelles manières et selon quelle procédure YouTube va bloquer des plateformes, des canaux ou des vidéos? S’agit-il en l’occurrence d’un processus automatique ou y a-t-il encore un contrôle humain? N’y a-t-il jamais d’erreurs? Mme Jessika Soors (Ecolo-Groen) fait remarquer que l’on peut également décider de lutter contre les auteurs et les diffuseurs de fake news.

Par ailleurs, il est également important de permettre aux personnes qui font des recherches sur internet de mieux contextualiser ces dernières, par exemple en renvoyant, dans une rubrique spéciale des résultats de recherche, à Wikipedia ou à une autre source faisant autorité: est-ce une option envisageable pour les orateurs? Où en sont les deux acteurs en la matière? M. Marco Pancini (YouTube) fait remarquer que les fake news doivent être définies comme de la désinformation: cela doit être très clair afin qu’il puisse être question d’une violation de la politique de YouTube.

Cette politique vise à lutter contre les spams, les pratiques trompeuses et l’escroquerie, qui sont tous des moyens visant à tromper les utilisateurs. L’orateur donne ensuite une série d’exemples spécifiques: ainsi, YouTube n’autorise pas de contenu en ligne visant à tromper les électeurs sur l’heure, le lieu, le contexte, la légitimité et les conditions des élections. Des contenus tout aussi inacceptables pour YouTube sont les “deepfakes”: il s’agit de tout type de contenu manipulé dans l’intention claire de tromper les utilisateurs, avec un risque sérieux de dommage (“harm”).

Une vidéo contenant, par exemple, de fausses affirmations concernant les conditions techniques d’éligibilité d’un candidat politique ou d’un responsable politique élu sortant relève également de la définition d’une fake news; tous les exemples cités font partie des contenus supprimés des plateformes YouTube. L’orateur aborde ensuite les meilleures pratiques au niveau de l’UE: ainsi, YouTube collabore par exemple avec la commission européenne et les États membres dans le cadre des élections européennes, pour lesquelles un code de bonne conduite a été signé en ce qui concerne la désinformation.

Il ne faut pas tomber dans une approche manichéenne mais adopter une approche holistique, y compris sur le plan de la législation: ainsi, la

corégulation ou l’autorégulation sont de toute façon plus flexibles car elles peuvent être modifiées plus facilement et se basent sur la concertation avec tous les intéressés. On ne perd toutefois pas de vue le risque d’ainsi imposer le silence aux voix nouvelles ou alternatives sur les plateformes: outre la lutte contre la désinformation, YouTube s’efforce de maintenir le web aussi ouvert que possible.

Maximiser la diversité des sources est un objectif important des services de YouTube. En outre, YouTube s’efforce d’assurer une transparence maximale, à cet égard, en publiant un “dossier de transparence” tous les trois mois, c’est-à-dire un rapport sur la politique et sur les décisions prises. L’intelligence artificielle peut poser d’importants problèmes éthiques: En 2019, YouTube a publié un ensemble de principes auxquels l’intelligence artificielle doit répondre (sécurité, avantage pour la société, protection des données dès la conception, etc.) En outre, YouTube consulte des experts américains et européens dans ce domaine, et cherche à obtenir, de la part de toutes les parties prenantes, un retour sur leurs orientations.

S’agissant du pluralisme des médias et de la surabondance d’informations en ligne, qui peut être source d’une certaine confusion, l’orateur observe que, pour certaines questions telles que le discours politique, YouTube donne non seulement accès à la variété des informations en ligne, mais aussi à certaines sources faisant autorité, par exemple dans un cadre d’information distinct, qui s’affiche avec les résultats de la recherche, en plus d’un très large éventail de sources disponibles qui, par exemple, pour ce qui est des États-Unis, peuvent aller de Fox News à CNN.

Les sources faisant autorité en matière de vaccination, par exemple, sont le ministère de la Santé publique ou, s’agissant de questions historiques générales, Wikipédia ou l’encyclopédie Brittannica. Comment YouTube peut-il imposer sa politique? Sa démarche repose sur une approche holistique à trois niveaux. Premièrement, chaque utilisateur peut signaler (“flaggen”) les contenus contraires à la politique de YouTube.

Deuxièmement, les “trusted flaggers” fournissent des références: il s’agit de références de haute qualité provenant de groupes de la société civile. YouTube collabore, en particulier, avec de nombreuses ONG belges dans ce domaine, notamment avec UNIA. Enfin, YouTube utilise des “outils d’apprentissage automatique” qui permettent de créer des outils de signalement des contenus préjudiciables sur YouTube.

Cet instrument s’est révélé très efficace. En effet, 90 % des contenus préjudiciables retirés des plateformes en 2019 n’ont pas été visionnés, ce qui représente 90 % des 8 millions de vidéos qui ont été supprimées. Toutefois, il ne s’agit pas

d’une forme de détection et de suppression automatisée: la décision est toujours prise par un collaborateur qui vérifie chaque “flag”. En outre, les utilisateurs peuvent toujours contester cette décision auprès de YouTube. M. Bruno Schröder (Microsoft Benelux) tient d’abord à opérer une distinction entre trois types de GAFA selon l’impact qu’ils ont sur les consommateurs: l’activité principale d’Apple est la vente de matériel; l’activité principale de Microsoft est la vente de logiciels; et Facebook est davantage axé sur la collecte et la diffusion d’informations, informations qui sont enregistrées et soumises à un profilage.

L’orateur indique ensuite qu’il n’aime pas les mots “fake news” ou “fausses nouvelles”, qui ne sont d’ailleurs pas opérationnalisables. Il s’agit en outre toujours d’informations à propos desquelles un désaccord est exprimé. L’orateur renvoie, à cet égard, au président Trump. En ce qui concerne les informations, il convient de distinguer les mensonges intentionnels des autres informations: M. Schröder préconise dès lors le recours à des mécanismes sociaux pour déterminer ce qui est vrai.

Il souligne que la société numérique et l’amplification permise par la technologie sur les réseaux sociaux entraînent une remise en question de toutes les institutions qui exerçaient un contrôle sur les opinions jugées acceptables: c’est une bonne chose, ainsi qu’en témoignent la cristallisation des voix des femmes dans les exemples cités, qui a mis le patriarcat à rude épreuve, ou encore les actions menées par les gilets jaunes contre la précarité: tout cela aura des conséquences importantes sur la société à plus long terme.

L’orateur n’est cependant pas optimiste à l’égard des dix à quinze années à venir: les problèmes disparaîtront dès que les nouveaux codes de la vérité auront été définis et intégrés dans la société. Mais cela risque de prendre dix à quinze ans. Il faudra trouver le moyen d’éviter, dans l’intervalle, des dérapages comme une guerre civile ou la prise de pouvoir par un dictateur. Microsoft a signalé, dès 2008, les problèmes dont il est question aujourd’hui (l’orateur a rédigé, dès 2008, un document sur l’impact de la propagande sur le web).

À l’époque, ce texte n’a pas eu beaucoup d’impact sur les milieux politiques et journalistiques. Ce n’est qu’en 2016 qu’il a été pris en considération à la suite du scandale de Cambridge Analytica. Cette situation découle du fait que la culture technologique est très mal représentée auprès des législateurs et des journalistes.

Il faut quoi en tout cas encourager la culture du débat ainsi que la diffusion d’informations par des groupes structurés comme les partis politiques. S’agissant de l’influence étrangère, on sait que la Russie vise à exploiter autant que possible toutes les failles de nos pays. Comme cela a été dit, la solution consiste en une analyse des corrélations en vue de leur détection. Personnellement, l’orateur n’a encore jamais lu aucune législation qui aille au cœur du problème.

Les approches sont superficielles. Les questions des trucages et des substitutions de personnes ont été traitées mais il ne s’agit que d’un infime pourcentage des “faits alternatifs”. Il est beaucoup plus efficace de prendre des mesures qui favorisent et forcent le débat (l’orateur renvoie à la “Fairness Policy” en vigueur aux États-Unis, déjà évoquée, qui a rendu le débat obligatoire). Il s’agit de faire éclater la bulle et de rétablir le débat.

Cela n’entraînera pas la division de notre société en blocs mais alimentera la phase turbulente que nous traversons déjà aujourd’hui, qui perdra toutefois en intensité dès lors que le nombre de déficiences structurelles n’est pas infini. En outre, les révélations exercent une influence considérable: en ce qui concerne MeToo, la position actuelle du patriarcat est totalement différente de celle d’il y a dix ans.

Au cours de cette période de transition, les mesures permettant de restaurer le débat seront fondamentales. L’orateur réitère la proposition déjà évoquée de mettre en place une PSD-2 pour les données personnelles. Dès lors, d’autres organisations que Facebook pourront utiliser différemment les données dont Facebook dispose. Cela permettra de briser un quasi-monopole en matière de plateformes et de technologies.

Actuellement, seuls deux acteurs fondamentaux, Google et Facebook, contrôlent les moyens de diffusion de l’information et de communication, ce qui est intolérable. M. Albert Vicaire (Ecolo-Groen) demande au représentant de YouTube comment un parti politique peut choisir ses “targets”? Des rapports de transparence accessibles au public existent-ils à ce sujet? L’intervenant demande au représentant de Microsoft de citer un exemple de produit minimum viable (minimum viable product).

M. Steven Creyelman (VB) demande à M. Pancini si YouTube dispose d’une liste de “trusted users” (utilisateurs certifiés) et de quelle manière ceux-ci sont choisis.

À l’intention du représentant de Microsoft, il indique que YouTube, comme d’autres canaux, offre actuellement beaucoup plus de possibilités de contradiction et de diversité qu’il n’en existait autrefois, lorsque la télévision et les journaux étaient les seuls médias disponibles. M. Gilles Vanden Burre (Ecolo-Groen) demande au représentant de YouTube dans quelle mesure des messages politiques ciblés sont encore autorisés actuellement sur les plateformes.

Il sollicite ensuite son opinion sur la législation allemande qui impose le retrait, dans les 24 heures, de tout discours haineux des plateformes (“Netzwerkdurchsetzungsgesetz”). M. Pancini (YouTube) souligne que YouTube joue un rôle important en tant que plateforme ou outil permettant à ses utilisateurs de trouver un nouveau public. C’est une plateforme ouverte qui entre en concurrence avec une série d’autres acteurs du marché très concurrentiel des médias d’information.

En ce qui concerne les règles applicables aux partis politiques, il répond que les partis qui font de la publicité sur les plateformes doivent s’enregistrer. Cela se fait en toute transparence puisque l’enregistrement est public, tout comme le budget qu’y consacrent ces partis. Le “microtargeting” est un problème essentiel pour les publicités en ligne à caractère politique et il convient de le régler.

YouTube n’autorise pas cette pratique (même si la plateforme permet de cibler des caractéristiques générales telles que le genre). En Belgique, YouTube collabore avec les ministères de la Justice et de l’Intérieur qui ont interpellé YouTube après les attentats à Bruxelles: des canaux de communication ont été mis en place avec les deux institutions en vue, notamment, de signaler les contenus potentiellement dangereux.

La liste des “trusted flaggers” n’est pas diffusée à grande échelle mais tous les élus peuvent se la procurer auprès de YouTube. Parallèlement, YouTube travaille de concert avec l’Union européenne à la rédaction d’un code de conduite contre le discours haineux, en partant d’une définition claire et en encourageant les plateformes à collaborer avec les ONG et les autorités publiques, notamment pour les références.

En ce qui concerne la législation allemande, l’orateur émet des réserves à l’égard du critère très strict du temps (24 heures): ce délai ne permet pas à YouTube d’intervenir adéquatement face à un contenu très dangereux.

M. Bruno Schröder (Microsoft Benelux) cite comme exemple d’une législation minimale une loi relative à la “vengeance pornographique”. Il fait observer, à l’adresse de M. Creyelman, qu’il y a toujours eu des voix très discordantes dans le débat public: gauche, droite, socialistes, libéraux, etc., et c’est toujours le cas aujourd’hui, mais en raison du phénomène des “bulles de filtrage”, on sera un jour condamné à n’avoir sous les yeux qu’une opinion unique, alors qu’à la radio, comme à la télévision, le public continue tout de même d’entendre d’autres messages.

Enfin, en ce qui concerne la législation allemande, il est positif que ce type de contenu soit supprimé le plus rapidement possible. VI. — AUDITION DU 3 MARS 2020 1. Exposé introductif de M. Nathanaël Ackerman, SPF BOSA M. Nathanaël Ackerman (SPF BOSA) entend présenter un état des lieux de l’intelligence artificielle (IA). Il entend commencer par la définir, puis présenter certains défis – à la fois techniques et sociétaux – y afférents.

Il souhaite évoquer brièvement ensuite l’écosystème mondial de l’intelligence artificielle et conclure son exposé par quelques mots sur l’initiative AI4Belgium, dont il est le directeur général. Selon les premiers chercheurs, comme Marvin Minsky, qui se sont intéressés à l’intelligence artificielle, l’IA était la science qui devait permettre aux machines de faire ce que les hommes font avec un peu d’intelligence.

Par “intelligence”, il entendait l’intelligence logico-mathématique, comme celle utilisée pour jouer aux échecs. Cependant, les chercheurs ont rapidement compris que la complexité de l’esprit humain et la complexité des processus informatiques sont différentes. On ne dira jamais d’un individu qui reconnaît le visage de sa mère qu’il est intelligent mais, pour un ordinateur, il s’agirait d’un exploit.

C’est pourquoi l’orateur préfère la définition proposée par Elaine Rich, selon qui l’intelligence artificielle est le domaine de l’informatique qui étudie ce que l’homme fait mieux qu’elle. Cela signifie que l’intelligence artificielle couvre un large éventail de compétences humaines, de la perception aux processus internes en passant par les actions accomplies dans le monde physique:

voir, entendre, raisonner, planifier, apprendre, avoir des émotions, faire preuve de créativité, bouger, parler, etc. L’intelligence artificielle couvre dès lors de nombreux domaines d’études différents, par exemple la représentation des connaissances, les systèmes multi-agents et les sciences cognitives. En simplifiant, on pourrait dire qu’il existe deux formes d’intelligence artificielle: la forme “manuelle” et la forme “automatisée”.

Les formes manuelles reposent sur une approche descendante; elles imitent l’expertise humaine en respectant des règles explicites. Elles sont explicables mais leur processus de modélisation est coûteux. Les méthodes d’apprentissage automatisées, qui incluent notamment l’apprentissage automatique et l’apprentissage profond, se sont révélées très efficaces ces dernières années. Ces apprentissages reposent sur une approche ascendante et sur des données; les machines apprennent automatiquement, à partir de données, quelles sont les règles qui permettent de classer ou de prévoir.

Mais les modèles qui en résultent sont souvent opaques (black boxes). Autrement dit: dans la programmation traditionnelle, on introduit des règles et données explicites et l’algorithme fournit ensuite une réponse. En revanche, dans le cas de l’apprentissage automatique (machine learning), on introduit d’abord les données et les réponses, et les algorithmes proposent ensuite des règles qui peuvent être utilisées pour classer ou pour faire des prévisions.

Dans la définition d’Elaine Rich, l’IA est un domaine en évolution constante qui dépasse aujourd’hui les capacités humaines pour certaines tâches spécifiques. Cette situation est due à l’utilisation d’algorithmes plus performants, à des capacités de calcul plus importantes et aux développements qui ont eu lieu dans le domaine des mégadonnées (big data). L’orateur illustre son propos en énumérant plusieurs étapes concrètes: la victoire aux échecs de Deep Blue contre Garry Kasparov en 1997, le Google DeepMind Challenge Match en 2016 et la victoire d’AlphaStar sur StarCraft en 2018.

Les progrès sont de plus en plus rapides et les programmes d’IA se montrent de plus en plus performants dans des missions très complexes qui comportent un élément d’incertitude et dans lesquelles l’intuition joue un rôle important. En ce qui concerne les technologies générales, la vision artificielle est l’application la plus courante et la plus variée de l’IA telle que nous la connaissons aujourd’hui.

L’objectif est de maximiser le niveau sémantique de reconnaissance afin de pouvoir identifier des personnes et des objets sur des photos ou des vidéos. Les exemples sont nombreux: reconnaissance faciale, identification des empreintes digitales, détermination du nombre de personnes présentes sur une image, interprétation de

radiographies, identification de véhicules pour la conduite autonome, détection d’objets similaires, détection de la qualité des photos, etc. L’une des applications les plus récentes et les plus impressionnantes concerne la détection des émotions sur un visage. On constate qu’à l’heure actuelle, l’algorithme est capable de mieux identifier les émotions qu’un être humain. Le deuxième grand domaine d’application de l’IA est le traitement des langues, qui recouvre de nombreux domaines comme la reconnaissance vocale, les chatbots, la traduction automatique, l’extraction de données, les résumés automatiques, etc.

Ces outils couvrent tout le spectre – de la compréhension de la langue à son interprétation et à son exploitation, en passant par la génération de textes et la synthèse vocale. La robotique – troisième application importante de l’IA – évolue, elle aussi, à un rythme effréné. Aux robots industriels s’ajoutent aujourd’hui des robots qui interagissent directement avec l’être humain. La robotique intègre l’ensemble des techniques de l’IA.

C’est le cas également des véhicules autonomes. L’IA est utilisée dans le cadre de la conduite, pour calculer le meilleur itinéraire, pour réduire au maximum la consommation, pour la reconnaissance vocale, etc. Cette application illustre bien les tendances actuelles de l’IA, mais également les défis qui l’accompagnent: des investissements économiques gigantesques, mais aussi des questions juridiques et éthiques épineuses.

L’IA va révolutionner toutes les industries et tous les secteurs: le transport, la santé (médecine personnalisé), le marketing (offres personnalisées, programmes de fidélisation), la production (contrôle de qualité, predictive maintenance), les finances, les assurances, les médias, le droit, l’enseignement, les services publics, la cybersécurité voire l’agriculture. Pour reprendre les termes d’Andrew Ng: “L’IA est la nouvelle électricité”.

Le fait que l’IA ait déjà enregistré des résultats impressionnants pour des tâches très spécifiques (intelligence artificielle faible (narrow intelligence)) ne doit pas nous faire oublier qu’il y a encore de nombreux défis à relever et que nous sommes encore loin d’une intelligence (artificielle) généralisée. Ainsi, l’IA ne réussit le test de Turing (qui analyse la capacité de distinguer un ordinateur d’un être humain dans l’échange de textes tapés) que pour des conversations très simples et spécifiques et non pour des entretiens plus larges et plus complexes.

Qu’est-ce qu’une prédiction? Si la technique de l’apprentissage automatique (machine learning) utilise une grande quantité de données destinées à “prédire” l’avenir, force est de constater qu’elle reproduit en réalité le passé. Le grand danger en l’espèce est de reproduire et de renforcer les préjugés. La gestion des essaims de robots (swarmbots) demeure un défi important. Malgré les avancées enregistrées dans les systèmes multi-agents, il est encore difficile aujourd’hui de déterminer comment ces robots devraient être programmés individuellement pour atteindre un objectif commun.

On voit apparaître de plus en plus de nouvelles applications d’IA, comme par exemple les vêtements intelligents. La grande question est de savoir comment gérer ces applications et comment s’y adapter. Comment définit-on la conscience? Jusqu’à présent, aucun programme n’a une quelconque conscience de ce qu’il fait. Cela reste un défi important pour l’IA. On attend beaucoup de l’application des techniques d’apprentissage automatique à l’enseignement, en particulier en ce qui concerne les possibilités d’enseignement personnalisé.

Il est intéressant de voir comment les compétences nécessaires aux emplois futurs évoluent. Selon le rapport “The Future of Jobs” du Forum économique mondial de 2018, le sens critique, la créativité, la coordination avec les autres, l’intelligence émotionnelle et la flexibilité cognitive sont de plus en plus demandées. L’intelligence purement logique et mathématique, telle que Marvin Minsky l’envisageait, perd de sa pertinence.

La notion d’“emploi” évolue également sous l’impulsion de l’IA. Le CEO d’Uber a ainsi annoncé qu’il entendait à l’avenir se passer des chauffeurs et utiliser exclusivement des véhicules autonomes. Quelles sont les tâches qui peuvent être remplacées par des ordinateurs dotés de la technologie IA et celles qui ne le peuvent pas? L’exemple précédent de l’utilisation de l’IA dans l’interprétation des radiographies montre que les emplois peu qualifiés ne seront pas les seuls à être affectés.

L’orateur évoque également brièvement le système de crédit social, qui évalue les citoyens quant à leur comportement et, sur cette base, leur donne accès ou pas à des facilités. Un tel système est déjà partiellement en vigueur en Chine. Un autre défi de taille concerne la façon dont nous pouvons utiliser les robots pour faciliter le contact entre les personnes. Il existe des exemples très prometteurs

de robots qui sont utilisés pour prendre en charge des personnes âgées. Idéalement, l’interaction entre l’homme et la machine devrait conduire à une société plus humaine. Comment gérer les données à caractère personnel d’une manière qui profite à la collectivité? Plutôt que de laisser le champ libre aux GAFA, certains services publics pourraient être optimisés grâce à l’intégration de données à caractère personnel.

Qu’est-ce que l’information? L’IA peut-elle offrir une solution au problème des fausses nouvelles et des bulles de filtres? L’exemple connu de la vidéo truquée dans laquelle l’ancien président des États-Unis, Barack Obama, prononce de fausses déclarations, montre combien il est difficile de reconnaître les vidéos (hyper)truquées. Notre rapport à l’information évolue très rapidement. M. Ackerman renvoie au passage à la Déclaration internationale sur l’Information et la Démocratie, élaborée à l’initiative de Christophe Deloire, le secrétaire général de Reporters sans frontières, qui met l’accent sur le rôle crucial des journalistes dans la société.

Qu’est-ce que la créativité? Les réseaux adverses génératifs (GAN) sont utilisés pour produire de nouvelles images en apparence authentiques à partir d’une description donnée. De cette manière, l’IA pénètre dans une zone qui était jusqu’alors réservée à l’être humain. Le dernier défi soulevé par M. Ackerman concerne la manière d’accroître l’intelligence collective en combinant les systèmes intelligents et les interactions humaines.

Il cite l’exemple d’une réunion d’un conseil d’administration, dont les participants, qui se trouvent à des endroits différents, sont observés de manière continue, la réunion étant suivie d’un débriefing. L’orateur aborde ensuite le sujet de l’écosystème mondial de l’IA. Les principaux acteurs de l’IA sont situés aux États-Unis et en Chine. Il n’y a pas d’acteurs majeurs en Europe. En 2018, l’UE a élaboré un plan coordonné pour l’IA, qui prévoit que chaque État membre doit développer sa propre stratégie pour construire une économie et une société basées sur une IA fiable.

Une des initiatives dans le cadre de la stratégie belge, proposée en 2019 par les ministres De Backer et De Croo, est le projet AI4Belgium. Il s’agit d’une initiative communautaire visant à permettre aux personnes et aux organisations belges de saisir les opportunités de l’IA tout en facilitant de manière responsable les transitions

induites par l’IA. AI4Belgium a également l’ambition de positionner la Belgique dans le paysage européen de l’IA. 2. Exposé introductif du professeur Ike Picone, VUB Le professeur Ike Picone (VUB) entend expliquer comment l’intelligence artificielle s’est imposée dans le secteur des médias et du journalisme. Dans ce cadre, il entend en commenter les risques mais aussi souligner la part du facteur humain dans cette problématique.

L’orateur indique que plusieurs algorithmes, parmi les plus connus, ont été développés dans le but de pirater le cerveau humain et, en un certain sens, la démocratie. Il cite l’exemple du défilement à l’infini (infinite scroll), imaginé par Aza Rasking, qui l’a développé dans le but avoué d’en faire un outil destiné à garder les internautes plus longtemps possible sur un site web, en l’occurrence sur Facebook.

Il a d’ailleurs lui-même prononcé cette phrase lourde de sens: “Si vous ne donnez pas le temps à votre cerveau de gérer vos impulsions, vous continuez simplement à faire défiler”. Ce constat est bien évidemment intéressant pour cette entreprise, mais l’est-il également pour la démocratie? Le professeur Picone renvoie également à une citation de Sean Parker, qui fut l’un des premiers investisseurs de Facebook, citation qui indique que, dès le départ, Facebook était parfaitement conscient que les likes et les commentaires relatifs aux messages postés sur ce réseau avaient le même effet que la dopamine et incitaient les internautes à revenir sur ce site web.

Sean Parker a alors déclaré sans sourciller que ce procédé permettait d’exploiter une vulnérabilité de la psyché humaine. Si l’on y ajoute des algorithmes, on parvient à soumettre des informations aux utilisateurs (par exemple sous la forme de titres d’articles) d’une manière telle que la probabilité sera grande qu’ils cliquent sur les liens correspondants. Ces algorithmes permettent d’optimiser la personnalisation et de créer des bulles de filtrage.

Il s’agit d’un exemple de pratiques dans le cadre desquelles les médias se sont adaptés aux évolutions technologiques et ont dû, sous leur impulsion, “s’abaisser” à proposer des “pièges à clic”, ce qui présente des dangers potentiels pour la démocratie. Ce que l’orateur souhaite mettre en évidence, ce n’est pas que les algorithmes en sont la cause. Ce sont les entreprises comme Facebook qui ont décidé de se servir d’algorithmes pour exploiter les faiblesses humaines.

Mais ces algorithmes auraient pu être utilisés à d’autres fins.

Il importe de garder à l’esprit que les utilisateurs ne cliquent pas sur ces messages de leur propre gré mais bien parce que des pirates exploitent une faille de l’âme humaine. L’appauvrissement du débat n’est pas une chose que la population souhaite ou accepte avec résignation mais bien la conséquence d’une stratégie délibérée initiée par certains acteurs qui recourent à une technologie et à un modèle commercial.

On peut donc également mener une réflexion sur la manière d’armer la population pour y faire face. Un deuxième argument que le professeur Picone souhaite faire valoir est que ce ne sont pas les algorithmes qui induisent la polarisation mais bien les groupes d’intérêt qui les emploient. En réalité, il est extrêmement simple pratiquer la polarisation (en ligne). Il suffit de choisir un débat qui échauffe les esprits, comme les élections présidentielles aux États-Unis.

On identifie ensuite une communauté qui défend ses idées de façon catégorique, comme les fans de l’un ou de l’autre candidat à la présidence. Puis on peut les monter les uns contre les autres, par exemple en utilisant des imitations (memes) de mauvais acteurs dans des pays tiers, comme on l’a vu au cours de la campagne de Trump en 2016. Une stratégie encore plus efficace consiste à se faire aider par des “amis” comme l’a fait Cambridge Analytica dans l’exemple donné.

Pour cet exemple également, il faut comprendre que les algorithmes sont dirigés par des acteurs humains. Ils peuvent favoriser les bulles de filtrage, mais aussi les percer. Il est parfaitement possible d’entraîner un algorithme pour qu’il propose à un utilisateur qui risque d’aboutir dans une certaine bulle idéologique des messages teintés d’autres accents. Sur le plan purement économique, cette utilisation des algorithmes présente toutefois beaucoup moins d’intérêt.

Sur ce plan aussi, l’idée est que la population peut être manipulée afin qu’elle soit réceptive à la polarisation. Les humains ont toujours été sensibles aux arguments émotionnels. Les algorithmes apprennent à optimiser certaines choses, et si on leur apprend à optimiser précisément ces choses-là, on aboutit dans un cercle vicieux. Quel est le rôle des nouvelles mensongères (fake news) dans la polarisation? Dans le secteur des médias et du journalisme, un mouvement s’est créé qui souligne le rôle de ce secteur comme fournisseur d’informations fiables et gardien de la démocratie.

Lorsque les journalistes ou les politiciens parlent de fake news, ils font généralement allusion à des histoires inventées. La diffusion de ces histoires peut avoir

plusieurs raisons: la première est d’ordre purement financier; on peut songer aux jeunes de Macédoine du Nord qui ont arrondi leurs fins de mois en se jetant, sans motivation politique, sur le sujet alors brûlant des élections présidentielles américaines. D’autres motifs sont, en revanche, bien animés par un bénéfice politique. Un premier exemple est la façon dont Facebook a été utilisé pour mener des campagnes politiques (en réaction, Facebook a récemment décidé d’exclure partiellement les campagnes politiques de sa plateforme).

La dernière raison concerne l’utilisation de l’expression “fake news” comme une arme. Donald Trump, mais aussi certains dirigeants de régimes autoritaires, brandissent cette expression pour discréditer les médias. Dans le cadre d’une étude de 2018 réalisée par le Reuters Institute for the Study of Journalism (RISJ), des personnes ont été interrogées dans le monde entier sur la fréquence à laquelle elles étaient confrontées à des fake news.

Près de la moitié des répondants turcs et grecs ont indiqué avoir eu affaire à des fake news au cours de la semaine écoulée. La Belgique, et plus encore les Pays-Bas, le Danemark et l’Allemagne, se trouvent à l’autre extrémité du spectre; dans ces pays, le phénomène est plutôt marginal. Lorsqu’on a ensuite demandé aux personnes interrogées ce qu’elles entendaient par “fake news”, il en est ressorti une image plus nuancée; il ne s’agissait pas seulement de “fausses” nouvelles, mais aussi de propagande, de certaines formes de publicité et de certaines formes de mauvais journalisme, superficiel et sensationnel.

L’orateur en déduit qu’on ne peut pas exonérer complètement le journalisme. Dans la perception du citoyen, il joue également un rôle dans la diffusion de fake news. L’étude montre également que c’est précisément cette forme de fake news – le mauvais journalisme – qui est la plus courante. Qui vient en aide en cas de fake news? On pense souvent immédiatement au factchecking. Sans vouloir discréditer cette pratique, le professeur Picone émet quelques réserves à propos du factchecking, qui peut en effet également avoir des effets pervers.

Par exemple, l’attention que reçoit une fausse théorie en étant réfutée peut simplement lui donner de l’oxygène (la “théorie de l’oxygène”). Le “liar’s dividend” (le “dividende du menteur”) est un autre effet secondaire possible; le fait de démasquer une fake news (par exemple “la terre est plate”) lui confère également une légitimité. Enfin, il y a aussi le “backfire effect” (“effet retour”): les personnes qui s’identifient très farouchement à une certaine revendication ou théorie, peuvent devenir plus acharnées et plus combatives encore face au factchecking.

La sociologue américaine Danah Boyd a déclaré que l’écho donné dans la presse au rapport Mueller et à l’influence russe sur les élections américaines a involontairement délégitimé le vote de près de la moitié des électeurs américains; le message qu’ils ont reçu était que leur vote avait été “piraté” par les Russes. Par conséquent, ils sont encore plus farouchement opposés aux médias. Combattre les infox par le factchecking n’est donc qu’une partie de la réponse, précisément parce que les médias font aussi partie du problème.

À cet égard, il est important de rétablir la confiance dans les médias et dans le journalisme. En Belgique – avec sans doute des différences entre les deux grandes parties du pays -, cette confiance est supérieure à la moyenne (50 %), selon les chiffres du Digital News Report 2019. L’orateur se demande comment ce chiffre va évoluer, car d’autres recherches montrent que la confiance envers d’autres institutions, comme le Parlement fédéral, diminue.

L’orateur conclut son exposé en citant la philosophe germano-américaine Hannah Arendt: “le sujet idéal de la domination totalitaire n’est ni le nazi convaincu ni le communiste convaincu, mais celui pour qui les distinctions entre fait et fiction et entre vrai et faux n’existent plus.” Mme Séverine de Laveleye (Ecolo-Groen) demande à M. Ackerman quelle influence les nouvelles technologies ont pu avoir sur son travail.

Quels sont, à ses yeux, les défis technologiques auxquels devront faire face nos autorités et la démocratie en général? Le professeur Picone a insisté, dans son exposé, sur le rôle joué par la presse dans ce domaine. Estime-til qu’une intervention législative est nécessaire pour répondre à la problématique en question? Ou considèret-il qu’une nouvelle législation n’est pas indiquée et qu’il faut surtout miser sur l’éducation permanente? Mme De Laveleye est en tout cas convaincue que l’éducation permanente revêt une importance énorme en l’espèce.

M. Christophe Lacroix (PS) représente notre pays à l’Assemblée parlementaire du Conseil de l’Europe. Au sein de cette organisation, six rapports sont actuellement en préparation concernant divers aspects relatifs à l’IA. À cet égard, on se base notamment sur les travaux du Comité des ministres du Conseil de l’Europe. Le Comité des ministres a chargé une commission mixte, comprenant des parlementaires mais aussi des représentants de la société civile et du monde économique, d’élaborer

des normes contraignantes concernant l’utilisation des réseaux sociaux pour ce qui est des aspects liés à la démocratie. Ce mandat doit être considéré à la lumière du fait qu’il existe actuellement près de deux cents chartes éthiques sur ce thème, établies par des parlements et des grandes entreprises technologiques. Cette multiplicité de chartes offre très peu de possibilités de contrôle. Que pensent les orateurs du consensus croissant entre les gouvernements nationaux concernant la nécessité de règles contraignantes, en conservant certes une certaine flexibilité en vue de ne pas nuire au développement économique de ce secteur important? Comme les orateurs l’ont fait remarquer à juste titre, les algorithmes ne sont pas discriminatoires en soi.

Néanmoins, il peuvent avoir pour effet de stigmatiser certains groupes, de renforcer des stéréotypes ou de transmettre des messages haineux, ce qui peut à son tour entraîner des comportements punissables (par exemple des délits de haine). Le membre cite l’exemple hypothétique d’images en ligne relatives aux aspects architecturaux des synagogues, qui conduisent automatiquement vers des sites au contenu antisémitique.

Il en va de même pour les images concernant l’architecture des mosquées, qui mènent les internautes vers des contenus xénophobes. Cette chaîne est particulièrement difficile à contrôler. Qu’en pensent les orateurs? Le thème de l’IA et les programmes des gouvernements nationaux qui sont en cours à ce sujet doivent être abordés au sein des parlements. Certains pays utilisent les algorithmes pour l’octroi des allocations sociales.

Les dommages économiques totaux pour les citoyens dont l’allocation a été refusée à tort atteignent les 300 millions d’euros. Les parlements de ces pays n’en étaient pas informés, et les gouvernements n’étaient pas obligés de faire rapport à ce sujet. Selon M. Lacroix, cet exemple montre que ce débat doit être mené par excellence au sein des assemblées représentatives, qui exercent une fonction de contrôle en la matière.

Il s’agit essentiellement d’un débat politique, et non d’une discussion purement technique. Le membre se rallie à l’avis de Mme de Laveleye, qui soulignait l’importance de la formation permanente; l’éducation aux médias et l’apprentissage de l’esprit critique, de la citoyenneté et de l’importance de la vérification des sources sont capitaux. Un article récent8 du New York Times décrit comment Michael Bloomberg, candidat démocrate aux élections présidentielles américaines, a “détruit” les normes sur les réseaux sociaux.

Pour les besoins de sa campagne, M. Bloomberg paie en effet des gens pour qu’ils créent de faux comptes et y postent ensuite des messages NYTimes, “Digital Edits, a Paid Army: Bloomberg Is “Destroying Norms” on Social Media”, 22 février 2020.

(qui le couvrent d’éloges). Que pensent les orateurs de cette pratique? Estiment-ils qu’il faut faire preuve de plus de vigilance, voire qu’il faut interdire “l’achat” de faux comptes? Les pratiques de ce type semblent déjà être partiellement entrées dans les mœurs, notamment au travers des influenceurs, sur les réseaux sociaux, qui donnent le ton pour des dizaines de milliers d’abonnés dans des domaines où ils ne connaissent, en réalité, pas grand-chose.

Cela peut sembler trivial, ou n’être qu’un phénomène de mode, mais, selon M. Lacroix, cela présente un risque réel. Selon lui, l’IA est essentiellement un pharmakon, à la fois un remède et un poison. Mme Yngvild Ingels (N-VA) doute qu’il soit judicieux de légiférer au niveau belge. Selon elle, c’est au niveau international qu’il faut lutter contre les excès. Contourner certaines restrictions belges en passant par des serveurs établis à l’étranger serait en effet très facile.

M. Erik Gilissen (VB) aimerait savoir ce que les orateurs pensent du système de crédit social appliqué en Chine. Dans ce système, les citoyens sont évalués à partir d’un système de points qui détermine, par exemple, s’ils sont autorisés ou non à partir en vacances. Selon l’intervenant, ce serait une honte pour la démocratie. M. Nathanaël Ackerman (SPF BOSA) explique qu’une réflexion est actuellement en cours, sous sa direction, à propos de l’utilisation de l’IA dans l’administration fédérale, dans le but d’optimiser la qualité et l’accessibilité des services.

L’utilisation de l’IA dans l’administration fédérale n’en est encore qu’à ses débuts. À ce stade, l’IA est, par exemple, utilisée par l’administration fiscale pour détecter la fraude. Mais il serait bon qu’elle puisse également être utilisée pour faire en sorte, par exemple, que les services publics fédéraux soient plus accessibles aux personnes handicapées, ou que les citoyens soient mieux accompagnés dans leurs formalités administratives.

Il est absolument essentiel d’intégrer une dimension éthique dans la mise en œuvre des systèmes d’intelligence artificielle. Ainsi qu’il a déjà été indiqué, les algorithmes peuvent renforcer les préférences, ce qui peut déboucher sur des décisions inéquitables. L’intelligence artificielle modifiera profondément la société. Les nouvelles compétences qui seront demandées sur le marché du travail, auxquelles le système d’enseignement devra s’adapter, en sont le meilleur exemple.

M. Ackerman estime que cela justifie certainement de réfléchir à des mesures au niveau belge. Des consultations publiques sont d’ailleurs actuellement organisées par la Commission européenne, notamment au sujet du livre blanc. La coalition AI4Belgium mène également une consultation en ce moment. Certains pays ont déjà élaboré des réglementations à propos de certains points, par exemple au sujet des nouvelles mensongères.

L’orateur encourage la Belgique à faire de même, dans le respect, bien entendu, des évolutions observées à l’échelle européenne. Le système du crédit social est une pratique orwellienne que nous ne devons absolument pas accepter ici. Il démontre également le rôle important des éléments culturels dans le déploiement des systèmes d’intelligence artificielle. En Chine, le système du crédit social est largement accepté sur le plan culturel, alors que ce n’est pas dut tout le cas chez nous.

C’est la raison pour laquelle il est également improbable que les chartes éthiques mises au point au niveau européen puissent aussi être transposées au niveau international. Le professeur Ike Picone (VUB) souligne à nouveau la dimension politique de l’intelligence artificielle. Il s’agit d’une application technologique qui, en raison de la manière dont elle est mise en œuvre dans notre société, appelle toutefois une réponse politique.

L’orateur se félicite que des débats tels que celui d’aujourd’hui aient lieu au Parlement. Cela fait plusieurs dizaines d’années que la Belgique dispose d’une législation destinée à réglementer les campagnes politiques. On ne peut toutefois pas dire que cette législation soit adaptée à l’ère numérique. En effet, de multiples restrictions sont imposées durant la période réglementée mais les partis politiques peuvent continuer à faire de la propagande en ligne.

Pourquoi la Belgique ne prendrait-elle pas l’initiative en limitant les campagnes politiques sur les réseaux sociaux, par exemple en prévoyant un plafond de dépenses ou une interdiction temporaire? Les algorithmes rencontrés par le citoyen proviennent principalement de Facebook, Google, etc. À cet égard, nous ne pouvons perdre de vue qu’en adoptant une législation (telle que le RGPD) qui oblige les géants de l’internet à rentrer dans le rang, l’UE a un réel impact – même s’il pourrait être plus grand.

Il faut oser mener ce débat politique tant au niveau européen qu’au niveau belge. Nous devons avoir pleinement conscience du fait que les nouvelles technologies sont utilisées pour miner la démocratie. Plusieurs forces géopolitiques tirent profit des fausses nouvelles diffusées de par le monde. Il n’est pas simple de lutter contre ce

phénomène; si l’Europe s’en prend aux chaînes russes qui diffusent de fausses nouvelles, le président Poutine saisira cette occasion pour faire de même, mais en l’occurrence à l’égard de médias démocratiques. Les algorithmes que nous rencontrons aujourd’hui sont essentiellement commerciaux; ils ont été développés dans le but de vendre quelque chose. Ils réussissent à merveille; les nouveaux articles suggérés par Google News via Google Assistant sont tellement bien choisis que l’on voudrait quasi tous les lire.

Tout cela est bien beau, mais le politique pourrait inviter Google, ou l’obliger par le biais d’une loi, à inclure également dans les résultats un article défendant un avis différent, d’un journal d’une autre tendance, par exemple. Cette diversité fait l’objet de recherches dans différentes universités. L’orateur était personnellement membre d’un groupe d’experts, institué par le ministre De Croo, qui s’est penché sur ces questions.

La conclusion était que, dans un premier temps, il serait misé sur des mesures non contraignantes et l’autorégulation, mais que si celles-ci s’avéraient insuffisantes, on pourrait, en guise de moyen de pression, imposer des règles contraignantes. Tout démocrate devrait fermement condamner le système du crédit social mis en place en Chine. Il est clair qu’il existe des différences culturelles entre la Chine et l’Europe.

Les Chinois qui vivent sous ce système l’acceptent très rapidement et s’y habituent facilement. Dans une certaine mesure, cela se voit aussi en Europe: les gens estiment rapidement qu’il n’est pas si grave de confier des données personnelles à Facebook, parce qu’ils “ne font rien de mal de toute façon”. De la même façon, un Chinois peut penser qu’une personne ayant un score social faible mérite de ne pas bénéficier de certaines facilités.

En d’autres termes, sans qu’on s’en rende compte, des idées fondamentalement liberticides, antidémocratiques sont propagées par des gens quasiment à leur insu. L’orateur établit un parallèle avec les fervents utilisateurs d’Uber, qui ne seront pas enclins à défendre l’amélioration de la protection sociale des chauffeurs Uber; leur trajet Uber leur reviendrait en effet plus cher. Le professeur Picone estime qu’il revient aux universitaires, journalistes, politiques, etc., de montrer ce que sont les valeurs démocratiques et d’indiquer que la protection sociale dont nous bénéficions a un certain prix.

D. Questions et réponses complémentaires M. Erik Gilissen (VB) souligne, en guise de mise en garde, que notre pays est également en train de glisser progressivement vers un système dans lequel les citoyens sont constamment épiés partout. Il renvoie à

l’instauration de l’eID reprenant les empreintes digitales, à la mise en place d’un bouclier de caméras ANPR, à la reconnaissance faciale, etc. Si chaque post, chaque opinion exprimée sur les réseaux sociaux sont ainsi également contrôlés, nous nous retrouverons progressivement dans une situation qui ne diffère guère d’un système de crédit social. M. Gilissen considère qu’il s’agit d’une évolution néfaste.

M. Christophe Lacroix (PS) renvoie de nouveau au Conseil de l’Europe, l’organisation internationale comptant 47 États membres qui s’occupe surtout des droits de l’homme et qui a été fondée en 1949, c’est-à-dire encore avant l’ancienne CEE. L’Assemblée parlementaire peut notamment formuler des recommandations au sujet des propositions qui sont examinées au sein du Comité des ministres. L’intérêt de tels avis, a fortiori lorsqu’ils sont fondés sur une position commune des pays qui composent l’UE, est qu’ils s’adressent à un organe dans lequel siègent les gouvernements de pays tels que la Turquie, la Russie et la Macédoine du Nord.

Comme le professeur Antoinette Rouvroy l’a exposé lors d’une précédente audition, c’est de ce dernier pays que provenaient les adolescents qui élaboraient des fake news et empochaient une coquette somme de cette manière. Selon M. Lacroix, le Conseil de l’Europe peut constituer un outil utile dans la lutte contre les fake news, ce qui ne signifie évidemment pas que la Belgique, en tant que pays, ne puisse pas jouer un rôle de pionnier à cet égard.

M. Gilles Vanden Burre (Ecolo-Groen) aborde le sujet de la reconnaissance faciale automatique. Une réflexion est en cours en la matière au sein de l’UE. Récemment, l’État américain de Californie, pourtant l’un des berceaux de cette technologie, a restreint l’utilisation de caméras à reconnaissance faciale automatique. Dans notre pays, une caméra de ce genre était déjà opérationnelle à l’aéroport de Zaventem.

Quel est le point de vue des orateurs à cet égard? Recommandent-ils une intervention législative en la matière? Faut-il envisager un moratoire, en attendant une réflexion approfondie sur les implications de cette technologie? Le membre a lu à sa grande surprise dans la presse que dans la perspective de la prochaine élection présidentielle, le président américain, Donald Trump, avait acheté la totalité de l’espace publicitaire sur YouTube pour une période déterminée précédant cette élection.

Il se demande comment il est possible qu’une entreprise commerciale puisse accorder une telle exclusivité au détriment de la démocratie. Quelle est la meilleure façon de lutter contre ce phénomène? La réponse devra sans doute venir de l’Europe.

Mme Yngvild Ingels (N-VA) fait observer que c’est le législateur américain, c’est-à-dire la démocratie elle-même en quelque sorte, qui a levé le plafond des dépenses pour les campagnes électorales. Il ne peut pas être reproché aux grandes entreprises de vouloir en tirer des gains financiers. M. Gilles Vanden Burre (Ecolo-Groen) indique que c’est en l’occurrence l’exclusivité accordée à l’un des candidats qui choque et pas vraiment les budgets hallucinants.

L’exclusivité est une pratique commerciale courante, mais ce à quoi nous assistons ici constitue purement et simplement un sabordage de la démocratie. Il est incompréhensible que Google ait pu y consentir. M. Nathanaël Ackerman (SPF BOSA) ne considère pas que le déploiement de nouvelles technologies nous entraîne progressivement vers une société totalitaire. Il s’agit chaque fois de questions auxquelles il faudra encore répondre.

AI4Belgium organise ainsi avec la Police fédérale un débat sur la reconnaissance faciale automatique auquel tout le monde peut participer. Il n’existe encore aucun cadre réglementaire s’appliquant à toutes ces technologies et des mesures législatives peuvent être envisagées à leur égard. Le professeur Ike Picone (VUB) considère que le débat concernant la reconnaissance faciale automatique est de nature politique et qu’il peut en fait être ramené à la question de savoir quelle société nous voulons: libérale, plutôt libérale ou illibérale? L’orateur n’a pas eu l’impression que l’introduction de la reconnaissance faciale automatique ou des cartes d’identité munies d’empreintes digitales ait été précédée d’importants débats.

Les opposants au projet, qu’ils soient issus du monde politique ou de la société civile, se sont à peine mobilisés. L’orateur appelle les politiques à faire davantage entendre leur voix. Le professeur Picone estime, lui aussi, que nous n’en sommes pas encore à une société totalitaire. Mais nous devons rester vigilants. Progressivement, nous pourrions bel et bien verser pas à pas dans le totalitarisme. Pour étayer ses propos, il cite la fable de la grenouille cuite.

En ce qui concerne l’achat d’espace publicitaire sur YouTube par l’équipe de campagne de Donald Trump, l’orateur souligne qu’il s’agit d’une pratique autorisée dans le système américain, pratique qui démontre à quel point ce système diffère du nôtre. Nous devons veiller à ce que de tels excès restent inadmissibles en Belgique.

VII. — AUDITION DU 23 JUIN 2020

1. Exposé introductif de Mme Catelijne Muller, (ALLAI et High-Level Expert Group on Artificial Intelligence) Mme Catelijne Muller est membre du High-Level Expert Group on Artificial Intelligence au niveau de la Commission Européenne, présidente et fondatrice de l’Alliance for Artificial Intelligence (Alliance pour l’Intelligence artificielle, ALLAI), dont l’objectif est de rassembler tous les stakeholders autour de l’intelligence artificielle pour en faire une intelligence artificielle responsable. Elle est également conseillère au Conseil de l’Europe où elle donne des conseils sur l’impact de l’intelligence artificielle sur les droits fondamentaux, la démocratie et l’État de droit. L’intelligence artificielle (IA) est à la source d’effets néfastes pour les citoyens et la démocratie qui sont néanmoins difficiles à cerner. Au travers d’un vaste échange de données, elle permet de dresser des profils d’utilisateurs sur base desquels d’autres parties peuvent, entre autres, évaluer un individu, le catégoriser, estimer sa solvabilité, son droit à un crédit ou à une assurance, influencer son comportement électoral, orienter le discours sociétal. Le High-Level Expert Group a formulé des directives éthiques pour définir ce que serait une IA fiable, ou trustworthy. Il s’est agi d’aller au-delà d’un aspect purement éthique. L’IA répondant au qualificatif de fiable doit, de son développement à son utilisation, être licite, éthique et robuste. Par licite, on entend que cette IA doit fonctionner dans la limite et le respect des règlementations et législations qui lui sont applicables. Ensuite, une IA fiable doit suivre des principes et valeurs éthiques. Enfin, elle doit être robuste, sur les plans technique et social, car les systèmes IA ne sont pas à l’abri de causer involontairement quelque préjudice. Ce n’est qu’en remplissant ces trois conditions qu’une IA pourrait être qualifiée de fiable. Selon Mme Muller, certaines personnes au Parlement européen plaideraient en faveur de l’attribution d’une personnalité juridique aux machines superintelligentes. Cela permettrait en effet aux propriétaires de ces technologies de pouvoir se dédouaner de leurs responsabilités en cas de perte de contrôle de leur produit, aux potentielles conséquences nuisibles. Pour l’intervenante, tout comme un maître est tenu responsable en cas de morsure de son animal, les propriétaires

de machines intelligentes doivent pouvoir répondre des dégâts occasionnés par ce qu’ils ont lancé sur le marché. Le débat sur les impacts de l’IA doit inclure la question du respect des droits fondamentaux autant que celle des dispositions légales. Si, dans les discussions sur l’IA, l’on a déjà longuement débattu sur la place de la règlementation en matière de protection des données et des questions éthiques, il faut désormais porter l’attention sur le respect des droits fondamentaux.

Il est important de considérer l’impact qu’a l’IA sur les droits fondamentaux et la démocratie. En premier lieu, l’intervenante aborde la question de la protection de la vie privée. Ce droit fondamental consiste à pouvoir jouir d’une vie privée, de ne pas être suivi, d’être autonome, libre sur un plan tant physique que psychique, de ne pas être catégorisé ou influencé. Or, les données que nous offrons aux médias sociaux sont utilisées pour nous profiler, nous catégoriser, nous évaluer, nous attribuer des scores.

Cela a un impact sur l’intégrité psychologique et morale des individus et sur leur vie privée. Le Traité européen ainsi que d’autres dispositions européennes garantissent le droit à la liberté d’expression et le droit d’accéder à des informations correctes et fiables. Ces droits sont également mis en jeu par l’arrivée de l’IA. Les médias sociaux, qui offrent des informations de plus en plus personnalisées aux utilisateurs, manquent de transparence, non seulement quant aux données utilisées pour sélectionner les informations diffusées mais aussi quant à l’objectif de ces sélections.

L’explication tiendrait au fait que la source des recettes de certaines entreprises dépend de la présence d’utilisateurs sur des plateformes de médias sociaux, par l’entremise de la publicité qui y est présente. Les intelligences artificielles qui ont pour objectif de maintenir l’activité des utilisateurs sur ces plateformes offrent et sélectionnent alors des contenus multimédias qui incitent les utilisateurs à prolonger leur temps de connexion.

Ces contenus personnalisés peuvent parfois se révéler être des fake news (désinformation), de la propagande. Ces informations sélectionnées et potentiellement tronquées et déformées ont une influence sur la capacité de se forger une opinion et de recevoir librement des informations. De plus, l’IA permet désormais de créer des deepfakes (technique qui permet de manipuler du contenu multimédia, audio et vidéo, au point de pouvoir modifier

complètement les enregistrements audios et vidéos d’événements passés, de transformer les propos d’une personne, les images d’une prise vidéo). Ceci rend ardue la tâche de démêler le vrai du faux, tant pour les citoyens que pour les journalistes ou les administrations publiques, ce qui peut faciliter la manipulation des personnes, décrédibiliser les médias et miner le discours social. Dans le même registre, l’IA peut nuire à la jouissance du droit de liberté d’expression.

Certains utilisateurs de médias sociaux, conscients des évaluations et des catégorisations individuelles opérées par ces mêmes médias, pourraient se sentir restreints dans l’expression de leurs opinions. Les pages internet consultées, les courriels échangés, les messages diffusés et toute autre activité sur des appareils connectés sont autant de moyens d’établir un profil des utilisateurs, de les évaluer, de savoir leurs opinions.

Or, si ces informations avaient un impact sur leur qualité de vie (par exemple sur leur tendance à pouvoir bénéficier de l’allocation d’un crédit ou à recevoir un emploi), il se pourrait que ceux-ci procèdent à une forme d’auto-censure, en se limitant dans l’expression de leurs opinions, ou dans leurs activités. Dans un même ordre d’idées, l’intelligence peut entacher la jouissance du droit à la liberté d’association et de réunion.

Si les médias sociaux sont des instruments très utiles pour permettre de s’exercer le droit à se réunir et se rassembler de façon pacifique, ils participent également paradoxalement à la menace de ce même droit. Si les personnes se sentent surveillées et évaluées par les médias sociaux, elles risqueraient de s’exclure d’elles-mêmes de certains rassemblements, par peur des conséquences négatives qui pourraient découler de leur évaluation par les intelligences artificielles qui auraient, par exemple, détecté leur présence dans certains rassemblements.

Avec l’IA, la démocratie n’est donc pas à l’abri d’impacts négatifs. Une démocratie en bonne santé compte des citoyens bien informés qui évoluent au sein d’un environnement où le discours politique et social est ouvert. Dans le flux d’information qui inonde notre monde aujourd’hui, les individus ne peuvent en traiter qu’une petite part. Si cela est fait de manière correcte, la personnalisation des informations offertes aux citoyens peut devenir un moyen pour ces derniers de trouver leur voie dans ce flux et les aider ainsi à exercer leur droit démocratique.

Mais à l’inverse, ce choix des informations visibles par les intelligences artificielles pourrait s’avérer néfaste et entrainer un risque d’inégalité dans l’accès aux informations et dans l’élaboration des opinions. Cela

pourrait ainsi miner la compréhension réciproque pourtant nécessaire au bon fonctionnement de la démocratie. Dans des cas extrêmes, où l’IA s’avérerait relativement agressive, elle pourrait également entacher la liberté de choix personnels, comme ce fut le cas lors de certaines campagnes électorales ou de certains référendums. Enfin, l’IA a une influence sur la Rule of Law. Les plateformes de médias sociaux prennent aujourd’hui la place des tribunaux sur le traitement et la condamnation des informations illégales et des discours de haine et leur font ainsi concurrence.

On peut alors craindre de voir se développer un système de droit en dehors des limites de protection de l’État de droit. Mme Muller conclut en appelant les preneurs de décision à se demander, lorsqu’un produit semble devenir trop invasif, si ces technologies et leurs impacts sur nos droits fondamentaux et nos démocraties sont vraiment désirés. Il nous appartient de décider ce que nous faisons avec la technologie.

Elle conseille aux législateurs de veiller à maintenir une “Human in Command approach”, une approche où l’humain est aux commandes. 2. Exposé introductif de Mme Nathalie Smuha, KU Leuven Mme Nathalie Smuha est chercheuse à la KU Leuven ainsi qu‘observatrice (et ancienne coordinatrice) du High-Level Expert Group on Artificial Intelligence au niveau européen. L’IA est une dénomination globale, qui cache en réalité un ensemble de technologies intelligentes.

En proie à une évolution constante, et composée d’une multitude de modèles qui se chevauchent, elle est extrêmement difficile à définir, ce qui peut poser problème lorsque l’on tente d’établir des normes juridiques pour règlementer son fonctionnement et ses impacts. L’intervenante propose de détailler les sous-catégories qui composent la notion globale, dès lors que différentes catégories présentent des avantages et inconvénients différents.

La première, la “reasoning-based AI”, l’IA basée sur un raisonnement, fonctionne à partir d’un raisonnement basé sur des symboles ou des règles introduits. Elle ne présente généralement pas le plus gros risque pour les questions abordées au sein de cette audition, parce qu’elle offre une transparence et un contrôle accrus vis-à-vis de ses développeurs. La seconde, la “learning-based AI”, l’IA basée sur l’apprentissage, fonctionne à partir de l’introduction d’une grande quantité de données, est capable d’apprendre

et d’élaborer ses propres modèles mathématiques. Une partie des technologies qui composent la learning-based AI peuvent s’avérer plus préoccupantes en matière de respect des normes morales ou juridiques. C’est surtout le cas pour les systèmes “black box”, qui entrent généralement dans la catégorie du deep-learning et qui sont capables de grouper des données en catégories auxquelles les humains n’auraient pas pensé.

Mais ces catégories – et les décisions qui qui en découlent – peuvent s’avérer problématiques sur un plan moral ou juridique. Ce sont ces systèmes qui posent des problèmes de transparence lorsque l’on cherche à savoir comment une décision a été élaborée. Bien que tous les systèmes IA entraînent certains risques, le problème du manque de transparence se pose surtout pour cette dernière catégorie. Si l’IA offre un nombre considérable d’avantages, elle apporte aussi son lot d’inconvénients et de dangers.

La technologie n’est ni bonne ni mauvaise mais elle n’est pas non plus neutre, puisqu’elle s’applique à un domaine précis. Ainsi, il serait incorrect de dire que tout dépend de ce qu’on en fait. La manière dont elle est agencée et l’objectif poursuivi sont sous-tendus par des valeurs et ne peuvent dès lors être qualifiés de neutre. Cela vaut aussi pour la manière d’utiliser l’IA. Lorsque l’IA est par exemple utilisée pour filtrer des nouvelles ou des informations dans les médias sociaux, l’énorme quantité d’informations disponible nécessite un filtrage qui n’est pas neutre.

Le filtrage peut amener à enfermer l’utilisateur dans une bulle qui le prive d’un accès à certaines informations et amplifie l’accès à d’autres. Cela s’illustre particulièrement dans le domaine des fake news et de la publicité politique. Concernant cette dernière, l’intervenante pointe des points positifs et négatifs. D’une part, la publicité par le biais des médias sociaux offre au politique un accès facilité à sa base électorale.

D’autre part, il n’est pas mis face à ses responsabilités car il n’est pas tenu de rester cohérent dans son discours face à différents publics, parce qu’un discours personnalisé et donc différent peut être tenu à chaque individu. Tout comme Mme Muller l’a signalé auparavant, ce sont les humains qui développent et utilisent ces systèmes. C’est à nous de décider ce que nous voulons faire de ces technologies, comment nous voulons les utiliser et sous quelles conditions.

Le conseil que donne Mme Smuha est de faire un bilan sur les avantages et désavantages qu’entrainent ces systèmes, ainsi que de tenter de voir qui est lésé et qui est favorisé par ces derniers, qui risque d’être marginalisé ou d’en tirer profit.

Concernant les dégâts occasionnés par l’IA, il faut savoir qu’un même type de dégât peut être réglé ailleurs, au moyen de lois qui ne concernent pas uniquement l’IA. Les dommages ne sont pas causés que par des technologies compliquées. L’intervenante propose ensuite des pistes de réflexion sur le sujet. Elle précise que les plateformes de réseaux sociaux lient désormais les systèmes privés et publics, séparés en principe sur un plan juridique, et qu’il faut désormais tenir compte de ce fait.

Ces technologies intelligentes sont également à la source de potentiels dégâts, qu’ils soient d’ordre individuel, collectif, ou social. Dans un but de prévenir ces dégâts, il est utile de veiller à la justification du fonctionnement de ces technologies et pas seulement à leur transparence. En effet, avec la transparence, la responsabilité est déléguée aux utilisateurs. Ajouter la justification permet de protéger les utilisateurs, surtout s’il y a un risque vis-à-vis des droits fondamentaux et des valeurs démocratiques.

Enfin, il convient de rester attentif à certains éléments qui ne posent pas de problème sur un plan juridique mais qui peuvent en poser un au niveau éthique. L’oratrice aborde ensuite la question des lacunes qui concernent la gestion des IA. Si certaines lacunes sont présentes au sein des règles, du fait de l’imprécision de ces dernières, d’autres consistent en l’absence même de règles. En outre, la méconnaissance de l’IA rend difficile la détection du mépris des lois par cellelà.

Mme Smuha plaide dès lors pour mettre en place des moyens techniques et financiers afin de combler ces lacunes. L’intervenante conclut son exposé en donnant quelques recommandations aux législateurs. Elle insiste tout d’abord sur la nécessité de financer une enquête multidisciplinaire qui mette au jour les liens entre la désinformation, les annonces politiques, et leur influence sur le processus démocratique.

Rassembler des spécialistes de différents domaines permettrait d’obtenir une vue globale de la situation. Miser sur la résilience et l’autonomisation des citoyens, par le biais de l’enseignement, avec un effort de coordination au niveau fédéral, serait également utile. Combiner la littératie, l’utilisation réfléchie, des médias à

celle des algorithmes serait une façon d’offrir des outils supplémentaires aux citoyens. Ensuite, tenter d’établir une liste des lois existantes à examiner permettrait de cartographier les lacunes législatives et ainsi de savoir où et comment agir. Dans la même idée, il conviendrait d’adopter un point de vue holistique et de considérer non pas uniquement le rôle de la politique vis-à-vis des médias mais bien le rôle des IA dans notre société.

Enfin, tout cela ne peut idéalement se faire qu’en procédant à une évaluation périodique de l’évolution de la situation et de ses objectifs. M. Christophe Lacroix (PS), membre de la délégation parlementaire belge au sein de l’Assemblée parlementaire du Conseil de l’Europe, s’accorde sur l’idée selon laquelle il faut un contrôle parlementaire qui repose sur un débat démocratique où la société civile a un rôle à jouer.

Il demande à Mme Muller s’il vaut mieux développer le cadre légal sur le plan international ou européen ou s’il faut aller vers une charte éthique, sachant qu’il faut un cadre large, qui permette de suivre les évolutions de la technologie. En effet, il y a déjà près de deux-cents chartes éthiques en Europe et le Comité des ministres du Conseil de l’Europe préconise le développement des législations nationale et internationale.

Que faire pour pouvoir développer un contrôle politique publique qui ne soit pas immédiatement dépassé par les évolutions technologiques? Comment concilier le contrôle public, son efficacité et son rôle de monitoring à la lenteur du processus démocratique? Ensuite, faut-il laisser la responsabilité aux propriétaires des médias sociaux le soin du contrôle de leur produit? Monsieur Lacroix se dit également en accord avec Mme Muller concernant ce que cette dernière a énoncé au sujet de la limitation des droits fondamentaux.

Il précise que son groupe politique a déposé une proposition de loi qui sera discutée dans l’après-midi en commission de l’Economie sur les objets connectés en matière de santé (DOC 55 0263/001). Une pression croissante risque de peser sur les individus pour les faire adopter des applications qui évaluent leur profil au profit de certains groupes d’assurances. Il demande l’avis de Mme Muller sur l’idée de déposer une proposition de loi qui vise à interdire ou règlementer l’usage de ces capteurs de santé.

Serait-ce un élément essentiel dans le cadre du respect

des droits et des libertés fondamentaux d’accepter ou non une application? Concernant l’interdiction des messages politiques sur les réseaux sociaux, il se dit partagé entre les inconvénients occasionnés par les médias sociaux, comme leur utilisation par des partis extrémistes pour faire de la propagande, et les avantages offerts. Mais il plaide pour mettre l’accent sur les avantages, sur l’empowerment et l’autonomisation des citoyens, sur la démocratisation du phénomène politique et l’alimentation d’une réflexion démocratique.

Il souhaiterait que soit enseigné aux enfants le codage pour leur offrir un accès à plus de transparence et leur permettre de comprendre les justifications apportées par les plateformes. M. Steven Creyelman (VB) interpelle Mme Muller qui a parlé des aspects licite, éthique et robuste. Il estime que ce sont là des caractéristiques humaines et enchaine en disant que pour lui, l’IA va hériter des caractéristiques humaines de ses concepteurs et qu’elle sera aussi bienveillante ou malveillante que ses concepteurs.

Dans cette optique, l’idée de veiller à garder le “human in command” est respectée. L’intervenant pose ensuite ses questions et se demande dans quelle mesure on peut éviter que l’IA soit utilisée directement ou indirectement pour lutter contre les soi-disant fake news. En effet, c’est un concept très compliqué car, lorsqu’il s’agit d’opinions politiques, c’est avant tout une question d’appréciation. C’est un danger pour la démocratie car l’IA peut être utilisée pour lutter contre des opinions non-voulues et pour éviter que des partis se prononcent.

Il se demande donc comment on peut lutter contre ce phénomène. M. Kris Verduyckt (sp.a) estime que la question que Mme Muller propose de se poser, “veut-on vraiment cette technologie et à quelles fins?”, est très pertinente. L’évolution permanente de ces technologies et leurs impacts sur nos vies laissent matière à réfléchir. Il réagit néanmoins à l’avis exposé par Mme Smuha concernant la distinction entre littératie des médias et littératie des algorithmes.

Il estime que la dernière fait partie intégrante de la première. À quoi cela fait-il référence quand Mme Muller mentionne les règles éthiques qui peuvent être inclues dans la loi? Y a-t-il des exemples pour illustrer cette idée? Enfin, il fut conseillé, lors des exposés, d’analyser des lois existantes avant de chercher à combler les lacunes. Quand M. Verduyckt a posé des questions au ministre sur les cheapfakes et les deepfakes (deux techniques

de montage et de modification de contenus multimédia) abordés par la première oratrice, il lui fut répondu que c’était partiellement couvert par le droit à l’image. On pourrait dire que des lois qui ne sont pas initialement élaborées pour traiter des impacts de l’IA et des technologies peuvent aujourd’hui être transposées à ces fins. Est-ce cela que qu’entendait Mme Smuha, lorsqu’elle parlait de procéder à la vérification des lois existantes? Mme Yngvild Ingels (N-VA) s’accorde avec M. Verduyckt sur son dernier point.

Elle est aussi intéressée de recevoir un exemple en la matière et demande un complément d’informations au sujet des balises à donner à la législation, d’une analyse ou d’études reprenant ces lacunes dans la législation. Elle s’interroge sur l’application concrète de ces conseils. M. Gilles Vanden Burre (Ecolo-Groen) aborde les bonnes pratiques qui seraient à mettre en place, comme par exemple l’adoption de la Netzwerkdurchsetzungsgesetz (NetzDG) en Allemagne.

Quelles pratiques, déjà adoptées ailleurs, pourraient nous servir pour nous inspirer? Concernant la publicité électorale, autant elle est extrêmement règlementée dans les médias classiques (presse TV, presse écrite, presse radio), autant il n’y a pas de règles sur les réseaux sociaux et il est difficile de savoir où mettre le curseur. Y aurait-il, dans d’autres pays, des pratiques intéressantes également dont nous pourrions nous inspirer? Enfin, ce sont souvent les acteurs, les médias sociaux, qui définissent les règles, les chartes éthiques, pour ce qu’il se passe sur leurs plateformes.

Quel est l’avis des oratrices concernant le fait que ce soient les plateformes qui fixent les règles aujourd’hui? Est-il préférable de mieux encadrer les règles que les plateformes instaurent ou de voir les législateurs prendre les choses en main sans laisser le choix aux plateformes?

C. Réponses des oratrices

Mme Nathalie Smuha (KU Leuven) répond à la question de M. Lacroix concernant les données médicales. Pour elle, en dépit de quelques liens – en l’occurrence l’utilisation de systèmes IA qui analysent des données (sensibles) – les risques inhérents à ces systèmes dans le secteur médical ne sont pas les mêmes que dans le contexte des médias sociaux. Un des risques spécifiques liés à l’analyse des données médicales est l’utilisation de celles-ci à des fins discriminatoires, par exemple dans le secteur des assurances. La discrimination sur base de données médicales est en principe interdite, mais il est parfois difficile de la détecter lorsqu’elle passe par des algorithmes. Il faut trouver un juste milieu

entre une certaine forme de paternalisme de la part des décideurs et une liberté totale accordée aux citoyens où ces derniers devraient assumer les conséquences de leurs choix en connaissance de cause et pourraient donner accès à leurs données médicales en échange de certains avantages librement choisis. Or, les citoyens n’ont pas toujours véritablement le choix et sont parfois sujets à des rapports de force asymétriques.

La mission qui attend les législateurs est donc difficile. Donner aux citoyens un cadre protecteur prévoyant des droits de base (et des obligations de base pour les développeurs et utilisateurs d’algorithmes), de telle sorte que les citoyens puissent, dans ce cadre, être en mesure de faire leurs propres choix, serait une solution. Concernant la question de M. Lacroix sur la préférence entre les chartes éthiques et la législation, il existe effectivement beaucoup de chartes, mais toutes ne se valent pas.

Les chartes développées par le High-Level Expert Group, et par conséquent par un grand nombre d’acteurs, ont permis de faire émerger les points problématiques, de définir des lignes rouges à ne pas franchir autant que les aspects pour lesquels il faudrait une intervention juridique. Le but était alors d’inspirer les législateurs. Mme Smuha invite l’auditoire, pour avoir quelques idées, à consulter le document nommé “Policy and Investment Recommendations for Trustworthy AI” qui donne des idées sur les éléments juridiquement pertinents sur les plans éthique et juridiques, sur ce qu’il serait conseillé d’interdire, ou de réglementer.

En réponse à M. Creyelman sur la question des fake news et du risque de voir supprimées des opinions non-voulues, il y a effectivement un danger lorsque l’IA prend le pas sur la discussion avec des êtres humains. En effet, face à un décideur humain, on peut discuter, se justifier, argumenter quant à savoir si une information donnée est une fake news ou a un contenu illégal ou non. Mais employer des êtres humains pour opérer ou modérer le tri d’informations est bien plus cher que de laisser les algorithmes faire le travail.

Il faut donc mettre en place des mécanismes qui offrent la possibilité, au moment où c’est nécessaire, de débattre en présence d’êtres humains. En réponse à M. Verduyckt, Mme Smuha dit qu’il faut trouver une voie médiane pour protéger les gens tout en leur laissant la liberté de choix. La littératie générale et celle des médias en particulier doit être élargie aux algorithmes. La seule littératie des médias classiques ne

suffit pas, car les algorithmes fonctionnent différemment de ces derniers. À la question de Mme Ingels, Mme Smuha répond qu’il n’y a, à sa connaissance, pas d’étude exhaustive au sujet des lacunes en Belgique. Il faut mettre en œuvre d’avantage de moyens pour aboutir à une recherche permettant de mettre sur la table toute la règlementation existante, de voir quelles lois existantes peuvent être utilisées en matière d’IA, et sous quelles applications.

Mais il y aura des limites à ces lois et ce sont ces limites qu’il va falloir mettre au jour afin de pouvoir y remédier. À la dernière question concernant le choix de laisser les plateformes définir leurs règles ou d’intervenir en tant que législateurs, l’oratrice déclare que le choix peut être difficile mais qu’il faut garder à l’esprit qu’on ne peut tout avoir. Si la responsabilité est déléguée aux plateformes, il leur est loisible de fixer les règles, tant que le législateur n’en fixe pas.

Par contre, si on décide de les voir devenir acteurs publics, au vu de leur importance grandissante, ces plateformes doivent se soumettre aux règles publiques, ou on peut édicter de nouvelles règles. Idéalement, il conviendrait d’engager un dialogue avec les plateformes pour voir ce qu’il est techniquement possible de faire. Mme Catelijne Muller (ALLAI / High-Level Expert Group on AI) fait remarquer que les réponses unilatérales sur ce qui doit être fait en matière d’IA n’existent pas.

On ne peut qu’élaborer des pistes au fil des discussions. Sur la protection des droits fondamentaux, on peut envisager d’utiliser des critères comme la transparence, la motivation des décisions qui auront été prises par l’IA. Aux Pays-Bas, par exemple, il existe un devoir de motivation, pour lequel toute décision à l’égard de personnes physiques ou morales doit pouvoir être motivée par les institutions publiques.

Cette disposition est inscrite dans la loi. Il est possible d’imaginer d’appliquer cette loi à l’IA, puisqu’elle est pertinente dans le contexte d’un système de prise de décision automatique. Il serait utile de vérifier, par exemple dans le droit administratif, dans les droits fondamentaux, dans le droit concernant l’aide médicale, dans la législation routière, s’il y a des éléments que l’on pourrait appliquer à l’IA.

Concernant les lacunes législatives, le processus de recensement et d’analyse au niveau européen n’en est qu’à ses débuts. Il y a cependant un premier aperçu qui sera rendu public au lendemain de la présente audition, illustrant le travail de Mme Muller sur la question

des droits humains. Ce rapport comprendra quelques recommandations qui permettront de définir des lignes rouges à instaurer dans la législation. On peut aussi définir de nouveaux droits humains, comme un droit à l’autonomie humaine, le droit au contrôle de l’IA, un droit à la transparence et à la motivation des décisions IA, ou encore un droit à l’intégrité morale, à la lumière du profilage des individus par les intelligences artificielles.

On peut également établir des moratoires sur certaines recherches, ou des listes de scénarios futurs potentiels dont il va toujours être tenu compte. Etant donné l’évolution de la technologie, le High-Level Expert Group a préféré imaginer des scénarios, parfois dénommés black swans, autrement dit qualifiés comme hautement improbables, afin de prévenir d’éventuelles lacunes dans la législation. Enfin, concernant la question de M. Creyelman, Mme Muller répond que l’IA n’est pas que la somme de ses composantes, elle est également le système technique et social autour; les individus qui le fabriquent, les individus qui l’utilisent et les personnes qui sont touchées par elle.

Elle est une accumulation de choix faits au préalable et les seules données ne créent pas les problèmes. VIII. — AUDITION DU 14 JUILLET 2020 A. Exposé introductif de M. Martin Ruby (Facebook) M. Martin Ruby (Facebook) indique que les réseaux sociaux ont encore gagné en importance à la suite de la crise du coronavirus. L’activité et le trafic sur la plateforme Facebook ont énormément augmenté au cours des derniers mois.

Il est à noter que les pays ayant adopté les mesures de confinement les plus strictes ont enregistré la plus forte augmentation. L’augmentation du trafic en ligne a eu et continue d’avoir de nombreux effets positifs: les utilisateurs communiquent avec leur famille et leurs amis; de nombreux événements culturels sont mis en place; des ONG utilisent Facebook pour organiser la diffusion de messages à destination de concitoyens vulnérables, etc.

Facebook a lui-même tenté, dès le début de la crise du coronavirus, de contacter rapidement les autorités nationales compétentes afin de les aider à diffuser souplement et massivement des informations fiables sur la santé. Les utilisateurs ont ainsi vu apparaître, en

tête de leur fil d’actualité, un lien vers les pages “coronavirus” des sites des autorités sanitaires nationales ou de l’Organisation mondiale de la santé. Cette initiative a permis de toucher jusqu’à 2 milliards de personnes à travers le monde. Par ailleurs, Facebook a permis aux autorités nationales de diffuser gratuitement sur sa plate-forme des informations sur le coronavirus, et ce, pendant plusieurs mois.

Maintenant que de nombreux pays sortent du confinement, Facebook espère promouvoir la reprise en soutenant l’économie numérique. Dans ce contexte, Facebook organise notamment des formations destinées aux PME; dans notre pays, cela se fait en collaboration avec UNIZO et l’UCM. Facebook est d’ailleurs ouvert aux suggestions que des membres pourraient lui soumettre sur les moyens de stimuler le développement de l’économie numérique.

La dernière observation de M. Ruby à propos de la crise du coronavirus a trait à la désinformation. Au cours des derniers mois, des informations fausses et dommageables sur le coronavirus ont également été diffusées. Après son expérience des élections américaines de 2016, qui ont été un véritable coup de semonce, Facebook a fait de grands progrès dans sa manière de gérer la désinformation. Facebook est donc intervenu rapidement et a mobilisé certains outils développés au cours des dernières années en vue de lutter contre la désinformation.

Il s’agit notamment des “fact-checkers”; en Belgique, ces vérificateurs de faits comprennent l’hebdomadaire Knack, l’agence de presse allemande Deutsche Presse-Agentur (dpa) et, comme annoncé récemment, son homologue français, l’Agence France Presse (AFP). Les fact checkers examinent les informations qui se trouvent dans la zone grise (par exemple, les publications qui tendent vers les théories du complot) et les étiquettent ensuite comme infox ou non.

Dans ce premier cas, l’utilisateur voit apparaître un avertissement l’informant qu’il s’agit “probablement d’une infox”. Au cours des mois de mars et d’avril de cette année, 90 millions de publications ont été assorties d’un tel avertissement. Il est positif de constater que dans 95 % des cas, l’utilisateur n’a pas cliqué pour accéder à la publication en question. Les informations tout simplement dangereuses, telles que la publication selon laquelle boire de l’eau de Javel aiderait à lutter contre le COVID-19, ont été effacées d’initiative de la plate-forme par Facebook ou après avoir été signalées par des autorités ou des utilisateurs.

Les exemples précités de désinformation concernant le coronavirus illustrent bien la problématique générale à laquelle Facebook est confronté. Quelque 100 milliards

de publications sont envoyées quotidiennement par le biais des plates-formes Facebook. La grande majorité de ces publications sont positives, mais une petite minorité d’entre elles sont préjudiciables. Il importe de définir et d’identifier ces publications préjudiciables ainsi que de lutter contre elles. Or, cela soulève des questions difficiles. Il est incontestable que certains contenus sont préjudiciables et qu’ils doivent être effacés.

Le défi ne consiste pas dans ce cas à évaluer si l’information doit être effacée (c’est incontestablement le cas), mais bien à la détecter. Les exemples sont légion: suicides, maltraitance d’enfants, messages ouvertement haineux, terrorisme, etc. En ce qui concerne nombre d’autres contenus, le défi ne consiste pas seulement à les trouver, mais également à évaluer ce qu’il convient d’en faire. Le cyberharcèlement fait partie de ces cas; de quoi s’agit-il exactement? Ou encore: que faire des publications postées par des jeunes las de la vie? Où placer la limite concernant le contenu qui pourrait inciter des tiers à se suicider? Les messages haineux ne sont pas non plus toujours faciles à évaluer; quand cesse-t-on d’avoir affaire à des opinions tranchées et tombe-t-on dans des messages haineux? La limite est souvent floue.

Facebook a élaboré des directives pour toutes ces formes de contenu problématique. Ces directives sont en permanence mises à jour et affinées, en concertation avec des universitaires, des ONG et des autorités du monde entier. Il est difficile de trouver le bon équilibre dans cette question extrêmement délicate. Facebook est tiraillé entre les groupes qui estiment que trop peu d’informations sont effacées et ceux qui trouvent que trop d’informations sont effacées.

Il n’existera jamais de consensus au sujet de tous les types d’informations; il y aura toujours des personnes ou des groupes qui estimeront qu’un contenu donné doit précisément être maintenu ou effacé. Afin de faire respecter ces directives, Facebook fait appel tant à l’intelligence artificielle (IA) qu’à des modérateurs. Facebook a énormément investi dans ces deux domaines au cours de ces dernières années.

Mais à la base de ce travail se trouvent les lignes directrices qui définissent la politique de Facebook. La clé consiste à trouver le bon équilibre. Depuis deux ans environ, Facebook est demandeur d’une régulation accrue. L’idée sous-jacente est que les directives concernant le contenu acceptable ou non ont plus de légitimité si elles émanent d’organes démocratiquement élus que d’entreprises privées.

Il s’agit idéalement de règles en vigueur à l’échelle mondiale ou,

à tout le moins, au niveau international. Ces dernières sont déjà prévues, sous la forme du Digital Services Act Package. Facebook suit ce dossier de près et se montrera coopératif en la matière. L’entreprise a acquis une expérience considérable au cours des 15 dernières années dans la modération des contenus et la met volontiers à la disposition des autorités. M. Albert Vicaire (Ecolo-Groen) souligne que Facebook investit des sommes considérables dans le développement de l’IA et de la reconnaissance faciale.

Il n’est pas un secret que des régimes non démocratiques manifestent un intérêt particulier pour ces technologies. Quel est le point de vue de Facebook concernant la commercialisation éventuelle de ces technologies? Dispose-t-il d’un code de conduite à cet égard? Et dans l’affirmative, M. Ruby estime-t-il qu’il est préférable qu’un tel code de conduite soit soutenu par une législation? En outre, le membre souhaite savoir si Facebook est favorable à un plafonnement des dépenses publicitaires des partis politiques pendant les campagnes électorales.

Enfin, M. Vicaire se demande sur quelles méthodes mise Facebook dans la lutte contre le racisme et le sexisme sur ses plates-formes. M. Tom Van Grieken (VB) souhaite savoir si Facebook utilise des listes noires (blacklisting) dans sa lutte contre la désinformation et les théories du complot. Dans le cadre de cette lutte, Facebook utilise des outils qui sont visibles par les utilisateurs, comme l’a exposé M. Ruby.

Mais des algorithmes – invisibles pour les utilisateurs – qui rendent certains contenus moins visibles sont-ils également utilisés? Le membre renvoie à cet égard à un cas concret; M. Van Grieken a en effet remarqué qu’une publication donnée sur Facebook étiquetée avec le nom de son parti génère manifestement moins d’interaction et de reach qu’une publication identique sans le nom du parti. Il se demande également s’il est possible de faire passer des publicités dans les publications qui ont été étiquetées comme infox.

M. Van Grieken souhaite en outre savoir si un contrôle des fact checkers est prévu. Qui les soumet à un contrôle factuel? Que faire si l’on conteste l’étiquette “infox”: Facebook a-t-il prévu une procédure à cet égard ou faut-il se tourner vers Knack, la DPA ou l’AFP? Facebook suit les élections nationales. M. Van Grieken loue la coopération avec les collaborateurs de Facebook

dans le cadre des élections qui ont été organisées en 2018 et 2019 en Belgique. L’intervenant se demande également quelle est la politique de Facebook en ce qui concerne des élections anticipées dans un pays. Enfin, le membre aborde le point évoqué par M. Ruby selon lequel Facebook est demandeur de règles applicables au niveau mondial. M. Van Grieken fait remarquer que de telles règles supposent un appareil étatique mondial qui n’enthousiasme personne.

Mme Yngvild Ingels (N-VA) souhaite savoir en quoi consiste la politique de Facebook concernant les groupes fermés ou privés sur ses plates-formes. M. Gilles Vanden Burre (Ecolo-Groen) souhaite poser quelques questions concernant la lutte contre les discours de haine. Facebook en fait rapport aux autorités nationales. Le membre se demande si Facebook rapporte de la même manière à tous les pays (européens) ou s’il adapte son rapportage à la législation en vigueur dans le pays concerné.

C’est ainsi que l’Allemagne dispose depuis deux ans environ de la Netzwerkdurchsetzungsgesetz (NetzDG) réprimant les discours de haine et les fake news sur les médias sociaux. Cette ambitieuse législation a-t-elle une incidence sur le rapportage, en ce sens que le rapportage à l’Allemagne serait plus détaillé et de meilleure qualité? Une telle législation aide-t-elle du reste Facebook dans sa lutte contre les messages de haine et les fake news? Il y a quelques semaines, le CEO de Facebook a annoncé que les utilisateurs auraient la possibilité de bloquer les publicités politiques.

M. Vanden Burre estime qu’un tel système d’opt-out serait une bonne chose. M. Ruby peut-il donner plus de détails à ce sujet? Quand serat-il mis en place? Sera-t-il en vigueur d’ici les élections américaines de novembre 2020? Facebook, à l’instar d’autres plates-formes de médias sociaux, a-t-il pris des dispositions spécifiques pour ces élections qui, selon le membre, constitueront un test extrêmement important? M. Erik Gilissen (VB) fait observer que ces dernières semaines, Facebook a subi des pressions de la part de quelques entreprises afin de prendre certaines mesures.

Facebook peut-il maintenir qu’il est neutre s’il cède aux exigences de ces entreprises?

C. Réponses de l’orateur

M. Martin Ruby (Facebook) répond d’abord aux questions relatives à la reconnaissance faciale. Il fait observer que depuis quelques années, sous l’impulsion du RGPD, tous les utilisateurs doivent donner explicitement leur consentement en vue de l’utilisation de cette technologie

(système d’opt-in). À titre de mesure de sécurité, une notification est envoyée aux utilisateurs dont le visage a été reconnu et tagué sur les photos d’autres utilisateurs. Facebook recourt à la reconnaissance faciale pour toute une série d’applications pratiques. Le système peut ainsi aider des personnes malvoyantes à reconnaître les personnes sur les photos. À la connaissance de l’orateur, Facebook n’a pas l’intention de commercialiser sa technologie de reconnaissance faciale.

Selon M. Ruby, ce ne serait pas non plus une bonne chose. Facebook utilise la reconnaissance faciale à des fins positives et utiles. Il développe cette technologie de manière ouverte et transparente; il conclut des alliances avec d’autres entreprises, collabore à des articles de recherche librement accessibles, etc. La reconnaissance faciale se développe à la vitesse de l’éclair. Dans cette optique également, il serait bon de disposer d’un cadre réglementaire en la matière.

M. Ruby estime que le débat politique et la publicité politique font partie intégrante de Facebook. Il ne dit pas cela parce que Facebook en tirerait beaucoup de revenus: en dehors des États-Unis, les montants en jeu sont en effet limités; de plus, cela génère pas mal de coûts et a parfois aussi des retombées négatives sur l’image de l’entreprise. Facebook a toujours été un endroit de rencontre pour les politiques et les citoyens.

Grâce à Facebook, et par extension aux médias sociaux, les hommes ou femmes politiques inconnus ou les petits partis ont la possibilité de toucher un large public, ce qui n’était pas possible par le passé ou à des coûts très élevés. De même, il permet aux politiques de faire passer leur message aux électeurs potentiels situés dans des régions éloignées. En d’autres termes, les publicités politiques sur les médias sociaux contribuent à assurer des conditions de concurrence équitables aux candidats politiques.

M. Ruby confirme que Facebook mettra bientôt en place un système d’opt-out pour les publicités politiques ainsi que pour les annonces relatives à des problèmes de société (social issue ads). Ce système sera d’abord mis en œuvre aux États-Unis avant d’être étendu à d’autres pays. Il est prévu que ce système soit opérationnel aux États-Unis d’ici les élections d’automne. Facebook ne ménage d’ailleurs pas ses efforts à l’approche de ces élections.

C’est ainsi par exemple que l’entreprise a lancé, le 4 juillet dernier, un programme visant à encourager les électeurs à s’inscrire afin d’augmenter le taux de participation. Les utilisateurs américains de Facebook ont notamment vu apparaître, en haut de leur fil d’actualité, un lien vers une plate-forme d’informations destinée aux électeurs. Dès 2019, Facebook a adopté des règles plus strictes en matière de deepfakes.

Quoi qu’il en soit,

Facebook est sur ses gardes par rapport aux élections présidentielles aux États-Unis. Lors des dernières élections, en 2016, l’entreprise était insuffisamment préparée. Depuis lors, Facebook a consenti d’énormes efforts pour améliorer la situation. Depuis 2016, Facebook a été associé à environ deux cents élections à travers le monde, dont certaines étaient de grande ampleur (en Inde par exemple). En Belgique, Facebook a été actif lors des élections locales du 14 octobre 2018.

Facebook est par ailleurs prêt à entrer en action en cas d’élections anticipées, en Belgique ou ailleurs. En effet, lorsque des élections sont organisées dans un pays, l’entreprise mobilise différentes équipes afin qu’elles se concentrent sur le pays concerné. Cela va de l’envoi de rappels dans le fil d’actualité le jour du scrutin à la concertation avec les autorités compétentes (ministère de l’intérieur, services de sécurité, etc.).

Des experts spécialisés en cybersécurité de Facebook traquent également des scénarios-types dans lesquels l’opinion publique est manipulée par la désinformation. En 2017, seuls cinq “comportements non authentiques coordonnés” ont été détectés et neutralisés dans le monde; en 2019, ils étaient déjà plus de cinquante. Dans un contexte électoral, Facebook intensifie encore ses efforts en matière de modération des contenus.

Par ailleurs, Facebook a élaboré une politique stricte concernant les messages racistes et sexistes. Il existe, dans ces domaines, des lignes directrices sur ce qui peut et ne peut pas être dit sur la plate-forme. Il y aura bien sûr toujours des discussions sur le fait de savoir si cette politique est appliquée de manière suffisamment contraignante. C’est précisément là que réside la difficulté: même les partis politiques représentés au sein du comité consultatif ne s’entendent pas toujours sur ce qui distingue précisément un contenu acceptable d’un contenu inacceptable.

Les responsables politiques nationaux et européens seront également confrontés à ce problème lorsqu’ils élaboreront un cadre réglementaire dans ce domaine. Il va sans dire que Facebook respecte les législations nationales des pays dans lesquels il opère, mais en y ajoutant une couche supplémentaire. S’il ne le faisait pas et se limitait à respecter la loi, Facebook contiendrait une grande quantité de contenus indésirables, comme de la pornographie ou des propos extrêmes.

En général, la loi n’interdit en effet que les pires excès. Les recherches montrent également que lorsque les discussions s’enveniment, les jeunes, et surtout les jeunes femmes, s’en détournent. Il y a de nombreuses raisons d’assainir les débats, même si l’orateur reconnaît qu’il peut être très difficile de faire la part des choses.

Facebook désigne lui-même les fact checkers, qui doivent avoir obtenu une certification de l’International Fact-Checking Network créé par le Poynter Institute for Media Studies. Ce réseau contrôle notamment s’ils respectent les normes de qualité journalistiques les plus élevées. Il y a donc une sélection très sévère. Il existe actuellement 60 à 70 fact checkers, dont trois en Belgique, ainsi qu’il a été précisé ci-dessus.

Leur nombre ne cesse de croître dans le monde entier. Les publications qui sont étiquetées comme infox ne peuvent pas être utilisées dans des publicités. Il existe de nombreux groupes Facebook fermés dans des domaines extrêmement variés. Il peut s’agir de groupes créés par des clubs sportifs ou par des amateurs de jardinage écologique. D’autres sont consacrés à des thèmes plus sérieux, comme la maladie ou la perte d’un être cher.

M. Ruby cite l’exemple d’un groupe fermé qui a été créé par une jeune fille dont la sœur était décédée. Ce groupe est très actif et compte aujourd’hui plus de 5 000 adhérents. Les groupes de ce type sont extrêmement utiles. Ils parviennent à apporter un soutien là où les systèmes publics échouent, en permettant par exemple à une personne qui en a besoin de confier ses sentiments au beau milieu de la nuit.

Mais – et tel était certainement le sens de la question de Mme Ingels – il existe également des groupes dont les activités sont répréhensibles. Facebook n’en fait sans doute pas encore assez pour traquer ces groupes, mais il est déjà plus performant à cet égard qu’il y a quelques années. Il y a trois ans, Facebook avait encore uniquement recours à des modérateurs humains, qui n’intervenaient qu’après un signalement fait par un utilisateur.

Il s’agissait d’un processus lent et réactif qui dépendait du dépôt éventuel d’une plainte. Grâce aux investissements dans l’IA, il est désormais possible d’effectuer des contrôles de contenu automatisés en continu, même dans les groupes fermés. La technologie de l’IA permet de mettre à jour des modèles et des corrélations que les modérateurs humains sont incapables de détecter. La solution pour l’avenir est d’utiliser les deux systèmes – les modérateurs humains et l’IA – de manière complémentaire.

Ainsi qu’il a été précisé ci-dessus, Facebook respecte la législation nationale, donc également la NetzDG allemande. Mais cette législation spécifique n’est pas optimale; en imposant des dates butoirs strictes pour la suppression de certains contenus, la NetzDG risque d’encourager certains comportements. Les plates-formes pourraient en effet d’être tentées, par manque de temps, de bâcler le travail et donc de supprimer des contenus qui sont en réalité tout à fait acceptables.

L’orateur ne dit pas que Facebook a recours à une telle méthode,

mais le risque est bien réel. Il est facile de supprimer purement et simplement tous les contenus quelque peu controversés, mais on peut se demander si ce serait une bonne chose en termes de qualité du débat public. L’orateur confirme qu’il existe des différences au niveau du rapportage national. Les données faisant l’objet du rapportage varient selon les pays. Ces différences sont effectivement liées à la législation nationale.

L’orateur admet que rares seront ceux qui plaideront en faveur d’un “gouvernement mondial”. Des règles globales faciliteraient toutefois les choses pour Facebook vu que l’entreprise opère au niveau mondial. Or, l’orateur comprend tout à fait qu’une régulation nationale en la matière remporte largement les suffrages. Le recours exclusif à des règles nationales présente toutefois également des inconvénients.

L’un d’entre eux est que tous les pays n’accordent pas la même importance à la liberté d’expression. Dans certains pays, sur le continent européen également, il est mal vu de poster un contenu critique envers les dirigeants nationaux ou dans lequel il est ouvertement question d’homosexualité. Il s’agit d’une discussion difficile qui doit être menée par les politiques. L’orateur préconise que l’UE fixe quelques balises positives en la matière.

En réponse à la question concernant l’inscription sur une liste noire, l’orateur indique qu’il n’est pas en mesure d’expliquer le cas concret évoqué par M. Van Grieken. Il signale qu’il est en tout état de cause difficile d’expliquer pourquoi un contenu donné génère une interaction donnée. La manière dont un contenu apparaît dans le fil d’actualité est dictée par l’information du public. Il y a quelques années, Facebook a modifié l’algorithme en question, de manière à mettre un peu plus l’accent sur les amis et la famille et un peu moins sur la politique, les actualités et le travail/économie.

L’interaction est importante pour le classement dans le fil d’actualité. L’orateur affirme (et réitère ensuite à la demande de M. Van Grieken) qu’à sa connaissance, Facebook n’inscrit pas certaines voix ou certains partis politiques sur une liste noire. Ce qui arrive toutefois, sans prétendre qu’il en a été ainsi dans le cas visé par M. Van Grieken, c’est que des publications de petites agences de presse par exemple qui violent systématiquement les “directives pour la communauté” de Facebook, qui utilisent en outre systématiquement une terminologie sensationnaliste et qui s’adonnent à la pratique du piège à clics (clickbait) soient rétrogradées par Facebook.

Concernant la question de M. Gilissen, M. Ruby indique que Facebook a connu quelques semaines difficiles. L’entreprise s’est toujours attelée à promouvoir la diversité et l’inclusion et à éviter les partis pris.

Elle a récemment été prise sous le feu des critiques parce qu’elle ne respecterait pas suffisamment ces principes fondamentaux. Il en a également résulté d’intenses discussions en interne au cours desquelles la direction a été fustigée. La discussion est toujours en cours. Facebook va réexaminer ses directives en matière de contenu. Sont-elles convaincantes ou les critiques sont-elles justifiées lorsqu’elles font valoir que Facebook maintient trop de contenus douteux? L’une des pistes qui est examinée est de savoir s’il faut mettre en place une voie médiane entre le maintien et la suppression du contenu, et ce, notamment dans des contextes nationaux de tensions voire de conflits.

Des publications pourraient ainsi être pourvues d’un avertissement ou être supprimées provisoirement, à savoir jusqu’à ce que les tensions s’apaisent. Facebook abandonne également la pratique consistant à tout de même conserver certaines publications contraires aux directives au motif qu’elles revêtent une valeur informative. Facebook est-il contraint de prendre de telles mesures? L’orateur estime que non; l’entreprise prend aux sérieux les voix critiques.

Si demain un groupe prend pour cible la politique de Facebook en matière de contenu suicidaire, l’entreprise sera également à l’écoute. Cette façon d’agir s’inscrit dans la politique de Facebook, laquelle consiste à remettre en permanence ses directives en question et, au besoin, à les adapter, afin de suivre les évolutions dans le monde entier. IX. — AUDITION DU 22 SEPTEMBRE 2020 A. Exposé introductif de Mme Laetitia Avia (Assemblée nationale) Suite à une question du Président, MmeLaetitia Avia (Assemblée nationale) précise au préalable qu’une loi sur les fausses nouvelles (Fake News) a été votée en France en 2018 dans le cadre de l’influence des médias sociaux sur les élections (“Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information”).

Cette loi n’est applicable qu’en période électorale et vise à réglementer les messages politiques; en outre, la loi interdit tout contenu de ce type et permet de retirer rapidement et légalement tout contenu susceptible d’affecter le déroulement normal Mme Avia estime que c’est le bon moment pour parler de la lutte contre les discours de haine sur Internet, notamment parce que le confinement assez strict qui

a suivi la crise du coronavirus en France a clairement accentué les messages de haine sur les médias sociaux. Le sujet qui a occupé Mme Avia au cours de ces deux dernières années est la lutte contre les messages de haine sur Internet. Il y a environ un an, elle a remis au Premier ministre un rapport sur le racisme et l’antisémitisme sur Internet, puis a soumis au Parlement une proposition de loi qui a abouti à la loi du 24 juin 2020 (“Loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur Internet”).

L’idée sous-jacente était de combattre tout contenu discriminatoire et toute atteinte à la dignité humaine en raison de la race, de la religion, du sexe, de l’orientation sexuelle, etc.; cela inclut également les contenus de violence à l’égard des mineurs, de pédophilie, de pornographie, de négationnisme, de l’apologie du terrorisme, etc. Dans la proposition de loi qui est devenue la loi du 24 juin, on peut distinguer trois domaines: 1.

L’élément le plus controversé, qui a été repris de la législation allemande, consiste à instaurer une obligation de supprimer des médias sociaux, dans les 24 heures, les contenus manifestement haineux et illicites. La nonsuppression dans le délai imparti entraîne une nouvelle infraction, qui est sanctionnée au pénal par le juge. Depuis 2004, en France, les plateformes sont obligées de supprimer les contenus illicites mais cette disposition n’est pas appliquée, si bien que, dans les faits, l’impunité règne dans les réseaux sociaux.

L’objectif de la loi était de créer une obligation de résultat pour les plateformes. En outre, un certain nombre d’obligations de moyen ont été créées, notamment en termes de ressources humaines et technologiques à déployer par les plateformes pour respecter cet engagement. Pendant les deux années de ses travaux sur ce sujet, Mme Avia, par exemple, n’a jamais pu savoir combien de modérateurs travaillent pour Twitter et, en ce qui concerne Facebook, les chiffres changeaient tout le temps.

Sans ces informations, il est difficile d’obtenir des résultats concrets; il y a également peu de transparence sur les algorithmes utilisés par les modérateurs. Dans le cadre de la surveillance de ces modérateurs, le Conseil supérieur de l’audiovisuel (CSA) peut imposer des amendes pouvant s’élever jusqu’à 4 % du chiffre

d’affaires mondial de la plateforme concernée (ce montant est identique à celui du Règlement général sur la protection des données). Cette obligation de suppression dans les 24 heures a été annulée par le Conseil constitutionnel français, et l’obligation de moyen susvisée est par conséquent devenue sans objet. D’autres parties importantes de la loi sont par ailleurs demeurées inchangées: 2. La création d’un “Observatoire de la haine en ligne”: cet observatoire réunit un ensemble d’acteurs institutionnels, de plateformes et d’associations qui luttent contre la discrimination afin de mieux pouvoir lutter contre les contenus haineux en ligne.

3. La création d’un parquet numérique spécialisé. Actuellement, il existe une impunité de fait en ce qui concerne les contenus haineux en ligne. En effet, les personnes qui font l’objet de ces contenus haineux portent rarement plainte. Lorsqu’une plainte est néanmoins déposée, l’enquête ne progresse pas parce que la justice n’est pas suffisamment équipée, même sur le plan intellectuel, pour s’attaquer à ces sujets.

Les condamnations sont donc peu nombreuses, si bien que l’on se trouve face à un cercle vicieux. L’intention est donc de créer une catégorie de magistrats spécialisés à la fois dans les médias sociaux et les contenus numériques et dans la loi de 1881 sur la liberté de la presse (loi du 29 juillet 1881 sur la liberté de la presse). La censure imposée par le Conseil constitutionnel français ne marque pas la fin de l’histoire.

Afin d’éviter que, sous l’impulsion de la nouvelle loi, les plateformes soient incitées à censurer massivement des contenus dans le but d’échapper à une sanction pénale, Mme Avia a prévu deux dispositions “atténuantes”: 1. Le CSA précité peut sanctionner les plateformes pratiquant la “sur-censure” (sanctions pouvant aller jusqu’à 4 % du chiffre d’affaires annuel); 2. Une clause d’exonération: les plateformes peuvent se décharger de leur responsabilité lorsqu’elles ne sont pas en mesure de s’exécuter dans les 24 heures (pour contextualiser les contenus visés).

Le Conseil constitutionnel a toutefois estimé que ces deux mesures étaient insuffisantes et que la loi n’était pas assez équilibrée pour protéger la liberté d’expression.

Dans les prochaines semaines, Mme Avia présentera un texte plus équilibré avec comme élément clé la responsabilisation des plateformes. Les plateformes ne peuvent en effet pas être considérées comme de simples entreprises d’hébergement de contenu sur Internet. L’oratrice espère que tous les États membres européens s’attaqueront à ce problème: il existe plusieurs initiatives telles que le Livre blanc au Royaume-Uni et aussi des initiatives en Italie et en Autriche.

En dehors de l’Union européenne également, on observe une volonté croissante de travailler sur ces questions. Seul un plus grand volontarisme des États membres pourra conduire à une approche européenne coordonnée. réponses de l’oratrice M. Gilles Vanden Burre (Ecolo-Groen) demande des précisions sur la loi de 2018 relative aux fausses nouvelles citée par Mme Avia: comment cette loi fonctionne-t-elle en pratique et quelles sont les implications concrètes pour le processus électoral? Mme Laetitia Avia (Assemblée nationale) répond que cette loi n’est applicable que pendant la période électorale (globalement pendant les 3 à 6 mois précédant les élections) et elle n’a pas produit les résultats escomptés.

Depuis son vote, il y a eu des élections européennes et municipales en France, mais les dispositions de cette loi n’ont pas été utilisées, malgré les nombreux messages, notamment lors de la campagne européenne. L’explication réside probablement dans le fait que les parties concernées visées par les messages “fake news” doivent elles-mêmes déposer une plainte. Il peut ne pas être opportun pour les acteurs politiques d’avoir à engager des poursuites judiciaires en pleine campagne électorale.

En outre, les messages sponsorisés sont interdits pendant la période électorale. Il y a également une interdiction de tout parrainage étranger et, surtout, une obligation de plus grande transparence concernant le financement des campagnes. La disposition clé est la possibilité de saisir un juge des référés dans les 24 heures afin de mettre un terme au dommage causé par la fausse information et de faire publier cette décision judiciaire sur les réseaux sociaux.

L’oratrice répète que cette possibilité n’a toutefois pas été utilisée jusqu’à présent. Elle précise en outre qu’il faut distinguer deux périodes en ce qui concerne le sponsoring:

1. une période au cours de laquelle le sponsoring est totalement interdit (au cours des trois mois qui précèdent les élections nationales); 2. au cours de la période plus large de la campagne (six mois), la transparence est obligatoire en ce qui concerne le financement: il est ainsi possible de contrôler si certains contenus sont “poussés” ou pas par une puissance étrangère. Mme Yngvild Ingels (N-VA) aimerait savoir comment des concepts clés tels que “fakenews” et “discours de haine” peuvent être définis concrètement.

Dans la pratique, par exemple, une distinction est parfois opérée entre les discours de haine et les discours de haine appelant à la violence. Dans la deuxième catégorie, il est beaucoup plus facile d’agir, tandis que l’on se heurte rapidement au principe constitutionnel de la liberté d’expression dans la première catégorie. Un consensus peut-il être trouvé au sujet de la définition de ces concepts? que cette observation touche le nœud du problème: pour s’attaquer aux réseaux sociaux très populaires, il faut avoir la société civile de son côté; il ne faut donc certainement pas apparaître comme des censeurs ou comme étant dogmatiques.

En tout cas, elle intitulerait différemment sa proposition de loi aujourd’hui. L’oratrice propose d’ailleurs un nouveau texte dont le titre est “encadrer la modération des contenus”. La première question qui lui était en effet tout le temps posée était: “qu’est-ce que la haine?”. Lors de la discussion parlementaire de la proposition de loi, la liste des contenus à intégrer ou non dans le champ du texte était également très longue.

La loi de 1881 sur la liberté de la presse définit déjà plusieurs cas d’incitation à la haine qu’elle qualifie de discriminatoires. Il s’agit de contenus relatifs à la race, à la religion, à l’orientation sexuelle, au handicap, etc. Mais cette liste s’est avérée trop limitative en l’espèce, car elle ne prend pas en compte le révisionnisme, la pédophilie, la promotion de l’esclavage, … Lorsqu’il s’agit d’atteintes à la dignité humaine, il est difficile de se limiter: le livre blanc du Royaume-Uni évoqué ci-dessus retient 26 critères permettant de déterminer si l’on est ou non en présence de discours de haine.

Mme Avia souhaite aujourd’hui travailler de façon aussi stricte et objective que possible pour définir ce qui est discriminatoire, en utilisant des termes juridiques précis et un langage aussi neutre que possible, afin que le texte puisse recueillir une assise maximale.

M. Kris Verduyckt (sp.a) demande des précisions quant au délai de 24 heures laissé aux plateformes pour supprimer les messages de haine. Ce délai est à la fois très court et très long – surtout lorsqu’il s’agit d’informations manifestement incorrectes ou dommageables; en effet, on peut faire beaucoup de dégâts en 24 heures. Mme Laetitia Avia (Assemblée nationale) est entièrement d’accord avec le membre.

C’est par souci de cohérence avec des initiatives similaires adoptées en Europe que l’oratrice a opté pour un délai de 24 heures. Ce délai est inscrit dans le code de bonne conduite européen que la Commission européenne a élaboré en concertation avec plusieurs grandes entreprises actives dans le domaine de l’internet. Il s’agit certes de soft law, mais cet instrument est le seul qui existe à l’échelle européenne.

L’obligation de retirer un contenu dans les 24 heures est également inscrite dans la législation allemande. Il aurait été peu cohérent et sans doute problématique d’opter pour un autre délai dans la législation française. L’oratrice estime que nous devons tous nous efforcer d’aller dans la même direction. Elle reconnaît que le délai de 24 heures peut paraître long, en particulier lorsqu’il s’agit de contenus dangereux ou portant atteinte à la dignité humaine.

On sait que de tels contenus peuvent être vus sur les plateformes par des centaines de milliers de personnes en un minimum de temps. C’est aussi pour cela que Mme Avia est convaincue que l’obligation de retirer certains messages dans un délai déterminé ne permettra pas de résoudre tous les problèmes; la lutte contre les discours de haine doit également passer par des obligations de moyens en matière de limitation de la viralité des contenus.

Les plateformes de médias sociaux ont mené un lobbying extrême lors de l’adoption de la “loi Avia”. Elles prétendaient ne pas être en mesure de retirer des contenus haineux dans les 24 heures. Mme Avia conteste cette affirmation; elle a passé suffisamment de temps dans leurs centres de modération pour savoir qu’elles peuvent le faire. La loi impose des obligations de transparence à ces plateformes; ainsi, elles doivent faire rapport sur le délai moyen de retrait de contenus haineux.

Les plateformes soutiendront toujours que ce délai est trop difficile ou impossible à respecter. Elles citeront des exemples dans lesquels le caractère illégal de l’information est très difficile à apprécier, l’intervention d’un juge étant requise. Il s’agit toutefois d’exceptions; il ne faut du reste pas perdre de vue que la loi portait uniquement sur les messages manifestement illicites.

Le Conseil constitutionnel a considéré que le délai de 24 heures était trop court. Le nouveau texte que l’oratrice a l’intention de déposer imposera dès lors aux plateformes l’obligation d’analyser et le cas échéant de retirer les contenus visés dans un délai approprié. Elles seront en outre tenues d’apporter une réponse aux notifiants dans les 24 heures. Elles pourront se contenter à cet égard de répondre qu’elles ont besoin de davantage de temps ou d’informations, mais elles seront à tout le moins obligées de traiter le contenu dans les 24 heures. précisions sur l’Observatoire de la haine en ligne; une entité entièrement nouvelle sera-t-elle créée à cette fin, ou cet observatoire sera-t-il greffé sur une structure existante? L’idée d’un parquet spécialisé numérique est particulièrement intéressante.

Des budgets supplémentaires seront-ils prévus à cette fin pour la justice? Et ici aussi: ce parquet spécialisé sera-t-il intégré dans les services existants, ou une nouvelle structure sera-t-elle mise en place? Mme Laetitia Avia (Assemblée nationale) indique que ni l’observatoire ni le parquet numérique n’étaient prévus dans la proposition de loi initiale. L’idée de ces dispositions a mûri au cours des travaux parlementaires, pendant lesquels l’oratrice a recueilli de nombreuses informations et a eu de nombreux contacts avec diverses instances, notamment les institutions publiques compétentes, les associations qui luttent contre les messages haineux sur Internet et les plateformes elles-mêmes.

On s’est ainsi rendu compte qu’il n’y avait pas suffisamment de canaux permettant à l’information de circuler rapidement entre les différents acteurs. L’objectif doit être non seulement que ces acteurs apprennent à mieux se connaître, mais aussi qu’ils coopèrent efficacement. La loi Avia prévoit d’ailleurs l’obligation pour les plateformes de coopérer activement afin de réprimer les contenus à caractère terroriste.

L’Observatoire de la haine en ligne a été symboliquement créé l’été dernier au sein du CSA. Comme le CSA sera chargé de réglementer la modération des contenus, il est logique qu’il dirige l’Observatoire et y crée les groupes de travail nécessaires, en fonction des sujets (encadrement de la loi, protection des mineurs). Le lancement officiel de l’Observatoire de la haine en ligne a été reporté du fait que le président du CSA a été infecté par le COVID-19, mais il aura lieu prochainement.

L’une des premières missions de l’Observatoire sera d’émettre un avis sur la nouvelle proposition de loi de Mme Avia. L’observatoire verra ainsi sa position renforcée;

s’il fait des propositions d’amélioration constructives, l’oratrice les intégrera. S’il valide le texte, ce sera encore mieux, car il sera plus difficile pour les plateformes de le contester par la suite. S’agissant du parquet numérique, Mme Avia souligne que les plaintes fondées sur des messages haineux sont aujourd’hui traitées sur la base de la loi de 1881. Cette loi se caractérise par une procédure lourde et exigeante, ce qui signifie que l’agent du commissariat sera souvent enclin à mettre la plainte au bas de la pile.

Lorsqu’il s’agit de messages haineux sur les médias sociaux, la volonté de traiter la plainte est souvent encore plus faible. Cette disposition vise à garantir que toute la chaîne pénale, de l’enquête au tribunal chargé de traiter le fond de l’affaire, soit dotée de personnel spécialisé connaissant bien le sujet. L’oratrice cite l’exemple d’une personne qui a signalé un cas de cyberharcèlement et à qui il a été demandé de fournir des captures d’écran de chacun des 10 000 messages incriminés.

Cela montre clairement que les techniques d’enquête ne sont actuellement pas adaptées à cette forme de criminalité. La création du parquet numérique s’accompagne en effet de ressources supplémentaires pour la justice. À cet égard, le hasard fait que Mme Avia est également rapporteuse pour le budget de la justice, pour lequel elle présentera son rapport dans quelques semaines, et dans lequel les deux sujets sont liés.

Ce n’est toutefois pas seulement une question de budgets, c’est aussi et surtout une affaire d’hommes et de femmes qui doivent mettre en œuvre une politique pénale de lutte contre les messages de haine. Le parquet numérique sera centralisé auprès du Procureur de la République près le Tribunal de Paris. Dans le passé, ce dernier s’est notamment distingué pour son combat contre l’antisémitisme et on s’attend à ce qu’il mène une politique stricte dans ce domaine. le débat sur les moyens alloués au département de la justice fait également débat en Belgique.

Mme Laetitia Avia (Assemblée nationale) ajoute qu’il est important que toutes les parties, y compris les autorités, investissent les ressources nécessaires dans ce combat. En donnant des moyens financiers et humains supplémentaires à la justice, on désamorce la principale

critique formulée par les plateformes à l’encontre des autorités: “vous voulez nous responsabiliser, vous voulez nous faire investir des moyens, mais que faites-vous?

M. Gilles Vanden Burre (Ecolo-Groen) remercie l’oratrice et lui donne rendez-vous pour un nouvel échange sur le texte final de la nouvelle proposition de loi. X. — AUDITION DU 6 OCTOBRE 2020 A. Introduction La présidente (a.i.) du Comité d’avis, Mme Yngvild Ingels (N-VA), accueille les orateurs allemands invités à cette vidéoconférence: — M. Martin Kotthaus, ambassadeur extraordinaire et plénipotentiaire de la République fédérale d’Allemagne auprès du Royaume de Belgique à Bruxelles, — Mme Antje Gade, chef des services consulaires de l’Ambassade d’Allemagne à Bruxelles, — M. Alexander Schäfer.

M. Kotthaus, ambassadeur à Bruxelles, remercie le Comité d’avis de l’invitation et est convaincu que cet échange sera enrichissant pour les deux pays.

B. Exposé introductif de M. Alexander Schäfer, ministère fédéral de la Justice et de la Protection des Consommateurs (Bundesministerium der Justiz und für Verbraucherschutz – BMJV) M. Alexander Schäfer (BMJV) fait observer que si le discours de haine est déjà un vieux phénomène, une forte recrudescence des messages de haine est constatée sur internet dans le cadre de la crise du coronavirus. En Allemagne, les attaques ciblent par ailleurs les asiatiques (jugés responsables de l’épidémie), certaines personnalités (notamment les virologues qui proposent certaines mesures) et des personnes telles que Bill Gates, qui financerait une campagne de vaccination pour empoissonner la population.

Le ministère fédéral allemand a décidé dès 2015 d’agir contre ces pratiques. Un groupe de travail a tout d’abord été mis en place au ministère, auquel ont été conviés les représentants des grands réseaux sociaux (Facebook Twitter, You Tube), ainsi que des représentants des organisations de la société civile et des autres ministères.

Un certain nombre de mesures ont été approuvées à cette occasion, dans le cadre desquelles les réseaux sociaux ont accepté que le droit pénal allemand soit d’application: bien que la quasi-totalité de ces réseaux sociaux aient leur siège aux États-Unis d’Amérique et déclarent donner la priorité au droit américain, ils ont accepté l’application du droit allemand parce qu’ils sont actifs sur le marché allemand.

Ces engagements volontaires ont donné lieu à l’instauration d’un mécanisme de filtrage, dans le cadre duquel le contenu punissable notifié devait être supprimé par le réseau dans les 24 heures. La réalité a cependant été décevante: alors que 90 % du contenu punissable a été supprimé par YouTube, seul 39 % de ce contenu l’a été sur Facebook et 1 % sur Twitter. Les résultats étaient certes meilleurs lorsque les notifiants s’identifiaient comme étant des enquêteurs et non de simples utilisateurs.

En tout cas, le ministre de la Justice de l’époque (Heiko Maas) a estimé, lors d’une évaluation début 2017, qu’il s’imposait d’adopter une réglementation légale responsabilisant les réseaux sociaux. Au printemps 2017, un projet de loi a été déposé au Bundestag, dans l’objectif d’avoir une réglementation légale pour septembre 2017, date des élections parlementaires. La Gesetz zur Verbesserung des Rechtsdurchsetzung in sozialen Netzwerken (NetzDG) a été rapidement adoptée et une partie des dispositions sont entrées en vigueur dès le 1er octobre 2017.

Les autres dispositions sont entrées en vigueur le 1er janvier 2018. La loi s’applique uniquement aux gros fournisseurs de réseaux, à savoir les fournisseurs comptant plus de 2 millions d’utilisateurs enregistrés en République fédérale d’Allemagne, vu que ce sont surtout ces grands acteurs qui peuvent exercer une influence déterminante sur l’opinion publique. Ces fournisseurs de réseaux sociaux doivent instaurer une procédure de traitement des plaintes, facilitant l’introduction d’une plainte par l’utilisateur et obligeant les réseaux à transmettre et à supprimer de leurs plateformes le contenu clairement punissable dans les 24 heures; pour les affaires plus complexes, ce délai peut atteindre sept jours.

De quel contenu s’agit-il? L’orateur donne la liste non exhaustive suivante: les appels à commettre des faits punissables ou à former un groupement terroriste, l’incitation à la haine raciale, la diffusion de pédopornographie, l’injure, les menaces, la calomnie, etc. Ce contenu doit être examiné par les réseaux eux-mêmes, et, s’ils constatent qu’il s’agit d’un contenu punissable, il doit être effacé du site dans les 24 heures.

Le contenu peut éventuellement être transmis à un “organisme

autorégulé”, où tous les acteurs du réseau sont représentés et qui est reconnu par le ministère compétent. De plus, les réseaux sociaux doivent rendre des comptes sur leur manière de traiter ces faits en publiant des “rapports de transparence” semestriels rédigés en allemand, dans lesquels ils expliquent comment ils ont traité les plaintes relatives à des contenus délictueux qu’ils ont reçues. Il ressort de ces rapports que YouTube et Twitter traitent jusqu’à 300 000 plaintes par semestre, alors que Facebook n’en traite qu’un millier.

Selon l’orateur, cette différence est due à la piètre qualité de la procédure de traitement des plaintes de Facebook, qui, s’il prévoit un traitement rapide des violations des “standards de la communauté”, limite les possibilités de plainte contre les contenus réellement illégaux. Dans ce contexte, le ministère de la Justice peut infliger des amendes pouvant atteindre 50 millions d’euros, ce qui s’est déjà produit: Facebook s’est vu infliger une amende de 2 millions d’euros lorsqu’il a été établi que ses rapports fournissaient trop peu d’informations sur les plaintes qu’il a reçues.

En outre, des procédures d’amende sont également en cours à propos de la manière dont d’autres réseaux sociaux traitent les plaintes. M. Schäfer précise que ces amendes ne portent évidemment pas sur des infractions individuelles mais sont infligées uniquement en cas de manquements systématiques (non-suppression de messages illégaux, mauvaise évaluation de messages). Il existe par ailleurs un deuxième mécanisme permettant à l’autorité administrative (le ministère de la Justice) de s’adresser au tribunal pour obtenir une décision judiciaire à propos du caractère illicite ou non d’un contenu donné qui n’a pas été bloqué ou supprimé par l’opérateur.

L’orateur poursuit en évoquant certaines évolutions récentes: en 2019, l’Allemagne a été le théâtre de plusieurs attentats d’extrême droite: à Cassel (meurtre d’un responsable politique), à Halle (meurtre en pleine rue de deux personnes à proximité d’une synagogue) et à Hanau (une voiture a foncé dans une foule). Ces actes terroristes avaient été annoncés en partie sur Internet, et les responsables politiques en ont conclu que les réseaux sociaux pouvaient contribuer à prévenir ce type d’actes.

Une réglementation durcissant des peines et obligeant les réseaux sociaux à signaler différentes menaces à la sécurité publique a dès lors été présentée au Parlement. Ainsi, lorsqu’un contenu de cette nature est supprimé

des plateformes, le réseau doit le signaler à la police fédérale, qui identifie le parquet territorialement compétent et lui transfère le dossier. Cette réglementation a été récemment approuvée par le Bundestag et le Bundesrat. Elle doit encore faire l’objet d’une publication officielle. En outre, un projet de loi est encore examiné au Parlement allemand, à savoir la transposition de la directive (UE) 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018 modifiant la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive “Services de médias audiovisuels”), compte tenu de l’évolution des réalités du marché: cette directive s’applique notamment aux services de plateformes de partage de vidéos et vise explicitement certaines infractions comme le terrorisme, la pédopornographie et les infractions relevant du racisme et de la xénophobie.

Dans ce cadre, une nouvelle réglementation sera instaurée qui permettra à l’utilisateur des réseaux d’obtenir qu’une décision initiale relative aux contenus punissables soit réexaminée. La directive prévoit également la possibilité de créer, pour les plateformes de partage de vidéos, un organe de médiation doté des mêmes compétences que l’instance qui inflige les amendes. Les associations du secteur peuvent créer leurs propres organes de médiation qui devront ensuite être agréés par l’autorité responsable des amendes.

Une fois l’agrément obtenu, cette autorité ne sera plus compétente. Enfin, l’orateur indique qu’en décembre 2020, la Commission européenne adoptera probablement le projet du “Digital Services Act” (législation sur les services numériques), qui contiendra également des dispositions relatives aux contenus illégaux sur les plateformes en ligne (réseaux sociaux). M. Schäfer estime que la loi allemande pourrait certainement être une source d’inspiration en la matière.

C. Questions et observations des membres

Mme Frieda Gijbels (N-VA) souligne que les limites de la liberté d’expression ne sont pas faciles à définir. Combien de temps faut-il pour qu’un tribunal allemand se prononce sur la question de savoir si un certain contenu doit être qualifié ou non de discours de haine? En ce qui concerne les informations fallacieuses, on constate, à la suite de la crise du coronavirus, une

augmentation de toute une série de théories du complot qui peuvent avoir des effets dangereux: une réflexion a-t-elle lieu à ce sujet en Allemagne? En outre, la nouvelle loi de 2017 a-t-elle déjà fait l’objet d’une évaluation depuis lors? Quelles sont, le cas échéant, les conclusions de cette évaluation? Existe-t-il des recommandations qui peuvent être utilisées dans le contexte belge? Les réseaux sociaux mettent-ils actuellement davantage l’accent sur la sensibilisation et la prévention depuis la nouvelle loi? Y a-t-il une évolution? si l’adoption de la loi en 2017 a donné lieu à des tensions entre le législateur allemand et la Commission européenne.

S’agissant du débat parlementaire qui a précédé son adoption, elle demande si le projet de loi a bénéficié d’un large soutien ou a, au contraire, suscité de la résistance de la part de certains groupes. Parallèlement, les réactions de la société civile témoignent des nombreuses critiques à l’égard de la loi, qui a été considérée comme une atteinte au droit fondamental à la liberté d’expression: qu’en pense M. Schäfer? Enfin, Mme de Laveleye demande si l’on dispose déjà d’une évaluation de la loi.

M. Steven Creyelman (VB) fait observer que l’orateur mentionne “l’incitation à la haine raciale” et “l’injure”, des termes qui ont une acception large et qui sont susceptibles d’interprétations divergentes. La crainte du membre est que ce faisant, on risque d’atteindre l’objectif inverse à l’objectif visé. En promulguant une législation aussi contraignante, on risque de saper la liberté d’expression – dont le membre exclut d’ailleurs les appels à la violence.

Si M. Creyelman ne conteste pas qu’il faut combattre les mensonges, il faut cependant se garder de confondre les véritables informations fallacieuses (fake news) avec les informations qui pourraient se révéler déplaisantes ou désagréables pour certains, mais qui ne sont pas mensongères pour autant. Quel est, selon l’orateur, le risque que cette dernière catégorie en pâtisse au titre de dommages collatéraux de la lutte contre les fake news? M. Kris Verduyckt (sp.a) indique que les réseaux sociaux sont entrés dans nos vies depuis une quinzaine d’années; si au début, tout le monde s’accordait essentiellement sur leurs avantages, on voit aujourd’hui qu’ils modifient notre société.

De plus en plus souvent, force

est de constater que la liberté d’expression est utilisée abusivement, notamment par de faux sites d’actualité qui répandent de fausses théories complotistes. Nous devons réfléchir sérieusement à comment éviter que ces réseaux n’entraînent une disruption de notre société. La NetzDG est applicable aux réseaux qui comptent au moins deux millions de membres. L’orateur pourrait-il indiquer ce que cela représente en termes de champ d’application de la législation: combien d’utilisateurs des réseaux sociaux sont-ils recensés en Allemagne et quels sont les réseaux qui relèvent de la législation? M. Verduyckt pense avoir compris que les utilisateurs doivent signaler certaines infractions avant que les mesures prévues dans la loi puissent être d’application.

Cela signifie-t-il que, si aucun membre d’un groupe fermé Facebook n’entreprend une action, ce genre de groupe peut tout simplement poursuivre ses activités, même si celles-ci sont interdites? Ou le réseau social doit-il intervenir lui-même dans de tels cas? Les réseaux sociaux ne s’arrêtent évidemment pas aux frontières, ce qui soulève des questions concernant le champ d’application de la loi. Un ressortissant allemand habitant en Belgique qui publie un message de haine relève-t-il de la loi? Un Belge peut-il signaler un message de haine publié en Allemagne et vice et versa? Les autorités allemandes observent-elles déjà des effets de cette législation? Atteint-elle les objectifs recherchés? M. Verduyckt estime qu’un délai de 24 heures pour retirer un contenu inacceptable, c’est long.

Un contenu peut avoir atteint des millions de personnes et des dégâts considérables peuvent avoir été causés au cours de ce laps de temps. Pourquoi ce choix d’un délai de 24 heures? Est-il dicté par des considérations pragmatiques? A-t-il été convenu avec les réseaux sociaux? Ceux-ci sont actuellement confrontés à différentes législations dans différents pays. Quel est leur point de vue à cet égard? Ont-ils fait savoir qu’ils privilégient un cadre légal uniforme à des réglementations nationales fragmentées? M. Verduyckt considère qu’empêcher l’anonymisation sur les réseaux sociaux constitue une mesure majeure dans la lutte contre les propos haineux.

Les utilisateurs peuvent certes être identifiés au moyen de leur adresse IP, mais cela ne se fait toutefois pas sans mal. N’est-il pas beaucoup plus simple d’interdire tout bonnement les comptes anonymes? Une telle option a-t-elle été envisagée avec les réseaux sociaux?

D. Réponses de l’orateur M. Alexander Schäfer (BMJV) répondra successivement aux questions des différents membres. Mme Gijbels a posé une question à propos du rapport entre les propos haineux et la liberté d’expression. Le choix d’aligner la législation sur les dispositions pénales en vigueur a été opéré très consciemment. Le législateur n’a donc pas imaginé de nouveaux faits punissables. L’idée sous-jacente est que les faits interdits hors ligne sont également interdits en ligne.

Les éléments constitutifs de chaque infraction déterminent ce qui est autorisé et ce qui ne l’est pas. Ce qui est nouveau, en revanche, c’est le mécanisme de plainte mis en place par la NetzDG. Les réseaux sociaux doivent appliquer une procédure de traitement des plaintes et sont tenus de traiter les signalements afin de déterminer si des infractions ont été commises ou non. Un mécanisme similaire est d’ailleurs déjà prévu dans la législation européenne, plus précisément dans la directive sur le commerce électronique (directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur), qui définit les droits et les obligations des fournisseurs, des utilisateurs et des réseaux.

Ces derniers sont responsables de leur propre contenu ainsi que du contenu étranger dès qu’ils en ont connaissance. Cette procédure de notification et de retrait (notice and take down) a été intégrée à la NetzDG. Mme Gijbels a également demandé ce qu’il se passait lorsqu’un tribunal devait se prononcer sur le caractère illégal ou non d’une publication. L’orateur souligne, à ce propos, que la procédure de traitement des plaintes est gérée par les réseaux sociaux eux-mêmes.

Il n’y a pas d’intervention judiciaire. Les utilisateurs qui souhaitent effectuer un signalement doivent s’adresser directement aux réseaux, qui doivent alors décider eux-mêmes si cette plainte est fondée. Toutefois, le tribunal intervient lorsque l’autorité responsable des amendes veut imposer une amende à un réseau social au motif que ce réseau n’a pas – ou pas correctement – supprimé un contenu illégal.

Dans ce cas, le tribunal doit vérifier si le contenu visé était effectivement illégal. La définition des nouvelles mensongères n’est pas toujours simple. Dans certains cas, ces nouvelles constituent également une infraction, au même titre que la diffamation ou l’incitation à la violence. La NetzDG ne contient pas de règle générale interdisant les nouvelles mensongères et obligeant les plateformes à prendre des mesures à leur encontre.

Cette possibilité est toutefois actuellement à l’étude, y compris au niveau européen. La Commission européenne a proposé une sorte de système

d’alerte, qui vise toutefois principalement l’échange d’informations relatives aux nouvelles mensongères, plutôt que leur répression. La Commission européenne a également élaboré, en collaboration avec plusieurs grandes entreprises du web, un code de conduite au travers duquel ces entreprises s’engagent à prendre des mesures contre les nouvelles mensongères, par exemple en supprimant les faux comptes, en donnant la priorité aux sources fiables ou en étiquetant les faux contenus.

Au niveau européen, dans le cadre du Plan d’action européen en faveur de la démocratie, une réflexion en cours vise à déterminer si ce code de conduite sera suffisant ou si des mesures supplémentaires seront nécessaires. Le gouvernement allemand est curieux de savoir ce que la Commission européenne va proposer – probablement en décembre 2020. L’Allemagne considère que les nouvelles mensongères constituent un problème important contre lequel il faut pouvoir agir, surtout en cas de danger.

Plusieurs membres ont posé des questions à propos de l’évaluation de la NetzDG. L’orateur indique qu’une évaluation globale s’est achevée le mois dernier. Cette évaluation couvrait un large éventail d’éléments: expériences de l’autorité de sanction, données statistiques sur les coûts supplémentaires pour les plateformes, etc. Cette évaluation a montré que les réseaux sociaux se sont adaptés aux prescriptions légales: ils ont affecté du personnel aux tâches visées et certains contenus ont été effectivement supprimés.

Il y a donc bien eu un progrès, même si tout n’est pas encore parfait dans ce domaine. La dernière question de Mme Gijbels concernait les efforts déployés par les réseaux sociaux en matière de sensibilisation et de prévention. Le système mis en place par la NetzDG est basé sur une procédure de signalement et de suppression de contenu: le réseau intervient après une notification faite par un utilisateur.

La législation ne prévoit pas de mesures proactives en tant que telles, bien que de telles mesures puissent évidemment s’avérer utiles. Pour cela, certains réseaux ont recours à des procédures de modération automatisées. L’utilisation de ces procédures appelle toutefois un commentaire: comme le font également observer certaines organisations de défense des droits de l’Homme, les systèmes automatisés fonctionnent sans doute plutôt bien pour certains contenus comme la pédopornographie ou le terrorisme, mais beaucoup moins bien pour les contenus dans lesquels des opinions sont exprimées.

Pour modérer ce type de contenus, une intervention humaine reste indiquée. Mme de Laveleye a demandé si la NetzDG avait été source de frictions avec l’Union européenne. Les projets de loi qui créent des obligations pour les entreprises et qui sont susceptibles d’affecter la libre circulation

des services et la liberté d’établissement doivent être notifiés à la Commission européenne. Le gouvernement allemand a également procédé à cette notification pour la NetzDG. Plusieurs échanges avec la Commission européenne ont eu lieu. En dépit de légers désaccords entre les parties, la Commission n’a pas émis d’objections formelles. En revanche, elle a formulé des observations à propos des autres initiatives législatives déjà évoquées, en particulier à l’égard du projet sur l’obligation pour les médias sociaux de signaler les menaces pour la sécurité publique, et du projet concernant la transposition de la directive sur les services de médias audiovisuels.

Suite à ces observations, le gouvernement allemand a apporté quelques modifications à ces projets. Toutefois, on peut dire, à titre général, qu’à quelques divergences près, la compatibilité avec le cadre juridique européen n’a pas soulevé de problèmes. Au niveau national, les partis de l’opposition (les Verts, les libéraux et l’Afd) ont vivement protesté contre l’adoption de la NetzDG. Ils prétendaient notamment que la loi minerait la liberté d’expression.

Si la critique est toujours présente, elle s’est cependant atténuée au fil des années. Les Verts notamment ont quelque peu revu leur position. Entre-temps, les associations qui s’occupent de victimes de propos haineux ou qui luttent contre l’extrémisme ont elles aussi reconnu les effets positifs de la loi. En ce qui concerne les évolutions futures de la législation allemande, M. Schäfer renvoie à l’obligation de signalement, évoquée ci-avant, faite aux plateformes en cas de menace de la sécurité publique et à d’autres initiatives visant à renforcer la position de l’utilisateur et à améliorer la transparence.

En réponse à la question de M. Creyelman, l’intervenant reconnaît qu’il est quelquefois difficile d’évaluer le caractère légitime de certains contenus. C’est également la raison pour laquelle, dans les affaires complexes, les réseaux disposent d’un délai de sept jours pour supprimer les contenus. Il ne peut en outre être perdu de vue que les réseaux contrôlent le contenu des messages postés à l’aune de leurs propres standards de la communauté et procèdent, le cas échéant, sur cette base au retrait de contenus, même si ceux-ci ne sont pas à strictement parler illicites.

Les réseaux sociaux disposent dès lors d’une certaine marge de manœuvre. Celle-ci n’est toutefois pas illimitée. Eu égard à leur taille et à leur position de force, les réseaux sociaux sont également tenus de respecter les droits fondamentaux, dont la liberté d’expression et le principe d’égalité. Ils ne peuvent donc en aucun cas faire preuve de légèreté ou d’arbitraire lorsqu’ils retirent certains contenus, ni viser certains groupes.

Selon l’orateur, cette législation ne met pas la démocratie en péril; au contraire, celle-ci est préservée lorsqu’on s’attaque aux propos haineux. Il ressort de recherches que les personnes qui sont victimes d’attaques sur internet sont moins enclines à encore s’exprimer ou se retirent même du monde virtuel. Il est clair que cela ne sert pas la démocratie. M. Schäfer répond finalement aux questions de M. Verduyckt.

L’orateur ne dispose pas de chiffres précis concernant le nombre total d’utilisateurs de réseaux sociaux en Allemagne. Le pays compte quelque 80 millions d’habitants. Abstraction faite des jeunes enfants et des personnes très âgées, la majorité d’entre eux utilisent les réseaux sociaux. Il s’agit donc de plusieurs millions de personnes. Les grands réseaux (YouTube, Facebook, Instagram, Twitter, TikTok et probablement aussi Reddit), qui se taillent la part du lion du marché, comptent facilement au moins 2 millions d’utilisateurs enregistrés.

En cas de doute, il revient à l’instance responsable des amendes d’en juger. Que se passe-t-il lorsqu’une infraction est constatée? La NetzDG vise uniquement la suppression de contenus illicites, et non l’exclusion des utilisateurs qui les diffusent. Pour cette opération, les réseaux ont leurs propres règles de conduite. En cas d’abus (répétés), les réseaux sociaux peuvent décider d’exclure un utilisateur.

En cas de litige, les tribunaux civils peuvent se pencher sur les dossiers concernés. M. Verdyuckt a également posé une question sur l’applicabilité de la loi dans les situations ne concernant pas uniquement des éléments allemands. L’orateur souligne à ce propos que la loi s’applique à tout, mais bien sûr d’abord aux contenus en langue allemande. Les messages en langue allemande provenant de Belgique ou d’Autriche sont également visés par la loi, étant donné qu’ils peuvent être lus par des utilisateurs allemands.

La NetzDG prévoit une procédure de traitement des plaintes qui est soutenue par les réseaux sociaux. La provenance du contenu n’a pas d’importance. M. Verdyuckt a indiqué qu’il trouvait le délai de 24 heures pour la suppression des contenus punissables un peu long. M. Schäfer fait observer, à ce propos, que dans ce domaine, la fixation du délai n’est pas un problème simple. La Commission européenne a élaboré une proposition sur la lutte contre les contenus en ligne à caractère terroriste qui prévoit un délai de retrait d’une heure.

Il convient toutefois de garder à l’esprit qu’il ne s’agit pas ici de plaintes d’utilisateurs, mais bien de signalements venant d’autorités publiques. Un autre facteur qui entre ici en ligne de compte est la nature

exceptionnellement dangereuse des contenus terroristes. L’orateur estime que le délai de 24 heures, étendu à sept jours pour les affaires complexes, est adéquat. Il faut également garder à l’esprit que de nombreux signalements arrivent durant la nuit et qu’un délai très court obligerait les réseaux à mettre en place un important travail de nuit, ce qui ne serait pas toujours faisable. Plusieurs pays ont effectivement adopté des dispositions légales pour lutter contre les propos haineux et la désinformation dans les médias sociaux.

L’orateur évoque le cas de la France, où la réglementation a toutefois été largement censurée par la Cour constitutionnelle française. En Autriche, un projet de loi est en cours d’élaboration. La Commission européenne est préoccupée par la fragmentation des dispositions légales entre les divers État membres, ainsi que par les obstacles au marché intérieur qui en résultent. L’annonce par la Commission du paquet sur les services numériques (Digital Services Act package) doit être située dans ce contexte.

Le gouvernement allemand comprend cet argument et soutient cette initiative européenne, qui porterait également sur le traitement des contenus en ligne illégaux. L’Allemagne s’interroge toutefois sur l’efficacité d’une telle réglementation européenne. Il existe en effet des différences entre États membres quant à la manière de traiter les contenus. En Allemagne, par exemple, il existe des règles strictes sur les insultes et l’utilisation de symboles nazis.

Le gouvernement allemand souhaite évidemment que ces dispositions strictes puissent continuer à s’appliquer à l’avenir. C’est pourquoi il est favorable à une réglementation européenne de base laissant une place suffisante aux sensibilités particulières des États membres, le tout, bien entendu, dans le respect des libertés et des droits fondamentaux. En ce qui concerne l’application des règles, on envisage, au niveau européen, un scénario dans lequel un seul organisme serait actif, installé au siège des réseaux sociaux, en Irlande dans la plupart des cas.

Le gouvernement allemand n’est pas favorable à un tel projet. Il s’interroge sur la manière dont l’Irlande applique le règlement général sur la protection des données. Il se demande par ailleurs si cet organisme unique disposera de ressources suffisantes, et pourra et voudra traiter les plaintes provenant d’autres pays. Selon l’Allemagne, les instances des pays où les réseaux sont actifs devraient conserver certaines compétences.

L’Allemagne dispose actuellement d’un système qui fonctionne bien, avec une autorité allemande responsable des amendes qui maîtrise le droit allemand, et il veut éviter de perdre cette ressource. La dernière question de M. Verduyckt visait l’anonymisation sur les médias sociaux. L’orateur ne partage pas l’avis du membre selon lequel la levée de l’anonymat

serait une mesure utile dans le cadre de la lutte contre les propos haineux. M. Schäfer n’est pas favorable à l’obligation, pour tout utilisateur, de publier son nom. Cette mesure témoignerait en effet d’une méfiance générale à l’égard de tous les utilisateurs. De plus, les utilisateurs s’exposeraient potentiellement à des menaces physiques et à du harcèlement. Pour l’orateur, il est bon que les internautes puissent surfer anonymement.

En cas de problème, des mesures peuvent être prises grâce à l’adresse IP. La procédure d’identification de cette adresse fonctionne correctement. XI. — AUDITION DU 20 OCTOBRE 2020 A. Exposé introductif de M. Joe Westby, chercheur/ conseiller, Amnesty Tech, Amnesty International M. Joe Westby (Amnesty International) indique que sa présentation sera basée sur le rapport d’Amnesty International intitulé “Surveillance Giants: how the business model of Google and Facebook threatens human rights”, publié en 2019 (https://www .amnesty .org /en / documents /pol30 /1404 /2019 /en /).

L’argument au cœur de cette publication est que le modèle commercial sous-jacent du web, surtout celui de Google et de Facebook, constitue une menace systémique qui pèse sur les droits de milliards de personnes, compte tenu de la domination de ces plateformes et du caractère très intrusif du contrôle (surveillance) et de la collecte de données qui l’accompagnent. Le modèle économique du web.De toute évidence, l’accès au web est devenu, dans le monde actuel, une condition essentielle de l’exercice de nos droits fondamentaux, en particulier de la liberté d’expression.

Ce fait est largement reconnu, y compris, notamment, par les Nations unies. D’autre part, le web repose – c’est ce que l’on appelle parfois le péché originel du web – sur la publicité ciblée (targeted advertising) et sur la collecte, l’analyse et l’enregistrement de données personnelles. Cette logique économique sous-tend tout l’univers numérique: non seulement le web, mais aussi, par exemple, les “villes intelligentes” (smart cities), qui se développent rapidement, et “l’internet des objets” qui progresse, et, en fait, tout le monde numérique: des parties de plus en plus importantes de notre vie sont converties en données et enregistrées en ligne.

Toutes ces données sont agrégées et analysées à l’aide d’algorithmes puissants afin de permettre une publicité ciblée et de générer des profits considérables pour les entreprises qui détiennent l’infrastructure du monde numérique. Cela n’a pas toujours été le cas: le modèle commercial original de Google et de Facebook était très différent, mais la logique économique précitée a évolué ces 10 à 20 dernières années: elle est devenue le modèle par défaut du web et le secteur technologique englobe de plus en plus d’industries qui appliquent la même logique économique.

The age of “tech” Nous sommes donc entrés dans l’ère de la technologie (tech), comme en témoigne la liste des entreprises ayant les plus grandes capitalisations boursières au monde: entre 2006 et 2016, la domination est passée des grandes compagnies pétrolières (comme Exxon Mobil) aux grandes entreprises technologiques comme Apple, Alphabet, Microsoft et Facebook (voir illustration).

L’énorme rentabilité de ces entreprises est directement liée à leur domination de l’infrastructure de données; or, Facebook et Google ne sont pas seulement des entreprises rentables, elles disposent d’un levier énorme, compte tenu de la quantité de données qu’elles contrôlent. Ces plateformes bénéficient donc d’une position de force inédite et elles exercent une domination énorme. Facebook et Google contrôlent l’espace public contemporain (“public square”).

Facebook et Google sont les pionniers du modèle commercial décrit, mais ils sont également devenus les gardiens de l’espace public mondial, étant donné qu’ils contrôlent les principaux canaux que les gens utilisent pour entrer en contact avec le monde numérique. D’autres entreprises exercent une domination dans leur propre domaine (par exemple, Amazon dans le commerce en ligne). Entre-temps, Facebook et Google ont acquis conjointement une position telle qu’il est devenu impossible d’entrer dans le monde numérique sans subir la supervision et le traçage qui constituent la base de leur modèle commercial.

Cette dépendance totale conduit à un choix impossible et elle a un prix élevé, à savoir le sacrifice de sa vie privée, ainsi qu’un impact sur toute une série d’autres droits humains. Pour illustrer la domination de Facebook et de Google, l’orateur fournit les chiffres suivants: — moteurs de recherche: Google détient 90 % des parts de marché; YouTube est la deuxième plus grande plateforme et la plus grande plateforme vidéo; — données mobiles: Android est le plus grand système d’exploitation mobile; — réseaux sociaux: Facebook représente 70 % des utilisateurs des réseaux sociaux; — messagerie: WhatsApp et Messenger - tous deux aux mains de Facebook – détiennent 75 % du marché; — navigation: Chrome (propriété de Google) est le navigateur dominant dans le monde; — publicité: duopole Google-Facebook.

En conséquence, un puissant mouvement antitrust a émergé contre les deux entreprises aux États-Unis et en Europe, ainsi que dans d’autres juridictions. La domination de ces deux entreprises est intrinsèquement

liée au modèle économique fondé sur la surveillance, qui renforce la violation d’un certain nombre de droits humains. La puissance des plateformes fait partie du problème. La puissance des plateformes fait partie du problème, principalement parce que nous sommes confrontés à un choix impossible: l’accès à l’espace public suppose la soumission au contrôle omniprésent de notre vie numérique. En raison de leur position dominante sur le marché, l’utilisateur n’a pas d’autre choix.

Ce monopole fait d’ailleurs l’objet de plusieurs litiges juridiques. Au printemps 2020, un tribunal allemand a ainsi reconnu, dans un jugement concernant Facebook, qu’il n’existe pas de choix en la matière; l’alternative, qui consiste à ne pas utiliser la plateforme, est de nature à porter atteinte aux droits de l’homme. Il s’agit également de l’une des préoccupations et recommandations fondamentales d’Amnesty International: nous sommes confrontés au choix paradoxal selon lequel, pour exercer ses droits humains sur internet, on est obligé d’utiliser un modèle économique intrinsèquement contraire au respect de certains droits humains.

Le contraire de la vie privée. Le modèle économique fondé sur la surveillance décrit plus haut viole intrinsèquement le droit à la vie privée et il est fondamentalement disproportionné, à un degré que nous n’accepterions jamais de la part d’un gouvernement ou d’une administration. Nous acceptons cela parce que nous n’avons pas le choix et parce que cela nous donne un accès utile aux plateformes indispensables.

L’élément essentiel n’est pas en l’espèce la collecte massive de nos données, mais le fait que celle-ci se fonde sur des modèles et outils algorithmiques qui traitent nos données et créent ainsi de nouvelles informations sur nous. Il s’agit d’une violation d’un aspect essentiel du droit à la vie privée, à savoir le droit de contrôler les données qui nous concernent. À l’heure actuelle, les citoyens du Royaume-Uni sont encore protégés par le Règlement général sur la protection des données (RGPD), mais la possibilité laissée aux personnes de consentir à la collecte de données est en tout état de cause inadéquate et vide de sens: l’utilisateur ne peut pas consentir de manière significative à la façon/aux façons dont ses données peuvent être reconditionnées et réutilisées à de nombreuses fins complexes.

Une meilleure application du RGPD permettrait de répondre en partie à ce besoin.

Chaque fois que nous visitons une page internet, des milliers de données sont stockées sans qu’il nous soit techniquement possible de marquer ou non notre accord à cet égard. La liste des scandales en matière de vie privée qui ont éclaboussé Google et Facebook est telle qu’il est presque banal aujourd’hui de dire que ces entreprises violent la vie privée. Il est clair qu’il ne s’agit pas d’exceptions mais de conséquences intrinsèques du modèle économique utilisé.

La façon dont nos données sont collectées et analysées, en particulier à des fins d’annonces ciblées, a également un impact sur d’autres droits humains. Alimenter les discriminations. Ces algorithmes ont un impact important sur toute une série de droits humains, notamment en ce qu’ils alimentent la/les discrimination(s). Ainsi, beaucoup d’informations ont été recueillies sur la façon dont la plateforme Facebook a permis aux annonceurs d’exclure certains groupes ethniques, religieux ou autres de leurs publicités pour le logement, l’emploi, l’assurance, etc.

Facebook a dû remédier à cette situation aux États- Unis sous la pression de groupes de défense des droits civils, mais ce n’est pas tant la façon dont les annonceurs peuvent utiliser les outils de ciblage de Facebook qui est inquiétante, mais les algorithmes d’optimisation que Facebook lui-même utilise pour déterminer où doivent être placées les publicités. Une étude récente d’Algorythm Watch montre comment les algorithmes propres à Facebook choisissent qui peut voir certaines publicités, même si les annonceurs n’utilisent pas les fonctions de ciblage: par exemple, les annonces relatives au recrutement de chauffeurs de camion sont principalement portées à la connaissance des hommes et celles concernant les services de garde d’enfants sont principalement adressées aux femmes.

Une manipulation cachée à grande échelle. Les algorithmes offrent également la possibilité de ne montrer certaines publicités ou certains contenus qu’à des individus déterminés, et ce, de façon très manipulatrice et cachée. La frontière entre la personnalisation et la manipulation est extrêmement mince. Ainsi, certains outils d’apprentissage automatique sont capables de scanner les messages d’Instagram à la recherche de signes de dépression, de façon à pouvoir par la suite submerger ces personnes de contenus déterminés.

Facebook a par exemple informé les annonceurs que ses algorithmes permettent d’évaluer si un adolescent se sent mal dans sa peau ou a des problèmes d’estime de soi et s’il a besoin de renforcer sa confiance en soi. Cela constitue un risque sérieux pour notre liberté d’expression et pour notre liberté de pensée, qui sont protégées par le droit international. L’impact sur les élections et sur la démocratie.

Bien entendu, les outils utilisés pour faire de la publicité et convaincre peuvent aussi être mis à profit à des fins politiques. M. Westby fait référence au scandale de Cambridge Analytica: une étude récente a montré que la campagne électorale menée par Donald Trump sur Facebook en 2016 - avec l’aide de Cambridge Analytica - s’adressait spécifiquement aux électeurs afro-américains, le but étant de les décourager de voter dans les principaux swing states, et qu’elle allait jusqu’à viser certains districts et même certaines rues.

Ce problème est inhérent à l’architecture de la publicité ciblée (targeted advertising), qui constitue le modèle économique de ces entreprises. Il n’y a pas encore eu de tentatives significatives pour résoudre ce problème. Les plateformes elles-mêmes ont bien tenté d’agir, sans toutefois toucher à l’infrastructure sous-jacente, qui est au cœur de la question (profilage). L’automatisation de la haine/du discours de haine.

De nombreuses études montrent comment les recommandations faites sur Facebook ou YouTube alimentent la polarisation, les discours de haine et autres contenus extrêmes en affichant, conformément au modèle économique, des messages de plus en plus négatifs, de façon à maintenir l’utilisateur sur la plateforme. Cela renforce les discours de haine, les abus et la désinformation en ligne et cela permet à certains individus de “manipuler” les algorithmes pour renforcer la visibilité de certains points de vue ou contenus, ce qui a des conséquences dans le monde réel.

Ce phénomène a par exemple été observé au Myanmar, où Facebook a été utilisé pour attiser la violence contre les Rohingyas, ainsi qu’au Sri Lanka, où il est apparu que les algorithmes de Facebook ont propagé des contenus haineux ayant donné lieu à des violences ethniques. L’orateur renvoie à cet égard au documentaire de Netflix intitulé “Derrière nos écrans de fumée” (“The social dilemma”).

Conclusion: les données, c’est le pouvoir. La domination des plateformes sur l’infrastructure de données à la base du web constitue une partie du problème. L’orateur renvoie aux boucles de retour (feedbackloops): plus les acteurs collectent de données pour entraîner leurs algorithmes, et plus ces algorithmes peuvent cibler les individus et les garder captifs sur les plateformes, ce qui consolide leur domination.

Ces effets de réseau sont récurrents: il y a quinze ans, la concurrence était beaucoup plus forte, mais certaines entreprises ont pu consolider leur contrôle de l’infrastructure de données. Cette évolution a également accentué leurs effets à l’égard des droits de l’Homme. Par exemple, lorsqu’un discours de haine et des mensonges deviennent viraux sur une plateforme, ceux-ci touchent des millions de personnes en quelques minutes, et c’est ce phénomène qui constitue précisément une partie du problème.

Par conséquent, nous devons examiner et repenser l’écosystème des données dans son ensemble, ainsi que le modèle commercial sous-jacent qui dépend de la collecte et du profilage des données. Aujourd’hui, dans une large mesure, ce système n’est soumis à aucune réglementation: la législation n’a pas suivi le rythme de la technologie. D’ailleurs, les amendes infligées sont insuffisantes pour résoudre le problème sous-jacent.

Par exemple, en 2019, la Commission fédérale américaine du commerce (Federal Trade Commission) (FTC) a infligé une amende record de cinq milliards de dollars à Facebook, mais cela a eu pour conséquence de faire grimper en flèche le cours de l’action de Facebook dès lors que cette amende n’a pas été considérée comme une incitation à un changement du modèle commercial ou des pratiques de Facebook. En outre, son montant était faible par rapport au montant des bénéfices de Facebook.

Que faut-il faire? M. Westby renvoie à la législation sur les services numériques (Digital Services Act) annoncée par la Commission européenne pour décembre 2020. Dans ce contexte, la Commission européenne s’apprête également à publier un livre blanc sur l’intelligence artificielle. Pour conclure son exposé, l’orateur formule plusieurs recommandations concernant: 1. l’instauration du droit de ne pas être tracé: ne pouvoir répondre que par oui ou non à la question du consentement ne constitue pas un choix légitime;

2. la protection des données: renforcer la réglementation et imposer son application; 3. la responsabilité des algorithmes: prévoir un contrôle et une surveillance indépendants; 4. la réglementation des gardiens du web: lutter contre la dominance des plateformes (concurrence); 5. les normes techniques: interopérabilité et portabilité des données; 6. les investissements publics dans des services alternatifs et dans les infrastructures de données.

Mme Yngvild Ingels (N-VA) souligne que de nombreux utilisateurs ne se soucient pas de la surveillance et du traçage opérés par Facebook et Google; ils ne se rendent pas compte que leur vie privée est en danger, ou ils s’en moquent. L’éducation peut être une solution, mais elle ne permettra pas d’atteindre les adultes ou les générations les plus âgées. L’un des défis majeurs consiste à sensibiliser tous les utilisateurs aux mécanismes œuvrant sur les plateformes telles que Facebook et Google, et aux dangers qui en découlent.

Comment pouvons-nous générer de l’adhésion en faveur de l’intervention des gouvernements? Sans cette adhésion, les gouvernements peuvent toutefois imposer toutes sortes de restrictions et de filtres aux plateformes, ce qui obligera par exemple Facebook à publier une version “primaire” de sa plateforme, mais les utilisateurs ne comprendront pas cette décision et la rejetteront. M. Christophe Lacroix (PS) estime que l’exposé de l’orateur a clairement souligné la nécessité d’une gouvernance démocratique de l’intelligence artificielle (IA).

M. Lacroix représente notre pays au sein de l’Assemblée parlementaire du Conseil de l’Europe. Cette Assemblée doit bientôt se réunir pour discuter d’une série de questions concernant l’intelligence artificielle. Le membre a été chargé de rédiger un rapport sur la prévention des discriminations dues à l’utilisation de l’intelligence artificielle. L’intervenant cite quelques exemples de discriminations de cette nature, notamment dans le domaine du logement.

M. Westby a évoqué le danger que le pouvoir démocratique soit confisqué par de petits groupes faisant partie d’une élite économico-financière ou politique. Une étude publiée l’année dernière a montré que 25 % des utilisateurs accepteraient de confier la responsabilité de

faire des choix démocratiques à l’IA. Cette passivité de la part des citoyens préoccupe beaucoup le membre. Il est crucial que les plateformes soient tenues de rendre des comptes. Or, cela implique également que des sanctions doivent pouvoir être infligées. Les sanctions financières, à moins qu’elles ne prennent réellement des proportions considérables, n’ont guère d’impact sur les grandes plateformes.

De plus, elles n’offrent que très lentement une indemnisation des dommages subis. Que pense dès lors l’orateur d’un système de contrôle proactif, mis en place au niveau des États membres, de l’UE ou des organisations internationales, et exercé par des entités indépendantes composées d’experts de haut niveau, guidées par des notions telles que l’éthique, l’inclusion, la diversité, l’égalité? La deuxième question de M. Lacroix concerne le rôle de l’IA dans le changement de l’équilibre démocratique, et plus particulièrement le transfert du pouvoir démocratique des acteurs et institutions politiques vers des machines.

Il n’existe encore que peu de preuves scientifiques à ce sujet. Selon le membre, il est nécessaire de mener une recherche approfondie sur les problèmes, notamment en ce qui concerne la légitimité et la souveraineté, que pose la délégation de pouvoirs démocratiques à l’IA. M. Westby partage-t-il cette analyse et quelles recommandations concrètes ferait-il aux universités et aux centres de recherche à cet égard? M. Erik Gilissen (VB) craint que les algorithmes ne soient utilisés pour promouvoir les points de vue ou les idéologies du propriétaire d’une plateforme au détriment des opinions divergentes.

Une telle utilisation des algorithmes serait contraire à divers droits fondamentaux et constituerait une manipulation de la population. Quelle est l’opinion de l’orateur à ce sujet? Selon lui, comment pouvons-nous éviter que les algorithmes ne versent dans la partialité? De nombreux sites web utilisent des cookies, dont le but est d’établir un profil de l’utilisateur, sans que ceux-ci soient nécessaires pour assurer le bon fonctionnement du site web.

M. Westby estime-t-il que de tels cookies non nécessaires devraient être désactivés par défaut et ne devraient pouvoir être activés qu’à la demande explicite de l’utilisateur? L’utilisateur doit obligatoirement accepter les cookies, mais il est souvent poussé de manière assez agressive à accepter également les cookies non essentiels.

C. Réponses de l’orateur et questions et réponses

complémentaires M. Joe Westby (Amnesty International) répond premièrement à la question de Mme Ingels. Il estime que les internautes se soucient de leur vie privée en ligne et de la façon dont les plateformes façonnent l’environnement numérique et la politique. Une enquête réalisée par Amnesty International dans dix pays l’année dernière l’a montré, et a également révélé que 70 % des personnes interrogées sont favorables à une réglementation plus étendue des grandes entreprises technologiques. En même temps, Mme Ingels a raison lorsqu’elle affirme que nombre de personnes ne se représentent pas totalement l’échelle et le caractère invasif de l’“exploitation” de leurs données par les plateformes, ni la mesure dans laquelle les algorithmes déterminent l’environnement informatif. Des efforts supplémentaires sont certainement nécessaires pour sensibiliser les internautes à ce sujet et pour accroître leurs connaissances de l’univers numérique. Par ailleurs, Amnesty International apporte également sa contribution en menant des campagnes de sensibilisation et, partant, en renforçant le soutien à l’intervention des pouvoirs publics. Or, – et cela répond également à la question de M. Gilissen sur la politique en matière de cookies – la responsabilité de ne pas se perdre dans ces systèmes complexes ne peut pas incomber uniquement aux individus. Les internautes ne devraient pas être contraints à la lecture fastidieuse des déclarations de confidentialité de 200 pages (ce qu’ils ne font évidemment pas); au contraire, ils devraient pouvoir compter sur le fait que leur utilisation d’Internet est conforme à leurs droits. M. Westby établit un parallèle à cet égard avec l’utilisation de l’eau du robinet: les citoyens ne doivent pas d’abord la tester, ils peuvent avoir confiance en la qualité optimale de l’eau grâce à la réglementation et aux contrôles des pouvoirs publics. En ce qui concerne la question de M. Lacroix sur les mécanismes de contrôle ex ante, l’orateur signale qu’il y est certainement favorable. Des propositions sont sur la table dans le cadre de la loi sur les services numériques afin d’introduire des règles ex ante sur les plateformes de contrôle d’accès. Ces propositions peuvent contribuer à rétablir l’équilibre et à rendre la concurrence de nouveau équitable. Les plateformes ont acquis une telle domination et un tel pouvoir qu’il est normal et raisonnable de leur attribuer des responsabilités de contrôle d’accès. Les détails de ces règles ex ante font actuellement l’objet de discussions entre responsables politiques; les ONG font activement entendre leur voix dans ce débat.

Le transfert du pouvoir démocratique à des machines est en effet un phénomène très inquiétant. Ce point touche au plaidoyer que l’orateur a tenu précédemment en faveur de la justification des algorithmes, de leur contrôle indépendant et de leur surveillance. Les manières dont les modèles algorithmiques complexes prennent des décisions ne sont parfois même pas connues de leurs développeurs. D’un point de vue démocratique, il y a un besoin absolu de mesures permettant aux régulateurs de se faire une idée précise du projet, du mode de fonctionnement des algorithmes et de leur impact dans la vie réelle.

L’orateur espère que la future législation ira dans ce sens. Lors de la crise du coronavirus, Facebook et Google, sous l’influence du volume énorme de contenus sur leurs plateformes, ont recouru de plus en plus massivement à des algorithmes basés sur l’IA pour la modération des contenus. Il s’agit d’une évolution qui doit être suivie de près. Le fait que des plateformes aient une influence sur la nature des contenus affichés, comme l’a évoqué M. Gilissen, est un risque réel.

On sait que le gouvernement vietnamien invoque une législation spécifique pour forcer Facebook à supprimer les contenus critiques envers le régime. Vu leur domination globale, les plateformes subiront une pression croissante, de la part de gouvernements mais aussi d’autres entités, en vue de supprimer certains contenus. M. Gilissen a cependant surtout renvoyé au fait que les plateformes peuvent déterminer elles-mêmes ce qui est montré et ce qui ne l’est pas.

Il est en effet exact que l’on ne peut pas faire grand-chose sur ce plan contre une entreprise comme Facebook. Pour le moment, Facebook semble surtout vouloir éviter de donner l’impression de censurer, et elle est donc plutôt encline à laisser en ligne les contenus douteux plutôt que de les supprimer. L’équilibre entre la responsabilité d’une plateforme quant à la défense de la liberté d’expression et sa responsabilité dans la lutte contre les abus en ligne est complexe.

Selon M. Westby, il faut se focaliser moins sur les messages individuels que sur les systèmes sous-jacents qui dirigent les plateformes, autrement dit, sur les algorithmes qu’elles utilisent pour amplifier certains contenus, conformément à leur modèle La question de M. Gilissen concernant la politique relative aux cookies est d’une importance cruciale. Plusieurs études montrent que la manière dont les cookies sont actuellement présentés ne garantissent pas un consentement valable de la part de l’utilisateur.

Cela montre bien comment les entreprises parviennent à façonner notre expérience en ligne pour obtenir notre

consentement formel à des pratiques de collecte et de suivi de données extrêmement invasives. Les sites web sont souvent conçus de manière à forcer de facto et subtilement les utilisateurs à accepter un tel suivi. Cela illustre une fois de plus l’ancrage profonde du modèle économique fondé sur la surveillance des plateformes décrit ci-dessus. M. Steven Creyelman (VB) remercie l’orateur pour son exposé, qui tenait par moment d’un plaidoyer communiste contre l’internet capitaliste.

M. Creyelman reconnaît qu’internet et les réseaux sociaux exercent une influence considérable sur notre vie et nos opinions. Selon le membre, il existe deux manières d’appréhender cette situation: la première consiste à légiférer davantage, alors que l’autre consiste à éduquer et informer les gens sur le fonctionnement d’internet et des réseaux sociaux. L’orateur estime-t-il que la deuxième manière est préférable à la promulgation de nouvelles lois ou les deux solutions sont-elles complémentaires? Dans la dernière hypothèse, l’une des solutions l’emporte-t-elle sur l’autre ou sont-elles équivalentes? La deuxième question de M. Creyelman porte sur la définition de la notion d’”informations fallacieuses” (fake news).

Certains propos relèvent incontestablement de cette notion. Mais, dans d’autres cas, la distinction entre ce qui constitue une information fallacieuse et ce qui ne l’est pas est beaucoup plus subtile ou même une question d’opinion. Comment éviter que des opinions bien fondées mais non partagées n’aboutissent sur une liste noire? M. Joe Westby (Amnesty International) répond que la formation et la régulation sont aussi cruciales l’une que l’autre.

Il est absolument nécessaire que les gens soient mieux informés du fonctionnement d’internet et de la manière dont leurs données sont utilisées pour façonner l’environnement numérique. Parallèlement, des règles s’imposent pour améliorer l’écosystème des données actuel. L’orateur conteste qu’Amnesty International soit anticapitaliste. Défaillant, le marché actuel ne sert en somme les intérêts de personne, si ce n’est ceux des plateformes et de l’industrie ad tech (qui fournit les analyses et les instruments derrière la publicité numérique).

Les revenus publicitaires des propriétaires de sites web ne cessent de baisser. Les annonceurs ne contrôlent plus guère les sites de diffusion de leur publicité ni le retour qu’elle générera. Entre les deux, il y a les entreprises ad tech, qui engrangent d’énormes bénéfices en tant que courtiers.

Non seulement le marché ne fonctionne pas correctement, mais l’effectivité de l’ensemble du système laisse planer des doutes. Une étude récente du radiodiffuseur néerlandais NPO a montré que le passage de la publicité ciblée (targeted advertising) à la publicité purement contextuelle (contextual advertising), dans laquelle aucun outil invasif n’est utilisé mais où les publicités sont placées en fonction du contenu de la page web (par exemple, une publicité pour des chaussures sur un site web consacré aux chaussures), n’a pas entraîné de diminution des recettes publicitaires et de l’effectivité des publicités.

La deuxième question de M. Creyelman porte sur la liberté fondamentale d’expression. Un équilibre extrêmement difficile doit être trouvé entre la défense de cette liberté et la lutte contre les informations délétères sur Internet. En tant qu’organisation de défense des droits de l’homme, Amnesty International est un ardent défenseur de la liberté d’expression. Elle ne veut pas que quelques entreprises technologiques, en tant que gardiens de l’internet, puissent décider de ce qui doit être mis en ligne ou non.

En même temps, nous avons besoin de ces entreprises pour assurer la modération du contenu. L’approche doit se concentrer sur le modèle économique et les systèmes sous-jacents de ces sociétés. La décision de savoir si une information est une fake news sera toujours subjective. Ce qui est une fake news pour l’un est une critique justifiée pour l’autre. Ces décisions ne doivent pas relever des entreprises technologiques.

Nous devons avant tout nous concentrer sur la manière dont les fake news sont amplifiées et atteignent un large public. Les fake news ne sont en effet vraiment dangereuses que lorsqu’elles deviennent virales. Le problème est que nous avons des plates-formes mondiales qui couvrent les deux tiers de la population mondiale, ce qui permet à des centaines de millions d’utilisateurs de voir les fake news en un temps record.

XII. — AUDITION DU 2 FÉVRIER 2021 1. Exposé introductif de M. Franck Dumortier, chercheur, VUB Au vu du sujet abordé aujourd’hui, M. Franck Dumortier s’est permis de diviser son intervention en deux points principaux, lesquels doivent être clairement distingués l’un de l’autre d’un point de vue normatif. Il s’agit, d’une part, de la réglementation des techniques de profilage/ ciblage par le biais de réseaux sociaux (règles de protection des données à caractère personnel et de protection du consommateur) et, d’autre part, la question du cadre

normatif applicable aux mesures prises pour lutter contre la désinformation (“fake-news”) à la lumière du principe fondamental de la liberté d’expression. Des technologies de profilage Selon un récent rapport de la European Union Agency for Fundamental Rights, bien que 8 personnes sur 10 déclarent savoir ce qu’est l’intelligence artificielle (IA), “il n’existe pas de définition universellement acceptée de l’IA.

Plutôt que de faire référence à des applications concrètes, ce concept reflète les récents développements technologiques qui englobent une variété de technologies”. S’il n’existe pas de définition unanime de l’IA, on observe toutefois les récents développements technologiques suivants: 1) la disponibilité accrue de données variées (personnelles ou non) en temps réel (souvent appelé “Big Data”) et 2) l’augmentation de la puissance de calcul informatique liée à de nouveaux algorithmes d’analyse de données (parfois opaques) dotés d’un certain degré d’autonomie (souvent appelé “Machine- Learning” ou “Deep-Learning”).

De manière combinée, ces deux développements technologiques ont considérablement amélioré la capacité de profilage et de ciblage des individus. Étant donné leur nombre d’utilisateurs, les réseaux sociaux (et autres GAFAM) sont évidemment des vecteurs-clés participant à l’amplification de ce phénomène de profilage/ciblage. Cela permet aux acteurs qui y ont recours (tant privés, commerciaux, institutionnels ou politiques) d’impacter les informations reçues par les individus.

En soi, tout profilage/ciblage par le biais d’algorithmes proposés par les réseaux sociaux pour favoriser la circulation d’une information (indépendamment du contenu de celle-ci) n’est pas forcément illégitime ou illégal (ex: prospection commerciale, publicités/communications d’un parti politique). En s’enregistrant sur des réseaux sociaux comme Facebook, les utilisateurs consentent contractuellement à certains types de profilage par des acteurs tiers.

Mais le RGPD a bien perçu le caractère particulièrement intrusif de ces techniques de profilage. Par conséquent, ces traitements doivent faire l’objet de garanties appropriées afin d’assurer que les particuliers sachent qu’ils font l’objet d’un profilage, en comprennent la logique sous-jacente et puissent identifier l’auteur de l’information reçue. Ces garanties de loyauté et de transparence leurs sont nécessaires afin de pouvoir, le cas échéant, exercer leurs droits (par exemple celui de

s’opposer à des publications futures du même auteur ou celui de disposer des informations nécessaires pour pouvoir entamer un recours administratif ou judiciaire). L’importance de telles exigences de transparence a été rappelée par les lignes directrices en matière d’éthique pour une AI digne de confiance, publiées en 2019. C’est du point de vue du non-respect de ces essentielles garanties de loyauté et de transparence − tant au niveau de la collecte des données qu’à celui de la réutilisation de celles-ci – que l’affaire Cambridge Analytica est illustrative: sous couvert d’un questionnaire de personnalité, une application demandait également accès aux informations du profil Facebook de l’utilisateur “à des fins de recherche”.

Sur base de ces données illégalement collectées, Cambridge Analytica créait illégalement des profils psychologiques qui permettaient, par la suite, à certains acteurs d’illégalement cibler certaines populations, et d’y influencer les individus, avant des votes ou des élections politiques. Il va de soi que la commission de tels actes illégaux a été rendue possible, à sa base, par le détournement d’une masse gigantesque de données traitées par Facebook.

Ainsi que l’a relevé le Comité des ministres du Conseil de l’Europe dans sa déclaration sur les capacités de manipulation des processus algorithmiques, “les effets de l’utilisation ciblée de volumes de données agrégées sans cesse croissants sur l’exercice des droits de l’homme dans un sens plus large, bien au-delà des principes actuels de la protection des données à caractère personnel et de la vie privée, ne sont pas suffisamment étudiés et doivent être sérieusement examinés”.

C’est dans ce contexte qu’il faut tenir compte de la récente proposition de législation sur les services numériques (“Digital Service Act” – révision de la directive E-commerce) lequel a pour objectif de compléter le RGPD en matière de transparence algorithmique, notamment en ce qui concerne la manière dont l’information est hiérarchisée et ciblée par le biais de ces plateformes. Selon le considérant 52 de la proposition: “Les plateformes en ligne devraient être tenues de veiller à ce que les destinataires du service disposent de certaines informations individualisées nécessaires pour leur permettre de comprendre quand et au nom de qui la publicité est affichée.

En outre, les destinataires du service devraient disposer d’informations sur les principaux paramètres utilisés pour déterminer qu’une publicité spécifique doit leur être présentée, en fournissant des explications significatives sur la logique utilisée à cette fin, y compris lorsque celle-ci est fondée sur le profilage”.

Qui permettent de propager de la désinformation (“fake news”) Le second point concerne le cadre normatif applicable aux mesures à prendre contre les désinformations favorisées par les techniques de profilage/ciblage susmentionnées. La systématisation de la distribution de certains contenus (ou leur blocage systématique) pose, en effet, un risque de repli des individus dans des “bulles (dés)informationnelles” susceptibles d’impacter leur sens critique, pourtant nécessaire à la promotion de valeurs démocratiques essentielles, telles la diversité et le pluralisme.

En matière de distribution de contenus informationnels, il importe de rappeler que le principe fondamental est celui de la liberté d’expression (art. 10 CEDH), nécessaire pour favoriser le débat public. Son essentielle conséquence est celle de permettre au public de prendre connaissance d’informations contradictoires, de comprendre les faits et les enjeux de société et de se forger une opinion personnelle.

Ainsi que l’a rappelé la Cour européenne des droits de l’homme, la liberté d’expression “vaut non seulement pour les “informations” ou “idées” accueillies avec faveur ou considérées comme inoffensives ou indifférentes, mais aussi pour celles qui heurtent, choquent ou inquiètent l’État ou une fraction quelconque de la population. Ainsi le veulent le pluralisme, la tolérance et l’esprit d’ouverture sans lesquels il n’est pas de “société démocratique””.

Selon la Cour, cela vaut non seulement pour la substance des idées/informations exprimées mais également pour leur mode d’expression: ainsi, on peut utiliser un ton polémique, “une dose d’exagération voire même de la provocation”. C’est ce même principe de liberté d’expression qui explique pourquoi l’actuelle directive e-Commerce interdit aux États membres d’imposer aux intermédiaires en ligne une obligation générale de surveillance des informations qu’ils transmettent ou stockent.

Principe qui n’est d’ailleurs pas remis en cause dans la proposition de révision. Certes, la liberté d’expression n’est pas un droit absolu. Toutefois toute “formalité”, “condition”, “restriction” ou “sanction” imposée en la matière doit être prévisible et proportionnée à un des buts légitimes limitativement énumérés à l’article 10 de la CEDH. Du point de vue de la prévisibilité, une première question importante pour le législateur est celle de la définition légale des “fake news” ou de la “désinformation” contre lesquelles une action doit être entreprise.

Une seconde étape de proportionnalité consiste ensuite à limiter au strict minimum le type

de mesures que l’on souhaite mettre en œuvre contre cette “désinformation” préalablement définie: assurer la transparence quant à l’identification des auteurs des désinformations et des montants alloués? Imposer aux plateformes la dénonciation ou le blocage de certaines “informations fausses”? Incriminer les auteurs de certains types de “désinformations”? Ce sont là des mesures très différentes qu’il s’agit d’analyser séparément et attentivement au vu de leur impact potentiel.

Dans sa Communication de 2018, la Commission européenne définit le concept de “désinformation” comme étant “les informations dont on peut vérifier qu’elles sont fausses ou trompeuses, qui sont créées, présentées et diffusées dans un but lucratif ou dans l’intention délibérée de tromper le public et qui sont susceptibles de causer un préjudice public”. Par préjudice public on entend les menaces aux processus politiques et d’élaboration des politiques démocratiques et aux biens publics, tels que la protection de la santé des citoyens de l’Union, l’environnement ou la sécurité.

Selon la définition de la Commission, la désinformation ne comprend pas les erreurs de citation, la satire, la parodie, ni les informations et commentaires partisans clairement identifiés. En outre, cette définition ne porte pas atteinte aux règles relatives aux contenus illégaux (diffamation, discours de haine, incitation à la violence), lesquels – pour rappel – doivent être dénoncés par les hébergeurs au Procureur du Roi dès qu’ils en ont connaissance et font l’objet d’incriminations pénales.

Sur base de cette définition, une première initiative d’autorégulation (le code de bonnes pratiques contre la désinformation) a été mise en oeuvre par les acteurs du secteur (notamment Facebook, Twitter, Google… Tik Tok les a rejoint). Ces acteurs se sont essentiellement engagés à des obligations de transparence, comme par exemple “permettre la divulgation publique de la publicité politique (définie comme les publicités prônant ou non l’élection d’un candidat ou le passage de référendums lors d’élections nationales et européennes), qui pourrait inclure l’identité réelle du sponsor et les montants dépensés”.

La proposition de révision de la directive e- Commerce va plus loin en prévoyant, par exemple, (via le mécanisme de co-régulation) l’obligation pour les Très Grandes Plateformes l’évaluation et l’atténuation des risques systémiques de manipulations intentionnelles de leurs services, avec des effets négatifs ou prévisibles

sur la protection de la santé, les mineurs, les discours civiques, les processus électoraux et la sécurité publique. Au niveau national, il faut être attentif à ne pas confondre les notions de “désinformation” et de “contenus illicites” lorsqu’il est question de mesures de blocage voire d’incriminations. Actuellement, en Belgique, deux textes méritent d’être mentionnés. D’une part, l’Arrêté royal du 19 juillet 1926 prévoit des peines d’emprisonnement et des amendes pour sanctionner les personnes qui “répand[ent] sciemment et volontairement quelque avis ou information de nature à ébranler le crédit de l’État” ainsi que celles qui “répand[ent] quelque information ou avis inexact, qui est relatif au statut monétaire ou qui est de nature à ébranler la confiance dans le franc” et retient comme circonstances aggravantes le but de lucre ou la procuration d’un profit à autrui.

D’autre part, l’article 328 du Code pénal érige en délit le fait de “[…] sciemment [donner] une fausse information concernant l’existence d’un danger d’attentat contre les personnes ou les propriétés […]”. 2. Exposé introductif de M. Jan Penfrat, European Digital Rights Terminologie & utilisations Le terme “intelligence artificielle” est surtout un terme marketing, il vaut mieux parler d’algorithmes (plus ou moins complexes).

Ces algorithmes sont utilisés à des fins multiples. Exemples d’utilisations simples: filtrer ou classer toute forme de contenu numérique, moteurs de recherche, fils d’info ou personnels sur les réseaux sociaux. Exemples d’utilisations plus complexes: analyses automatisées de grandes quantités de données afin de trouver des similitudes et de reconnaître de nouvelles données qui sont similaires. Sur les grandes plateformes comme Facebook et Youtube, des algorithmes sont utilisés pour trouver des contenus prohibés sur le site, notamment des contenus illicites.

La pratique montre9 qu’ils font des erreurs systématiques dans la prise en compte du contexte d’un contenu et sa nature comme l’ironie, la citation, la critique, le reportage journalistique ou bien les expressions 1 Une collection d’exemples d’erreurs sur Facebook en langue allemande est disponible ici: https://facebooksperre .steinhoefel .de

artistiques. Résultat: la suppression des contenus légitimes entraîne un impact négatif sur la liberté d’expression. La question principale est alors: Est-ce une bonne idée d’externaliser la responsabilité et le pouvoir de décision quant à ce qui est légal ou non en ligne aux multinationales américaines du numérique? Approches législatives possibles Au lieu d’externaliser ce pouvoir, et ainsi de renforcer la position dominante des plateformes les plus puissantes, il faut repenser l’internet comme un espace diversifié et décentralisé dans lequel les utilisatrices et utilisateurs ont un choix réel en ce qui concerne les services numériques qu’elles et ils utilisent.

Aujourd’hui cette diversité n’existe plus parce qu’un petit nombre de multinationales ont réussi à s’accaparer la majorité d’internet avec des services centralisés desquels il est impossible de partir sans perdre contact avec ses proches (à cause des “effets de réseau” créés artificiellement par les grandes plateformes). Rétablir cette diversité pourrait passer par une obligation pour les plateformes dominantes de permettre aux utilisatrices et utilisateurs des concurrents numériques plus petits qui le souhaitent d’interagir avec celles et ceux des plateformes dominantes (“interopérabilité obligatoire”).10 Mme Frieda Gijbels (N-VA) cite le cas d’un message diffusé sur les réseaux sociaux qui est considéré comme de la désinformation: ce message doit-il être retiré par la plateforme elle-même ou le retrait doit-il faire l’objet d’une décision judiciaire? Le risque est bien réel que dans une démarche proactive, les plateformes se mettent à supprimer des données qui seraient sans danger.

Dans le cadre du débat mené aux États-Unis sur le rôle joué par certains géants technologiques lors des élections récentes, la membre demande ce que pensent les orateurs de l’abandon éventuel de la “section 230” Pour plus d’informations sur l’interopérabilité voir, par exemple, Dr Ian Brown: “The technical components of interoperability as a tool for competition regulation”, disponible ici: https://www .ianbrown .tech /2020 /10 /26 /the -technical -components -of -interoperability -as -a -tool -for -competition -regulation /, ainsi que le Prof Philip Mardsen/ Prof Rupprecht Podzun: “Restoring Balance to DigitalCompetition – Sensible Rules, Effective Enforcement”, disponible ici: https:// www .kas .de /de /einzeltitel /- /content /restoring -balance -to -digital -competition

(qui immunise les plateformes pour tout contenu provenant de tiers). Le projet de Digital Services Act prévoit que toute plateforme sera, dès que le nombre de ses utilisateurs atteint 10 % de la population, intégralement soumise aux réglementations et aux mesures relatives au retrait de messages fake news: que pensent les orateurs de cette limite de 10 %? S’agissant de la décentralisation des réseaux, il serait idéal que plusieurs opérateurs de plus petite taille coexistent, mais c’est la loi de l’offre et de la demande qui s’applique en l’espèce: les réseaux ont évolué ainsi de manière naturelle.

Comment faire en sorte de réduire le nombre de barrières à l’égard de nouveaux acteurs? M. Christophe Lacroix (PS) comprend les orateurs et partage leur avis: il est extrêmement ardu de combattre un modèle fondé sur la captation de l’attention des utilisateurs, qui explique que les messages de haine, les provocations en tout genre sont favorisés sur les plateformes et qu’il faudrait presque être un Don Quichotte pour tenter de briser ce modèle, ou du moins d’y intégrer un certain nombre de garde-fous: à cet égard, l’intervenant souhaite formuler quelques propositions.

L’intervenant renvoie à la pandémie de coronavirus qui a donné lieu au développement de différents vaccins, lesquels ont, après examen de leur efficacité et de leurs effets secondaires éventuels, fait l’objet d’une autorisation publique. Parallèlement, on pourrait essayer d’imposer la notion de “sécurité publique” aux GAFA: à cette fin, on pourrait développer une sorte de label ou de mention, par exemple “ne nuit pas aux droits des citoyens”.

Par ailleurs, il convient d’affiner la notion de “responsabilité”: dès qu’un contenu négatif est diffusé, il faut poser la question de savoir qui en est responsable. L’intervenant estime en outre que le principe de précaution devrait également jouer un rôle majeur à cet égard. Enfin, il estime que la proposition de M. Penfrat est judicieuse: l’alternative pourrait consister à créer une sorte de service public du web.

Le web demeure en effet un incroyable outil d’information et d’émancipation.

M. Roberto D’Amico (PVDA-PTB) constate qu’on a souligné le lien entre profilage, données personnelles

et diffusion des fake news. La lutte contre les fake news passe donc aussi par une protection des données efficace. L’indépendance de l’Autorité de protection des données a été mise en cause récemment, notamment par la presse et la ligue des droits humains. Un certain nombre de ses membres sont en conflits d’intérêts. Est-ce qu’en l’état actuel, l’Autorité de protection des données est en mesure de faire assurer le respect de la protection des données personnelles en Belgique, conformément au RGPD? Quelle est l’importance de disposer d’un régulateur vraiment indépendant, au niveau national, pour assurer la protection des données? L’orateur pose ensuite une question à M. Penfrat: l’invité a dit qu’il faut stimuler la création d’alternatives pour les citoyens.

Quelle vision est-ce qu’il a du rôle du public dans cette proposition d’alternatives? La création de plateformes publiques est-elle une piste envisageable? M. Steven Creyelman (VB) demande d’abord quelles formes de profilage sont excessives et devraient être interdites. Quel est l’avis des orateurs sur le profilage par les autorités publiques (en ce qui concerne les activités criminelles, la sûreté de l’État, etc.)? Le membre renvoie au communiqué de la NSA américaine indiquant que les utilisateurs sont profilés sur la base de leurs communications.

L’intervenant demande ensuite où en est le profilage dans le cadre du marketing. En quoi diffère-t-il des anciennes techniques de marketing appliquées par tout homme ou femme politique, par exemple pour adresser un courrier à ses jeunes électeurs? Ensuite, on constate que les médias sociaux les plus populaires sont des monopoles. Est-il problématique qu’ils puissent cartographier les utilisateurs à ce point? Est-il en outre nécessaire de scinder les GAFA? En ce qui concerne les nouvelles mensongères, le membre souligne également la nécessité d’une définition claire: comment éviter de confondre les nouvelles mensongères avec les vérités gênantes? Enfin, en ce qui concerne l’ “autocontrôle” des réseaux sociaux, il existe déjà un certain nombre de plateformes chargées de supprimer certains contenus, et on constate à cet égard des différences évidentes en termes de règles et de législation applicables.

L’intervenant renvoie à la polémique relative au personnage de Père Fouettard (Zwarte Piet) aux Pays-Bas: que pensent les orateurs du fait que, dans certains pays, les règles appliquées par les plateformes sont souvent plus strictes que la

législation pertinente? L’intervenant cite l’exemple d’un bébé allaité, que l’algorithme confond avec de la pornographie et supprime. M. Jef Van den Bergh (CD&V) plaide en faveur d’initiatives visant à accroître la transparence en ce qui concerne l’identité des commanditaires de certaines publicités et des responsables véritables de certains contenus. Comment intervenir s’il apparaît que les publications émanent de groupes inconnus ou d’hommes de paille? (Le président Poutine, par exemple, ne signera évidemment pas lui-même certains messages).

En outre, une approche uniforme de l’Union européenne n’est probablement ni possible ni souhaitable, compte tenu des différences culturelles entre les États membres. Pourrait-on envisager, selon les orateurs, une approche commune pour le Benelux? M. Robby De Caluwé (Open Vld) aimerait avoir un aperçu des projets relatifs à la résilience en ligne (pas seulement chez les jeunes) en Belgique. Quelle est la situation de notre pays par rapport à celle de nos voisins? Quelles mesures peuvent/doivent être prises d’urgence à cet égard? Comment pouvons-nous mieux armer les citoyens pour qu’ils reconnaissent les vidéos deepfake, les textes générés automatiquement, etc.? Quelles sont en outre les possibilités pour le grand public en ce qui concerne l’ “éducation aux algorithmes” (à l’instar de l’éducation aux médias)? Ce point figurait parmi une série de suggestions formulées en juillet 2018 dans le rapport du groupe d’experts belge sur les fausses informations et la désinformation.

Les orateurs ont-ils connaissance des suites éventuelles qui ont été réservées à cette recommandation? Le même groupe d’experts a préconisé un dialogue et une collaboration permanente avec les plateformes, plutôt qu’une approche répressive au niveau législatif. Il est vrai que “La création de cette plateforme de concertation pourrait éventuellement être complétée par un volet répressif pour les acteurs qui n’entendent assumer aucune responsabilité, tout en étant actifs sur le marché belge de la publicité en ligne, mais cela ne peut se faire qu’au terme d’un examen approfondi sur l’opportunité et l’éventuelle concrétisation d’un tel volet”.

Quel est le point de vue des experts à cet égard? Pourquoi ne travaillerait-on pas avec des algorithmes open source? Existe-t-il des plateformes qui procèdent de cette manière? Enfin, l’intervenant demande si M. Dumortier pourrait approfondir ce qu’il a dit à propos d’un “mécanisme de corégulation” des plateformes?

C. Réponses des orateurs (compte tenu du manque

de temps, le président demande de ne répondre qu’aux questions principales) Réponses de M. Jan Penfrat Sur le profilage: le profilage à des fins publicitaires et de manipulation en ligne est effectivement un grand problème aujourd’hui. Il a créé toute une industrie de trafic de données personnelles extrêmement opaque et douteuse. Afin de mieux réglementer cette industrie, il s’agirait de supprimer l’incitation à collecter et à commercialiser ces données en limitant la possibilité de les utiliser à des fins publicitaires. Il existe d’ailleurs déjà un groupe de députés européens actifs qui soutiennent cette proposition. Déjà à présent, il existe des alternatives de publicité non personnalisée qui adapte le contenu publicitaire au contexte dans lequel il apparaît, au lieu de cibler une personne ou un profil de personne précis. Autre avantage de ces publicités contextuelles: les éditeurs et journaux qui aujourd’hui dépendent des systèmes de publicité de Google et d’autres courtiers de données (“data brokers”), et qui y perdent une bonne partie de leurs revenus publicitaires, seront de nouveau en position de travailler directement avec les entreprises de publicité. Sur les algorithmes “open source”: souvent les grandes entreprises du numérique développent, utilisent mais aussi revendent et licencient leurs algorithmes à des tiers. Publier le code source rendrait cela plus difficile. De plus, les algorithmes open source sont beaucoup plus faciles à analyser par le régulateur et le public. Une solution est effectivement que l’État investisse dans le développement transparent et open source des algorithmes publics sous une licence libre. Cela devrait d’ailleurs être le cas pour tout logiciel développé avec le soutien des fonds publics comme le demande l’excellente campagne #PublicMoneyPublicCode de l’ONG Free Software Foundation Europe. Réponses de M. Franck Dumortier M. Franck Dumortier, VUB, répond à la question de savoir qui est responsable de la suppression de certains contenus. Il serait dangereux d’accorder à cet égard une liberté totale aux plateformes sans le moindre contrôle public: cela représenterait un danger pour la démocratie. La solution préconisée dans la législation sur les services numériques (Digital Services Act) est la corégulation, ce qui signifie que les règles sont élaborées par

les autorités et que les acteurs les appliquent. L’orateur évoque l’exemple de l’obligation de publier des rapports annuels dans lesquels les acteurs doivent montrer qu’ils ont respecté le code de conduite. Il est judicieux de combiner ces deux approches de cette manière et d’opérer ainsi une distinction entre les contenus autorisés et les contenus illicites. Il serait excessif de supprimer l’obligation de surveillance qui incombe aux hébergeurs.

L’orateur renvoie à la règle européenne qui veut que dès qu’un hébergeur a connaissance de l’existence d’un contenu illicite, il doit le notifier au procureur du Roi. Outre le règlement sur les services numériques (Digital Services Act), la Commission européenne a également élaboré le règlement sur les marchés numériques (Digital Markets Act), qui porte notamment sur la concurrence entre les plateformes.

L’interopérabilité mentionnée cidessus constitue en effet l’une des mesures les plus importantes dans ce domaine. En ce qui concerne la référence de M. Lacroix à la crise du coronavirus, l’orateur confirme qu’ici aussi, la Commission européenne a suivi l’approche de la corégulation (notamment par le biais de rapports annuels obligatoires). L’une des règles les plus importantes dans ce contexte est évidemment, la transparence.

Pour illustrer son propos, l’orateur renvoie à la récente modification des conditions d’utilisation de WhatsApp, à la suite de laquelle de nombreux d’utilisateurs ont quitté la plateforme. Jusqu’où peut-on aller en matière de profilage? Certaines formes de publicité liées à la technique dite de “l’enchère en temps réel” (real-time bidding) sont actuellement contestées devant la juridiction compétente.

Enfin, il est évident que les pouvoirs publics recourent eux aussi au profilage. À cet égard, il convient de s’assurer de l’existence d’une base légale adéquate à cette fin. Enfin, l’orateur répond à la question de M. D’Amico en confirmant que les règles doivent être clairement appliquées, ce qui ne peut se faire sans des autorités de surveillance fortes et indépendantes.

XIII. — AUDITION DU 9 FÉVRIER 2021

1. Exposé introductif de M. Alain Luypaert (Service Enquête sur Internet – Police fédérale) 1.1. Historique Le pilier judiciaire de la Police Fédérale (DGJ), dispose au sein de la DJSOC (Direction en charge de la lutte contre les crimes graves et organisés) d’une section spécialisée effectuant des recherches sur Internet. La section, appelée “i2-IRU”, crée en 2014 avec l’optimalisation des services de la Police Fédérale, exécute des missions en appui au profit des Unités de la Police Intégrée, et se charge des missions de détection et de référencement de contenus illégaux. En juillet 2015, la section a été désignée, par le ministre de l’Intérieur, comme point de contact (inter)national en matière de contenus “online” ayant trait au terrorisme, à la propagande, au radicalisme et à l’extrémisme violent. Au mois de novembre 2016, par décision conjointe des ministres de l’Intérieur et de la Justice, la section a été désignée comme point de contact en matière de discours et crimes de haine en ligne. En mars 2020, face à la recrudescence de contenus illégaux et/ou dangereux en liens avec la COVID-19, la section a été désignée point de contact en matière de recherche et de référencement de contenus ayant trait aux “Fake News” et à la désinformation. En septembre 2020, elle a été désignée comme point de contact pour le Centre de Crise pour ces matières. Dans le cadre de ses recherches en matière de contenus illégaux, la section est également chargée de la recherche et du référencement de contenus touchant le “Revenge Porn” (Diffusion d’images non consensuelles à caractère sexuel), et se tient à disposition de l’Institut pour les égalités des femmes et des hommes qui a été désigné comme point de contact. 1.2. COVID-19: recherches et référencements En ce qui concerne la situation COVID-19, la section recherche, de manière autonome, sur Internet et notamment sur les réseaux sociaux, les contenus illégaux ou pouvant entrer dans les considérants du “Fake News”. La recherche principale vise les contenus pour lesquels un intérêt belge a été détecté. En cas de constatation d’une infraction, des recherches sont faites pour en

identifier l’auteur et un procès-verbal est rédigé. Par la suite le contenu est adressé à la plateforme concernée, en la sollicitant pour le retrait. Il y a lieu de signaler qu’à ce stade, cette mesure n’est pas contraignante et que la plateforme n’a pas d’obligation d’y répondre favorablement. Le peu de retrait par les plateformes provient du fait que les réseaux sociaux considèrent le contenu posté comme étant une libre expression de la pensée, et pas comme un contenu potentiellement nuisible, et donc comme une forme de censure émanant de l’Autorité.

Les contenus recherchés ont été influencés par la nécessité du moment et peuvent se résumer en deux périodes principales. La première période, allant jusqu’au 29 juin 2020, couvrait le lockdown et l’interdiction à la vente par les particuliers de certains produits contrôlés (gel, masques, …). La seconde période couvre essentiellement des contenus ayant trait à la désobéissance civile. La partie “Fake News” quant à elle couvrant les deux périodes.

1.2.1. Produits contrôlés Lors de la première vague, et dans l’intérêt de la population et de la Société, le Collège des Procureurs généraux a désigné la section i2-IRU pour mener des patrouilles actives sur Internet pour découvrir les propositions à la vente des médicaments ou du matériel médical contrefaits et sans valeur qui soi-disant offrent une protection contre la pandémie de coronavirus. La section a également été sollicitée quant aux contenus en ligne qui diffusent de fausses informations sur le COVID-19 et sur les moyens de prévenir les infections ou de les traiter.

Des contacts particuliers ont dès lors été pris avec les grands réseaux sociaux et les principaux sites de vente. De même, des partenariats ont été entrepris avec différents services fédéraux (SPF Santé, SPF Finances -Douanes, SPF Économie, Agence des médicaments), partenariat afin de coordonner les efforts et gérer les contenus découverts en fonction des compétences. Pour la période couvrant du mois de mars au mois de juin, 247 contenus ont été ainsi découverts et signalés aux plateformes.

165 contenus ont été retirés.

1.2.2. Fake News Le “Fake News”, ou fausse nouvelle, n’étant pas défini légalement en Belgique, des critères de sélection existants au niveau de la Commission Européenne ont été repris: a. Le “Fake News” de complot et de désinformation Nouvelles visant à nuire aux théories d’un État, et dire que celui-ci ment à la population. Souvent, il s’agit d’articles rédigés à la hâte, ou vulgairement traduits. b.

Le “Fake News” de type “commercial” Nouvelles visant essentiellement le scandale – la rumeur. Ces contenus sont essentiellement basés sur la monétisation des “clics” Internet au contenu “choc”, reposant sur des faits inventés. Le but visé est de nuire à une image, une personne, un groupe, en permettant la diffusion d’informations fausses et inventées. Ces “Fake News” ont été retrouvés sur les différentes plateforme de réseau social.

En date du 31 janvier 2021, 575 contenus ont été découverts et signalés aux plateformes. 297 ont été retirés. Lors de la première vague, 449 ont été signalés et 240 ont été retirés. 1.2.3. Les appels à la désobéissance Avec l’évolution de la pandémie, le gouvernement a dû prendre des mesures, qui, pour certaines parties de la population pouvaient être considérées comme en opposition avec leurs Droits fondamentaux.

Ces appels touchaient à trois grands thèmes: la pandémie en général sous la dénomination COVID-19 ou Corona, la situation des masques, le virus et les vaccins annoncés ou proposés. 138 contenus ont ainsi été détectés, et 31 ont été retirés. 19 contenus ont été découverts lors de la première vague, avec 8 retraits. Il y a lieu de signaler que dans le cadre des appels à la désobéissance, ceux-ci ont fait l’objet d’une

communication au Centre de Crise afin qu’une image de la situation puisse être dressée. 1.3. COVID-19: missions d’appui aux Unités et aux partenaires À la demande des Unités de la Police Intégrée, la section i2-IRU a apporté son appui dans le cadre de 104 dossiers en lien avec la situation COVID-19 (dont 75 lors de la première vague). Les matières concernées étaient: les fraudes, l’Ordre Public, des demandes d’information, le terrorisme (terrorisme, radicalisme, propagande et extrémisme), la cybercriminalité, la cellule FUPHEC (Service de la DJSOC en charge de la santé publique, les déchets, l’environnement et les médicaments), les “Fake News”, un discours de haine, et une tentative de suicide.

Dans le cadre de l’appui à la Magistrature, la section “i2-IRU” est également en charge de la mise en exécution des réquisitoires judiciaires visant au retrait temporaire, à l’effacement de noms de domaine ou au détournement de site web illicites. À cette fin, la section a été désignée point de contact pour les Providers ou fournisseurs d’accès belges. 1.4. Défis et Évolutions 1.4.1. Défis Les attentes de la DGJ et plus particulièrement de la section “i2-IRU” sont d’ordre législatif.

1.4.1.1. Modification de la Loi sur la Fonction de Police Dans sa substance actuelle, la LFP ne vise que les actions pouvant être prises situations en présentiel, mais ne porte pas sur les actions pouvant être prises de manière digitale. Dans le cadre de recherches, les enquêteurs ont, entre autres besoin de pouvoir créer des profils de recherche et d’enquête réalistes et consolidés. À la création, ce type de profils nécessite une identification basée sur un document officiel, ce qui empêche toute forme d’anonymisation de la recherche.

1.4.1.2. Modification de la loi “MPR” (Méthodes particulières de recherche) La loi sur les méthodes particulières de recherche spécifie que l’observation au sens du présent code est l’observation systématique, par un fonctionnaire de police, d’une ou de plusieurs personnes, de leur

présence ou de leur comportement, ou de choses, de lieux ou d’événements déterminés et qu’une observation systématique est une observation de plus de cinq jours consécutifs ou de plus de cinq jours non consécutifs répartis sur une période d’un mois. Cet aspect empêche donc toute forme de monitoring Internet. 1.4.1.3. Modification de l’article 150 de la Constitution L’article 150 de la Constitution belge dispose: “Le jury est établi en toutes matières criminelles et pour les délits politiques et de presse, à l’exception des délits de presse inspirés par le racisme ou la xénophobie”.

Cette disposition avait été créé initialement pour protéger la liberté d’expression via la presse. Pour poursuivre un délit d’opinion supposément commis dans la presse, il faut donc convoquer un jury d’assises. Les publications sur un réseau social sont actuellement défendues comme des communications de presse écrite. Cela entraine que les délits de presse sont très peu poursuivis en pratique. 1.4.1.4.

Absence de définition légale du discours de haine en ligne et du “Fake News” Le discours de haine en ligne et les “Fake News” ne sont pas définis légalement. Actuellement, il est fait usage des éléments constitutifs des infractions, éléments pouvant être reliés aux contenus publiés. Preuve en est, en octobre 2020, la Cour de Cassation a cassé un arrêt rendu par la Cour d’Appel de Liège, dossier portant sur des faits d’injures, calomnie et harcèlement.

1.4.2. Évolutions Afin de pouvoir faire face aux défis de la criminalité organisée et du terrorisme, l’action de la Police judiciaire fédérale est cruciale, et dès lors des initiatives doivent être prises pour qu’elle puisse se développer et se rééquiper pour évoluer vers un corps plus spécialisé. Ces défis sont traduits dans une vision générale reposant sur le fait qu’il convient de faire progresser concrètement et urgemment la Police judiciaire fédérale dans les cinq domaines organisationnels qui sont désormais les siens: l’enquête spécialisée, les techniques/la technologie, la gestion de l’information avec une meilleure coordination (interne et externe) de l’ensemble, le tout

soutenu par une stratégie fonctionnelle davantage sur mesure en fonction des besoins spécifiques. Cette vision se traduit notamment par: — un besoin en gestion des ressources humaines (profils, recrutement, formation, gestion de carrière, attractivité); — un développement des nouvelles techniques/ technologies; — un cadre juridique plus souple alliant les droits fondamentaux des citoyens et actions/enquêtes policières plus approfondies; — des conditions budgétaires nécessaires.

2. Exposé introductif de M. David Stevens, président de l’Autorité de protection des données M. David Stevens, président de l’Autorité de protection des données, souhaite souligner trois points: 1. les concepts tels que ceux de l’intelligence artificielle et des médias sociaux ne sont pas bien définis. 2. la législation sur la protection des données offre déjà certaines possibilités d’action. 3. il suggère d’examiner attentivement les dossiers en cours au niveau de l’Union européenne à ce sujet.

Le but de son intervention est d’encourager la réflexion dans une perspective étendue et pas seulement juridique. L’orateur évoque plusieurs points concernant la vie privée qui permettent d’intervenir: il serait intéressant d’étendre certains principes de la législation sur la protection des données, par exemple ceux de la transparence et de la proportionnalité, des données personnelles aux tendances numériques.

Intelligence artificielle L’orateur aborde ensuite la question de la technologie. L’intelligence artificielle est un concept flou dont il n’existe aucune définition précise et qui semble renvoyer à des machines qui appliquent une certaine logique et prennent même des décisions. Il s’agit en réalité d’une sorte de “boîte noire”. L’orateur illustre son propos à partir de plusieurs exemples: — il existe déjà aujourd’hui des voitures qui peuvent détecter la présence de piétons et entreprendre certaines

actions (freiner, changer de direction, etc.): il s’agit d’une forme minimale d’intelligence artificielle (l’étape suivante étant la voiture entièrement autonome, qui est actuellement en cours de développement); l’Autorité de protection des données ne peut pas se prononcer à ce sujet, car les données utilisées ne concernent pas des personnes identifiables; — l’installation d’un système de caméras visant à mesurer la densité de la foule dans certaines communes côtières.

L’usage de l’intelligence artificielle est beaucoup plus clair dans ce cas. L’Autorité de protection des données est donc pleinement compétente; — l’installation par VIAS sur l’E19 de caméras pilotes permettant de filmer des personnes et de tester la possibilité de détecter l’utilisation du gsm au volant. Il s’agit d’une forme manifeste d’intelligence artificielle basée sur la reconnaissance du conducteur et sur la détection de l’usage du gsm: l’Autorité de protection des données a déjà réalisé une étude à ce sujet; — une école gantoise qui utilise la biométrie pour le paiement de repas légers à la cafétéria: il est manifeste que les technologies biométriques occupent une place de plus en plus importante.

Technologie numérique Il est certain que les technologies numériques ont des effets considérables: chacun peut communiquer en temps réel avec le monde entier. L’impact est gigantesque et il est difficile de distinguer les différentes sources d’une information, notamment parce que beaucoup de personnes consomment des informations par le biais de médias en ligne. Le rôle des médias traditionnels dans la modération et la structuration de l’offre devient de plus en plus difficile.

Les médias sociaux ont en l’occurrence un double problème: ce sont souvent des entreprises américaines et, de plus, ce sont des initiatives commerciales dont le modèle économique vise à maximiser les profits et l’attention (“eyeballs”) et non plus à filtrer l’information: les médias sociaux ne semblent jouer qu’un rôle très limité dans la modération et le filtrage des contenus. Par conséquent, les médias sociaux vous donnent dans une large mesure ce que vous désirez en tant qu’utilisateur: c’est peut-être une bonne chose du point de vue du marché, mais c’est très dommageable pour la diversité et la liberté d’expression.

De plus, notre système juridique n’est pas adapté: les délits de presse en ligne seraient ainsi portés devant la cour d’assises.

Au départ, l’internet semblait plus ou moins séparé de la réalité physique, mais aujourd’hui, le monde virtuel et le monde réel coïncident presque totalement: par conséquent, ce qui est punissable dans un monde devrait l’être aussi dans l’autre: des dispositions similaires devraient s’appliquer. Ce problème de l’intelligence artificielle et de son impact sur la démocratie n’est pas nouveau: par le passé déjà, des restrictions légales ont été imposées à la publicité politique dans les médias audiovisuels.

Règlement général sur la protection des données: principes fondamentaux L’orateur énumère les principes fondamentaux du règlement général sur la protection des données tels que la limitation des finalités, la minimisation des données, la licéité, la transparence, le caractère raisonnable, l’intégrité, la confidentialité et la responsabilité. Ce sont les principes de base régissant le traitement des données à caractère personnel, mais ils pourraient avoir une portée plus large et être une source d’inspiration utile pour l’élaboration de règles sur les droits numériques fondamentaux.

L’orateur mentionne deux domaines dans lesquels des règles spéciales ou supplémentaires de protection des données existent déjà: premièrement, en ce qui concerne les informations sensibles, telles que les données médicales et religieuses; deuxièmement, le profilage est réglementé de manière plus stricte en ce qui concerne le traitement des données à caractère personnel. Il ajoute que l’APD surveille les nouvelles technologies depuis longtemps déjà: l’orateur fait référence à un rapport de l’APD de 2017 sur l’utilisation des big data, qui comprenait 33 recommandations concernant le traitement des données à caractère personnel: il remettra ce document aux membres de la commission.

Cadre européen L’orateur souligne que le comité d’avis doit être conscient qu’un certain nombre de règles sont élaborées au niveau de l’Union européenne: trois réglementations sont importantes à cet égard: — le Digital Service Act (la législation sur les services numériques, qui remplace la directive E-commerce); — le Digital Markets Act (la législation qui vise à rendre les marchés numériques plus équitables);

— le Digital Governance Act. Le projet de Digital Services Act contient plusieurs dispositions intéressantes relatives à la responsabilité des plateformes et des intermédiaires. Démocratie L’orateur estime que le principal problème des fake news – un problème qui est particulièrement marqué aux États-Unis – tient au fait que nous ne sommes manifestement plus d’accord sur les faits, sur ce qui constitue véritablement une fake news.

Pour appuyer ses dires, l’orateur évoque une interview de l’ex-président Barack Obama diffusée sur la VRT le 19février 2021 dans laquelle ce dernier explique que nous ne sommes plus d’accord sur les règles fondamentales, ni sur les faits essentiels: la moitié de la population s’est laissé dire que le changement climatique serait un “canular”. Si nous ne parvenons pas à résoudre le problème de la désinformation, le fonctionnement démocratique va se gripper.

Il convient dès lors d’élaborer un cadre législatif imposant notamment une série de règles aux réseaux sociaux, notamment en ce qui concerne la distinction entre les faits et les opinions. En outre, l’enseignement joue un rôle primordial pour apprendre à filtrer l’information. Il s’agit d’un processus qui prendra beaucoup de temps, de sorte que l’ex-président s’inquiète de ce qui pourrait arriver dans l’intervalle.

M. Stevens conclut en récapitulant les principaux éléments de son exposé: 1. l’intelligence artificielle étant une notion “fourretout” assez floue, il ne faut en aucun cas adopter une réglementation à la hâte sans disposer de définitions claires au préalable. C’est très important, car la liberté d’expression et la démocratie sont menacées: il faut donc se montrer prudent et il ne faudrait pas jeter le bébé avec l’eau du bain.

2. il faut être bien conscient que toute technologie numérique a des avantages et des inconvénients. 3. la réglementation existante sur le respect de la vie privée et la protection des données permet déjà de résoudre de nombreux problèmes concernant les droits numériques de nos citoyens. On pourrait éventuellement envisager d’inscrire certains droits numériques dans la Constitution. 4. les dispositions de la réglementation européenne doivent être prises en considération, notamment en ce qui concerne la responsabilité des plateformes.

5. la sensibilisation, l’enseignement et l’éducation aux médias ont une importance capitale dans la recherche d’un terrain d’entente ou d’un accord sur les faits et sur la manière de traiter la réalité. M. Kris Verduyckt (sp.a) est également d’avis que l’intelligence artificielle est une notion “fourre-tout” et que nous ne sommes qu’à l’aube de sa mise en œuvre: en effet, il ne faut pas se précipiter, mais des accords solides sont néanmoins nécessaires.

En ce qui concerne la comparaison entre les médias sociaux et les médias audiovisuels, l’intervenant indique que les médias sociaux sont apparus dans un contexte différent. Il s’agissait alors de créer des réseaux d’amis, mais, depuis lors, ils sont devenus des canaux d’information en ligne qui fixent eux-mêmes les règles du jeu. Nous ne pouvons donc pas nous permettre d’attendre trop longtemps et l’intervenant se réjouit d’ailleurs des initiatives de l’Union européenne à cet égard.

De plus, notre Constitution a aujourd’hui 190 ans et elle aurait besoin d’un coup de jeune. En outre, l’intervenant estime que l’on met trop l’accent sur le (contenu du) message: pour lui, ce qui est essentiel, c’est l’intention derrière la fausse information, c’est-à-dire le fait de tenter sciemment de diffuser de fausses informations. De plus, l’intervenant estime que l’anonymisation pose également problème, parce que les auteurs de messages tentent trop souvent de se cacher.

Enfin, l’intervenant se demande si l’APD a suffisamment de prise sur les réseaux sociaux, qui ne sont effectivement pas établis en Belgique: l’intervenant fait référence à l’utilisation de la biométrie sur Facebook (le “tagging” ou balisage), alors que cette pratique est interdite en Belgique. Mme Yngvild Ingels (N-VA) partage totalement l’avis de M. Verduyckt. En tant que société, nous avons coulé dans des lois et des règles ce que nous jugeons inacceptable.

À cet égard, l’intervenante renvoie par exemple à la législation sur le racisme, le genre et les discriminations: il est très clair, en l’espèce, que c’est le contenu du message qui est punissable. Les choses sont beaucoup plus délicates dans d’autres domaines: elle estime ainsi, par exemple, que le message d’un scientifique affirmant, lors de la première vague, que le port du masque s’était avéré inutile à la suite d’études peut être diffusé et partagé sur les réseaux sociaux.

À cet égard, l’intervenante se demande ce que le représentant de la police entendait pas infractions liées au COVID-19. Par ailleurs, que fallait-il entendre par appels à la désobéissance: d’où viennent ces appels? M. Erik Gilissen (VB) demande comment on peut garantir que les algorithmes fonctionnent de manière neutre: ces algorithmes sont en effet élaborés par les programmeurs; ils sont donc aussi neutres que les programmeurs eux-mêmes.

M. Luypaert a évoqué l’extrême droite, mais n’a pas mentionné l’extrémisme musulman: selon la Sûreté de l’État, le radicalisme islamique est en effet beaucoup plus dangereux: qui contrôle les “factcheckers” (vérificateurs de faits)? L’intervenant demande ensuite si les systèmes qui ont été programmés afin d’entreprendre certaines actions sur la base d’un apport d’informations donné doivent être considérés comme de l’intelligence artificielle ou non? Ou l’intelligence artificielle requiert-elle un certain degré d’auto-apprentissage? Comment peut-on veiller à ce que les décisions prises par ces systèmes soient neutres et objectives? Enfin, s’agissant du point de vue selon lequel le réchauffement climatique serait un “hoax”, celui-ci relève du droit fondamental à la liberté d’expression: comment peut-on garantir que l’intelligence artificielle respecte la Constitution? Mme Vanessa Matz (cdH) demande au représentant de la police fédérale comment ils luttent contre les différentes formes de criminalité en ligne: comment le cyberharcèlement par exemple est-il traité par la police? L’orateur a notamment abordé la suppression de certains contenus en ligne et la mesure dans laquelle les plateformes collaborent avec la police à cet égard.

Concernant le “revenge porn” par exemple, il faut mettre en place une procédure judiciaire afin de pouvoir obtenir la suppression de ces contenus. Quel type de procédure est nécessaire, selon l’orateur, pour supprimer les contenus relevant du discours de haine, du cyberharcèlement et de l’escroquerie commerciale? Il s’agit en effet de contenus qui restent en ligne. Il est notoire que la France par exemple adopte à cet égard une approche qui ne se limite pas à celle de la police administrative tandis que l’approche de la Belgique est généralement plutôt judiciaire.

Il est en tout cas crucial dans le cadre de la lutte contre la cybercriminalité que les messages de haine et les contenus illégaux soient supprimés rapidement.

M. Jef Van den Bergh (CD&V) souhaite rappeler, s’agissant des fake news, l’anecdote de l’homme qui, à une époque encore antérieure à celle de l’internet, allait annoncer partout et notamment dans les festivals que l’alunissage était une infox. Les rumeurs les plus absurdes circulaient ainsi également en 2001 après les attentats contre les tours du WTC à New York. L’orateur se rallie au point de vue de M. Verduyckt, à savoir le critère le plus important est l’intention qui sous-tend l’infox mais comme peut-elle être définie? En outre, la législation sur les services numériques susmentionnée prévoit que chaque État membre sera lui-même compétent pour mettre en place un organe de contrôle: M. Luypaert a-t-il déjà une idée de la manière dont cela fonctionnera en Belgique? S’agissant de la remarque de M. Stevens sur le projet pilote VIAS de surveillance de l’utilisation des téléphones portables au volant, l’intervenant comprend la réaction de l’APD selon laquelle la vie privée doit être respectée, mais regrette que la manière dont l’APD communique dans ce dossier amène le grand public à remettre en question cette technique.

M. Gilles Vanden Burre, président, (Ecolo-Groen), souligne l’importance de l’enseignement et de l’éducation aux médias. Quant à la définition des fake news, il est indéniable qu’un certain nombre de faits scientifiques peuvent être considérés comme prouvés. Ainsi, l’existence d’une association internationale de “platistes”, qui croient que la terre est plate, n’enlève rien à la conclusion scientifique selon laquelle la terre est ronde.

Il en va de même pour le changement climatique, qui fait l’objet d’un consensus scientifique. Concernant les interactions entre la police et les plateformes, l’intervenant demande comment se déroulent ces discussions avec les plateformes? Existe-t-il des protocoles ou une procédure particulière à cette fin? Ces contacts se font-ils, par exemple, par l’intermédiaire des homologues de l’UE ou d’EUROPOL? Existe-t-il des bonnes pratiques à cet égard au niveau de l’Union européenne? Que se passe-t-il si les plateformes refusent de retirer certains contenus? M. David Stevens, président de l’APD, est entièrement d’accord avec M. Verduyckt: il ne plaide pas en faveur de l’immobilisme, il préconise seulement de ne pas agir dans la précipitation.

En tout état de cause, il y a un énorme problème de démocratie et de liberté d’expression; il faut juste éviter de créer de nouveaux problèmes supplémentaires comme, par exemple, une loi qui incriminerait les fake news.

Selon l’orateur, il est encore plus difficile – et ce n’est pas peu dire – d’examiner l’intention qui se dissimule derrière les fake news: si, par exemple, on ne sait pas précisément ce que “donner des coups” signifie, comment pourrait-on alors définir les “coups volontaires”? L’orateur poursuit en renvoyant à la réglementation européenne en matière de vie privée, dont l’un des principes fondamentaux est la transparence: pour les utilisateurs, il faut que tout soit clair dans tous les cas.

Par ailleurs, l’orateur répond à la question de M. Van den Bergh en renvoyant à son exposé: l’ambition de l’APD est de devenir l’autorité numérique belge par excellence. En ce qui concerne le projet-pilote de VIAS, M. Stevens peut difficilement prendre position publiquement. C’est simplement que l’APD a été surprise par l’annonce dans la presse et qu’elle a en outre dû constater que les caméras étaient installées et filmaient chaque automobiliste qui passait devant elles.

C’est pourquoi elle a indiqué que ce n’est pas parce qu’il s’agit d’un projet-pilote que c’est autorisé. Ensuite, M. Luypaert, police fédérale, répond aux questions ponctuelles suivantes: (ces réponses ont été transmises par écrit ultérieurement). Existe-t-il des possibilités d’identification des publieurs et quelles sont les modalités? (M. Verduyckt) Lors de la découverte d’un contenu illégal, celui-ci n’est pas exclusivement examiné.

C’est le profil entier qui l’est, tant le contenu du profil que ses spécifications techniques. D’autre part, une exploration des autres réseaux sociaux, et plus généralement de l’Internet est également faite. Sur base des données laissées sur le profil d’origine. Il s’agit parfois d’un numéro de téléphone, d’une adresse e-mail, d’un URL composé d’un nom de famille et d’un prénom, d’une photographie d’un véhicule automobile avec une marque d’immatriculation visible sur un site de vente… L’ensemble des éléments recueillis sont analyses et comparés aux banques de données policières (Registre National, BNG, DIV, …).

Lorsque l’identification n’est pas possible, un procès-verbal est rédigé pour solliciter, auprès d’un Magistrat, l’obtention d’un réquisitoire à l’attention du fournisseur (Réquisitoire établi sur base de l’art. 46bis du Code d’Instruction Criminelle). En fonction des données disponibles ou recueillies, cette demande

est adressée soit au Parquet Local si une localisation certaine a pu être établie, soit vers le Parquet Fédéral. Qu’entendre e.a. par “désobéissance”? N’est-ce pas un droit du citoyen? Ne voyez-vous pas une forme de police “Corona”? Comment régulez-vous les choses, et en quoi est-ce illégal? (Madame Ingels) Le but de la recherche n’est pas de censurer les commentaires laissés par des internautes. Seuls les commentaires illégaux et/ou nuisibles sont visés.

Les services de police n’ont pas qu’une mission de répression. Les missions premières des services de Police sont l’aide à la population et la sécurité des citoyens. Les recherches effectuées par la section “i2-IRU” se font en respect des lois et des principes démocratiques. Le but recherché est essentiellement préventif et vise les contenus qui peuvent nuire à la population, créer le chaos ou encore viser la déstabilisation des institutions.

La liberté d’expression est respectée, mais lorsque le commentaire vise la santé ou la sécurité publique, il est important de réagir pour éviter la dissémination du contenu et sa redistribution qui deviendra, en passant “d’amis en amis”, exponentielle et virale. La police n’agit pas selon ses propres critères, mais selon ceux fixés par l’étendue des missions qui lui ont été confiées. Dans le cadre de la première vague de la pandémie, un arrêté ministériel a dressé la liste des produits interdits à la vente.

L’arrêté ministériel du 10 juillet 2020 régit le port obligatoire du masque. Il en est de même pour les différentes interdictions fixées (voyages non-essentiels, quarantaine, Passenger Locator Form, …). Hors situation “Corona”, nous exerçons également nos missions IRU (Recherches autonomes et signalement aux plateformes) sur base de critères bien établis. En matière de terrorisme (dans son sens large), les policiers en charge de la mission doivent veiller à ce que trois critères bien précis soient présents.

Les critères retenus sont ceux décrits dans la JIB (Joint Information Box) du Plan R: 1) l’entité détectée minimise et justifie l’usage de la violence ou de la force (physique, morale et/ou mentale, y compris de la violence intrafamiliale) afin de réaliser ses propres objectifs;

2) l’entité détectée propage ses propres objectifs à l’égard d’autres personnes par le biais d’actions ou de canaux concrets; 3) l’entité détectée représente un danger pour l’ordre démocratique et/ou ambitionne la destruction ou le démantèlement du système démocratique. En matière de discours de haine, il n’y a pas de définition légale. Dès lors, sont pris en compte les contenus touchant trois grandes lois: 1) la loi visant les discriminations; 2) la loi “racisme”; 3) la loi dite “genre”.

Pour procéder, les policiers doivent vérifier la présence de l’ensemble des éléments constitutifs de l’infraction. Lorsque ceux-ci sont réunis, la plateforme est contactée et le retrait est sollicité. Si un intérêt belge est détecté, un procès-verbal est établi. En matière d’insulte, de calomnie et harcèlement, …, un des éléments constitutifs est la plainte de la victime ou d’une personne lésée. Dès lors, la section “i2-IRU” sans plainte, ne peut pas intervenir d’autorité face à ce type de contenus.

En matière d’utilisation d’algorithmes, est-il possible d’avoir des recherches neutres? Vous parlez de contenus d’extrême-droite, mais il y a aussi des contenus à caractère djihadistes. Travaillez-vous sur ces contenus et qu’en faites-vous? (M. Gilissen) Le but premier de la présentation faite en audience était de cerner une problématique précise et présenter les résultats obtenus. Pour cette raison, un choix a été fixé sur la situation de la crise “COVID-19/CORONA”.

Si l’ensemble des missions doivent être expliquées, le temps imparti aurait été trop court. C’est pour cette raison que le contenu de type djihadiste n’a pas été énoncé. La section “i2-IRU”, dans le cadre de la situation “COVID-19”, et depuis son apparition, a pu découvrir qu’un seul contenu djihadiste comme ayant pu être formellement mis en lien avec la situation que nous connaissons actuellement. Par contre, il a pu être démonter qu’un grand nombre de contenus ont pu être mis en lumière avec des personnes en lien avec des groupes d’extrême-droite, tant par des publications personnelles, que par des publications des groupes mêmes.

En matière de recherches “IRU terroriste”, il en est autrement. Chaque jour des contenus sont encore découverts. L’orateur invite l’honorable membre à consulter le tableau ci-dessous qui reprend les opérations en matière de détection et de signalement de contenus de type “terrorisme”. Comme l’a très bien signalé Mr Stevens, autre orateur, il n’y a pas de réelle définition de l’Intelligence Artificielle (A.I.) Est-ce laisser la machine rechercher et gérer une problématique, ou est-ce l’utilisation d’outils informatisés permettant la recherche et la gestion? Au stade actuel, les services de la DGJ/DJOC/i2-IRU ne travaillent pas sur base d’algorithmes.

Toutes les recherches sont effectuées de façon manuelle, avec parfois l’utilisation d’outils internet, ou informatisés, permettant une facilité d’exploration, de recueil ou de stockage. La compréhension et la perception humaine restent des éléments clefs et assurant une neutralité dans les actions entreprises. Le projet “DGJ 3.0” permettra peut-être le développement des nouvelles technologies en mettant à disposition des nouveaux outils plus modernes, tout en veillant au bon respect de la protection des droits fondamentaux des citoyens.

Comment appréhender les différentes formes de criminalités sur Internet, criminalités comme le cyberharcèlement? En ce qui concerne les retraits, qu’en est-il de la collaboration avec les plateformes? Vous suggérez des modifications. Quels types de procédure ou de réactions pourraient être mis en place en matière de retraits? Au stade actuel il y a beaucoup de contenus qui restent toujours visibles.

Des procédures existent dans d’autres pays, notamment en France et en Allemagne. (Madame Matz)

Découverts/ Ontdekt 1372 Retirés / Verwijderd Pourcentages/ Aandeel 85% 72%

Dans le cadre des matières “IRU”, la section reste dans le champ des compétences qui lui ont été données: — le “terrorisme”: soit la détection et la demande d’effacement de contenu ayant trait à la propagande, au terrorisme, au radicalisme, et à l’extrémisme violent; — le discours de haine: les contenus visant les crimes et discours de haine, et repris dans les trois lois touchant au phénomène (loi discrimination, loi “racisme”, loi “genre”); — les “Fake News”; — le “Revenge Porn”.

En matière d’appui aux Unités de la Police Intégrée et/ou des partenaires (Magistrature, UNIA, Institut pour les Égalités des Femmes et des Hommes, …), la section i2-IRU propose un appui spécialisé dans le cadre de ses missions de recherches approfondies sur Internet (web classique, Deepweb, Darknet, protocoles P2P, …). II n’entre pas dans les intentions de la section I2-IRU de procéder à des recherches d’initiative, et donc de surcharger les services d’enquêtes déconcentrés et/ou locaux, ou encore les différents partenaires, en générant une surcharge de travail.

L’objectif est de soulager et d’aider les services. En matière de réactivité, les plateformes ne sont pas toujours présentes. Comme souligné par Mr Stevens, il s’agit de sociétés commerciales vivant de la publicité et de la monétisation des “clics”. Un contenu retiré est une page publicitaire non lue. Une autre difficulté réside dans l’acceptation de la demande de retrait. Les plateformes examinent attentivement les demandes introduites.

Cet examen se fait sur la base légale présentée, mais aussi su la territorialité de la demande. Si un contenu contextualisé comme belge est présenté, la plateforme examine la territorialité de la demande et donc du publieur. Cet aspect rend parfois impossible le retrait. Un publieur, qui a créé son profil avec une adresse “gmail.com” (adresse américaine) et a sécurisé son profil en ne permettant pas une localisation ou en ne signalant pas de nationalité et/ou de localisation, ne sera pas considéré comme belge par la

plateforme, même si le contenu référencé est au sens policier “belgo-belge”. Cette mesure est également appliquée, par exemple, lors de la présentation d’un réquisitoire judiciaire. La seule alternative est alors d’introduire une demande par une Commission Rogatoire Internationale ou sur base d’une MLAT (Traité d’Assistance mutuelle) via le pays d’établissement. Il va sans dire que ce type de procédure est complexe, longue et parfois coûteuse.

Des règles existent toutefois. En effet, les grandes plateformes ont signé le “Code of Conduct” avec la Commission Européenne. Le DSA (Digital Services Act), qui est en cours de réalisation, implémente de nouvelles règles et/ou obligations. Il y a donc lieu de tenir en vue les prochains textes européens. De manière personnelle, la Belgique devrait s’aligner sur d’autres pays européens, et légiférer l’obligation de retrait.

Pour exemple: — l’Allemagne dispose du “Netzwerkdurchsetzungsgesetz, ou NetzDG”. La Loi exige que, sous peine de sanctions financières, les grandes plateformes de médias sociaux, comme Facebook, Instagram, Twitter et YouTube, … retirent rapidement le “contenu illégal” tel que défini dans 22 dispositions du code pénal. — la France dispose depuis le mois de juillet 2019, de la loi “AVIA” inspirée de la Loi allemande.

Le texte prévoit le retrait ou le déréférencement des contenus manifestement illicites sous 24 heures, ce sous peine d’une condamnation à des amendes pouvant aller jusqu’à 1,25 million d’euros. — l’Autriche a présenté une proposition de loi tendant à s’aligner sur la NetzDG allemande, et signalant ne pas vouloir attendre le DSA. Toutefois, il y a lieu de tenir compte des intentions, avancées et mesures européennes.

Une législation belge ne pourra, en effet, pas être en opposition avec ces textes, mais pourraient être complémentaires. En ce qui concerne les faits de cyberharcèlement, il s’agit effectivement d’un phénomène nuisible. Toutefois, et comme pour d’autres infractions, un des éléments constitutifs de l’infraction est la nécessité du dépôt de plainte. La police n’a donc pas autorité à poursuivre ou

solliciter le retrait de manière autonome. Dans cette matière, la section “i2-IRU” interviendra à la demande des Unités d’enquête ou de ses partenaires, en effectuant une recherche approfondie dans le cadre du dossier précis et en faisant exécuter les demandes de retrait. Digital Services Act (DSA). Le texte prévoit la mise en place d’une autorité de contrôle. Pouvez-vous dire si des dispositions existent déjà quant à la détermination du service concerné, et si la Police va se charger de cette mission? (M.

Van den Bergh) Le DSA est à la base un texte visant à réviser la directive sur le Commerce Electronique, qui date de juin 2000. Il s’agit donc d’une compétence première du SPF Économie. Ce texte prévoit d’encadrer le pouvoir des géants du numériques et régulant les contenus publiés sur les plateformes. La police apporte son expertise et ses connaissances techniques et opérationnelles au SPF Justice qui assure la coordination, et est le point de contact direct avec le SPF Économie.

L’orateur invite dès lors, l’honorable membre à se renseigner auprès des acteurs principaux. Ce dossier est donc toujours en discussion et au stade actuel, il n’y a pas encore de service désigné pour assurer la mission de contrôle. Il y a toutefois lieu de signaler que le Parlement Européen a introduit une mention faisant état d’une “autorité indépendante”. Dès lors, la Police intervenant de manière opérationnelle, ne pourrait, à son sens, pas être considérée comme indépendante.

En ce qui concerne les plateformes, existe-t-il des contacts avec celles-ci et sous quelles formes? Comment ces contacts se font-ils? Avez-vous des contacts avec d’autres États membres en cette matière? (M. Vanden Burre) Lors de la création du service, des contacts ont été entrepris pour faire connaître l’existence du service auprès des grandes plateformes. Ces contacts ont été adressés par écrit, et également au travers de contacts bilatéraux et/ou de rencontres.

Europol a également pris des contacts particuliers, a expliqué ses missions et celles des services ad-hoc des pays membres. À la suite de ces contacts, la section “i2-IRU” est devenue signaleur de confiance (Trusted Flagger) ou

a pu obtenir un statut similaire auprès des plateformes. Ce statut permet un examen plus approfondi des contenus que celui signalé par le Grand Public. La communication de contenus illégaux se fait donc par le canal d’une adresse e-mail dédiée, reconnaissable par les plateformes comme émanant d’un service de police. La section a des contacts avec d’autres pays concernés par la problématique. Ces contacts sont d’ordre d’échanges de bonnes pratiques, de mise en connaissance d’outils spécifique, et parfois par l’échange de policiers.

Des contacts s’effectuent également via Europol lors de réunions portant sur une problématique précise. Les pays membres, ainsi que les pays “tiers”, envoient les représentants des services concernés, ce qui permet une discussion approfondie sur les points mis à l’ordre du jour, et facilite les échanges. Des contacts particuliers existent également au travers de contacts avec Interpol

DEUXIÈME PARTIE

– PROPOSITION DE RESOLUTION Lors de sa réunion du 2 mars 2021, en conclusion des travaux débutés en janvier 2020 et conformément à l’article 76 du Règlement, le Comité d’avis a exprimé le souhait d’être chargé de la formulation d’une proposition de résolution. Au cours de sa réunion du 17 mars 2021, la Conférence des présidents de la Chambre a marqué son accord pour que le Comité d’avis formule une proposition de résolution.

Au cours de ses réunions des 23 et 30 mars 2021, le Comité d’avis a examiné un projet de texte présenté par le président et les membres des groupes de la majorité, ainsi que les amendements déposés. Le projet de texte et les amendements ont fait l’objet d’un vote lors de cette dernière réunion. II. — PROJET DE TEXTE Le 17 mars 2021, MM. Gilles Vanden Burre (Ecolo- Groen), président, Christophe Lacroix (PS), Vincent Scourneau (MR), Jef Van den Bergh (CD&V), Robby De Caluwé (Open Vld), Kris Verduyckt (Vooruit) et Kristof Calvo (Ecolo-Groen) ont soumis le texte suivant au Comité d’avis: “Proposition de résolution visant à renforcer la transparence et la responsabilité des plateformes et médias sociaux quant aux contenus et aux informations en ligne

Développements des propositions des différents groupes politiques et sur proposition de son président, de choisir comme premier thème de la 55e législature le sujet suivant:

Dans le cadre de ce premier thème, le Comité a procédé aux auditions suivantes: — le professeur Hugues Bersini (ULB), le 7 janvier 2020; — la professeure Antoinette Rouvroy (UNamur), — la professeure Katleen Gabriels (Maastricht University) et le professeur Leo Neels (professeur émérite — MM. Marco Pancini (Public Policy Lead EMEA, — M. Nathanaël Ackerman (SPF BOSA) et le professeur Ike Picone (VUB), le 3 mars 2020; — Mmes Catelijne Muller (ALLAI/High-Level — M. Martin Ruby (Head of Public Policy Benelux — Mme Laetitia Avia (Assemblée nationale), le 22 septembre 2020; — M. Alexander Schäfer, ministère fédéral de la Justice et de la Protection des Consommateurs (Bundesministerium der Justiz und für Verbraucherschutz), le 6 octobre 2020; — M. Joe Westby (chercheur et conseiller, Amnesty Tech, Amnesty International), le 20 octobre 2020; —  M.  Franck Dumortier, chercheur (VUB), le 2 février 2021; — M.

Jan Penfrat (European Digital Rights), — M. Alain Luypaert (Police judiciaire fédérale (DGJ) – Internet Referral Unit, le 9 février 2021; — M. David Stevens (président de l’Autorité de protection des données), le 9 février 2021. A. Phénomène de cyber-harcèlement et de haine en ligne Le phénomène de harcèlement en ligne est un phénomène certes virtuel et dès lors parfois imperceptible ou minimisé, mais il comporte des retombées bien réelles.

Les plateformes sociales sont parfois le lieu de violences,

avec des conséquences parfois lourdes, comme le suicide des victimes. Tout comme pour les fake news que nous aborderons ci-après, ces violences ont explosé durant la période de confinement. C’était inévitable, le numérique ayant pris une place énorme dans la vie quotidienne des millions de personnes confinées pour pallier les restrictions sociales, alors que son utilisation ne cessait déjà de croître.

Selon un rapport d’UNIA, les signalements de discrimination, de messages et de délits de haine ont augmenté de 13 % de 2018 à 2019, en l’espace d’un an.11 Ce n’est pas sans raison: sans une régulation pertinente et adéquate, l’évolution constante du numérique et des réseaux sociaux amène à des dérives. Internet a un effet désinhibiteur. Comme le dit la Commissaire Margrethe Vestager, “vous ne diriez pas dans la vraie vie ce que vous dites dans une publication (sur les réseaux sociaux), donc nous devons aussi développer notre culture de l’internet”.12 Les messages et délits de haine sont aussi observables dans la vie “hors-ligne”, et ils nécessitent de faire un énorme travail pour observer leur diminution.

Cependant, “en ligne”, la situation est encore moins régulée et beaucoup plus violente et insidieuse. La législation en la matière n’est plus nouvelle et manque cruellement d’évolution pour pouvoir répondre correctement et efficacement aux enjeux en présence. Il ne devrait pas être plus facile de commettre un délit en ligne qu’hors-ligne. Pour citer la Commissaire: “Une personne qui afficherait de la pédopornographie devant le Berlaymont serait arrêtée en 30 secondes.”13 Il est donc nécessaire de réduire drastiquement le fossé entre le traitement des messages et délits de haine hors ligne et en ligne.

Dans une perspective de mieux traiter les plaintes et encadrer ces infractions en ligne, il est également nécessaire d’équiper davantage les personnels judiciaire et administratif pour qu’ils puissent répondre et appréhender correctement les infractions trouvant place en ligne. Non seulement au niveau psychologique, pour mieux comprendre et recevoir les plaintes concernant des infractions en ligne mais aussi au niveau technique, pour mieux appréhender le fonctionnement de ces délits opérés en ligne.

Rapport annuel 2019, UNIA. “Ce qui est illégal offline doit l'être online”, Le Soir, 30 octobre 2020. Idem.

B. L’ère des fausses informations ou “fake news” Si les contenus haineux et discriminants ont vu leur nombre se décupler depuis le début de la pandémie, les “fake news” ont également explosé dans le même laps de temps. Internet a été inondé par la désinformation et les théories conspirationnistes à propos de la pandémie de coronavirus, avec l’appui soit de certains dirigeants soit de certaines personnalités.

La désinformation est un fléau de notre époque, qui ne fut qu’exacerbé par l’arrivée d’une pandémie dont personne ne connaissait les contours et les implications, sans parler de l’effet du confinement de plus de milliers de personnes condamnées à rester chez elles et à utiliser les réseaux sociaux. Les fausses informations sont souvent virales sur les réseaux sociaux, et sont donc poussées par le modèle économique d’Internet, qui rémunère les personnes en fonction du trafic ou du passage qu’elles génèrent sur leur page ou leur publication14.

Ces fausses informations peuvent aussi nourrir des “bulles” d’informations entraînées par des algorithmes dont la personnalisation à outrance de l’environnement informationnel de l’utilisateur renforcerait la possibilité de considérer ces fausses informations comme vraies. Par exemple, si un utilisateur venait à “aimer” une publication inexacte expliquant en quoi le coronavirus est un complot inventé de toutes pièces, il aurait beaucoup plus de probabilité de recevoir dans son fil d’actualité du réseau social d’autres publications allant dans le même sens ou parlant de la même problématique, compte tenu de l’hyper-individualisation entraînée par les algorithmes des réseaux sociaux les plus connus.

Cette manipulation opérée par les réseaux sociaux et ayant pour effet d’enfermer chaque utilisateur dans une bulle informationnelle complaisante est un danger pour une démocratie saine et réfléchie. À ce niveau, il a été soulevé par plusieurs intervenants lors des auditions au sein du Comité d’avis que le développement d’algorithmes transparents pourrait aider à détecter les fausses informations (deep fakes) et donner un avertissement sur le degré de fiabilité de ces informations.

Une telle technologie doit encore être développée et faire l’objet de recherches pour attester de son efficacité. Il est également primordial d’imaginer une approche pédagogique, dans laquelle l’utilisateur est averti par la présence d’une bande en bas de la publication ou de la page concernée que l’information n’est peut-être pas avérée. Récemment, Instagram a développé pour les élections américaines une bande similaire pour rappeler que les résultats des élections Audition de la professeure Antoinette Rouvroy (UNamur), le 21 janvier 2020.

Voir partie 1, III.

n’étaient pas encore connus et invitait à la prudence sur toute information ou publication liée aux élections américaines. Un tel mécanisme pourrait être envisagé de manière générale, notamment lorsqu’un algorithme détecterait un risque de fausses informations. Une approche pédagogique peut également être suggérée à l’échelon communautaire afin de former les citoyens quant aux modes de fonctionnement des réseaux sociaux et encourager le développement d’un esprit critique face à ces plateformes et à la personnalisation des informations qui s’y opère.

C’est à nouveau une question de démocratie et de transparence que les modèles économiques et fonctionnements des plateformes soient (i) divulgués et étudiés et (ii) expliqués et appris aux citoyens. Ceci semble primordial quand, sur le plan éthique, de nouvelles inquiétudes fleurissent notamment face à des ensembles de données tendancieux ou biaisés, aux hypernudges (des biais dans l’environnement numérique qui résultent d’une personnalisation poussée et qui sont individualisés et modifiés sur base d’un feedback instantané) ou encore à la personnalisation, qui soulèvent des problèmes de transparence, d’explicabilité aux utilisateurs, de contrôle des utilisateurs, d’autonomie ou de respect de la vie privée15.

C. Besoin de transparence sur les financements des publicités politiques Si les fausses informations et le micro-ciblage comportemental sont un problème pour des considérations commerciales, elles remettent également beaucoup en cause le libre arbitre et l’absence de manipulation dans des considérations politiques. Les campagnes électorales sont un vivier de possibilités pour les biais des médias sociaux, les analyses de mégadonnées ou le micro-ciblage comportemental.

Depuis quelques années, les techno-sociologues tels que Dominique Cardon et Zeynep Tufekci lancent des mises en garde contre le pouvoir et l’influence des outils informatiques utilisés à des fins politiques dans l’espace public virtuel16. Précisément, la notion d’espace public virtuel renvoie à l’idée d’espace public. Audition de la professeure Katleen Gabriels (Maastricht University), le 4 février 2020.

Voir partie 1, IV. Cardon, Dominique. 2010. La démocratie Internet: promesses et limites. Paris: Seuil; Tufekci, Zeynep. 2017. Twitter and tear gas: the power and fragility of networked protest. New Haven; London: Yale University Press.

Dès lors que les algorithmes des plateformes peuvent orienter les comportements d’achat ou de vote, il est donc primordial d’organiser une transparence à ce niveau ainsi que favoriser l’explicabilité des mécanismes de publicités politiques. Cette transparence peut se traduire par la publication par les plateformes d’un registre des financements des publicités politiques, et notamment l’indication de l’identité du fournisseur de toute publicité politique, a fortiori s’il s’agit d’une personne tierce.

Certaines plateformes opèrent déjà de la sorte de manière spontanée, et il semble que ce soit une solution honnête, transparente et démocratique. En outre, il est aussi nécessaire de préserver les citoyens de moins de 16 ans de faire l’objet d’un microciblage publicitaire, ceux-ci ne disposant a fortiori d’aucun droit de vote à ce stade. Sur base de l’économie de l’attention, les citoyens de moins de 16 ans doivent faire l’objet d’une grande attention par rapport au microciblage publicitaire, afin de garantir une salubrité démocratique.

Derrière ces avancées, l’important est de renforcer la transparence, l’explicabilité et le contrôle démocratique des publicités politiques. Tout comme les algorithmes, il est nécessaire que le financement des campagnes électorales en ligne ne soient plus une “black box” vague et dont on ne sait pas distinguer les contours et les provenances. D. Engouement législatif en Europe Au niveau européen, on constate ces dernières années une réelle prise en charge de la problématique de la régulation sur les réseaux sociaux par les différents pouvoirs législatifs.

En Allemagne, la NetzDG (“loi sur les réseaux sociaux”) est entrée en vigueur, pour la plupart de ses dispositions, le 1er octobre 2017. Elle s’applique aux gros fournisseurs de réseaux, à savoir ceux comptant plus de 2 millions d’utilisateurs enregistrés en République fédérale d’Allemagne. Ces fournisseurs sont tenus d’instaurer une procédure de traitement des plaintes facilitant l’introduction d’une plainte par l’utilisateur et obligeant les réseaux à transmettre et à supprimer de leurs plateformes le contenu clairement punissable dans les 24 heures.

Pour les publications plus complexes, le délai peut atteindre sept jours. Les contenus visés sont ceux d’appels à commettre des faits punissables ou à former un groupement terroriste, l’incitation à la haine raciale, la diffusion de pédopornographie, l’injure, les menaces, la calomnie, etc. Le contenu doit être examiné par le réseau lui-même, et un recours est prévu devant le juge s’il y a un manquement dans le traitement de la plainte.

La particularité de la NetzDG est que le

choix a été fait d’aligner la législation en question sur les dispositions pénales en vigueur. Aucun nouveau fait punissable n’a été imaginé pour l’occasion, l’idée sous-jacente étant que les faits interdits hors ligne soient également interdits en ligne. Les éléments constitutifs de chaque infraction déterminent ce qui est autorisé et ce qui ne l’est pas. qu’ils ont reçus. En France, la députée Laetitia Avia a déposé une loi sur les fausses nouvelles (fake news) en 2018 dans le cadre de l’influence des médias sociaux sur les élections.

Cette loi a été votée et n’est applicable qu’en période électorale et vise à réglementer les messages politiques; en outre, la loi interdit tout contenu de ce type et permet de retirer rapidement et légalement tout contenu susceptible d’affecter le déroulement normal des élections. Elle rencontre cependant un effet relatif compte tenu du fait que les dispositions sont peu utilisées du fait que les parties concernées visées par les informations erronées doivent elles-mêmes déposer plainte.

Dans le cadre d’une campagne électorale, il peut ne pas être opportun d’engager des poursuites judiciaires et de s’exposer de la sorte médiatiquement. Il n’empêche que cette loi interdit les messages sponsorisés pendant la période électorale et interdit surtout tout parrainage étranger. Elle oblige également une plus grande transparence concernant le financement des campagnes. Mme Avia a par ailleurs déposé une proposition de loi en 2020 qui a abouti à la Loi du 24 juin 2020 visant à lutter contre les contenus haineux sur Internet.

Cette proposition de loi visait à combattre tout contenu discriminatoire et toute atteinte à la dignité humaine en raison de la race, de la religion, du sexe, de l’orientation sexuelle, etc.; elle visait également les contenus de violence à l’égard des mineurs, de pédophilie, pédopornographie, négationnisme, apologie du terrorisme, etc. La proposition devenue loi reposait essentiellement sur trois axes: une obligation de retrait des contenus “manifestement” haineux et illicites dans les 24 heures par les médias sociaux, la création d’un Observatoire de la haine en ligne réunissant un ensemble d’acteurs institutionnels, de plateformes et d’associations qui luttent contre la discrimination afin de mieux pouvoir lutter contre les contenus en ligne et la création d’un parquet numérique spécialisé.

Si l’obligation de retrait n’est pas respectée

dans le délai imparti, la non-suppression entraîne une nouvelle infraction sanctionnée au pénal par le juge. L’obligation de suppression dans les 24 heures a été annulée par le Conseil constitutionnel français, avec pour motif la crainte de voir les plateformes de médias sociaux opérer une censure massive des contenus dans le but d’échapper à une sanction pénale; cela poserait alors un réel problème en termes de liberté d’expression.

Au niveau européen, la Commission européenne a élaboré un Digital Services Act (législation sur les services numériques) qui a été dévoilé en décembre 2020. Cet engouement législatif fait écho à la prise de conscience qu’il est nécessaire de développer une régulation des médias sociaux et de leurs algorithmes, de profilage notamment. Cette surveillance et ce matraquage algorithmiques continus soulèvent de nombreuses réserves, notamment concernant la restriction de nos choix de consommation, d’information ou encore d’opinion, le développement d’un conformisme social amplifié ou encore une incidence en matière de préjugés17.

E. Articulation avec les différents niveaux de pouvoir et différentes initiatives Cette proposition de résolution souhaite s’inscrire dans le cadre d’un travail collaboratif entre les différents niveaux de pouvoir compétents. Elle procède de la volonté d’avancer de manière coordonnée sur la question. Compte tenu de la proposition du Parlement européen et du Conseil d’adopter le Digital Services Act au niveau européen, il est important de prendre en compte et de faire correspondre au maximum cette proposition de résolution avec les dispositions proposées au niveau européen.

Le Digital Services Act a vocation à être un cadre juridique moderne pour garantir la sécurité des utilisateurs en ligne. La philosophie est simple: ce qui est autorisé offline doit l’être online, ce qui est interdit offline doit l’être online. La réglementation devrait imposer aux fournisseurs de services numériques des obligations qui s’articulent autour de quatre principes: la transparence, la mise à disposition de moyens aux utilisateurs, la gestion des risques et la coopération du secteur.

Entre autres: des Ibidem.

obligations quant à des rapports annuels détaillés sur la modération du contenu, à la transparence sur les publicités et sur les algorithmes utilisés ou encore la mise en place d’un mécanisme de notification des contenus présumés illégaux pour les utilisateurs. Cette proposition européenne doit encore être discutée et n’aboutira pas avant 2023, avec des changements possibles à la clé. Il est néanmoins utile de faire correspondre cette proposition de résolution à sa philosophie.

Cette proposition de résolution entend également tenir compte du travail du Conseil de l’Europe sur la question. Elle ne règle par contre pas la question spécifique du traitement judiciaire des discours de haine sur les réseaux sociaux. Il semble aussi important de souligner la nécessité de collaborer avec les Communautés afin d’encourager philosophiquement et budgétairement l’éducation aux médias sociaux et à l’économie de plateformes afin de développer un esprit critique sur l’information en ligne au sein de la société, tant dans un cadre de prévention scolaire que global et à l’attention de toute la population.

Ajoutons enfin que les auteurs de la présente résolution examinerons avec attention les conclusions du rapport d’information en cours d’établissement au niveau du Sénat18. Proposition de résolution A. vu la Résolution 2281 de l’Assemblée parlementaire du Conseil de l’Europe adoptée le 12 avril 2019 “Médias sociaux: créateurs de liens sociaux ou menaces pour les droits humains?”; B. vu la Déclaration conjointe de l’Organisation pour la sécurité et la coopération en Europe (OSCE) sur la liberté d’expression et les élections à l’ère du numérique du 30 avril 2020; C. vu l’explosion des fausses informations circulant sur les réseaux sociaux; D. vu l’augmentation croissante des signalements de discrimination, de messages et de délits de haine sur les réseaux sociaux en l’espace d’un an entre 2018 et 2019; Voir les documents parlementaires nos 7-110 disponibles ici: https://www .senate .be /www /?MIval =/index_senate &MENUID =28000 &LANG =fr.

E. vu la nécessité de rendre de la transparence aux citoyens afin de renouer société civile et politique; F. vu le Rapport annuel 2019 d’UNIA; G. vu les auditions du professeur Hugues Bersini (ULB), de la professeure Antoinette Rouvroy (UNamur), de la professeure Katleen Gabriels (Maastricht University) et du professeur Leo Neels (professeur émérite à la KU Leuven et à l’UAntwerpen), de MM. Marco Pancini (Public Policy Lead EMEA, YouTube) et Bruno Schröder (Chief Technological Officer, Microsoft Benelux), de M. Nathanaël Ackerman (SPF BOSA) et du professeur Ike Picone (VUB), de Mmes Catelijne Muller (ALLAI/ High-Level Expert Group on AI) et Nathalie Smuha (KU Leuven), de M. Martin Ruby (Head of Public Policy Benelux and Nordics, Facebook), de Mme Laetitia Avia (Assemblée nationale), de M. Alexander Schäfer, ministère fédéral de la Justice et de la Protection des Consommateurs (Bundesministerium der Justiz und für Verbraucherschutz – BMJV), de M. Joe Westby, chercheur et conseiller (Amnesty Tech, Amnesty International), de M. Franck Dumortier, chercheur (Vrije Universiteit Brussel), de M. Jan Penfrat, European Digital Rights, de M. Alain Luypaert, Police judiciaire fédérale (DGJ) – Internet Referral Unit, et de M. David Stevens, Président de l’Autorité de protection des données menées par le Comité d’avis sur les questions scientifiques et tech- H. vu les récentes législations en Europe sur la question de la régulation des réseaux sociaux et des plateformes en ligne, notamment en France (Loi du 24 juin 2020 visant à lutter contre les contenus haineux sur Internet) et en Allemagne (NetzDG (“loi sur les réseaux sociaux”)) ainsi que le Digital Services Act européen; I. vu la nécessité de développer une régulation démocratique, transparente et éclairée sur les réseaux sociaux et les plateformes qui comptent plus de milliers d’utilisateurs en Europe et en Belgique; J. vu l’urgence d’un débat sur la question numérique et l’économie de l’attention ainsi que l’utilité de créer une discussion argumentée sur la question avec tous les acteurs concernés par la problématique; K. vu la vulnérabilité des publics plus jeunes quant au micro-ciblage des publicités politiques; L. vu la corrélation entre les fausses informations et le phénomène de radicalisation de la pensée;

Demande au gouvernement fédéral: 1. de plaider au niveau européen afin de renforcer la transparence et l’explicabilité des algorithmes ainsi que lutter contre les contenus illégaux et punissables sur les plateformes et médias sociaux de manière harmonisée; 2. de contraindre les grandes plateformes actives en Belgique à mettre en place un système de modération des contenus en ligne relevant d’un mécanisme de traitement des plaintes efficace, de sorte à insister sur la responsabilité des plateformes quant au traitement des contenus illégaux et punissables tout en respectant la liberté d’expression; 3. de prévoir une obligation dans le chef de ces grandes plateformes de pouvoir attester de leurs bonnes pratiques de modération en publiant semestriellement des rapports de transparence mentionnant d’une part, la manière théorique dont est opérée la modération et, d’autre part, quelles sont les réponses adressées aux plaintes formulées par les utilisateurs ainsi que les retombées de la pratique modératrice; 4. de prévoir une obligation dans le chef de ces grandes plateformes d’opérer des évaluations des risques (risk assessments); 5. de fournir aux plateformes une liste de signaleurs de confiance (trusted flaggers), ces personnes étant des institutions ou organisations non-gouvernementales dont la mission est liée à la lutte contre les discriminations, la lutte contre la pédopornographie, la lutte contre la propagande terroriste et la lutte contre les discours de haine et devant être habilitées à signaler plus rapidement des publications jugées problématiques au regard de la non-discrimination aux plateformes; 6. de s’efforcer de faire correspondre le traitement des délits en ligne au traitement de ceux établis dans les dispositions du Code pénal concernant les infractions hors ligne; 7. de prévoir des sanctions à l’encontre des plateformes comme des amendes dissuasives ne dépassant pas 6 % du chiffre d’affaires de l’exercice fiscal précédent en cas de manquement systématique et répété à son devoir de modération ou de publication de ses rapports de transparence ou du recours à des évaluations des risques, ce pourcentage étant en adéquation avec les propositions contenues dans le Digital Services Act européen; 8. de prévoir un recours en justice devant le juge en cas de manquement spécifique au traitement d’une

plainte pour que celui-ci détermine si oui non le contenu était litigieux et si oui ou non la plateforme a failli à son devoir de modération ou de retrait, ainsi qu’un recours pour l’utilisateur qui estime que sa publication a été retirée de manière erronée; 9. d’examiner la possibilité de créer un observatoire du numérique national, par exemple sous l’égide ou au sein des trois autorités administratives communautaires en charge de l’audiovisuel, ou de collaborer à la création d’un observatoire du numérique européen, cet organe devant être constitué paritairement de membres issus à la fois des autorités en charge du numérique, de la société civile active dans les questions numériques, d’académiques experts en questions numériques, de membres de la société civile actifs dans les questions numériques ainsi que des représentants des entreprises et grandes plateformes numériques afin qu’il puisse discuter et rendre des avis, notamment sur les propositions législatives dans ce domaine; 10. d’encadrer une formation adéquate afin d’équiper les personnels judiciaire et administratif, en termes de connaissance et de matériel, afin que ceux-ci puissent répondre de la manière la plus optimisée et consciente possible à des situations d’infractions en ligne; 11. en ce qui concerne les publicités politiques, de mettre en place une étiquette sur les publications sponsorisées sur les grandes plateformes mentionnant de manière transparente et nominative l’identité de l’organisme ayant poussé la publication par du sponsoring; 12. d’examiner la problématique du micro-ciblage publicitaire à l’attention des personnes de moins de seize ans et y apporter des solutions; 13. de fournir des ressources et encourager la recherche multidisciplinaire sur l’impact de l’intelligence artificielle sur les droits fondamentaux et la démocratie.” III. — DISCUSSION GÉNÉRALE M. Gilles Vanden Burre (Ecolo-Groen), président, présente les grandes lignes du projet de texte en passant en revue les travaux du comité d’avis.

Il évoque ainsi: — le phénomène de cyber-harcèlement et de haine en ligne qui est documenté;

— l’ère des fausses informations ou “fake news” qui n’ont pas de base légale et dont il est difficile de s’accorder sur une définition; — le besoin de transparence sur les contenus et sur les financements, comme les ciblages, le fonctionnement des algorithmes, notamment à des fins commerciales; — une méthodologie de droit comparé avec l’analyse de ce qui est mis en place ailleurs au niveau européen (ONG, Digital Services Act) et dans les pays voisins (France, Allemagne, …); — l’articulation avec les différents niveaux de pouvoir et différentes initiatives existantes.

M. Peter De Roover (N-VA) s’étonne de la teneur du texte à l’examen qui, par une voie détournée, tente de brider la liberté d’expression. Le Parlement est le fruit de la libre expression et doit défendre celle-ci avec bec et ongles. Le projet de texte ne tarit pas d’éloges sur la participation des citoyens. Le gouvernement prend des initiatives dans ce sens. Pourtant, ce texte suggère de faire appel à des entreprises privées disposant d’un monopole de fait pour faire office de censeurs de ce qui est désormais le vecteur de communication le plus important pour la plupart des citoyens.

Ces entreprises auraient un “devoir de modération”. En pratique, cela signifie que la liberté d’expression est placée sous cloche. Nous sommes engagés sur une pente glissante et il est impératif de faire machine arrière. Dans son livre “De bedreigde vrijheid: Uw vrijheid van uitspuiting in gevaar”, Johan Op de Beeck affirme que la surréglementation remplace l’autonomie et le débat. Cette phrase résume bien le sens du projet de texte.

Le texte préconise de traiter sur un pied d’égalité les communications en ligne et hors ligne. Il propose néanmoins une approche fondamentalement différente de celle qui s’applique aux communications hors ligne. Ces dernières ne peuvent en effet être bloquées que par une intervention judiciaire. Et c’est une bonne chose. Il n’est possible d’intervenir qu’après qu’un juge a établi qu’une certaine opinion est contraire à la loi (pénale).

Dans le texte à l’examen, en revanche, l’intervention du juge n’est plus prévue qu’en dernier recours pour un citoyen qui a déjà été éjecté de la plateforme par une entreprise privée.

M. De Roover estime que le texte à l’examen viole l’article 25 de la Constitution. Cet article est rédigé comme suit: “La presse est libre; la censure ne pourra jamais être établie; il ne peut être exigé de cautionnement des écrivains, éditeurs ou imprimeurs. Lorsque l’auteur est connu et domicilié en Belgique, l’éditeur, l’imprimeur ou le distributeur ne peut être poursuivi”. Le système de responsabilité en cascade instauré à l’alinéa 2 vise à empêcher la censure privée.

Ce système est ici renversé; l’éditeur, la plateforme de réseaux sociaux, est mis en cause s’il n’a pas appliqué la censure à ce qui a été publié sur la plateforme. Il n’y a cependant aucune raison de ne pas poursuivre l’auteur lui-même, par les voies judiciaires normales. En lieu et place, il serait préférable que le texte interdise aux plateformes de censurer, et, le cas échéant, de passer par la voie judiciaire normale.

Contrairement à ses collègues du VB et des groupes libéraux, qui font des efforts louables pour améliorer le texte, le groupe N-VA n’a pas (encore) déposé d’amendements. Il considère en effet que ce texte n’est pas amendable. Le climat du texte et sa terminologie, y compris dans ses développements, font que les amendements apportés au dispositif seraient en contradiction avec les développements. Il est d’ailleurs surprenant que certains amendements portent sur les développements.

La N-VA n’a pas été consultée lors de la rédaction du projet de texte. À en juger par l’empressement mis par l’Open Vld et le MR à charcuter le texte par leurs amendements, la majorité est divisée sur ce dossier. Un parti veut supprimer presque tous les considérants et demandes pertinents. Ce qui est également frappant, c’est la justification de l’amendement n° 3, dans laquelle il est indiqué que “le terme “fake news” est un terme fourre-tout sous lequel on peut inclure toutes sortes de choses, qui, au demeurant, ne sont pas nécessairement punissables”.

Comment concilier cela avec l’intention du gouvernement actuel, exprimée dans l’accord de gouvernement, de renforcer les mesures visant à empêcher la propagation des fake news? Les amendements déposés ne concernent pas les demandes 6 et 8. Il serait pourtant préférable d’également les supprimer, la demande 8 parce que c’est le monde à l’envers de prévoir un éventuel contrôle judiciaire uniquement a posteriori, et la demande 6 parce

que, comme déjà expliqué, elle ne correspond pas à la véritable portée du texte. M. De Roover estime par ailleurs que les auteurs du projet de texte supposent à tort que le contenu du Digital Services Act est acquis. Il s’agit uniquement d’une proposition de règlement de la Commission européenne. Il est donc étrange que le texte doive se conformer à ce Digital Services Act. Si la N-VA considérait le texte amendable, elle déposerait certainement un amendement demandant que chacun puisse exercer un recours dans sa propre langue nationale contre certaines décisions des plateformes de réseaux sociaux (par exemple un bannissement).

Aujourd’hui, cela n’est souvent possible qu’en anglais, ce qui crée une barrière à la fois linguistique et sociale. Il aurait certainement été possible de faire un travail utile sur les algorithmes dans le cadre du mandat de ce Comité d’avis. Toutefois, le choix a été fait d’aller au-delà de ce cadre et d’y inclure des questions telles que la limitation de droits fondamentaux, qui relèvent d’autres commissions (notamment de la Constitution et du Renouveau institutionnel).

M. De Roover invite le président du Comité d’avis à remettre son ouvrage sur le métier dans le cadre approprié et à examiner, par exemple, la réelle problématique de certains algorithmes néfastes dans les réseaux sociaux. M. Christophe Lacroix (PS) explique la ratio legis d’une résolution et s’interroge sur la critique émise selon laquelle elle serait contraire à la Constitution et à la liberté d’expression.

Il relève que le texte n’oblige en rien les plateformes à de nouvelles obligations au-delà du cadre prévu par la loi mais organise un système plus clair pour faire face aux contenus illégaux. Il confirme que l’objectif de la résolution n’est pas de censurer ou de filtrer les contenus a priori. L’intervenant rappelle son attachement à la liberté d’expression, notamment pour les parlementaires. Pour lui, il s’agit, par rapport à une évolution de la société, de proposer des pistes de solutions qui ne limitent nullement la liberté d’expression mais qu’à travers des innovations technologiques, elle soit garantie, conformément à la loi.

Il énumère, à ce titre, les dispositifs prévus par le législateur et auxquels le projet de texte fait référence.

Il note que deux autres éléments sont également importants. Il cite l’irruption des algorithmes dans le monde actuel qui ont engendré des discriminations comme ce fut le cas récemment aux Pays-Bas avec l’algorithme de risque de fraude SyRI (Systeem Risico Indicatie) où des citoyens ont été injustement privés de leurs allocations. Il pointe également l’importance de la transparence et de l’explicabilité des algorithmes, qui sont des outils d’aide à la décision humaine et non des substituts.

Pour M. Lacroix, ce texte renforce le principe de responsabilité du politique et du contrôle démocratique sur ce qui pourrait être une forme de “Big brother des temps nouveaux”. M. Steven Creyelman (VB) rejoint en grande partie les propos de M. De Roover. Durant les travaux du Comité d’avis, M. Creyelman n’a pu se défaire de l’impression que le choix en faveur de la thématique à l’examen était dirigé contre un parti bien défini, ou peut-être même deux.

Le membre aborde ensuite quelques considérants et demandes proposés par le projet de texte. Le considérant C traite de l’augmentation des fausses informations. La question qui demeure est de savoir ce que cette notion recouvre. Après de multiples auditions, force est de constater que l’on s’est borné à citer quelques exemples emblématiques, comme la théorie de la Terre plate ou les théories conspirationnistes liées au coronavirus.

Ce texte ne définit pas non plus les fake news. La conclusion est qu’il faut sans doute examiner chaque cas individuellement et que ce que l’un considère comme une fausse information ne le sera pas pour l’autre. Les considérants D et F font référence au nombre croissant de signalements de discriminations et de messages et de délits de haine sur les médias sociaux, ainsi qu’au rapport annuel de 2019 publié par Unia.

À ce propos, M. Creyelman relève une différence essentielle entre des signalements et des faits. Le nombre croissant de signalements – “l’augmentation brute” – peut également être imputable à d’autres facteurs tels que le recours accru aux médias sociaux, une sensibilité exacerbée dans le chef des utilisateurs ou un meilleur accès à la procédure de signalement. Quelle est donc “l’augmentation nette”? Le texte martyr contient plusieurs considérants auxquels personne ne s’oppose mais qui n’apportent rien

non plus. À titre d’exemple de lieux communs, il cite les considérants E, visant à combler le fossé entre le citoyen et le politique, et I qui traite de la nécessité d’élaborer une réglementation démocratique, transparente et claire. Le considérant H évoque quelques législations étrangères. M. Creyelman doute que ce soit opportun. Indépendamment de la question de savoir si une législation est réellement nécessaire, ces exemples étrangers ne sont pas sans poser des problèmes.

En outre, en tant que pays, nous devons pouvoir marquer notre empreinte, qui est le reflet de nos valeurs et de nos traditions. Ce dernier point transparaît dans une certaine mesure dans le considérant I qui, à cet égard, est en contradiction avec le considérant H. Le considérant L porte sur le lien entre les fausses informations et le phénomène de radicalisation de la pensée. À l’instar des fake news, cette dernière notion n’a pas non plus été clairement définie.

Ce qui sera vécu par l’un comme une pensée radicale sera jugé parfaitement normal par l’autre. S’agissant de la demande 1, le groupe VB s’insurge contre le membre de phrase “de manière harmonisée”. Ainsi qu’il l’a indiqué, chaque pays doit pouvoir marquer son empreinte. La demande 2 est formulée dans des termes extrêmement évasifs dans la mesure où un contenu non punissable pourrait également être visé.

Cette disposition est contraire à la liberté d’expression. M. Creyelman s’interroge sur l’utilité pratique des demandes 3 et 4. Peu de gens s’y opposeront, mais quelle est leur valeur ajoutée? La demande 5 relative aux signaleurs de confiance (“trusted flaggers”) ne suscite pas d’opposition pour autant qu’elle se cantonne à la pédopornographie, au terrorisme et à l’incitation à la violence. Mais lorsqu’il s’agit de liberté d’expression, il en va tout autrement, les “trusted flaggers” risquant alors de s’apparenter à un “ministère de la vérité”.

En aucun cas, le contrôle des messages ne peut servir un objectif politique. Cette mission ne peut donc pas être dévolue à des instituts ou à des ONG occupant des personnes nommées politiquement ou liées à certains partis. La demande 7 traite des sanctions. En soi, le fait que toute personne qui contrevient à la loi s’expose à des sanctions est un principe sain. La question se pose toutefois de savoir comment ces sanctions se traduiront en pratique, notamment à l’égard des entreprises établies à l’étranger, après avoir éventuellement

quitté la Belgique ou l’UE à la suite de la réglementation adoptée en application du texte à l’examen. Dans un certain sens, cette demande est également superflue, car si une législation est élaborée, elle sera assortie de sanctions en cas de non-respect. En outre – et plus fondamentalement encore – il y a un risque que les entreprises de médias sociaux fassent de l’excès de zèle et, par crainte de sanctions, suppriment tous les messages quelque peu douteux.

À ce momentlà, la liberté d’expression sera réellement en danger. La demande 8 n’apporte aucune plus-value: ce qui est proposé est en effet déjà parfaitement possible dans le cadre de la réglementation actuelle. La demande 9 concerne la création éventuelle d’un Observatoire national du numérique. La composition proposée de l’observatoire donne à penser qu’il prendra l’allure d’un café du commerce à caractère idéologique.

La demande 10, qui prévoit une formation adéquate pour le personnel judiciaire et le personnel administratif, est extrêmement positive. Le membre émet toutefois des réserves quant à sa mise en œuvre pratique, compte tenu de la difficile réforme de la justice. La demande 11 porte sur l’étiquetage des publicités politiques. M. Creyelman fait observer que le “branding” ou la marque fait partie intégrante de la publicité, qu’elle soit de nature politique ou autre.

Une publicité qui ne permet pas de remonter à la personne qui l’a commandée n’est d’aucune utilité. La demande 12, qui se penche sur la question du micro-ciblage des mineurs à des fins publicitaires, est louable. Les règles européennes en matière de protection de la vie privée fixent l’âge minimum des utilisateurs de médias sociaux à 16 ans, mais les États membres peuvent l’abaisser à 13 ans. Notre pays l’a fait.

Quelques plateformes ont décidé de fixer un âge minimum. Cette question ne se pose pas seulement pour les médias sociaux, mais pour l’internet en général. Même si vous effectuez une recherche en ligne sans vous être identifié, vous verrez apparaître ensuite des publicités ciblées. Ce n’est pas tant une question d’algorithmes et d’IA que le résultat de simples cookies. La demande 12 devrait être reformulée pour en tenir compte.

Enfin, en ce qui concerne la demande 13, le membre fait observer que les notions d’intelligence artificielle et d’algorithmes se confondent souvent. Or, bien qu’elles soient liées, elles ne peuvent être confondues. Le VB admet que les algorithmes pourraient être plus transparents et analysés, mais le sens de la recherche reste

très large. La promotion de la démocratie ne peut servir de prétexte pour restreindre la liberté d’expression. M. Vincent Scourneau (MR) insiste sur l’urgence de la mise en application des principes repris dans le projet de texte. Il relève que les algorithmes et l’intelligence artificielle ont bouleversé les moyens de communication, ce qui implique que de nouvelles règles adaptées à la situation actuelle entrent en vigueur, dans le respect de la liberté d’expression, formulées au niveau national ou supranational.

Il souligne que la liberté d’expression doit s’arrêter là où elle commence à nuire à l’autre, certainement quand cela se produit derrière un écran et plus particulièrement auprès des publics jeunes. M. Scourneau plaide pour l’adoption rapide de cette résolution qui renforcera la responsabilité de chacun. M. Jef Van den Bergh (CD&V) indique que le texte actuel est un bon début, mais que des améliorations sont encore possibles.

Il est essentiel de garder à l’esprit le contexte européen. Les grandes plateformes de médias sociaux sont des acteurs internationaux face auxquels il vaut mieux se placer à un niveau qui dépasse celui des États membres individuels. Le membre regrette l’attitude de la N-VA, qui consiste à ne même pas présenter d’amendements au motif que le texte entraverait la liberté d’expression. Or, il y a quelques années, M. De Roover avait plaidé en faveur d’une délimitation plus stricte de ce droit fondamental.

Il avait en effet déclaré à l’époque que pour préserver ce droit fondamental, nous devions “réfléchir à ce que nous estimons tolérable”. C’est précisément ce que nous devons faire en ce qui concerne l’impact des algorithmes utilisés par les médias sociaux. M. Peter De Roover (N-VA) nie qu’il y ait une quelconque incohérence entre le discours qu’il tient aujourd’hui et ses propos antérieurs concernant le terrorisme islamiste.

Il était et est toujours opposé à (l’incitation à) la violence, par exemple par la terreur, et reste un grand défenseur de la liberté d’expression. M. Nabil Boukili (PVDA-PTB) explique pourquoi il a été difficile pour son groupe d’amender un texte qui pose problème sur le postulat de départ. Sur le plan formel, il se demande si ce texte fait partie d’un accord de majorité ou s’il s’agit d’une initiative individuelle.

Sur le fond, il a l’impression que les discours haineux évoqués dans le texte se cantonnaient aux réseaux sociaux, alors qu’ils existent selon lui dans l’ensemble

de la société. Il observe que ce texte essaie de traiter les symptômes de manière répressive mais sans s’attaquer aux causes du développement de ces discours sur les L’intervenant regrette l’absence d’autocritique du politique sur les “fake news”: elle sont cantonnées dans le chef des citoyens alors que ceux qui se proposent de s’attaquer à ce phénomène en produisent eux-mêmes. Pour l’aspect répressif du texte, il demande qu’il soit traité dans un cadre sociétal et pas uniquement des Sur l’aspect modération évoqué dans le projet de texte, il déplore l’absence de définition de cette notion de modération: il s’interroge sur qui va procéder à la modération et selon quelles règles.

Sur la question des algorithmes, il note que le problème principal est éludé: l’objectif des algorithmes étant d’aider à vendre. Il se demande comment cet aspect sera régulé, sachant que les plateformes ont avant tout une utilité de lien social pour les citoyens, sans objectif de profit. L’intervenant soulève que l’exemple cité par M. Lacroix sur les dangers de l’algorithme SyRI aux Pays-Bas existe aussi en Belgique avec le programme Oasis, utilisé pour traquer les fraudes sociales.

Il estime que le texte tel que proposé ab initio ne permet pas de déposer des amendements. M. Christophe Lacroix (PS) souligne en réponse à M. Boukili qu’il est intervenu en octobre 2020 en faisant voter un rapport au sein de l’Assemblée parlementaire du Conseil de l’Europe sur les dangers de ce type d’algorithmes. Il fait aussi observer qu’il a proposé au Comité d’avis que le sujet soit abordé comme le prochain thème prioritaire du Comité.

M. Robby De Caluwé (Open Vld) souligne que la présentation d’amendements fait partie intégrante du travail sur un “texte martyr”. Il a donc un peu de mal à comprendre l’attitude de certains collègues qui critiquent fortement le texte sans présenter le moindre amendement.

Le texte soulève une question importante et ne vise en aucun cas à restreindre la liberté d’expression. Plusieurs orateurs invités ont mis en garde contre le risque de tomber dans une réglementation excessive. Ils ont plaidé en faveur d’une approche prudente. Les amendements de MM. De Caluwé et Scourneau visent à affiner le texte. L’intervenant renvoie à leur justification écrite. M. De Caluwé ne veut pas tomber dans la caricature.

Les amendements ne vident pas le texte de sa substance: ils le rendent simplement plus équilibré. M. Kris Verduyckt (Vooruit) explique que le texte à l’examen met principalement l’accent sur trois aspects. Le premier aspect est celui des algorithmes. Les experts qui ont été entendus ont souligné que ces algorithmes sont souvent motivés par l’“économie de l’attention” et qu’ils dirigent l’utilisateur vers des contenus spectaculaires et mensongers.

Les effets indésirables, y compris pour la démocratie, de l’intérêt suscité pour des faits mensongers a été démontré, notamment dans le documentaire Netflix intitulé “The Social Dilemma”. Contrairement à ce que prétend M. Boukili, ce texte ne demande pas l’interdiction ni la limitation des algorithmes. Ses auteurs demandent que ces algorithmes soient plus transparents, afin que les gens puissent faire un choix en connaissance de cause.

Un deuxième aspect concerne les fake news. Cette notion est en effet difficile à délimiter précisément. Selon M. Verduyckt, il faut avant tout analyser l’intention de l’auteur du message. A-t-il, oui ou non, l’intention d’inciter à la violence, à la haine ou à la discrimination? À l’attention de M. De Roover, l’intervenant souligne que les plateformes de médias sociaux suppriment déjà des messages et excluent déjà des utilisateurs.

Il est nécessaire que nous ayons une meilleure vision de ce qui se pratique: quand interviennent-elles et comment s’y prennent-elles précisément? Par ailleurs, les plateformes doivent mettre en place un système convenable de traitement des plaintes. Le dernier aspect est celui de la protection des mineurs. De nombreux parents sont préoccupés par le fait qu’à l’heure actuelle, des mineurs soient exposés à des contenus inappropriés sur les réseaux sociaux.

Le texte à l’examen constitue un premier pas en vue de résoudre ce problème.

Ce texte ne doit pas être considéré comme l’expression d’une frénésie réglementaire. De nombreux orateurs ont souligné le caractère délicat de ce débat, mais ont également insisté sur la nécessité d’une intervention des autorités. Les demandes contenues dans le texte à l’examen ne prêtent pas particulièrement à controverse et ne sont pas trop ambitieuses: des algorithmes plus transparents, un meilleur traitement des plaintes, des formations pour les agents des services publics, des possibilités de sanctionner les plateformes, la désignation de “signaleurs de confiance” en matière de discrimination, de pédopornographie, de propagande terroriste et de messages de haine, etc.

Le membre ne comprend pas pourquoi certains partis pourfendent d’emblée ce texte et font des procès d’intention à l’égard des signaleurs de confiance et de l’observatoire proposé. Il conclut que ce texte martyr constitue un premier pas positif dans la recherche de solutions à un problème extrêmement complexe. M. Steven Creyelman (VB) trouve étrange que l’intervenant précédent lui reproche de faire des procès d’intention, alors que lui-même préconise de vérifier quelles sont les intentions de l’émetteur lorsque des fake news sont identifiées. rappelle que le thème de l’impact de l’intelligence artificielle sur la démocratie a été retenu comme thème prioritaire de discussion du Comité d’avis, à l’unanimité des groupes politiques.

Sur le fond, il rappelle que toute une série de gardefous existent dans la démocratie pour la pérenniser et encourager la liberté d’expression. Il souhaite que ce même arsenal soit applicable aux réseaux sociaux. Il note que la réalité d’aujourd’hui, c’est que ce sont les plateformes elles-mêmes qui définissent leurs propres règles. Il estime que cela représente un danger de censure selon les codes de conduite propres à ces multinationales, qui s’arrogeraient le droit de dire ce qui est autorisé ou non.

Il estime que cela doit être décidé en démocratie par des instances publiques, en privilégiant l’action concertée au niveau européen, tout en permettant aux pays nationaux d’agir également. Il plaide pour un arsenal de régulation – et pas d’interdictions – pour encadrer de manière positive le débat démocratique. M. Peter De Roover (N-VA) ne met pas en doute les bonnes intentions de M. Vanden Burre, mais juge le texte sur ses mérites.

Le contenu du texte, avec les risques qu’il comporte, n’est pas à la hauteur des bonnes intentions de ses auteurs.

En guise d’illustration, M. De Roover évoque le cas concret et récent d’un utilisateur de la plateforme Facebook, qui a reçu un message lui indiquant que son post violait les règles de Facebook concernant les discours de haine. Le post en question était pourtant innocent: “Le canal de Suez est à nouveau ouvert. Les Hollandais restent les meilleurs marins du monde, n’en déplaise à certains” (traduction).

Cela montre à quel point la modération par les plateformes peut aller loin; la prudence est donc de mise. IV. — DISCUSSION DU PROJET DE TEXTE ET DES AMENDEMENTS ET VOTES A. Développements MM. Robby De Caluwé (Open Vld) et Vincent Scourneau (MR) présentent l’amendement n° 1, qui tend à supprimer les deux dernières phrases de l’avantdernier paragraphe de la partie C. M. De Caluwé comprend que l’on veuille protéger les jeunes mais s’interroge sur la méthode choisie.

Celle-ci ne peut avoir pour objectif ou pour effet de créer un blancseing permettant de passer au crible tous les messages diffusés sur des plateformes en ligne ou d’interdire aux jeunes de visiter certaines pages. En outre, certains contenus qui pourraient être néfastes à la bonne santé de la démocratie sont accessibles notamment dans des communautés fermées, qui ne sont pas accessibles à ces algorithmes.

Scourneau (MR) présentent l’amendement n° 2, qui tend à apporter les modifications suivantes dans le dernier paragraphe de la partie D:

1° remplacer la première phrase par ce qui suit: “Cet engouement législatif fait écho aux inquiétudes concernant les effets négatifs possibles de l’utilisation d’algorithmes par les médias sociaux, notamment à des fins de profilage.”;

2° les mots “notamment par rapport aux risques” sont remplacés par les mots “et pourraient notamment entraîner un risque”. M. De Caluwé estime que l’utilisation d’algorithmes n’engendre pas forcément, ni exclusivement des effets négatifs. Il estime en revanche qu’il faut être attentif aux effets négatifs engendrés par l’utilisation d’algorithmes intelligents, notamment lorsqu’il s’agit par exemple de manipulation (nudging). Au cours des auditions, plusieurs

experts ont mis en garde contre une régulation par trop impulsive de matières qui, pour la plupart, nécessitent bien davantage de recherches. M. Peter De Roover (N-VA) répète qu’il est inhabituel d’amender des développements. Il s’interroge sur le statut de ces développements, qui reflètent le dispositif du projet de texte tel qu’il a été déposé, mais qui ne seront pas forcément compatibles avec les considérants et demandes qui seront adoptés in fine. pointe le caractère plus informel de la procédure prévue à l’article 76 du Règlement.

Le texte déposé ne concerne pas une proposition de résolution, mais un texte martyr et les amendements présentés à cet égard ne feront pas l’objet de publications distinctes. Mme Yngvild Ingels (N-VA) présente ensuite l’amendement n° 29 qui tend à supprimer les parties A à E des développements. * * * L’amendement n° 29 est rejeté par 7 voix contre 4 et une abstention. L’amendement n° 1 est retiré.

L’amendement n° 2 est adopté par 10 voix contre 2.

B. Considérants Considérants A et B Ces considérants ne donnent lieu à aucune observation. Ils sont successivement adoptés par 11 voix et une abstention. Considérant C Scourneau (MR) présentent l’amendement n° 3, qui tend, dans le considérant C, à supprimer la référence au terme “fake news” et à la remplacer par une allusion à l’impact que l’IA et les algorithmes peuvent avoir sur l’internet et les médias sociaux.

M. De Caluwé précise que le terme “fake news” est une notion bateau qui recouvre tout et n’importe quoi et qui, du reste, n’est pas forcément punissable. Ce texte veut se concentrer sur les effets de l’intelligence artificielle et des algorithmes qui, conjugués l’un à l’autre, peuvent donner lieu à des “bulles de filtres” sur l’internet et les médias sociaux. Amendement n° 3 de MM. Robby De Caluwé (Open Vld) et Vincent Scourneau (MR) Dans le Considérant C, remplacer les mots “l’explosion des fake news sur” par les mots “l’impact que les applications de l’intelligence artificielle et des algorithmes peuvent avoir sur l’internet et”.

L’amendement n° 3 et le considérant C ainsi modifié sont successivement adoptés à l’unanimité. Considérants D à G Le considérant D est adopté par 8 voix et 4 abstentions. Le considérant E est adopté à l’unanimité. Le considérant F est adopté par 10 voix et 2 abstentions. Le considérant G est adopté à l’unanimité. Considérant H M. Robby De Caluwé (Open Vld) et M. Vincent Scourneau (MR) présentent l’amendement n° 4, qui tend à supprimer les références aux législations française et allemande dans le considérant H et à préciser que les travaux sur le Digital Services Act ne sont pas encore terminés.

M. De Caluwé estime que la NetzDG allemande pose problème en ce sens qu’elle laisse effectivement aux entreprises le soin d’appliquer la liberté d’expression.

Dans la pratique, cela conduit à l’overblocking, ce qui a des répercussions négatives sur la liberté d’expression. Les initiatives françaises de Mme Avia sont soit peu appliquées en pratique, soit leurs dispositions ont été annulées par le Conseil constitutionnel français, précisément parce que l’on craignait que les plateformes de réseaux sociaux censurent massivement des contenus afin d’éviter des sanctions pénales, ce qui serait préjudiciable à la liberté d’expression.

Enfin, concernant le Digital Services Act, M. De Caluwé indique que le projet de la Commission européenne doit encore être examiné par le Parlement européen et le Conseil, de sorte que le texte n’est pas encore définitif. La procédure ne sera probablement pas achevée avant 2023. Il est donc prématuré de se référer à un texte qui pourrait encore être substantiellement modifié. Le Digital Services Act accorde également une grande attention à l’importance de la liberté d’expression et à sa protection contre l’ingérence des autorités, afin d’éviter que les contenus en ligne ne soient supprimés trop rapidement ou de façon excessive.

Amendement n° 4 Dans le considérant H, apporter les modifications suivantes:

1° supprimer les mots “les récentes législations en Europe sur la question de la régulation des réseaux sociaux et des plateformes en ligne, notamment en France (Loi du 24 juin 2020 visant à lutter contre les contenus haineux sur Internet) et en Allemagne (NetzDG (“loi sur les réseaux sociaux”)) ainsi que le”;

2° faire précéder les mots “Digital Services Act européen” par les mots “les travaux qui déboucheront à terme sur un”. L’amendement n° 4 est adopté à l’unanimité. Le considérant H, ainsi modifié, est adopté par 8 voix et 4 abstentions.

Considérant I Scourneau (MR) présentent l’amendement n° 5, qui tend à supprimer le considérant

I. M. De Caluwé indique que ce considérant est trop général et est formulé trop vaguement, de sorte que l’on ne voit pas très bien quelles pourraient en être les conséquences. En outre, de nombreux experts ont mis en garde, lors des auditions, contre l’élaboration de réglementations dont la finalité n’est pas (encore) claire. Amendement n° 5 Supprimer le considérant

I. L’amendement n° 5 tendant à supprimer le considérant est adopté par 11 voix contre une. Considérants J à L Les considérants J et K sont successivement adoptés à l’unanimité. Le considérant L est adopté par 7 voix contre 4 et Considérants M et N (nouveaux) MM. Steven Creyelman et Erik Gillissen (VB) présentent les amendements nos 11 et 12, qui tendent à insérer respectivement les considérants M et N.

M. Gilissen indique que la liberté d’expression est un droit fondamental qui doit être respecté. Toute opinion doit pouvoir être entendue si elle n’incite à aucune forme de violence. Il souligne par ailleurs que la culture et les traditions locales et régionales sont inhérentes à un monde diversifié et méritent d’être protégées. Les plateformes en ligne doivent en tenir compte dans le cadre de la modération

des messages. Les partis politiques qui défendent cette culture et ces traditions ne peuvent en être le dindon de la farce. Ce n’est pas aux plateformes en ligne de déterminer comment nous devons vivre nos traditions et ce qui est autorisé ou non dans les messages. Supprimer des messages ou même bloquer des comptes parce que des utilisateurs se battent pour la culture locale et régionale d’une manière qui ne correspond pas à la vision des actionnaires des plateformes, n’est pas acceptable pour le groupe VB.

M. Peter De Roover (N-VA) indique que la N-VA s’abstiendra lors du vote des amendements du VB, non pas parce qu’elle est en désaccord avec le contenu, mais parce que la N-VA estime que les considérants et les demandes proposés ne relèvent pas du champ d’action du Comité d’avis. Amendement n° 11 de MM. Steven Creyelman et Erik Gilissen (VB) Insérer un considérant M rédigé comme suit: “M. considérant que le droit à la liberté d’expression est absolu, sauf s’il s’agit d’appeler à une quelconque forme de violence;”.

Amendement n° 12 Insérer un considérant N rédigé comme suit: “N. considérant que dans un monde caractérisé par la diversité, la culture et les traditions diffèrent d’un pays à l’autre;”. Les amendements nos 11 et 12 tendant à insérer respectivement un considérant M et un considérant N sont successivement rejetés par 8 voix contre 2 et 2 abstentions.

C. Demandes

Demande 1 Mme Yngvild Ingels (N-VA) présente l’amendement n° 16, qui tend à supprimer cette demande.

Mme Ingels estime que cette demande dépasse le cadre de la mission du Comité d’avis. M. Gilles Vanden Burre et consorts présentent l’amendement n° 28, qui tend à modifier la demande afin d’y inclure le texte – modifié ou non – des demandes 2 à 9 et 11. M. Gilles Vanden Burre (Ecolo-Groen) explique que cet amendement a été cosigné par MM. Christophe Lacroix (PS), Vincent Scourneau (MR), Jef Van den Bergh (CD&V), Robby De Caluwé (Open Vld), Kris Verduyckt (Vooruit) et Kristof Calvo (Ecolo-Groen).

Son but est essentiellement de regrouper toutes les demandes adressées à l’échelon européen. Les auteurs sont en effet favorables à une approche européenne pour parvenir à un internet sûr et équitable avec une harmonisation maximale entre les États membres. Les États membres individuels sont trop petits pour s’attaquer à ce problème. La Belgique doit jouer un rôle moteur dans les forums européens afin de renforcer le cadre réglementaire des grandes plateformes web dominantes et de soutenir les propositions de la Commission européenne de décembre 2020 (Digital Services Act).

Les auteurs sont également favorables à garder une marge de manœuvre et ne pas établir des demandes trop précises fondées sur les propositions de la Commission européenne, celles-ci étant toujours au stade de projet. Amendement n° 16 de Mme Yngvild Ingels (N-VA) Supprimer la demande 1. Amendement n° 28 de M. Gilles Vanden Burre et consorts Remplacer la demande 1 par ce qui suit: “1. de plaider au niveau européen afin de renforcer la transparence et l’explicabilité des algorithmes ainsi que lutter contre les contenus manifestement illégaux et punissables sur les plateformes et médias sociaux de manière harmonisée et: a) de contraindre les grandes plateformes à mettre en place un système de modération des contenus en ligne relevant d’un mécanisme de traitement des plaintes efficace, de sorte à insister sur la responsabilité des

plateformes quant au traitement des contenus manifestement illégaux et punissables tout en respectant la liberté d’expression; b) de prévoir une obligation dans le chef de ces grandes c) de prévoir une obligation dans le chef de ces grandes d) de fournir aux plateformes une liste de signaleurs de confiance (trusted flaggers), ces personnes étant des institutions ou organisations non-gouvernementales dont la mission est liée entre autres à la lutte contre les discriminations, la lutte contre la pédopornographie, la lutte contre la propagande terroriste et la lutte contre les discours de haine, et devant être habilitées à signaler plus rapidement aux plateformes des publications manifestement illégales; e) de s’efforcer de faire correspondre le traitement des délits en ligne au traitement de ceux établis dans les dispositions du Code pénal concernant les infractions hors ligne; f) de prévoir un système de mise en vigueur à l’encontre des plateformes en cas de manquement systématique et répété à son devoir de modération ou de publication de ses rapports de transparence ou du recours à des évaluations des risques; g) de prévoir un recours en justice devant le juge en devoir de modération ou de retrait, ainsi qu’un recours h) de collaborer à la création d’un observatoire du numérique européen sur base des propositions contenues dans le Digital Services Act européen, et plaider pour que cet organe soit constitué paritairement de membres issus à la fois des autorités en charge du numérique, de la société civile active dans les questions numériques,

i) en ce qui concerne les publicités politiques, de mettre en place une étiquette sur les publications sponsorisées sur les grandes plateformes mentionnant de manière transparente et nominative l’identité de l’organisme ayant poussé la publication par du sponsoring.”. L’amendement n° 16 est rejeté par 8 voix contre 4. L’amendement n° 28 est adopté par 7 voix contre 4 et Demandes 2 à 9 et 11 Scourneau (MR) présentent les amendements nos 6 à 9, qui tendent à supprimer les demandes 2, 7 et 9 et à modifier la demande 5.

M. Christophe Lacroix (PS) présente l’amendement n° 15, qui tend à modifier la demande 2. Mme Yngvild Ingels (N-VA) présente les amendements nos 17 à 25, qui tendent à supprimer les demandes 2 à 9 et 11. M. Gilles Vanden Burre et consorts présentent l’amendement n° 27, qui tend également à supprimer les demandes 2 à 9 et 11. M. Gilles Vanden Burre (Ecolo-Groen) explique que les demandes 2 à 9 et 11 ont été intégrées à la demande 1 et qu’elles peuvent donc être supprimées. Scourneau (MR) retirent leurs amendements nos 6 à 9.

M. Christophe Lacroix (PS) fait de même pour son amendement n° 15. Amendement n° 6 de MM. Robby De Caluwé (Open Vld) et Supprimer la demande 2. Amendement n° 7 Dans la demande 5, apporter les modifications 1° supprimer les mots “dont la mission est liée à la lutte contre les discriminations, la lutte contre la pédopornographie, la lutte contre la propagande terroriste et la lutte contre les discours de haine et”;

2° remplacer les mots “des publications” par les mots “des publications potentiellement punissables”;

3° supprimer les mots “au regard de la non-discrimination.”. Amendement n° 8 Supprimer la demande 7. Amendement n° 9 Supprimer la demande 9. Amendement n° 15 de M. Christophe Lacroix (PS) Dans la demande 2, faire précéder le mot “illégaux” par le mot “manifestement”. Amendement n° 17

Amendement n° 18 Supprimer la demande 3. Amendement n° 19 Supprimer la demande 4. Amendement n° 20 Supprimer la demande 5. Amendement n° 21 Supprimer la demande 6. Amendement n° 22 Amendement n° 23 Supprimer la demande 8. Amendement n° 24 Amendement n° 25 Supprimer la demande 11. Les amendements nos 6 à 9 et 15 sont retirés. L’amendement n° 17 est rejeté par 7 voix contre 4 et L’amendement n° 27 est adopté par 11 voix et une abstention. Par conséquent, les amendements nos 18 à 25 deviennent sans objet.

Demande 10 Cette demande ne donne lieu à aucune observation. Elle est adoptée à l’unanimité. Demande 12 Scourneau (MR) présentent l’amendement n° 10, qui tend à supprimer la demande 12. Mme Yngvild Ingels (N-VA) présente l’amendement n° 26, qui tend également à supprimer la demande 12. Amendement n° 10 Supprimer la demande 12. Amendement n° 26 L’amendement n° 10 est retiré. L’amendement n° 26 est rejeté par 8 voix contre 4. La demande 12 est adoptée par 8 voix et 4 abstentions.

Demande 13 Elle est adoptée par 10 voix et 2 abstentions. L’ensemble du projet de texte, tel qu’il a été modifié et corrigé sur le plan légistique, est adopté par 7 voix contre 4 et une abstention. Résultat du vote nominatif: Ont voté pour: de Laveleye; PS: Christophe Lacroix; MR: Vincent Scourneau; Ont voté contre: VB: Steven Creyelman, Erik Gilissen. S’est abstenu: V. — TEXTE ADOPTÉ PAR LE COMITÉ D’AVIS DES QUESTIONS SCIENTIFIQUES ET

— M. Alexander Schäfer (ministère fédéral allemand de la Justice et de la Protection des Consommateurs – Bundesministerium der Justiz und für Verbraucherschutz), — M. Joe Westby (chercheur et conseiller Amnesty — MM. Franck Dumortier (VUB) et Jan Penfrat (European Digital Rights), le 2 février 2021; — MM. Alain Luypaert (Police judiciaire fédérale (DGJ) – Internet Referral Unit) et David Stevens (président de l’Autorité de protection des données), le 9 février 2021.

A. Phénomène de cyber-harcèlement et de haine

an.19 Ce n’est pas sans raison: sans une régulation pernotre culture de l’internet”.20 Les messages et délits de haine sont aussi observables dans la vie “hors-ligne”, et ils nécessitent de faire un énorme travail pour observer leur diminution. Cependant, “en ligne”, la situation est encore moins régulée et beaucoup plus violente et insidieuse. La législation en la matière n’est plus nouvelle et manque cruellement d’évolution pour pouvoir répondre correctement et efficacement aux enjeux en présence.

Il ne devrait pas être plus facile de commettre un délit en ligne qu’hors-ligne. Pour citer la Commissaire: “Une personne qui afficherait de la pédopornographie devant le Berlaymont serait arrêtée en 30 secondes.”21 Il est donc nécessaire de réduire drastiquement le fossé entre le traitement des messages et délits de haine hors ligne et en ligne. B. L’ère des fausses informations ou “fake news”

leur page ou leur publication22. Ces fausses informa- 21 janvier 2020.

privée23.

C. Besoin de transparence sur les financements

et Zeynep Tüfekçi lancent des mises en garde contre sés à des fins politiques dans l’espace public virtuel24. orienter les comportements d’achat ou de vote, il est donc primordial d’organiser une transparence à ce niveau ainsi que favoriser l’explicabilité des mécanismes de publicités politiques. Cette transparence peut se traduire par la publication par les plateformes d’un registre des financements des publicités politiques, et le 4 février 2020. et limites. Paris: Seuil; Tüfekçi, Zeynep. 2017. Twitter and tear

notamment l’indication de l’identité du fournisseur de toute publicité politique, a fortiori s’il s’agit d’une personne de 16 ans de faire l’objet d’un micro-ciblage publicitaire, attention par rapport au micro-ciblage publicitaire, afin D. Engouement législatif en Europe dispositions, le 1er octobre 2017. Elle s’applique aux gros fournisseurs de réseaux, à savoir ceux comptant plus de deux millions d’utilisateurs enregistrés en République menaces, la calomnie, etc.

Le contenu doit être examiné par le réseau lui-même et un recours est prévu devant le juge s’il y a un manquement dans le traitement de la plainte. La particularité de la NetzDG est que le choix a été fait d’aligner la législation en question sur les dispositions pénales en vigueur. Aucun nouveau fait punissable n’a été imaginé pour l’occasion, l’idée sousjacente étant que les faits interdits hors ligne soient

électorale et vise à réglementer les messages politiques. en 2020 qui a abouti à la loi du 24 juin 2020 visant à lutter etc. Elle visait également les contenus de violence à l’égard des mineurs, de pédophilie, de pédopornographie, de négationnisme, d’apologie du terrorisme, etc. La proposition devenue loi reposait essentiellement sur trois axes: une obligation de retrait des contenus “manifestement” haineux et illicites dans les 24 heures par les médias sociaux, la création d’un Observatoire de la haine en ligne réunissant un ensemble d’acteurs

lutter contre les contenus en ligne et la création d’un parquet numérique spécialisé. Si l’obligation de retrait n’est pas respectée dans le délai imparti, la non-suppression entraîne une nouvelle infraction sanctionnée au pénal par le juge. Cet engouement législatif fait écho aux inquiétudes fins de profilage. Cette surveillance et ce matraquage algorithmiques continus soulèvent de nombreuses réserves, notamment par rapport aux risques de restriction de nos choix de consommation, d’information ou encore d’opinion, de développement d’un conformisme social amplifié ou encore d’incidence en matière de préjugés.25 E.

Articulation avec les différents niveaux de

scolaire que global et à l’attention de toute la population. Ajoutons enfin que les auteurs de la présente résolution examineront avec attention les conclusions du rapport d’information en cours d’établissement au niveau du Sénat26.

C. vu l’impact que les applications de l’intelligence artificielle et des algorithmes peuvent avoir sur l’internet et les réseaux sociaux; Benelux and Nordics, Facebook), de Mme Laetitia Avia (Assemblée nationale), de M. Alexander Schäfer (ministère fédéral allemand de la Justice et de la Protection des Consommateurs – Bundesministerium der Justiz und für Verbraucherschutz), de M. Joe Westby (chercheur et conseiller Amnesty Tech, Amnesty International), de MM.

Franck Dumortier (VUB) et Jan Penfrat (European Digital Rights), et de MM. Alain Luypaert (Police judiciaire fédérale (DGJ) – Internet Referral Unit) et David Stevens (président de l’Autorité de protection des données) menées par le Comité d’avis sur les questions scientifiques et technologiques au sein de la Chambre des représentants; H. vu les travaux qui aboutiront à terme à l’élaboration d’un Digital Services Act européen;

I. vu l’urgence d’un débat sur la question numérique J. vu la vulnérabilité des publics plus jeunes quant K. vu la corrélation entre les fausses informations et le phénomène de radicalisation de la pensée, 1. de plaider au niveau européen afin de renforcer les dispositions du code pénal concernant les infractions

f) de prévoir un système d’exécution à l’encontre et répété à leur devoir de modération, de publication des rapports de transparence ou de réalisation des plainte pour que celui-ci détermine si oui ou non le contenu était litigieux et si oui ou non la plateforme a failli à son devoir de modération ou de retrait, ainsi qu’un recours pour l’utilisateur qui estime que sa publication a été retirée de manière erronée; dans le Digital Services Act européen, et de plaider pour d’académiques experts en questions numériques ainsi que des représentants des entreprises et grandes plateformes numériques afin qu’il puisse discuter et rendre des avis, notamment sur les propositions législatives dans ce domaine; poussé la publication par du sponsoring; 2. d’encadrer une formation adéquate afin d’équiper 3. d’examiner la problématique du micro-ciblage seize ans et d’y apporter des solutions; 4. de fournir des ressources et d’encourager la recherche multidisciplinaire sur l’impact de l’intelligence artificielle sur les droits fondamentaux et la démocratie.

Les rapporteurs, Le président, Séverine DE LAVELEYE Christophe LACROIX Gilles VANDEN BURRE