Acrimed : Peux-tu présenter 7amleh et expliquer pourquoi l’ONG a été créée ?
7amleh : 7amleh est une ONG palestinienne fondée en 2013, qui œuvre pour la protection et la promotion des droits numériques des Palestiniens et Palestiniennes au sens large, c’est-à-dire les Palestiniens et Palestiniennes de Jordanie, de Gaza, de Jérusalem-Est, en Israël mais également à l’international. On travaille énormément avec la diaspora. À l’origine, l’objectif de l’ONG était de permettre aux communautés palestiniennes marginalisées d’utiliser les outils numériques pour raconter leur histoire, militer pour leurs droits et pouvoir se connecter entre elles.
Au fil des années, et malheureusement face à la multiplication des violations des droits numériques via la censure, la surveillance, le harcèlement et les multiples lois de criminalisation du contenu en ligne, notre travail s’est structuré autour de quatre piliers : le plaidoyer international ; la recherche et la documentation ; le renforcement des capacités ; les campagnes de sensibilisation.
Qu’entends-tu par « renforcement des capacités » ?
Concrètement, c’est former les journalistes, les ONG locales, les étudiants et les mineurs à toutes les questions liées à la sécurité numérique : comprendre ce que veut dire la censure, comment elle opère sur les réseaux sociaux… C’est aussi former les médias indépendants à l’intégrité informationnelle [1] et comprendre ses droits : comment contrer la censure et demander aux plateformes de réseaux sociaux de modifier leur décision.
Plus spécifiquement, on commence à mettre en place des formations en sécurité numérique, par exemple pour les journalistes. Quelle plateforme est la plus sûre à utiliser ? Comment envoyer des messages chiffrés sans que certaines métadonnées soient envoyées ? Comment être sûr que notre téléphone n’est pas surveillé et piraté ? On travaille également avec des ONG internationales, comme le bureau Amnesty tech d’Amnesty international, qui permet aussi de vérifier si les téléphones sont piratés ou pas.
Tu évoquais votre évolution, notamment après l’application de lois de criminalisation du contenu en ligne. Est-ce que tu peux revenir sur ce contexte juridique et politique ?
C’est le fruit d’un contexte géopolitique qui a extrêmement changé cette dernière décennie. L’ONG a été créée dans la période postérieure aux printemps arabes, pendant lesquels les populations de plusieurs pays ont utilisé les réseaux sociaux, notamment Facebook, pour s’émanciper et créer des répertoires d’action collective et s’organiser pour contrer les gouvernements en place. Les réseaux sociaux étaient alors un vrai outil d’opposition politique.
Mais dans la période post-printemps arabes, face à tout ce que cela a engendré, notamment en Égypte, en Tunisie, en Syrie, en Irak, on a observé une collaboration directe et assez forte entre les plateformes de réseaux sociaux – donc des entreprises privées – et les gouvernements. Par exemple, le gouvernement israélien, à partir de la fin des années 2010, commence à travailler directement avec Facebook, Instagram et Google pour supprimer des posts ou surveiller de potentiels opposants politiques sur les réseaux sociaux. Ils ont commencé à créer un arsenal juridique également. Les lois contre la cybercriminalité sont dorénavant assez courantes, que ce soit en Israël, dans les pays arabes ou dans toute la région. Ces lois vont être votées avec pour justification de lutter contre les crimes sur le dark web, le trafic de drogue ou ce qui est considéré comme du terrorisme ou de l’achat d’armement. Mais, la majorité du temps, elles sont réellement utilisées pour museler des opposants politiques, pour les emprisonner… En Israël, un simple post sur les réseaux sociaux peut être vu comme portant potentiellement atteinte à la sécurité nationale et conduire à une arrestation dite préventive. Ce sont des lois basées sur la prédiction.
Ces « lois de prédiction » que vous dénonciez déjà en 2018 ?
Oui, plusieurs centaines de personnes s’étaient fait arrêter par le gouvernement israélien du fait de ce qu’elles avaient posté sur les réseaux sociaux [2]. Une nouvelle loi, mise en place après le 7 octobre 2023 et qui concerne Israël et pas seulement les territoires occupés, permet d’arrêter une personne suspectée de terrorisme ou agissant contre la sécurité nationale, simplement parce qu’elle cherche sur internet des informations considérées comme étant des informations terroristes. C’est-à-dire qu’un journaliste qui fait son travail, de recherche et documentation, peut potentiellement être arrêté pour apologie du terrorisme ou pour cybercriminalité, parce qu’il aura fait des recherches en ligne, avec des accès sur des données publiques sur de potentiels crimes de guerre à Gaza, ou des informations sur les bombardements à Gaza… Si ces informations sont considérées comme étant des informations terroristes ou alors postées par des personnes suspectées de terrorisme, alors ces journalistes, ou des défenseurs de droits humains, peuvent être arrêtés. Ce sont souvent des arrestations administratives, dont il est souvent difficile de comprendre la raison, mais qui se traduisent régulièrement par des mois d’emprisonnement.
Quel est votre rôle à ce moment-là ?
7amleh n’est pas une organisation qui agit dans le domaine de l’accompagnement juridique. Mais il y a plusieurs ONG israéliennes et palestiniennes qui travaillent sur ces questions, comme le Adalah Center, un collectif d’avocats qui aident ces personnes. Pour notre part, nous travaillons davantage sur la documentation, c’est-à-dire comprendre comment ces lois sont mises en œuvre. On va ensuite essayer de disséquer s’il y a une réelle collaboration entre les plateformes et les gouvernements. Et expliquer, par exemple, comment Meta collabore directement avec un gouvernement d’extrême droite – le gouvernement israélien – pour museler des journalistes et des activistes. Ensuite, nous essayons de voir si, à l’échelle de l’Union européenne ou à l’échelle internationale, on peut utiliser des mécanismes comme les Nations Unies, ou s’appuyer sur des lois de régulation de l’intelligence artificielle.
Comment est-ce que vous recensez les cas de censure et d’autocensure ?
Nous disposons d’un helpdesk [3] qui permet, de manière anonyme ou pas, à toutes les personnes qui sont victimes de censure en ligne, de harcèlement ou de doxing [4] d’envoyer toutes leurs informations sur cette plateforme et ensuite, on peut faire remonter la situation directement auprès des plateformes de réseaux sociaux. Si l’on constate une restriction de compte que l’on considère contraire aux droits fondamentaux et à la liberté d’opinion et d’expression, on demande aux plateformes de reconsidérer leur décision et d’en formuler une nouvelle. Avec notre helpdesk, on vise ainsi à récolter toutes les possibles atteintes et violations des droits humains, en Palestine, en Israël, mais aussi à l’échelle internationale. Cela nous permet à la fois de documenter le nombre de cas qu’il peut y avoir, même si, bien évidemment, on ne peut pas répertorier tous les cas. Mais également d’avoir une ligne directe avec les plateformes pour récupérer les comptes et les posts qui ont été supprimés. On a récupéré énormément de comptes, notamment de journalistes ou d’influenceurs à Gaza.
Ensuite, on travaille sur tout le stock d’informations collectées pour pouvoir utiliser cette documentation sur un plan juridique, et tenter ainsi de prouver qu’il y a bien une discrimination systémique et des biais algorithmiques contre les Palestiniens et les populations marginalisées. Par exemple, à l’échelle de l’Union européenne, c’est ce qu’on essaye de faire avec le DSA (Digital Services Act) [5], qui a pour objectif de trouver un certain équilibre entre la liberté d’opinion, d’expression et la modération de contenus.
On essaye de prouver qu’il y a bien un choix politique, qui est de museler les voix des Palestiniens et propalestiniennes et les voix marginalisées en général. Non pas parce qu’elles ont posté des choses qui sont considérées comme étant violentes ou terroristes, mais bien parce qu’il y a une forme de profilage contre ces communautés-là. C’est ce qui opère avec ce qu’on appelle les « grands modèles de langage », les LLM, qui agissent comme des biais discriminatoires contre ces populations, mais aussi des biais de langue…
Est-ce que vous parvenez à objectiver le fonctionnement de ces algorithmes ?
Ça peut être assez technique, mais déjà avant le 7 octobre, et surtout depuis, on a récupéré de nombreux témoignages d’ingénieurs et de personnes qui travaillent au sein de ces plateformes de réseaux sociaux et qui étaient outrées par les réglementations internes en ce qui concerne le génocide à Gaza. Ils ont donc accepté de se constituer en lanceurs d’alerte et ont partagé énormément d’informations sur la manière dont Meta, notamment, a choisi de modifier ses réglementations internes après le 7 octobre pour diminuer, on va dire, le plafond de vérification en ce qui concerne le contenu palestinien, arabe, propalestinien… Concrètement, cela veut dire censurer en masse plutôt que de modérer avec précision.
On a aussi mené des tests, par exemple, sur Google et sa plateforme Youtube. On a payé pour diffuser vingt publicités sur Youtube, avec des mots comme « nettoyage ethnique », « génocide », « mort aux Palestiniens », « on doit violer toutes les femmes palestiniennes », etc. Or, toutes ces publicités ont été acceptées par Youtube ! Youtube est censé avoir un administrateur humain et non pas uniquement de l’intelligence artificielle pour vérifier toutes les publicités. En théorie, si une publicité mène à la violence contre les Palestiniens, elle ne peut pas être acceptée. Et pourtant, elles l’ont toutes été, ce qui est gravissime. Bien évidemment, on ne les a pas postées, on les a tout de suite supprimées…
Après le 7 octobre, le gouvernement israélien a dépensé plusieurs millions d’euros pour viser plusieurs pays de l’Union européenne, notamment la France, la Belgique, le Danemark, l’Allemagne et les Pays-Bas, via des publicités sur Youtube, pour appeler au soutien d’Israël et recruter pour l’armée israélienne. Lorsque l’on s’est adressé à Google et Youtube pour leur expliquer qu’il est interdit par de nombreuses lois européennes et par la politique interne de Youtube d’accepter ce genre de publicité, ils ont plaidé l’erreur technique ou humaine… Ces plateformes ne veulent pas reconnaître qu’il existe des discriminations systémiques et internalisées.
Depuis le 7 octobre 2023, la répression est plus forte ?
Totalement. Il faut savoir qu’il y a vraiment deux dates charnières, selon nous. C’est d’abord mai 2021 quand il y a le mouvement Save Sheikh Jarrah [6] dans les quartiers de Jérusalem-Est, où Meta a directement travaillé avec le gouvernement israélien pour bloquer les Live Facebook, parce que c’est ce que les Palestiniens utilisaient pour montrer en temps réel la destruction de leurs maisons. Ça a été un moment charnière sur les problématiques de collaboration entre les plateformes et le gouvernement.
Et depuis le 7 octobre, on a vraiment constaté une intensification, sans précédent, de la répression numérique. Déjà, les plateformes ont supprimé des milliers de contenus palestiniens, y compris des témoignages de civils ou même des appels humanitaires. Il y a eu beaucoup de comptes Facebook et Instagram, y compris de médias bien installés, qui ont été supprimés par les plateformes. En même temps, le gouvernement israélien ne permettait pas, et c’est toujours le cas, aux journalistes internationaux de rentrer dans la bande de Gaza, tout en criminalisant Al-Jazeera en Israël.
La modération de contenus est devenue de plus en plus opaque. C’était encore plus compliqué de comprendre comment les algorithmes fonctionnaient à ce moment-là. Il y avait vraiment une application disproportionnée, avec des règles extrêmement floues.
Enfin, il faut souligner les problématiques énormes sur la langue arabe, avec une modération de contenus dans cette langue qui est très mauvaise. Parallèlement, il y a très peu de modération de contenus en hébreu – il faut savoir que Meta n’avait même pas de classificateur de la langue avant 2023 (et il n’est même pas encore totalement déployé de manière effective). Techniquement, cela signifie avoir un outil d’intelligence artificielle qui permet de faire des statistiques sur la langue, d’avoir des mots-clés, et de comprendre les contextes de ces mots-clés dans une vidéo ou un texte précis, pour déterminer si c’est à modérer ou pas. Ça a vraiment constitué une demande de notre part : il y des messages de haine partagés en hébreu sur les réseaux sociaux, Meta doit donc les modérer.
Il y a vraiment une surmodération de l’arabe et des biais algorithmiques sur la langue. Les modérateurs de contenus humains sont très peu formés sur les différents dialectes, c’est donc tout à fait normal que cela mène à énormément de problématiques et d’erreurs. C’est vraiment quelque chose qu’on a vu après le 7 octobre, avec une intensification de ces problèmes et, bien évidemment, un nombre de compte suspendus, restreints ou victimes de shadow ban [7] qui a explosé.
La suspicion est plus forte concernant certains usages sémantiques de certains mots ?
Oui, les plateformes de réseaux sociaux n’ont pas la même manière de travailler sur les différentes cultures, les différents contextes. Meta a une vision très holistique, normative et internationale des droits fondamentaux, des valeurs, de ce qui peut être dit et ne pas être dit sur les réseaux sociaux.
Ce qui veut dire qu’un mot en arabe comme « shahid », qui veut dire martyr, a une connotation culturelle, politique, historique très différente de ce qu’on peut considérer comme étant un martyr dans la mentalité occidentale. Lorsque l’on parle de martyr musulman dans la représentation ou la mentalité occidentale, ça va tout de suite renvoyer à quelqu’un qui fait partie de Daesh, ou du Hamas, etc. Mourir en martyr sous-entend, selon ces représentations, que l’on fait partie de la lutte armée.
Alors qu’au contraire, chez les Palestiniens et chez les Arabes en général, « shahid », martyr, c’est toute personne qui meurt dans un conflit armé mais aussi dans d’autres situations. C’est à la fois religieux, culturel et historique. Un civil, un enfant qui meurt sous un bombardement est considéré comme étant martyr. Périr d’un accident de voiture alors qu’on est sur le chemin de la mosquée ou de l’université, c’est aussi mourir en martyr de la connaissance : « il est mort parce qu’il partait étudier à l’université ». C’est vraiment un mot qui a de multiples connotations culturelles, qui n’a pas du tout de connotation militaire a priori, ou en lien uniquement avec la violence armée, etc. Et pourtant, ce mot va être systématiquement modéré sur les réseaux sociaux parce que potentiellement considéré comme glorifiant la violence, selon les règles internes de plusieurs plateformes de réseaux sociaux. Ils vont considérer que s’il y a écrit le mot martyr sur un post, ça va glorifier systématiquement la lutte armée, le Hamas, etc., alors que ce n’est pas forcément le cas.
Il y a des mots comme « Intifada » également, qui signifie soulèvement, qui vont être systématiquement censurés sur les réseaux sociaux. C’est vraiment tout un vocabulaire politique et historique palestinien qui a une autre connotation en Palestine, mais qui va automatiquement être ciblé par des algorithmes. Il y a même des décideurs politiques en France, ou dans l’Union européenne, qui systématiquement ont assimilé les personnes qui utilisaient le mot Intifada à de l’apologie du terrorisme. C’est extrêmement problématique, parce que ça enlève tout sens à un vocabulaire et à des mots qui sont utilisés par toute une population ou une communauté sur les réseaux sociaux. Ces plateformes ont des algorithmes fondés sur une vision politique, culturelle et historique de présomption, avec toute la dimension coloniale, issue de l’Occident et de la manière dont les ingénieurs qui ont travaillé sur ces algorithmes imaginent ce qu’est être Arabe et ce qu’est être Palestinien. Cette imagination et cette identification, extrêmement biaisée et discriminatoire, se retrouve dans les algorithmes et a un impact énorme sur la manière dont les Palestiniens peuvent s’exprimer sur les réseaux sociaux.
Comment est-ce que, concrètement, vous faites pression sur ces plateformes ?
Il y a la théorie et la pratique. En théorie, il y a les rapports qu’on leur envoie, des conversations et des réunions, à la fois formelles et informelles. On a des contacts directs, notamment avec leurs bureaux au Moyen-Orient, avec les chargés de politiques publiques. On les rencontre également à l’échelle de l’Union européenne. On fait partie de plusieurs consortiums et de groupes qui ont pour objectif de rassembler à la même table des personnalités et des personnes de la société civile, des dirigeants de ces plateformes, des journalistes et des universitaires qui travaillent sur ces problématiques. L’objectif serait d’avoir des conversations constructives avec ces plateformes. Nous permettre de leur expliquer nos problématiques, nos demandes, nos craintes… Mais ces plateformes collaborent de moins en moins. Elles ne veulent plus avoir de contact direct avec les sociétés civiles. C’est le cas de X (ex-Twitter), qui appartient à Elon Musk, et qui ne travaille plus du tout avec la société civile. Les plateformes font beaucoup de relations presse, mais l’objectif consiste surtout à nettoyer leur image de marque, sans vraiment modifier les pratiques internes.
Le contexte actuel fait qu’il est extrêmement compliqué d’avoir des relations avec ces plateformes. Tout simplement parce qu’elles font le choix de collaborer avec des gouvernements d’extrême droite, et qu’elles cherchent l’innovation plutôt que la régulation. L’argent, plutôt que les valeurs fondées sur les droits fondamentaux et les droits humains.
Est-ce que tu constates une différence avec la plateforme chinoise Tiktok ?
C’est une plateforme beaucoup plus jeune, où les contenus palestiniens deviennent assez viraux, avant d’être supprimés. Tiktok a une démarche beaucoup plus régionale sur les questions de modération de contenus, ce qui va permettre une modération beaucoup plus précise, qui va prendre davantage en compte les dialectes, qui va davantage travailler sur les contextes politiques, culturels, religieux, etc. Ça peut expliquer le fait que les posts propalestiniens y soient moins censurés. Mais Tiktok a d’autres problématiques, notamment le fait que c’est extrêmement utilisé par des gouvernements autocratiques, ou par des hommes politiques qui vont payer directement des influenceurs pour faire passer des messages politiques problématiques. Ça a été très documenté, notamment dans plein de pays arabes, par exemple en Tunisie.
Est-ce que vous avez des recommandations, des formulations qui permettraient d’imaginer un jour ce que pourrait être un Internet décolonisé où justement, par exemple, les Palestiniens pourraient s’exprimer sans craindre la répression ? Est-ce que ça passe par l’expropriation de ces grandes plateformes, par la création de réseaux de plateformes numériques citoyennes ou publiques ?
On considère que ce n’est pas forcément à nous de travailler directement pour trouver les solutions pour avoir un meilleur Internet, notre objectif c’est la responsabilisation de ces plateformes. Il y a des personnes à l’échelle locale en Palestine qui sont vraiment beaucoup plus expertes sur ces questions-là et qui donnent des solutions. Après, on plaide vraiment pour la décentralisation des pouvoirs de décision au sein de ces plateformes. On plaide pour l’intégration des communautés affectées dans la gouvernance de ces plateformes. On plaide pour une meilleure équité en ce qui concerne la modération de contenu des langues, c’est-à-dire de mieux prendre en compte les différentes langues, les dialectes, et toutes leurs subtilités. On demande aussi que les plateformes mettent davantage de moyens financiers sur ces problématiques. Et on plaide vraiment pour des standards basés sur les droits humains et les droits fondamentaux, et non uniquement sur les risques potentiels ou les questions d’innovation. La question de la décentralisation d’Internet est extrêmement compliquée. On se retrouve dans un monde où Internet est pris en otage par quelques entreprises privées, qui valent des milliards de milliards, et c’est de plus en plus compliqué, justement, de penser un Internet qui serait décentralisé et beaucoup plus éthique.
Je sais que beaucoup de personnes appellent à boycotter des plateformes comme Meta ou X. Pour l’instant, on n’appelle pas les journalistes palestiniens ou les créateurs de contenus à le faire parce qu’on sait que c’est une manière pour eux d’être visibles. Tant qu’il n’y aura pas de solution pérenne, qui permettrait d’avoir une visibilité aussi forte, ou presque aussi forte, on n’appellera pas directement à leur boycott.
Lorsqu’il y a une régulation comme le IA act [8] ou le DSA, qui sont des régulations de l’Union européenne, mais qui ont pour objectif d’être des standards pour l’international, on considère qu’il est nécessaire que des ONG non européennes fassent partie des conversations et que leurs revendications soient entendues. Sinon, on arrivera seulement à avoir des plateformes avec des régulations et des standards normatifs très occidentalisés, qui ont tout le temps eu et auront toujours des biais coloniaux.
Par exemple, avec ELSC, le Europen Legal Support Center, on a travaillé à un formulaire, ou ce qu’on peut appeler un tracker de droit numérique, qui permet aux citoyens européens, ou aux personnes résidant en Europe, de nous partager directement des cas de censure en ligne. Ce qui permettra, potentiellement, de trouver les biais discriminatoires et systémiques de ces plateformes. L’objectif pour nous, c’est vraiment de prouver que ce qui se passe actuellement sur ces plateformes n’est pas seulement du fait du gouvernement israélien. On a vraiment prouvé qu’il y a encore des biais discriminatoires et algorithmiques en Europe, et que les États membres de l’Union européenne sont en train eux aussi de pousser à la discrimination du contenu propalestinien. C’est toute la dimension paradoxale de la réglementation de l’Union européenne, qui prétend défendre les valeurs et les droits fondamentaux, tout en censurant davantage des posts palestiniens ou propalestiniens à travers le profilage. Et cela produit en quelque sorte un effet domino : il y a de l’autocensure, les posts sur les appels à manifestations sont supprimés ou alors très peu visibles, donc la mobilisation dans les rues est moindre, tout cela parce que l’accès à l’information ne fonctionne plus… Ce sont toutes ces problématiques liées à la liberté d’opinion, d’expression, mais aussi au droit à s’informer qui ne sont pas traitées de manière équitable lorsqu’on parle des Palestiniens et propalestiniens en Europe.
Propos recueillis par Nils Solari.