Comment une ONG veut favoriser la paix avec des outils numériques

Search for Common Ground propose des outils de lutte contre la désinformation. © National
Pieterjan Van Leemputten

Si les médias sociaux sont certes source de polarisation, les débats en ligne peuvent également avoir des conséquences dans la vraie vie. Tel est le combat que mène l’ONG Search for Common Ground.

Search for Common Ground est une ONG active dans la politique en matière de ‘digital peace building’. L’organisation est présente dans 33 pays et s’emploie au niveau local à lutter contre les messages haineux. Dans cette optique, elle soutient des agences d’information locales, des bloggeurs et des influenceurs de médias sociaux, tout en proposant des outils spécifiques, notamment lors d’élections. C’est ainsi qu’elle a élaboré un guide numérique de consolidation de la paix permettant d’identifier et d’éradiquer différentes formes de dommages en ligne, de même qu’elle propose des conseils sur la manière de communiquer via les réseaux sociaux en cas de conflit.

«Notre objectif est de former les bloggeurs ainsi que les personnes ayant de nombreux suiveurs et les influenceurs afin de leur permettre de communiquer de manière plus précise ou de rapporter des événements de leur région, explique Christian Cirhigiri, collaborateur de gestion spécialisé en ‘digital peace building’ auprès de Search for Common Ground. Dans le même temps, nous mettons en place des partenariats avec d’autres organisations et grandes entreprises technologiques afin de veiller à ce que leur politique de modération des contenus prenne en compte les conflits et soit responsable. C’est ainsi que nous collaborons avec Meta. Parfois, ils tiennent compte de notre feedback et parfois pas. Quoi qu’il en soit, nous nous efforçons à ce que les entreprises prennent conscience du fait que leurs plateformes influencent les personnes et la société en général. Au Sri Lanka par exemple, nous avons collaboré avec des partenaires locaux à la suite des attentats de 2019. Notre ambition est de donner aux personnes susceptibles d’être victimes de polarisation en ligne les moyens de se défendre. Nous sommes actifs tant dans l’amélioration des politiques des acteurs comme Meta que dans des projets relatifs à des situations particulières.»

Outre Meta, l’ONG est en contact avec TikTok notamment. Elle s’efforce également de nouer le dialogue avec Twitter, sans résultat toutefois pour l’instant (Twitter a licencié la moitié de ses effectifs depuis son rachat par Musk).

Search for Common Ground souligne que son rôle ne consiste pas à procéder elle-même à des contrôles sur le terrain ou à vérifier des allégations, mais surtout de former d’autres acteurs qui s’en chargeraient. «Nous donnons des outils permettant de vérifier si une information est correcte ou pas, tout en insistant sur la responsabilité de ceux qui diffusent de telles informations.»

Il faut savoir qu’en 2023, la diffusion d’informations est étroitement liée à la présence de l’internet mobile. «Dans la plupart des pays où nous sommes actifs, la couverture internet représente un problème. Cela étant, nous constatons dans le même temps que le déploiement de la 4G, et parfois même de la 5G, permet à la population d’accéder à l’internet et aux médias sociaux. Au Sri Lanka, nous sommes de plus en plus présents dans les zones rurales sachant que le réseau télécom dessert désormais aussi ces communautés. En général, nous travaillons certes encore avec les médias traditionnels dans ces zones, mais dans certains cas aussi avec des personnes privées ou des organismes publics dans le but principal de promouvoir la cohésion sociale.»

Christian Cirhigiri: «Au Sri Lanka, nous sommes de plus en plus présents dans les zones rurales sachant que le réseau télécom dessert désormais aussi ces communautés.»
Christian Cirhigiri: «Au Sri Lanka, nous sommes de plus en plus présents dans les zones rurales sachant que le réseau télécom dessert désormais aussi ces communautés.» © National

La politique comme levier

Dans certaines régions, la preuve a souvent été donnée que la désinformation pouvait déboucher sur des conflits physiques. Voilà qui incite à se demander s’il s’agit là d’une erreur inhérente au modèle mis en place par les médias sociaux et technologiques. En effet, du contenu polarisant a souvent un impact plus important sur les algorithmes que des messages neutres, voire pacifistes. Même si Christian Cirhigiri insiste sur le fait qu’il ne s’agit pas uniquement de la polarisation en soi. «Ces médias stimulent l’accès massif vers ce type de contenu, qu’il soit polarisant ou non, pourvu qu’il soit viral. Mais il appartient aux décideurs de mettre les acteurs face à leurs responsabilités vis-à-vis de la collectivité. La politique doit être un levier d’amélioration de la technologie.»

Et Cirhigiri de citer comme exemple le cas du Kenya où en 2007, de très nombreux messages haineux ont circulé et amené une guerre civile qui a fait de nombreuses victimes. «A la suite de ces événements, plusieurs acteurs kenyans ont collaboré pour partager des informations claires et crédibles. Grâce à cela, lorsque les résultats des élections sont contestées, la situation ne tourne pas en pugilat. Voilà un impact clair du travail que nous menons sur place.»

La situation était-elle meilleure autrefois, avant l’internet mobile? Cirhigiri se montre prudent. «Nous pourrions poser la question autrement et nous demander comment les choses se passaient lorsque les médias sociaux étaient utilisés pour la bonne cause. Cela étant, on constate aujourd’hui de nombreux points positifs. Le plus important est l’émergence de la transparence: les développeurs doivent savoir précisément comment fonctionnent leurs algorithmes, le pourquoi de leur utilisation et dans quelle mesure ceux-ci apportent de la cohésion sociale. Ce constat peut paraître quelque peu nostalgique, mais nous voulons surtout que les personnes qui sont actives en ligne soient responsables de leurs actes et que ce qu’elles postent répondent aux directives sur la lutte contre la haine en ligne et la désinformation.»

Comment se comporter en tant que développeur?

Il s’agit d’une question d’éthique: comment mettre en place une industrie tech éthique dans un environnement humain? Si vous développez de la technologie, prenez en compte les 5 critères suivants:

1 Faites preuve d’empathie. Développez une technologie susceptible d’améliorer l’empathie des personnes, de renforcer la dignité humaine ou d’indiquer plus clairement un handicap.

2 Offrez un accès plus large. A l’intention des personnes plus pauvres ou disposant de moins de moyens. Même si la portée de l’application ne s’en trouve que peu élargie.

3 Imaginez la manière dont les personnes utilisent la technologie. Il ne s’agit pas uniquement de technologie, mais aussi de savoir-faire dans la manière d’utiliser cette technologie.

4 Menez des discussions avec des décideurs afin de leur permettre d’utiliser également la technologie. Nouez des partenariats avec eux.

5 Envisagez l’impact à long terme. Souvent, les entreprises technologiques misent sur le court terme, à savoir le bénéfice financier. Or l’impact à long terme peut être souvent préjudiciable. Lorsque vous avez une idée, développez-la dans une optique d’évolutivité et d’accessibilité, mais en tenant aussi compte des relations humaines.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire