Le réseau social américain Twitter a annoncé jeudi avoir suspendu 235.000 comptes sur les six derniers mois dans le cadre de sa lutte contre les publications faisant la promotion du terrorisme.
Ajouté aux suspensions déjà évoquées en février, quand Twitter avait donné un chiffre pour la première fois, cela porte à 360.000 le total des comptes à contenus terroristes suspendus depuis mi-2015.
Les règles d'utilisation du réseau social américain interdisent les menaces violentes et la promotion du terrorisme. Il avait affiché en février sa volonté d'intensifier ses efforts pour les appliquer, montrant ainsi qu'il ne restait pas inactif face aux appels gouvernementaux à freiner la propagande jihadiste sur internet.
"Les suspensions quotidiennes sont en hausse de 80%, comparé à l'an dernier, avec des pics de suspensions suivant immédiatement les attaques terroristes" qui se sont multipliées ces derniers mois, souligne Twitter dans le message publié jeudi sur son blog officiel.
Tout en reconnaissant que le travail n'est "pas fini", le réseau social affirme que "nos efforts continuent d'avoir des résultats importants, y compris un déplacement important de ce type d'activité en dehors de Twitter".
Il dit aussi avoir amélioré le temps nécessaire pour suspendre les comptes qui lui sont signalés et la durée pendant laquelle ils restent actifs sur son réseau. Ces actions réduisent énormément le nombre d'abonnés que les comptes peuvent accumuler et empêche de recréer immédiatement un compte sur sa plateforme.
Comme en février, Twitter dit avoir augmenté ses équipes chargées d'examiner les contenus signalés, et avoir amélioré les outils de détection qui lui ont permis d'identifier de manière automatique plus d'un tiers des comptes finalement suspendus.
Il réaffirme toutefois qu'il n'y a "pas d'algorithme magique" pour identifier les contenus terroristes sur internet.
C'est ce qu'ont aussi indiqué dans le passé d'autres grands acteurs d'internet.
Comme Twitter, Facebook (NASDAQ:FB) et YouTube comptent beaucoup sur les utilisateurs pour leur signaler les contenus litigieux. Ils sont ensuite examinés par des équipes qui décident s'il faut les retirer, voire fermer le compte.
Facebook a lui aussi indiqué par le passé que quand ces équipes trouvaient des contenus ou des comptes pro-terroristes, elles utilisaient des outils dédiés pour repérer d'autres comptes associés.