Revue « Traitement Automatique des Langues » (TAL)

La détection de discours de haine : ressources linguistiques, méthodes et applications

Posted on

Informations edited from an announcement Calenda.

Expected response for the 18/04/2024

Response type Contribution complète

Expected contribution type article

Publication name Revue « Traitement Automatique des Langues » (TAL)

Contacts

Un type de discours de nos jours appelé communément “discours de haine”- ainsi que la propagation de stéréotypes qui les accompagnent bien souvent – sont légion sur diverses plateformes de médias sociaux. Deux raisons au moins à cette situation : l’anonymat dans lequel ces plateformes permettent de rester, mais aussi le manque de réglementation fournie par les plateformes. Le volume considérable et la nature souvent implicite de ces contenus indésirables font de la modération manuelle une tâche extrêmement complexe. Diverses communautés scientifiques intéressées par son automatisation au moins partielle se sont emparées de la problématique depuis une dizaine d’années. Les communautés des sciences sociales computationnelles, du traitement automatique des langues et de la linguistique computationnelle en particulier ont ainsi proposé de nombreux travaux relatifs à la création de ressources, d’ensembles de données et de modèles visant à automatiser la tâche de détection de discours de haine (désormais DDH). Et, de fait, on constate que la DDH est devenue une thématique de recherche à part entière dans le domaine du traitement automatique des langues avec une littérature abondante.

Un discours de haine cible un groupe vulnérable en fonction de caractéristiques telles que le sexe (misogynie, sexisme), l’origine ethnique, la race, la religion (xénophobie, racisme, islamophobie), l’orientation sexuelle (homophobie), etc. La plupart des approches automatiques de la DDH considèrent le problème comme une tâche de classification binaire. Or des caractéristiques importantes pourraient être mieux prises en compte, en particulier : (1) le focus thématique oula nature ciblée du discours de haine ; (2) le degré d’engagement des utilisateurs dans un contenu haineux (e.g. dénonciation, approbation, signalement, attitude neutre) ; (3) la question des stéréotypes et des idéologies dominantes ; (4) la question des stratégies linguistiques plus particulièrement liées ou nées avec les réseaux sociaux (e.g.émoticônes, hashtags). On note par ailleurs que la plupart des travaux (ressources, classifieurs) sont développés principalement pour l’anglais.

Thèmes

Motivées par l’intérêt de la communauté scientifique pour le problème dela DDH, nous sollicitons des articles dans les domaines du traitement automatique des langues, de l’apprentissage automatique ou des sciences sociales computationnelles. Nous encourageons les soumissions interdisciplinaires (ressources, méthodes informatiques et applications-utilisateurs à l’interface linguistique/psychologie/socio-linguistique/sociologie), mais également des articles de positionnement sur l’état de l’art dans le domaine de la DDH discutant des limites des approches actuelles et des orientations futures.

Les thèmes abordés dans le numéro spécial comprennent, sans s’y limiter :

  • Ressources linguistiques et évaluation : schémas d’annotation, études linguistiques de corpus, nouveaux jeux de données, avec un intérêt particulier pour la langue française et/ou les ressources multilingues. Dans le cas de ressources strictement lexicales : méthodes pour les constituer et couverture, catégories sémantiques retenues.
  • Approches formelles/conceptuelles de la DDH inspirées de modèles en sociologie, sociolinguistique et psychologie.
  • Modèles et méthodes : approches supervisées et non supervisées, ycompris les grands modèles de langue.
  • Rôle des phénomènes contextuels, y compris au niveau du discours etles contextes extra-linguistiques (e.g. aspects culturels).
  • Modèles pour la détection multilingue et multimodale.
  • Nouvelles approches au-delà de la classification binaire : DDH orientée cible, degrés d’engagement des utilisateurs, etc.
  • Dynamique des discours de haine en ligne dans les médias sociaux, propagation de la propagande.
  • Détection et suppression des biais dans la création de ressources, d’ensembles de données et de méthodes.
  • Application des outils de DDH dans l’éducation, dans la modération du contenu des réseaux sociaux, etc.
  • Implications sociales, juridiques et éthiques de la détection, de la surveillance et de la modération des discours de haine.

Dates importantes

  • 31 mai 2024 : Date limite de soumission

  • 15 juillet 2024 : Notification d’acceptation après première relecture
  • Fin septembre 2024 : Version modifiée
  • Mi octobre 2024 : Décision finale
  • Fin novembre 2024 : Version finale
  • Janvier 2025 : Publication du numéro spécial

Soumission

Les soumissions peuvent être en français ou en anglais en suivant le format de la revue : https://tal-65-3.sciencesconf.org/

Pour plus de détails sur le journal Traitement Automatiques des Langues,voir : https://www.atala.org/revuetal

Pour toute question, merci de contacter : tal-65-3@sciencesconf.org

Comité de rédaction externe

  • Cristina Bosco, University of Turin
  • Elena Cabrio, University of Côte d’Azur
  • Tommaso Caselli, Faculty of Arts, Rijksuniveristeit Groningen
  • Valentina Dragos, ONERA
  • Karën Fort, Sorbonne University
  • Claire Hugonnier, University of Grenoble Alpes
  • Irina Illina, University of Lorraine
  • Roy Ka-Wei Lee, Singapore University of Technology and Design
  • Véronique Moriceau, IRIT, University of Toulouse
  • Frédérique Segond, INRIA Paris
  • Mariona Taulé, University of Barcelona
  • Samuel Vernet, Aix-Marseille University
  • Mathieu Valette, Paris Sorbonne Nouvelle University
  • Marcos Zampieri, George Mason University