DIPROMATS 2023: Coarse propaganda characterization

La tarea tiene como objetivo encontrar las mejores técnicas para identificar y categorizar tuit propagandísticos de fuentes gubernamentales y diplomáticas en un conjunto de datos de 9501 tuits en español, publicados por autoridades de China, Rusia, Estados Unidos y la Unión Europea. La tarea consiste en clasificar el tuit en cuatro grupos de técnicas propagandísticas: apelación a lo común, desacreditación del oponente, lenguaje cargado, apelación a la autoridad.

 

 

Publicación
Pablo Moral, Guillermo Marco, Julio Gonzalo, Jorge Carrillo-de-Albornoz, Iván Gonzalo-Verdugo (2023) Overview of DIPROMATS 2023: automatic detection and characterization of propaganda techniques in messages from diplomats and authorities of world powers. Procesamiento del Lenguaje Natural, Revista nº 71, septiembre de 2023, pp. 397-407.
Idioma
Español
Tarea abstracta
Dataset
Año
2023
Métrica Ranking
F1

Mejores resultados para la tarea

Sistema Precisión Recall F1 Ordenar ascendente CEM Accuracy MacroPrecision MacroRecall MacroF1 RMSE MicroPrecision MicroRecall MicroF1 MAE MAP UAS LAS MLAS BLEX Pearson correlation Spearman correlation MeasureC BERTScore EMR Exact Match F0.5 Hierarchical F ICM MeasureC Propensity F Reliability Sensitivity Sentiment Graph F1 WAC b2 erde30 sent weighted f1
Hermes-3-Llama-3.1-8B_2 0.5677 0.5677 0.5677 0.5677 0.57
XLM-RoBERTa-large 0.5425 0.5425 0.5425 0.5425 0.54
XLM-RoBERTa-large-2 0.5425 0.5425 0.5425 0.5425 0.54
XLM-RoBERTa-large-v3 0.5425 0.5425 0.5425 0.5425 0.54
Hermes-3-Llama-3.1-8B 0.5379 0.5379 0.5379 0.5379 0.54
Xlm roberta large 0.5343 0.5343 0.5343 0.5343 0.53
Gemma-2B-IT 0.5283 0.5283 0.5283 0.5283 0.53
PlanTL GOB ES roberta large bne 0.5173 0.5173 0.5173 0.5173 0.52
PlanTL GOB ES roberta base bne 0.4906 0.4906 0.4906 0.4906 0.49
Dccuchile bert base spanish wwm cased 0.4874 0.4874 0.4874 0.4874 0.49