La tarea tiene como objetivo encontrar las mejores técnicas para identificar y categorizar tuits propagandísticos de fuentes gubernamentales y diplomáticas sobre un conjunto de datos de tuits en inglés, publicados por autoridades de China, Rusia, Estados Unidos y la Unión Europea. La tarea consiste en clasificar los tuits propagandísticos en 15 técnicas propagandísticas.
Publicación
Pablo Moral, Guillermo Marco, Julio Gonzalo, Jorge Carrillo-de-Albornoz, Iván Gonzalo-Verdugo (2023) Overview of DIPROMATS 2023: automatic detection and characterization of propaganda techniques in messages from diplomats and authorities of world powers. Procesamiento del Lenguaje Natural, Revista nº 71, septiembre de 2023, pp. 397-407.
Idioma
Inglés
NLP topic
Tarea abstracta
Dataset
Año
2023
Enlace publicación
Métrica Ranking
F1
Mejores resultados para la tarea
Sistema | Precisión | Recall | F1 Ordenar ascendente | CEM | Accuracy | MacroPrecision | MacroRecall | MacroF1 | RMSE | MicroPrecision | MicroRecall | MicroF1 | MAE | MAP | UAS | LAS | MLAS | BLEX | Pearson correlation | Spearman correlation | MeasureC | BERTScore | EMR | Exact Match | F0.5 | Hierarchical F | ICM | MeasureC | Propensity F | Reliability | Sensitivity | Sentiment Graph F1 | WAC | b2 | erde30 | sent | weighted f1 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Roberta large | 0.5526 | 0.5526 | 0.5526 | 0.5526 | 0.55 | ||||||||||||||||||||||||||||||||
Xlm roberta large | 0.5123 | 0.5123 | 0.5123 | 0.5123 | 0.51 | ||||||||||||||||||||||||||||||||
Roberta base | 0.4406 | 0.4406 | 0.4406 | 0.4406 | 0.44 | ||||||||||||||||||||||||||||||||
Bert base cased | 0.4271 | 0.4271 | 0.4271 | 0.4271 | 0.43 | ||||||||||||||||||||||||||||||||
Ixa ehu ixambert base cased | 0.4004 | 0.4004 | 0.4004 | 0.4004 | 0.40 | ||||||||||||||||||||||||||||||||
Bert base multilingual cased | 0.3884 | 0.3884 | 0.3884 | 0.3884 | 0.39 | ||||||||||||||||||||||||||||||||
Xlm roberta base | 0.3773 | 0.3773 | 0.3773 | 0.3773 | 0.38 | ||||||||||||||||||||||||||||||||
Distilbert base multilingual cased | 0.3592 | 0.3592 | 0.3592 | 0.3592 | 0.36 | ||||||||||||||||||||||||||||||||
Distilbert base uncased | 0.3035 | 0.3035 | 0.3035 | 0.3035 | 0.30 |