Evalúa el grado en que dos oraciones en español son semánticamente equivalentes entre sí. Las puntuaciones de similitud van desde 0 para ninguna superposición de significado hasta 5 para equivalencia de significado. Los valores intermedios reflejan niveles interpretables de superposición parcial en el significado.
Publicación
Daniel Cer, Mona Diab, Eneko Agirre, Iñigo Lopez-Gazpio, and Lucia Specia. 2017. SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation. In Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017), pages 1–14, Vancouver, Canada. Association for Computational Linguistics.
Idioma
Español
URL Tarea
NLP topic
Tarea abstracta
Año
2017
Enlace publicación
Métrica Ranking
Pearson correlation
Mejores resultados para la tarea
Sistema | Pearson correlation |
---|---|
ixambert-base-cased | 0.8100 |
bertin-roberta-base-spanish | 0.6700 |
distilbert-base-multilingual-cased | 0.6900 |
bert-base-multilingual-cased | 0.7000 |
xlm-roberta-base | 0.7300 |
distillbert-base-spanish-uncased | 0.7400 |
PlanTL-GOB-ES-roberta-base-bne | 0.7500 |
PlanTL-GOB-ES-roberta-large-bne | 0.7600 |
bert-base-spanish-wwm-cased | 0.7900 |
xlm-roberta-large | 0.8000 |
Paginación
- Página 1
- Siguiente página