Este documento está disponible en arxiv bajo licencia CC BY-NC-SA 4.0 DEED.
Autores:
(1) Yejin Bang, Centro de Investigación en Inteligencia Artificial (CAiRE), Universidad de Ciencia y Tecnología de Hong Kong;
(2) Nayeon Lee, Centro de Investigación en Inteligencia Artificial (CAiRE), Universidad de Ciencia y Tecnología de Hong Kong;
(3) Pascale Fung, Centro de Investigación en Inteligencia Artificial (CAiRE), Universidad de Ciencia y Tecnología de Hong Kong.
Líneas de base Comparamos con modelos de resumen multidocumento (MDS) disponibles en el mercado entrenados en un conjunto de datos de noticias múltiples (Fabbri et al., 2019) (BARTMULTI (Lewis et al., 2019) y PEGASUSMULTI (Zhang et al., 2019a)) como líneas de base. Esos modelos han logrado un alto rendimiento en MDS, que también se puede aplicar en el resumen de artículos polarizados. Sin embargo, estos modelos no contienen ningún aprendizaje sobre la eliminación del sesgo de encuadre o la escritura neutral. También comparamos con los modelos más avanzados (BARTNEUSFT y BARTNEUSFT-T) (Lee et al., 2022) que están ajustados con el conjunto de datos ALLSIDES. BARTNEUSFT está optimizado solo con artículos, mientras que BARTNEUSFT-T también aprovecha los títulos de cada artículo. Además informamos PEGASUSNEUSFT. Es posible que simplemente realizar ajustes no sea lo suficientemente eficaz como para aprender sobre el sesgo de encuadre. Por lo tanto, demostraremos cómo la pérdida de minimización de polaridad puede mitigar efectivamente el sesgo de encuadre en comparación con los modelos de referencia y SOTA.
Aprendizaje efectivo con polaridades extremas Investigamos que la minimización de la polaridad entre extremos (izquierda, derecha) es más efectiva que la mezcla con un medio de comunicación central. Esto se debe a que las ideologías de izquierda y de derecha son extremos opuestos que pueden entrenar modelos sobre fines extremos de manera más efectiva que los medios de comunicación centrales, aunque los medios centrales no están completamente libres de prejuicios. Los resultados del análisis cualitativo se alinean con las medidas cuantitativas. Por ejemplo, como se ilustra en la Tabla 2, los modelos de polaridad minimizada LR-INFO y LRC-AROUSAL podrían resumir la información esencial de los artículos de entrada polarizados. Especialmente LR-INFO, el modelo con el menor sesgo, podría incluso utilizar una elección de palabra más neutral (por ejemplo, “protestas” en lugar de “disturbios”, lo mismo para apuntar a Y).