Crédito: Dominio público de Pixabay/CC0
Los modelos de idiomas grandes (LLM) son sistemas de inteligencia artificial (IA) que pueden comprender y generar lenguaje humano analizando y procesando grandes cantidades de texto. En un nuevo ensayo, un investigador de la Universidad Carnegie Mellon critica un artículo sobre LLMS y proporciona una mirada matizada a los límites de los modelos para analizar el discurso sensible, como el discurso de odio. El comentario se publica en la revista de discursos multiculturales.
“Los analistas del discurso han estado interesados durante mucho tiempo en estudiar cómo el discurso de odio legitima los desequilibrios de poder y combina la polarización”, dice Emily Barrow Dejeu, profesora asistente de comunicación de gestión empresarial en la Escuela de Negocios Tepper de Carnegie Mellon, quien escribió el comentario. “Esto parece especialmente relevante hoy en medio del creciente populismo, nativismo y amenazas a la democracia liberal”.
El comentario de Dejeu se encuentra en un artículo que se publica en el mismo número de la revista de discursos multiculturales titulados “Modelos de idiomas grandes y el desafío de analizar el discurso discriminatorio: la sinergia humana-AI en la investigación de las redes sociales”, de Petre Breazu, Miriam Schirmer, Songbo Hu y Napoleon Katsos. El artículo explora hasta qué punto los LLM pueden codificar el discurso de odio racializado.
El uso de herramientas computarizadas para analizar el lenguaje no es nuevo. Desde la década de 1960, los investigadores han estado interesados en métodos computacionales para examinar los cuerpos de trabajo. Pero algunas formas de análisis cualitativo se han considerado históricamente estrictamente dentro del alcance de los analistas humanos, dice Dejeu. Hoy, existe un interés creciente en el uso de nuevos LLM para analizar el discurso.
A diferencia de otras herramientas analíticas, los LLM son flexibles: pueden realizar una variedad de tareas analíticas en una variedad de tipos de texto. Si bien el artículo de Breazu et al es oportuno y significativo, Dejeu dice que también presenta desafíos porque los LLM tienen protectores estrictos para evitar que emitan contenido ofensivo y dañino.
Mientras que Dejeu elogia a los autores por hacer la codificación de Human y LLM de comentarios de YouTube hechos en videos de migrantes romaníes en Suecia rogando por dinero, identifica dos problemas con su trabajo:
Problemas metodológicos: Dejeu sugiere que el diseño metodológico de los autores parece entrar en conflicto con su objetivo de explorar las sinergias humanas-AI. En cambio, presenta un binario humano contra el AI que persiste a lo largo del artículo, por lo que la pieza finalmente lee menos como una exploración de las sinergias humanas-AI y más como una acusación de las habilidades de ChatGPT para codificar como un investigador experto. Una conclusión defectuosa: Dejeu dice que Breazu y el llamado de los colegas a los LLM informados cultural y políticamente van más allá de simplemente expandir las bases de conocimiento de LLM; Los autores parecen querer un futuro en el que los LLM pueden actuar como lo harían los humanos situados, trayendo perspectivas políticas y culturalmente informadas para tener su análisis y razonamiento de esas perspectivas a las interpretaciones de la realidad. Ella pregunta: “¿Es razonable esperar que las herramientas de IA hagan esto, cuando la historia humana muestra que el significado cultural está construido, disputado y sujeto a cambios?”
Dejeu dice que el artículo es valioso al considerar cuán nueva es la definición de sinergia cuando se trabaja con herramientas de IA. Ella concluye su comentario abordando qué roles deberían desempeñar LLM en el análisis crítico del discurso. Deberían usarse iterativamente los LLM para refinar el pensamiento, ¿deberían los investigadores tratar de que se desempeñen como humanos para validar o semiautomatos de procesos de recursos, o debería haber alguna combinación de ambos?
“El campo probablemente eventualmente aclarará cómo se ve la codificación Human-AI, pero por ahora, deberíamos considerar estas preguntas con cuidado, y los métodos que utilizamos deben ser diseñados e informados por nuestras respuestas”, advierte Dejeu.
Más información: Emily Barrow Dejeu, ¿pueden (y deberían) realizar un análisis crítico del discurso?, Revista de discursos multiculturales (2025). Doi: 10.1080/17447143.2025.2492145
Proporcionado por Tepper School of Business, Universidad Carnegie Mellon
Cita: Comentario sobre el artículo sobre la codificación del discurso de odio ofrece una mirada matizada a los límites de AI Systems (2025, 8 de mayo) Recuperado el 8 de mayo de 2025 de https://techxplore.com/news/2025-05 Commentary-article-coding-Speech-nuanced.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.