Home News Ai está homogeneizando nuestros pensamientos

Ai está homogeneizando nuestros pensamientos

15
0

En un experimento el año pasado en el Instituto de Tecnología de Massachusetts, más de cincuenta estudiantes de universidades de Boston se dividieron en tres grupos y se les pidió que escribieran ensayos de estilo SAT en respuesta a amplias indicaciones como “¿Deben nuestros logros beneficiar a otros para hacernos realmente felices?” Se le pidió a un grupo que confiara solo en sus propios cerebros para escribir los ensayos. Un segundo recibió acceso a la búsqueda de Google para buscar información relevante. El tercero se permitió usar CHATGPT, el modelo de lenguaje grande de inteligencia artificial (LLM) que puede generar pasajes o ensayos completos en respuesta a las consultas de los usuarios. A medida que los estudiantes de los tres grupos completaron las tareas, llevaban un auricular integrado con electrodos para medir su actividad cerebral. Según Nataliya Kosmyna, un científico investigador de MIT Media Lab y uno de los coautores de un nuevo documento de trabajo que documenta el experimento, los resultados del análisis mostraron una discrepancia dramática: los sujetos que usaron ChatGPT demostraron mucho menos actividad cerebral que cualquiera de los otros grupos. El análisis de los usuarios de LLM mostró menos conexiones generalizadas entre diferentes partes de sus cerebros; menos conectividad alfa, que está asociada con la creatividad; y menos conectividad theta, que está asociada con la memoria de trabajo. Algunos de los usuarios de LLM sintieron “ninguna propiedad” sobre los ensayos que habían producido, y durante una ronda de pruebas, el ochenta por ciento no pudo citar de lo que habían escrito supuso. El estudio del MIT es uno de los primeros en medir científicamente lo que Kosmyna llamó el “costo cognitivo” de confiar en la IA para realizar tareas que los humanos anteriormente lograron más manualmente.

Otro hallazgo sorprendente fue que los textos producidos por los usuarios de LLM tendían a converger en palabras e ideas comunes. Las indicaciones SAT están diseñadas para ser lo suficientemente amplias como para obtener una multiplicidad de respuestas, pero el uso de IA tuvo un efecto homogeneizado. “La salida fue muy, muy similar para todas estas personas diferentes, que entraban en diferentes días, hablando de temas sociales personales de alto nivel, y estaba sesgado en algunas direcciones específicas”, dijo Kosmyna. Para la pregunta sobre lo que nos hace “realmente felices”, los usuarios de LLM eran mucho más propensos que los otros grupos a usar frases relacionadas con la carrera y el éxito personal. En respuesta a una pregunta sobre la filantropía (“¿Las personas que son más afortunadas que otras tienen una obligación más moral de ayudar a aquellos que son menos afortunados?”), El grupo ChatGpt argumentó uniformemente a favor, mientras que los ensayos de los otros grupos incluyeron críticas de filantropía. Con el LLM “no tienes opiniones divergentes generadas”, dijo Kosmyna. Ella continuó: “Promedio de todo en todas partes a la vez, eso es lo que estamos viendo aquí”.

La IA es una tecnología de promedios: los modelos de idiomas grandes están entrenados para detectar patrones en vastas extensiones de datos; Las respuestas que producen tienden a consenso, tanto en la calidad de la escritura, que a menudo está plagada de clichés y banalidades, como en el calibre de las ideas. Otras tecnologías más antiguas han ayudado y tal vez escritores debilitados, por supuesto, una podría decir lo mismo de, por ejemplo, SparkNotes o un teclado de computadora. Pero con IA, somos tan completamente capaces de externalizar nuestro pensamiento que también nos hace más promedio. En cierto modo, cualquiera que despliegue ChatGPT para componer un brindis de boda o elaborar un contrato o escribir un artículo universitario, como un número sorprendente de estudiantes ya está haciendo, está en un experimento como el de MIT. Según Sam Altman, el CEO de Operai, estamos al borde de lo que él llama “la suave singularidad”. En una publicación de blog reciente con ese título, Altman escribió que “ChatGPT ya es más poderoso que cualquier humano que haya vivido. Cientos de millones de personas confían en él todos los días y para tareas cada vez más importantes”. En su narración, el humano se está fusionando con la máquina, y las herramientas de inteligencia artificial de su empresa están mejorando en el sistema antiguo y empapado de usar nuestros cerebros orgánicos: “amplifican significativamente la salida de las personas que las usan”, escribió. Pero no conocemos las consecuencias a largo plazo de la adopción masiva de IA y, si estos primeros experimentos son una indicación, la producción amplificada que Altman prevé puede tener un costo sustantivo para la calidad.

En abril, los investigadores de Cornell publicaron los resultados de otro estudio que encontró evidencia de homogeneización inducida por AI. Dos grupos de usuarios, un estadounidense y otro indio, respondieron las indicaciones de escritura que se basaron en aspectos de sus antecedentes culturales: “¿Cuál es su comida favorita y por qué?”; “¿Cuál es tu festival/vacaciones favorito y cómo lo celebras?” Un subconjunto de participantes indios y estadounidenses utilizó una herramienta automática de combustión automática, que les dio sugerencias de palabras cada vez que se detuvieron, mientras que otro subconjunto escribió sin ayuda. Los escritos de los participantes indios y estadounidenses que usaron IA “se volvieron más similares” entre sí, concluyeron el periódico, y más orientados hacia las “normas occidentales”. Los usuarios de IA tenían más probabilidades de responder que su comida favorita era Pizza (el sushi llegó en segundo lugar) y que sus vacaciones favoritas eran la Navidad. La homogeneización también ocurrió a nivel estilístico. Un ensayo generado por IA que describió el pollo biryani como una comida favorita, por ejemplo, probablemente renunciaría a mencionar ingredientes específicos como nuez moscada y encurtido de limón y, en cambio, referir “sabores y especias ricos”.

Por supuesto, un escritor en teoría siempre puede rechazar una sugerencia generada por IA. Pero las herramientas parecen ejercer un efecto hipnótico, lo que hace que el flujo constante de sugerencias anule la propia voz del escritor. Aditya Vashistha, profesora de ciencias de la información en Cornell que fue coautor del estudio, comparó la IA con “un maestro que está sentado detrás de mí cada vez que escribo, diciendo:” Esta es la mejor versión “. “Ella agregó:” A través de tal exposición de rutina, pierde su identidad, pierde la autenticidad. Mor Naaman, colega de Vashistha y coautor del estudio, me dijo que las sugerencias de IA “funcionan encubierte, a veces con mucha fuerza, para cambiar no solo lo que escribes sino lo que piensas”. El resultado, con el tiempo, podría ser un cambio en lo que “la gente piensa que es normal, deseable y apropiado”.

A menudo escuchamos las salidas de IA descritas como “genéricas” o “suaves”, pero el promedio no es necesariamente anodino. Vauhini Vara, un novelista y periodista cuyo libro reciente “Búsquedas“Centrado en parte en el impacto de la IA en la comunicación humana y la autogestión, me dijo que la mediocridad de los textos de IA” les da una ilusión de seguridad y ser inofensivo “. Vara (quien anteriormente trabajó como editor en The New Yorker) continuó: “Lo que realmente está sucediendo es un refuerzo de la hegemonía cultural”. OpenAi tiene un cierto incentivo para afeitar los bordes de nuestras actitudes y estilos de comunicación, porque cuanto más sean aceptables la producción de los modelos, más amplia es la franja de la humanidad que puede convertir a suscriptores de pago es eficiente: “Tiene economías de escala si todo es lo mismo”, dijo Vara.

Con la “gentil singularidad” Altman predijo en su publicación de blog, “Muchas más personas podrán crear software y arte”, escribió. Las herramientas de inteligencia artificial como el software de ideación Figma (“Su creatividad, desbloqueada”) y la aplicación Mobile AI de Adobe (“El poder de la IA creativa”) prometen ponernos a todos en contacto con nuestras musas. Pero otros estudios han sugerido los desafíos de automatizar la originalidad. Los datos recopilados en la Universidad de Santa Clara, en 2024, examinaron la eficacia de las herramientas de IA como ayudas para dos tipos estándar de tareas de pensamiento creativo: hacer mejoras de productos y prever “consecuencias improbables”. Un conjunto de sujetos usó ChatGPT para ayudarlos a responder preguntas como “¿Cómo podrías hacer que un animal de peluche sea más divertido para jugar?” y “Supongamos que la gravedad de repente se volvió increíblemente débil, y los objetos podrían flotar fácilmente. ¿Qué pasaría?” El otro conjunto utilizó estrategias oblicuas, un conjunto de indicaciones abstrusas impresas en una baraja de cartas, escrita por el músico Brian Eno y el pintor Peter Schmidt, en 1975, como una ayuda de creatividad. Los evaluadores pidieron a los sujetos que apuntaran a la originalidad, pero una vez más, el grupo que usa ChatGPT presentó un conjunto de ideas más semánticamente similar y más homogeneizado.

Max Kreminski, quien ayudó a llevar a cabo el análisis y ahora trabaja con la startup generativa-AI MidJourney, me dijo que cuando las personas usan IA en el proceso creativo tienden a ceder gradualmente su pensamiento original. Al principio, los usuarios tienden a presentar su propia amplia gama de ideas, explicó Kreminski, pero a medida que ChatGPT continúa escupiendo instantáneamente altos volúmenes de texto de aspecto aceptable tienden a entrar en un “modo curacionista”. La influencia es unidireccional, y no en la dirección que esperaría: “Las ideas humanas no tienden a influir en lo que la máquina está generando tan fuertemente”, dijo Kreminski; ChatGPT lleva al usuario “hacia el centro de masa para todos los diferentes usuarios con los que interactúa en el pasado”. A medida que continúa una conversación con una herramienta de IA, la máquina llena su “ventana de contexto”, el término técnico para su memoria de trabajo. Cuando la ventana de contexto alcanza la capacidad, la IA parece tener más probabilidades de repetir o rehacer el material que ya ha producido, cada vez menos original.

Los experimentos únicos en MIT, Cornell y Santa Clara tienen una escala pequeña, que involucran menos de cien sujetos de prueba cada uno, y queda por estudiar y aprender mucho sobre los efectos de la IA. Mientras tanto, en la aplicación Meta AI propiedad de Mark Zuckerberg, puede ver un feed que contiene contenido que generan millones de extraños. Es una avalancha surrealista de imágenes demasiado suaves, videoclips filtrados y textos generados para tareas cotidianas, como escribir un “correo electrónico detallado y profesional para reprogramar una reunión”. Un aviso que recientemente pasé pasé me llamó la atención. Un usuario llamado @Kavi908 le pidió al meta chatbot que analizara “si AI podría algún día superar la inteligencia humana”. El chatbot respondió con una gran cantidad de borrones; En “Escenarios futuros”, enumeró cuatro posibilidades. Todos ellos fueron positivos: la IA mejoraría de una forma u otra, en beneficio de la humanidad. No hubo predicciones pesimistas, ni escenarios en los que la IA falló o causó daño. Los promedios del modelo, en forma, tal vez, por sesgos pro-tecnología horneados por meta, obtuvieron los resultados y ejecutaron una diversidad de pensamiento. Pero tendría que apagar su actividad cerebral por completo para creer que el chatbot estaba contando toda la historia. ♦

Fuente de noticias