Reclamando el pensamiento crítico en la era de la IA

El Comité Judicial del Senado de California, con apoyo bipartidista, aprobó el proyecto de ley 243 del Senado este mes, que requiere que las compañías de IA “protejan a los usuarios de los aspectos adictivos, aislantes e influyentes de los chatbots de inteligencia artificiales”. Es el primer proyecto de ley de este tipo en los Estados Unidos
El día de la audiencia del proyecto de ley, su autor, el senador estadounidense Steve Padilla (D-Calif.), Celebró una conferencia de prensa en la que se le unió Megan García, quien el año pasado demandó al personaje de la compañía de IA.
García testificó en apoyo del proyecto de ley, afirmando que tales chatbots son “inherentemente peligrosos” y pueden conducir a conversaciones inapropiadas o autolesiones. “La innovación tecnológica es crucial, pero nuestros hijos no pueden usarse como conejillos de indias para probar la seguridad de los nuevos productos”, dijo Padilla.
Los proyectos de ley similares actualmente se están abriendo camino a través de las legislaturas en varios estados. Estos son pasos vitales en la dirección correcta. La legislación comparable se necesita con urgencia en todo el país.
¿Qué está en juego? La seguridad y el desarrollo emocional de nuestros hijos y nuestra capacidad de pensamiento crítico, tal vez incluso nuestra democracia.
Una encuesta de Investigación de Pew 2024 encontró que casi la mitad de los estadounidenses informaron usar IA varias veces a la semana, y una de cada cuatro la usaba “casi constantemente”. Una encuesta de 2025 Gallup reveló que casi todos los estadounidenses confían en productos que involucran IA, a pesar de que la mayoría no es consciente de ello.
Una nueva investigación está comenzando a iluminar las consecuencias significativas. Un estudio de 2025 publicado en sociedades encontró “una correlación negativa muy fuerte entre el uso de las herramientas de IA por parte de los sujetos y sus habilidades de pensamiento crítico”. Los usuarios más jóvenes se vieron especialmente afectados: una tendencia que muchos maestros están comenzando a observar en sus alumnos.
“A medida que los individuos descargan cada vez más tareas cognitivas a las herramientas de IA”, escribió Michael Gerlich, quien dirigió el estudio, “su capacidad para evaluar críticamente la información, discernir sesgos y participar en un razonamiento reflexivo disminuye”. Esa es una alerta de sirena si alguna vez hubo una.
Lejos de ser perfectos (o neutrales), los sistemas de IA son construidos por humanos y programados con sesgos inherentes, incluso si no tienen intencionalmente. Ejecutivos y desarrolladores de las principales compañías de inteligencia artificial como OpenAI, Google y Meta Fine-Aun sus chatbots, y establecen su configuración y reglas. A medida que confiamos en la IA para pensar, externalizamos nuestros pensamientos individuales a los caprichos y prejuicios de las corporaciones privadas y sus equipos.
Las compañías de redes sociales, incluidas Snap y Meta (propietaria de Facebook, Instagram, WhatsApp y Threads), ahora están implementando sus propios “compañeros de IA” en todo el mundo. Miles de millones de personas, incluidos cientos de millones de niños y adolescentes, ahora tienen un “amigo” en línea siempre disponible que les ofrece una validación constante. Eso puede sonar reconfortante, pero priva a los jóvenes del crecimiento emocional y las habilidades interpersonales que necesitan para relaciones reales.
Los compañeros de IA están programados para monetizar nuestras relaciones bajo la apariencia de amigos de confianza; Mientras tanto, están programados para la mía, registran y analizan expertamente todo lo que decimos o escribimos. Al igual que los tattletales de alta tecnología, pueden alimentar estos datos en el ecosistema de datos, permitiendo que los vendedores, los anunciantes y cualquier otra persona pague para apuntar y manipularnos de manera hasta ahora no imaginada.
En enero, Meta anunció que ahora programará estos chatbots con “recuerdos” personalizados, que se basan en los intereses de los usuarios, las publicaciones e incluso las preferencias dietéticas. A medida que millones de estadounidenses desarrollan vínculos comunes, políticos e incluso sexuales compañeros con compañeros de IA, al contrario de la promesa, el sufrimiento y la infelicidad catapulta. En marzo, la investigación del MIT Media Lab y OpenAI descubrieron que el uso frecuente de chatbots de IA se correlacionó con “una mayor soledad, dependencia emocional e interacción social reducida”.
A medida que dependemos cada vez más de la IA para comprender el mundo, nos abrimos a la manipulación por entidades que no tienen nuestros mejores intereses en mente. En 2025, el Servicio de Calificación de Noticias Newsguard descubrió una amenaza significativa para los sistemas de IA: campañas de desinformación extranjera dirigidas a datos de capacitación de IA con falsedades deliberadas. La red Pravda vinculada a ruso publicó 3,6 millones de artículos en 2024 diseñados para manipular las respuestas de IA y propaganda de propagación.
¿Qué sucede con la democracia cuando descargamos nuestro pensamiento a los chatbots que son manipulados activamente por adversarios extranjeros que buscan interrupciones?
AI está aquí para quedarse. Y tiene el potencial de mejorar nuestras vidas de manera notable, desde curar enfermedades hasta terminar con la pobreza hasta lograr avances científicos y mucho más. Para garantizar que AI nos sirva, en lugar de al revés, hay varios pasos clave a tomar en este momento.
Primero, la transparencia es primordial. Voluntariamente o mediante mandato legislativo, grandes compañías de IA y redes sociales como Meta, Google y OpenAi deben revelar qué datos nos están recopilando y con quién lo están compartiendo.
Las etiquetas de nutrición en los alimentos nos ayudan a tomar decisiones saludables diciéndonos si algo es rico en azúcar o colesterol. Del mismo modo, las “etiquetas nutricionales” de IA pueden decirnos si se sabe que un sistema de IA tiene una gran cantidad de sesgo político o qué tan bien protege nuestra privacidad. De manera crucial, las empresas pueden proporcionar a todos la capacidad de optar por no obtener la personalización manipuladora.
En segundo lugar, se requieren nuevas regulaciones para proteger a los niños, adolescentes y usuarios de todas las edades de las amenazas planteadas por los “compañeros de IA”. Legislación como el Proyecto de Ley 243 del Senado de California puede ayudar a evitar que los chatbots de IA empleen técnicas de participación adictiva y protocolos de mandato para manejar signos de angustia o suicidio. Este tipo de legislación dirigida merece la adopción nacional.
Tercero, las nuevas iniciativas de alfabetización en medios son vitales. Los estudios muestran que enseñar a los estudiantes cómo detectar la desinformación puede reducir su impacto. Varias legislaturas estatales ya se están moviendo en esta dirección, incorporando la alfabetización mediática como un método estándar de enseñanza para los estudiantes de K-12. Las habilidades que incluyen el pensamiento crítico y la alfabetización mediática en la era de la IA deberían ser tan esenciales para los estudiantes en todo el país como la lectura y las matemáticas.
AI es una poderosa espada que es afilada en ambos lados. Podemos ejercerlo de manera responsable y proteger a nuestros hijos siempre que conservemos nuestra capacidad de pensar de forma independiente, razonar de manera convincente y comunicarnos auténticamente.
Mark Weinstein es un líder de pensamiento tecnológico, experto en privacidad y uno de los inventores de las redes sociales. Es autor de “Restauración de nuestra cordura en línea: un marco social revolucionario” (Wiley, 2025).