El nuevo chatbot de IA de Meta es otra herramienta para cosechar datos para venderle cosas

Crédito: dominio público Unsplash/CC0
La semana pasada, Meta, la empresa matriz de Facebook, Instagram, Threads y WhatsApp, no alcanzó una nueva “inteligencia artificial personal (IA)”.
Impulsado por el modelo de idioma Llama 4, Meta AI está diseñado para ayudar, chatear y participar en una conversación natural. Con su interfaz pulida e interacciones fluidas, Meta AI podría parecer solo otro participante en la carrera para construir asistentes digitales más inteligentes.
Pero debajo de su acogedor exterior se encuentra una distinción crucial que transforma el chatbot en una sofisticada herramienta de recolección de datos.
‘Construido para conocerte’
“Meta AI está construida para conocerte”, declaró la compañía en su anuncio de noticias. Contrariamente a la promesa amistosa implicada por el eslogan, la realidad es menos tranquilizadora.
El columnista del Washington Post, Geoffrey A. Fowler, descubrió que, por defecto, Meta AI “mantuvo una copia de todo”, y tomó cierto esfuerzo eliminar la memoria de la aplicación. Meta respondió que la aplicación proporciona “transparencia y control” en todo momento y no es diferente a sus otras aplicaciones.
Sin embargo, mientras que competidores como Claude de Anthrope operan en un modelo de suscripción que refleja un enfoque más cuidadoso para la privacidad del usuario, el modelo de negocio de Meta está firmemente arraigado en lo que siempre ha hecho mejor: recopilar y monetizar sus datos personales.
Esta distinción crea una paradoja preocupante. Los chatbots se están convirtiendo rápidamente en confidentes digitales con los que compartimos desafíos profesionales, preocupaciones de salud y luchas emocionales.
Investigaciones recientes muestran que es tan probable que compartimos información íntima con un chatbot como nosotros con otros humanos. La naturaleza personal de estas interacciones los convierte en una mina de oro para una empresa cuyos ingresos dependen de saber todo sobre usted.
Considere este escenario potencial: un reciente graduado universitario confía en Meta AI sobre su lucha con la ansiedad durante las entrevistas de trabajo. En cuestión de días, su feed de Instagram se llena de anuncios para medicamentos para la ansiedad y libros de autoayuda, a pesar de ellos nunca haber publicado públicamente sobre estas preocupaciones.
La integración multiplataforma del ecosistema de aplicaciones de Meta significa que sus conversaciones privadas pueden fluir perfectamente en su máquina de publicidad para crear perfiles de usuario con detalles y precisión sin precedentes.
Esto no es ciencia ficción. La extensa historia de los escándalos de privacidad de datos de Meta, desde Cambridge Analytica hasta la revelación de que Facebook rastrea a los usuarios en Internet sin su conocimiento, demuestra la priorización constante de la compañía de la recopilación de datos sobre la privacidad del usuario.
Lo que hace que Meta AI sea particularmente preocupante es la profundidad y la naturaleza de lo que los usuarios podrían revelar en la conversación en comparación con lo que publican públicamente.
Abierto a la manipulación
En lugar de solo un coleccionista pasivo de información, un chatbot como Meta AI tiene la capacidad de convertirse en un participante activo en la manipulación. Las implicaciones se extienden más allá de solo ver anuncios más relevantes.
Imagínese mencionando al chatbot que se siente cansado hoy, solo para que responda: “¿Has probado las bebidas de Brand X Energy? He oído que son particularmente efectivos para la fatiga de la tarde”. Esta sugerencia aparentemente útil podría ser una colocación de productos, entregada sin ninguna indicación de que sea contenido patrocinado.
Tales empujones sutiles representan una nueva frontera en la publicidad que difumina la línea entre un asistente útil de IA y un vendedor corporativo.
A diferencia de los anuncios abiertos, las recomendaciones mencionadas en la conversación tienen el peso de los consejos confiables. Y ese consejo vendrá de lo que muchos usuarios verán cada vez más como un “amigo” digital.
Un historial de no priorizar la seguridad
Meta ha demostrado una voluntad de priorizar el crecimiento sobre la seguridad al liberar nuevas características tecnológicas. Informes recientes revelan preocupaciones internas en Meta, donde los miembros del personal advirtieron que la prisa de la compañía para popularizar su chatbot había “cruzado las líneas éticas” al permitir que Meta AI participe en un juego de roles romántico explícito, incluso con usuarios de pruebas que afirmaban ser menores de edad.
Tales decisiones revelan una cultura corporativa imprudente, aparentemente aún impulsada por el lema original de moverse rápido y romper cosas.
Ahora, imagine esos mismos valores aplicados a una IA que conozca sus inseguridades más profundas, preocupaciones de salud y desafíos personales, todo mientras tiene la capacidad de influir sutilmente en sus decisiones a través de la manipulación conversacional.
El potencial de daño se extiende más allá de los consumidores individuales. Si bien no hay evidencia de que se esté utilizando meta ai para la manipulación, tiene tal capacidad.
Por ejemplo, el chatbot podría convertirse en una herramienta para impulsar el contenido político o dar forma al discurso público a través de la amplificación algorítmica de ciertos puntos de vista. Meta ha jugado un papel en la propagación de desinformación en el pasado, y recientemente tomó la decisión de descontinuar la verificación de hechos en sus plataformas.
El riesgo de manipulación impulsada por el chatbot también aumenta ahora que las regulaciones de seguridad de IA se están reduciendo en los Estados Unidos.
La falta de privacidad es una elección
Los asistentes de IA no son inherentemente dañinos. Otras compañías protegen la privacidad del usuario al elegir generar ingresos principalmente a través de suscripciones en lugar de la recolección de datos. La IA responsable puede existir y existe sin comprometer el bienestar del usuario para obtener ganancias corporativas.
A medida que la IA se integra cada vez más en nuestra vida cotidiana, las compañías de opciones hacen sobre los modelos comerciales y las prácticas de datos tendrán profundas implicaciones.
La decisión de Meta de ofrecer un chatbot de IA gratuito y, según los informes, reducir las barandillas de seguridad establece un estándar ético bajo. Al adoptar su modelo de negocio basado en publicidad para algo tan íntimo como un compañero de IA, Meta ha creado no solo un producto, sino un sistema de vigilancia que puede extraer niveles de información personal sin precedentes.
Antes de invitar a Meta AI a convertirse en su confidente digital, considere el verdadero costo de este servicio “gratuito”. En una era en la que los datos se han convertido en el producto más valioso, el precio que paga podría ser mucho más alto de lo que cree.
Como dice el viejo adagio, si no está pagando por el producto, usted es el producto, y el nuevo chatbot de Meta podría ser la cosechadora de productos más sofisticada hasta ahora creada.
Cuando Meta AI dice que está “construido para conocerte”, debemos tomarlo en su palabra y proceder con precaución adecuada.
Proporcionado por la conversación
Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.
Cita: el nuevo chatbot de IA de Meta es otra herramienta para cosechar datos para venderle las cosas (2025, 7 de mayo) recuperada el 7 de mayo de 2025 de https://techxplore.com/news/2025-05-meta-ai-chatbot-tool-harvesting.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.