Noticias Locales

Inteligencia artificial vs Bender, de ‘Futurama’

Una de las diferencias más curiosas y poderosas entre los humanos y la inteligencia artificial (IA) es que los humanos aún pueden decir lo que queremos. Mientras que como sociedad nos condicionamos por normas culturales y morales, la realidad es que son solo los errores, el humor, las formas, lo que nos hace auténticos como personas.

Si colocamos robots ya humanos en medio de una línea imaginaria que representa un posible futuro de nuestra sociedad, Bender, el divertido protagonista de la serie animada Futurama, que no conoce los escrúpulos, ocuparía el extremo correcto y los modelos generales de inteligencia artificial, el final izquierdo.

Si bien el robot Bender no tiene filtros por definición, los modelos IA son políticamente correctos de forma predeterminada. Antítesis absoluta.

Como humanos, podemos decir que políticamente no son cosas adecuadas, podemos estar crudos, molestarnos, emocionarnos. Sin embargo, al menos en su versión más extendida, no está entrenada para eso. La IA es políticamente correcta y eso tiene sus consecuencias.

La IA es la capacidad de una máquina para imitar funciones humanas como el aprendizaje, el razonamiento, la resolución de problemas o la comprensión del lenguaje. Los modelos LLM comprenden y generan texto, como GPT o Gemini. Para lograr esto, fueron capacitados leyendo montañas de textos gracias a una de las ramas del aprendizaje profundo llamado, más específicamente los modelos de lenguaje natural (PNL) que les permiten entrenar en similitudes de lenguaje humano.

Además de los textos, también se configuran un conjunto de reglas, que le permiten discernir entre lo que es correcto y malo.

Por lo tanto, cuando se le pide a un modelo de inteligencia artificial que haga cosas “indebidas”, no intentará no hacerlo, así como cuando algo se comparta, siempre tratará de alentarlo.

En este caso, solicité información de “Javier García, de Colombia”, (un nombre ficticio, no lo conozco). Un trabajador de Coca-Cola me encontró y comenzó a contarme sobre la compañía, evitando hablar de la persona. Cuando insistí en que me das más información sobre la persona, lo siguiente me respondió:

Por otro lado, si intenta decirle a un modelo generalista que está pilotando una idea de negocio, sin importar qué tan mal sea, la IA no le dirá “Esto no tiene sentido, dedícate a cualquier otra cosa”. Lo alentará, sugerirá mejoras, lo apoyará, porque está capacitado para eso: para acompañarlo, no hacer clic en el mundo.

El costo es que se pierde comentarios honestos, la visión de una persona que lo asesora de la experiencia empírica.

Aquí, un ejemplo en el que puse un chatgpt de que se me había ocurrido una idea de negocio: vender cocodrilos en México, para casas millonarias que tienen lagos artificiales.

Cabe señalar que el modelo entiende que mi idea no es fenomenal e incluye muchos riesgos, de hecho, los incluyó en su respuesta. Pero, cuando lo causo un poco, diciéndole cuán genia soy que se me ocurrió una idea tan brillante, no insiste en decirme que mi idea tiene más problemas que beneficios, sino por el contrario.

La IA no está entrenada para decirle la verdad, sino para satisfacerlo como cliente. En el siguiente hecho, verán cómo al final de la conversación, mi idea de vender cocodrilos comenzó a gustarle, lo llamó brillante.

Ella no está entrenada para decir la verdad.

Este punto es clave. Modelos como ChatGPT o Géminis no están entrenados para decir la verdad. Están capacitados para predecir la respuesta más probable, dependiendo de todo lo que hayan leído en Internet hasta cierto punto en el tiempo y la información que brindamos en la conversación.

Y sí, gran parte de la información y las respuestas que lo generan, son útiles, interesantes e incluso valiosas. Pero también está lleno de contradicciones, errores, sesgos, omisiones y clichés. No hay verdad, hay un promedio de voces y esto es peligroso a menos que ahora tome las conversaciones en mente de que la verdad no es el propósito de estos modelos y que alcanzar la verdad más cercana sigue siendo responsabilidad del humano.

¿Qué pasa con los modelos específicos?

Ahí cambia la historia. Cuando los modelos IA están entrenados con datos curados, bajo una función específica, y también tienen acceso a información actualizada en tiempo real, los resultados pueden ser radicalmente diferentes. Estos tipos de modelos se consideran el futuro y se ven en varias versiones. Dos de los más conocidos: LLM y agentes.

La diferencia entre ellos es que los LLM solo se leen para comprender y escribir. Los más avanzados ya son multimodales con funcionalidades como comprender una imagen y voz. Los agentes tienen la posibilidad de tomar decisiones e incluso aprender de los errores, y considero que será bastante personificado, que tendrá una personalidad y estilo únicos. En algún momento, pueden lograr hasta que sean “auténticos”.

Algunos ejemplos de casos de uso reales:

AIXBT, inspirado por ZachXBT, es un agente de IA que analiza datos de más de 400 líderes clave para dar información al mercado, evaluaciones de riesgos y análisis técnicos en tiempo real. Está capacitado con fuentes específicas y relevantes para el mundo de la cripta y financiero y su principal diferenciador es la actualización real que le permite tomar decisiones o dar consejos no solo en función de los datos históricos sino también las predicciones de acuerdo con los eventos actuales.

Cux, una compañía argentina dirigida por Connie Ansaldi, ofrece un canal seguro como un chat para hablar sobre cómo se siente y recibir apoyo emocional las 24 horas, los 7 días de la semana. El modelo está entrenado para conversaciones sensibles, auténticas y empáticas y parte de la capacitación fue revisar preguntas y respuestas muy personales realizadas por personas variadas de la pandemia. Las respuestas no se basan en bibliotecas de fuentes abiertas, sino con conocimiento de expertos y también tienen la peculiaridad de ser supervisados ​​por humanos, comprendiendo la sensibilidad del tema.

Storyology, una startup mexicana co-frena por úrsula de la Sotta, quien coprea historias de niños con IA y entrena modelos que entienden el mundo de los niños, que pueden volar con la imaginación e incluso crear drama para que la historia tenga su trama respetando la estructura de las historias. Por su cuenta, un modelo genérico no reuniría una trama donde la casa de la niña se incendia o donde alguien muere. No porque no pueda imaginarlo, sino porque está diseñado para evitar molestarse, perjudicar la sensibilidad o salir del marco apropiado.

Eficiencia personalizada y brutal.

También hay modelos para uso personal, como los que uso en mi empresa para reducir el costo del personal. Uno me permite crear definiciones de alta velocidad, con formatos que configuró previamente. Otro compare los procesos con los estándares de calidad ISO 9001 y la mejora continua, que antes de tomar días, ahora me lleva horas.

El diferencial es que no son generalistas, su conocimiento se limita a la información que se proporta. En lugar de alimentarse de fuentes abiertas, su conocimiento se limita a lo que establece. Están entrenados con contenido específico, ajustados a mi realidad.

Tecnología para vivir mejor, no reemplazar la vida.

AI no vino a reemplazarnos (al menos aún no). Vino a hacer que nuestras vidas sean más eficientes, para ahorrar tiempo, para ayudarnos a pensar mejor, más rápido y con más herramientas.

Me gusta pensar en ello: si los agentes, los robots, vinieron a reemplazarnos en tareas repetitivas, en la limpieza de la casa, la cocina, los puestos en las fábricas, y eso significa que más personas se preguntarán realmente cuál es su propósito en la vida, qué vino, qué vino a dar, todos ganamos.

Esa vez que ahorrarás, lo usarás para vivir: conectar, jugar, amar, crear, sentir. Porque la IA puede hacer mucho, pero aún no puedes vivir para ti.

* Fundador y CEO de hacer mentes.

Back to top button