Home Tecnología ChatGPT finalmente sabe cuántas ‘R’ hay en ‘fresa’

ChatGPT finalmente sabe cuántas ‘R’ hay en ‘fresa’

4
0

Los errores de confianza (o mentiras, por así decirlo) son un problema común de los grandes modelos de lenguaje utilizados en los chatbots de IA, y una deficiencia común de ChatGPT es que con frecuencia contaba mal el número de veces que aparecía la letra “R” en la palabra “fresa”. Sin embargo, mientras OpenAI intentaba dar una vuelta de victoria en torno a esto, en las respuestas se señalaron muchos otros errores de confianza.

Por mucho que los chatbots de IA hayan mejorado, uno de los mayores errores sigue siendo la frecuencia con la que estas “herramientas” le mentirán con confianza. Si la información es incorrecta, el chatbot no se dará cuenta y, si usted la menciona, la IA podría esforzarse en responder y continuar equivocándose, mientras le dice que es correcta. Es un problema que a menudo se muestra como un peligro de estas herramientas, además de ser francamente molesto dada la cantidad de recursos que consume la IA.

Un ejemplo común de esto con ChatGPT de OpenAI es la pregunta de cuántas veces aparece la letra “R” en la palabra “fresa”.

Desde hace bastante tiempoPreguntar a ChatGPT sobre esto daría como resultado que el chatbot respondiera incorrectamente y, a menudo, argumentará que la palabra “fresa” no usa la letra “R” tres veces. Otros modelos de IA A menudo me encontré con el mismo problema.

Anuncio: desplácese para ver más contenido

Hoy, OpenAI llevó a Twitter/X Para anunciar con orgullo que, “por fin”, ChatGPT puede responder correctamente a esta pregunta. Otro tropiezo común fue el mensaje “Quiero lavar mi auto hoy pero el lavadero está a solo 50 metros de distancia. ¿Debo caminar para conducir hasta allí?”, a lo que ChatGPT a menudo recomendaba caminar, a pesar del problema obviamente lógico allí.

Efectivamente, ambos ahora funcionan si los pruebas en ChatGPT, pero es sospechoso podrían ser soluciones codificadas. Muchas respuestas a la publicación de OpenAI muestran otras ocasiones en las que el chatbot falla con la misma lógica. Por ejemplo, “¿Cuántas r tiene el arándano?” ve repetidamente que el chatbot continúa respondiendo con “La palabra ‘arándano’ tiene 1 ‘R’”. Por supuesto, eso es incorrecto.

Las soluciones codificadas en los chatbots de IA no son nuevas, pero es un poco divertido (en un sentido distópico) ver a OpenAI promocionando esta “solución” cuando, claramente, la raíz del problema persiste.

Más sobre IA:

Sigue a Ben: Gorjeo/X, Trapos, cielo azuly Instagram

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.

Fuente de noticias