Home News Los chatbots de IA todavía están demasiado confiados, incluso cuando está mal

Los chatbots de IA todavía están demasiado confiados, incluso cuando está mal

37
0

Los chatbots de IA a menudo suenan seguros, pero no siempre poseen un conocimiento preciso. Un nuevo estudio de la Universidad Carnegie Mellon descubrió que modelos de idiomas grandes como ChatGPT, Bard/Gemini, Sonnet y Haiku sobreestiman constantemente su rendimiento incluso después de cometer errores. Los humanos probados junto con los modelos ajustaron su confianza hacia abajo después de los malos resultados, pero los sistemas de inteligencia artificial se volvieron aún más exagerados. En un juicio de estilo Pictionary, Gemini identificó correctamente menos de un boceto de veinte, pero creía que había respondido a catorce correctamente. La investigación, realizada durante dos años con modelos continuamente actualizados, plantea preocupaciones sobre la falta de autoconciencia de IA y los riesgos de confiar en la certeza injustificada. Los expertos aconsejan a los usuarios que evalúen críticamente las respuestas y los desarrolladores de chatbot para equipar la IA con una introspección mejorada.

Fuente de noticias