top of page

La "alucinación" en la inteligencia artificial: Una de sus fallas más peligrosas



El sistema advierte que solo puede generar respuestas con base en información disponible en internet hasta septiembre de 2021, por lo que es posible que pueda caer en este tipo de problemas a la hora de ofrecer una respuesta a una consulta.


"GPT-4 todavía tiene muchas limitaciones conocidas que estamos trabajando para abordar, como los prejuicios sociales, las alucinaciones y las indicaciones contradictorias", explicó OpenaAI en su lanzamiento de la versión GPT-4 del chatbot, el pasado marzo.

Pero no es un fenómeno exclusivo del sistema de OpenAI. También se presenta en el chatbot de Google, Bard, y otros sistemas de IA similares que han salido al público recientemente.

Hace unos días, periodistas de The New York Times pusieron a prueba a ChatGPT sobre la primera vez que el diario publicó un artículo sobre IA. El chatbot ofreció varias respuestas, algunas de ellas elaboradas con datos equivocados, o "alucinaciones".


"Los chatbots están impulsados por una tecnología llamada modelo de lenguaje grande, o LLM, que aprende sus habilidades analizando cantidades masivas de texto digital extraído de internet", explicaron los autores del texto para el Times.


"Al identificar patrones en esos datos, un LLM aprende a hacer una cosa en particular: adivinar la siguiente palabra en una secuencia de palabras. Actúa como una versión poderosa de una herramienta de autocompletar", continuaron. Pero debido a que la red está "llena de información falsa, la tecnología aprende a repetir las mismas falsedades", advirtieron. "Y a veces los chatbots inventan cosas".


Tomarlo con cautela


Los algoritmos de IA generativa y de aprendizaje de refuerzo son capaces de procesar un cúmulo enorme de información de internet en segundos y generar un nuevo texto, casi siempre muy coherente, con una redacción impecable, pero quedebe ser tomado con cautela, advierten los expertos. Tanto Google como OpenAI han pedido a los usuarios que tengan esta consideración en mente.

En el caso de OpenAI, que tiene una alianza con Microsoft y su buscador Bing, señalan que "GPT-4 tiene la tendencia a 'alucinar', es decir, 'producir contenido sin sentido o falso en relación con ciertas fuentes'".


"Esta tendencia puede ser particularmente dañina a medida que los modelos se vuelven cada vez más convincentes y creíbles, lo que lleva a que los usuarios confíen demasiado en ellos", aclaró la firma en un documento adjunto al lanzamiento de su nueva versión del chatbot.


Los usuarios, por tanto, no deberían confiar ciegamente en las respuestas que ofrece, principalmente en áreas que involucren aspectos importantes para su vida, como consejos médicos o legales.


OpenAI señala que ha trabajado en "una variedad de métodos" para impedir que las "alucinaciones" lleguen a ser arrojadas en las respuestas a los usuarios, incluidas las evaluaciones hechas por personas reales para evitar datos erróneos, sesgos de raza o género o difusión de noticias falsas.



0 visualizaciones0 comentarios

Comments


bottom of page