AnálisisCienciaInternetTecnología

¿Con qué frecuencia se equivoca la inteligencia artificial? Comparativa de modelos populares por nivel de “alucinaciones”

¿Qué IA se equivocan más? Descubre cuáles dan respuestas falsas y por qué importa

Un estudio revela qué IAs cometen más errores. Algunas versiones de pago resultaron menos precisas que las gratuitas. Descubre con qué frecuencia los principales modelos ofrecen respuestas erróneas.

En los últimos años, la inteligencia artificial (IA) se ha convertido en una parte fundamental del entorno digital, integrándose activamente en la vida cotidiana y en los procesos empresariales. Sin embargo, a pesar de sus avances impresionantes, incluso los modelos de lenguaje más avanzados tienden a cometer errores conocidos por los expertos como “alucinaciones”. Este fenómeno ocurre cuando la IA genera información falsa o inventada con total seguridad, sin detectar su propio fallo. En un nuevo estudio, especialistas se propusieron averiguar con qué frecuencia los modelos de IA actuales cometen este tipo de equivocaciones y cuáles resultan ser más vulnerables a dichos fallos.

Para el análisis se seleccionaron los principales sistemas de lenguaje desarrollados por las mayores compañías tecnológicas. A cada uno de los modelos se le presentaron fragmentos de publicaciones periodísticas reales con la tarea de identificar la fuente, el medio y la dirección exacta del artículo original. Cabe destacar que una búsqueda estándar en Google permitía encontrar el artículo requerido entre los primeros resultados, lo que hacía que la tarea fuera totalmente viable para la IA moderna.

Los resultados de las pruebas resultaron sorprendentes. Algunos modelos, a pesar de ser de pago y prometer alta precisión, obtuvieron peores resultados que las alternativas gratuitas. Grok-3 destacó especialmente, equivocándose en el 94% de los casos, mientras que Perplexity mostró la mayor precisión entre todos los participantes del experimento.

Errores de la inteligencia artificial: ¿qué sistemas tienen más ‘alucinaciones’?

Durante el experimento, los investigadores observaron que la mayoría de los modelos de lenguaje no solo cometían errores, sino que tampoco manifestaban ninguna duda respecto a sus respuestas. Incluso cuando la información era completamente inventada, la IA la presentaba con total seguridad como si fuera verídica. Esto resalta uno de los problemas clave de los sistemas actuales: la incapacidad de evaluar críticamente sus propias conclusiones y reconocer posibles errores.

Resulta curioso que las versiones gratuitas de algunos modelos demostraron ser más precisas que sus versiones de pago. Este resultado pone en duda la creencia generalizada de que pagar siempre garantiza mayor calidad y fiabilidad.

Los expertos advierten que este tipo de “alucinaciones” pueden tener consecuencias graves, especialmente cuando se trata de buscar información importante o tomar decisiones basadas en datos proporcionados por la IA. Se recomienda a los usuarios mantener una actitud crítica y verificar los resultados obtenidos, sobre todo si se trata de temas relevantes.

Metodología del estudio: cómo se evaluaron los modelos de lenguaje

Para evaluar objetivamente la propensión a cometer errores, los investigadores aplicaron un método unificado para todos los modelos. A cada sistema se le proporcionaron los mismos fragmentos de textos periodísticos y luego se compararon las respuestas con las fuentes reales. Si la IA no podía señalar con precisión el original, se contabilizaba como una “alucinación”.

Un aspecto clave del experimento fue que el buscador habitual de Google localizaba fácilmente los artículos necesarios, lo que indica que la información está disponible para su análisis. Sin embargo, muchas modelos de lenguaje no lograron superar la tarea, lo que demuestra la necesidad de seguir perfeccionando los algoritmos y aumentar su capacidad crítica.

El estudio también reveló que la confianza de la IA en sus propias respuestas no siempre se corresponde con su precisión. Esto genera riesgos adicionales para los usuarios, quienes podrían tomar información falsa como verdadera.

Impacto de los errores de la IA en los usuarios y perspectivas de desarrollo

El problema de las “alucinaciones” en los modelos de lenguaje se vuelve cada vez más relevante a medida que se integran en distintas áreas de la vida. Desde la automatización de procesos empresariales hasta el apoyo en la educación, dondequiera que la IA se utilice para buscar y analizar información, existe el riesgo de obtener datos imprecisos.

Los desarrolladores siguen trabajando en la mejora de los algoritmos, implementando nuevos métodos de verificación y filtrado de información. Sin embargo, ninguna de las soluciones actuales puede garantizar una precisión absoluta ni una ausencia total de errores. Es importante que los usuarios lo tengan en cuenta y no confíen plenamente en las respuestas automáticas.

Se espera que en el futuro surjan sistemas más avanzados, capaces no solo de analizar datos, sino también de evaluar críticamente sus propias conclusiones. Hasta entonces, los expertos aconsejan utilizar la IA como herramienta auxiliar y no como única fuente de información.

A propósito: Perplexity, el nuevo actor en el mercado de la IA

Perplexity es una empresa relativamente joven que ha ganado popularidad rápidamente gracias a su modelo de lenguaje. Fundada en 2022, se presenta como desarrolladora de herramientas de búsqueda y análisis de información basadas en inteligencia artificial. A diferencia de muchos competidores, Perplexity hace hincapié en la transparencia de sus algoritmos y en la posibilidad de verificar las fuentes, algo especialmente importante ante el aumento de noticias falsas y desinformación.

La compañía colabora activamente con instituciones educativas y científicas, implementando sus soluciones en varios sectores. En poco tiempo, Perplexity ha conseguido atraer la atención de grandes inversores y el reconocimiento de expertos en procesamiento de lenguaje natural. Sus desarrolladores actualizan los productos de forma regular, mejorando la precisión y velocidad de sus modelos.

Hoy en día, Perplexity es considerada una de las empresas más prometedoras del sector de la IA, capaz de competir con gigantes como OpenAI y Google. Gran parte de su éxito se debe al enfoque en las necesidades reales de los usuarios y a la mejora constante de sus tecnologías.

Подписаться
Уведомление о
guest
Не обязательно

0 Comments
Межтекстовые Отзывы
Посмотреть все комментарии
Botón volver arriba
RUSSPAIN.COM
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Cerrar

Bloqueador de anuncios detectado

У Вас включена блокировка рекламы. Мы работаем для Вас, пишем новости, собираем материал для статей, отвечаем на вопросы о жизни и легализации в Испании. Пожалуйста, выключите Adblock для нашего сайта и позвольте окупать наши затраты через рекламу.