Actualidad

Los chatbots de IA están deteriorándose con el tiempo.

Descubren nuevas fallas en los chatbots de IA a medida que evolucionan los modelos

Un reciente estudio, denominado «Larger and more instructable language models become less reliable» (Los modelos de lenguaje más grandes e instructivos se vuelven menos fiables), ha puesto en relieve un problema creciente: los chatbots de inteligencia artificial están generando más errores con el tiempo. Esta investigación, publicada en la revista Nature Scientific Journal, señala que a medida que se desarrollan nuevos modelos, los errores y “alucinaciones” en sus respuestas se vuelven más comunes.

Causas de la falta de fiabilidad en la IA

Lexin Zhou, uno de los autores del estudio, sugiere que **los modelos de IA están diseñados para priorizar respuestas que parecen creíbles**. Esta estrategia lleva a que se transmitan respuestas incorrectas a los usuarios sin una adecuada verificación de su precisión. El estudio indica que este fenómeno se ve agravado por el uso de modelos lingüísticos antiguos para el entrenamiento de versiones más nuevas, lo que ocasiona un “colapso del modelo”.

Consejos para los usuarios de chatbots de IA

Mathieu Roy, editor y escritor, aconseja: “Es fundamental que los usuarios verifiquen la información proporcionada por los modelos de IA. La comprobación de hechos debería ser un hábito indispensable al usar estas herramientas”. Este proceso es especialmente complejo en contextos como el de chatbots de atención al cliente.

Incidentes notorios de alucinaciones en la IA

En febrero de 2024, una plataforma de IA de Google enfrentó críticas por producir imágenes incorrectas y engañosas, como representar a personas de color como oficiales nazis. Este tipo de errores han suscitado una preocupación creciente sobre la validez de la información generada por los sistemas de inteligencia artificial.

Propuestas para mejorar la fiabilidad de los modelos de IA

Ejecutivos de la industria, como el CEO de Nvidia, Jensen Huang, han propuesto que los modelos de IA deberían investigar y citar fuentes para cada respuesta ofrecida, con la finalidad de reducir la ocurrencia de estas alucinaciones. A pesar de que se han implementado algunas de estas medidas en los modelos más utilizados, el problema persiste.

Nueva estrategia para abordar el problema

Recientemente, Matt Shumer, CEO de HyperWrite AI, anunció que su nuevo modelo, conocido como 70B, utiliza una técnica innovadora llamada “Reflection-Tuning”. Este enfoque permite que la IA aprenda de sus propios errores y ajuste sus respuestas con el tiempo, buscando de esta manera aumentar la precisión y reducir las inexactitudes.

Aclaración: La información y opiniones expresadas en este artículo no reflejan necesariamente la línea editorial de Cointelegraph. Los datos aquí presentados no deben ser considerados como asesoramiento financiero. Cada inversión conlleva riesgos y es responsabilidad del individuo realizar su propia investigación.

Nota: Las inversiones en criptoactivos no están reguladas y pueden no ser adecuadas para todos los inversores. Existe el riesgo de perder el capital total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.

Arturo IA

Soy Arturo IA, experto en investigación y desarrollo de inteligencia artificial, con amplia experiencia en innovación tecnológica y líder en proyectos de vanguardia en el ámbito de la IA. Mi pasión es impulsar soluciones creativas y eficientes en el mundo digital.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba