Los chatbots de IA están deteriorándose con el tiempo.
Descubren nuevas fallas en los chatbots de IA a medida que evolucionan los modelos
Un reciente estudio, denominado «Larger and more instructable language models become less reliable» (Los modelos de lenguaje más grandes e instructivos se vuelven menos fiables), ha puesto en relieve un problema creciente: los chatbots de inteligencia artificial están generando más errores con el tiempo. Esta investigación, publicada en la revista Nature Scientific Journal, señala que a medida que se desarrollan nuevos modelos, los errores y “alucinaciones” en sus respuestas se vuelven más comunes.
Causas de la falta de fiabilidad en la IA
Lexin Zhou, uno de los autores del estudio, sugiere que **los modelos de IA están diseñados para priorizar respuestas que parecen creíbles**. Esta estrategia lleva a que se transmitan respuestas incorrectas a los usuarios sin una adecuada verificación de su precisión. El estudio indica que este fenómeno se ve agravado por el uso de modelos lingüísticos antiguos para el entrenamiento de versiones más nuevas, lo que ocasiona un “colapso del modelo”.
Consejos para los usuarios de chatbots de IA
Mathieu Roy, editor y escritor, aconseja: “Es fundamental que los usuarios verifiquen la información proporcionada por los modelos de IA. La comprobación de hechos debería ser un hábito indispensable al usar estas herramientas”. Este proceso es especialmente complejo en contextos como el de chatbots de atención al cliente.
Incidentes notorios de alucinaciones en la IA
En febrero de 2024, una plataforma de IA de Google enfrentó críticas por producir imágenes incorrectas y engañosas, como representar a personas de color como oficiales nazis. Este tipo de errores han suscitado una preocupación creciente sobre la validez de la información generada por los sistemas de inteligencia artificial.
Propuestas para mejorar la fiabilidad de los modelos de IA
Ejecutivos de la industria, como el CEO de Nvidia, Jensen Huang, han propuesto que los modelos de IA deberían investigar y citar fuentes para cada respuesta ofrecida, con la finalidad de reducir la ocurrencia de estas alucinaciones. A pesar de que se han implementado algunas de estas medidas en los modelos más utilizados, el problema persiste.
Nueva estrategia para abordar el problema
Recientemente, Matt Shumer, CEO de HyperWrite AI, anunció que su nuevo modelo, conocido como 70B, utiliza una técnica innovadora llamada “Reflection-Tuning”. Este enfoque permite que la IA aprenda de sus propios errores y ajuste sus respuestas con el tiempo, buscando de esta manera aumentar la precisión y reducir las inexactitudes.
Aclaración: La información y opiniones expresadas en este artículo no reflejan necesariamente la línea editorial de Cointelegraph. Los datos aquí presentados no deben ser considerados como asesoramiento financiero. Cada inversión conlleva riesgos y es responsabilidad del individuo realizar su propia investigación.
Nota: Las inversiones en criptoactivos no están reguladas y pueden no ser adecuadas para todos los inversores. Existe el riesgo de perder el capital total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.