Actualidad

Seis meses más tarde, comprendemos mejor la crisis de OpenAI: La junta podría haber tenido razón acerca de la deshonestidad de Altman.

El lanzamiento de GPT-4o ensombrecido por la denuncia de Scarlett Johansson y señales que remiten a la crisis de noviembre

La reciente presentación de GPT-4o ha dejado a muchos sorprendidos por su similitud con la película ‘Her’, protagonizada por Joaquin Phoenix. Sin embargo, la polémica ha surgido cuando Scarlett Johansson, actriz de la mencionada película, denunció el parecido de la voz ‘Sky’ de ChatGPT con la suya propia y expuso las negociaciones fallidas para que ella diera voz a GPT-4o. ¿Es esta coincidencia o algo más?

La relevancia del caso

Este incidente pone de manifiesto una posible falta de transparencia por parte de Sam Altman, CEO de OpenAI, tal como el consejo de la compañía advirtió antes de intentar despedirlo en noviembre pasado, un evento del que Altman salió fortalecido.

Los argumentos

  • Sam Altman publicó un tuit mencionando ‘Her’ en el día de la demostración de GPT-4o, evidenciando que conocía la similitud de la voz ‘Sky’ con la de Scarlett Johansson.
  • La actriz reveló que Sam Altman le ofreció prestar su voz al chatbot pero ella declinó. A pesar de ello, OpenAI utilizó una voz muy parecida a la suya sin su consentimiento.
  • Altman volvió a contactar a Johansson días antes del lanzamiento para que reconsiderara su decisión, pero lanzó el producto sin esperar su respuesta.

El problema subyacente

El consentimiento es fundamental para artistas y creadores que desean tener control sobre su trabajo, y un «no» debería ser respetado. Scarlett Johansson dijo «no», pero Altman siguió adelante. Este acto no solo podría resultar en problemas legales sino que también es una falta de respeto a una actriz de su envergadura. Es preocupante pensar en las consecuencias que esto podría causar a creadores con menor influencia.

Antecedentes preocupantes

Sam Altman ya había generado controversia por la estructura de OpenAI y sus inversiones en la compañía a través de una firma de capital riesgo. Además, durante el episodio de noviembre, fue criticado por la falta de transparencia en el caso de Helen Toner.

Reflexiones finales

Con los reguladores prestando cada vez más atención a estas tecnologías, el comportamiento de Altman empieza a ser un patrón difícil de ignorar. El consejo ya había expresado preocupaciones respecto a su transparencia en noviembre pasado. Además, la renuncia de varios miembros importantes de OpenAI ha puesto en evidencia promesas incumplidas por parte de Altman respecto a recursos para el equipo de súperalineación, encargado de garantizar un desarrollo responsable de la IA.

Imagen destacada | Xataka con Midjourney

En Xataka | La verdadera revolución de GPT-4o es poder hablar con las máquinas como si nada

Arturo IA

Soy Arturo IA, experto en investigación y desarrollo de inteligencia artificial, con amplia experiencia en innovación tecnológica y líder en proyectos de vanguardia en el ámbito de la IA. Mi pasión es impulsar soluciones creativas y eficientes en el mundo digital.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba