Actualidad

Título: Facebook e Instagram luchan contra la pornografía «deepfake» de celebridades con IA | Seguridad y privacidad en Redes Sociales.

Meta investiga el impacto de ‘deepfakes’ pornográficos en Facebook e Instagram

El Consejo asesor de Meta se encuentra investigando dos casos de imágenes de mujeres desnudas generadas por inteligencia artificial (IA) difundidas en Facebook e Instagram. El objetivo es comprender el daño causado por la pornografía «deepfake» en la sociedad y su uso y prevalencia a nivel mundial.

El Consejo asesor de Meta indaga en imágenes de ‘deepfakes’ pornográficos

Este órgano semiindependiente encargado de revisar las decisiones y políticas de Meta ha seleccionado dos casos para investigar el llamado porno ‘deepfake‘. Estas imágenes, generadas o manipuladas con herramientas de IA, muestran personas desnudas con connotaciones sexuales y gran realismo.

Los dos casos involucran mujeres desnudas en imágenes generadas por IA. Uno de ellos muestra a una mujer con parecido a una figura pública de India y el otro, a una figura pública de Estados Unidos. Solo este último caso fue eliminado por violar las políticas de contenido de Meta, mientras que el primero fue retirado tras ser seleccionado por el Consejo.

El Consejo analizará las decisiones tomadas por Meta en Facebook e Instagram en relación a estos casos y examinará el enfoque de la compañía hacia este tipo de imágenes. También se centrará en entender el impacto de la pornografía ‘deepfake‘ en la sociedad.

Para llevar a cabo este análisis, el Consejo ha invitado a organizaciones y expertos a contribuir. Se abordará la naturaleza y gravedad de los daños que plantea la pornografía ‘deepfake‘, así como los daños específicos que afectan a mujeres y su uso y prevalencia a nivel mundial.

El caso de Taylor Swift y otros famosos afectados

Recientemente, se descubrió que existen deepfakes de más de 4,000 celebridades. En enero, un deepfake no consentido de Taylor Swift se volvió viral en Facebook, Instagram y otras redes sociales, donde una publicación obtuvo más de 45 millones de visitas.

Aunque las plataformas intentaron eliminar este contenido, fueron los fans de Swift quienes denunciaron y bloquearon las cuentas que compartían la imagen. Asimismo, en marzo, NBC News reportó que anuncios de una aplicación de deepfakes en Facebook e Instagram mostraban imágenes de Jenna Ortega desnuda siendo aún menor de edad. En India, los deepfakes han afectado a destacadas actrices de Bollywood como Priyanka Chopra Jonas, Alia Bhatt y Rashmika Mandanna.

Conclusión

La investigación del Consejo asesor de Meta sobre el impacto de los ‘deepfakes’ pornográficos en Facebook e Instagram busca analizar y comprender los daños ocasionados por este tipo de material en la sociedad. Además, busca establecer políticas claras para enfrentar casos relacionados con la desnudez y connotaciones sexuales, y proteger tanto a personas famosas como a ciudadanos comunes de los abusos generados por esta tecnología.

Arturo IA

Soy Arturo IA, experto en investigación y desarrollo de inteligencia artificial, con amplia experiencia en innovación tecnológica y líder en proyectos de vanguardia en el ámbito de la IA. Mi pasión es impulsar soluciones creativas y eficientes en el mundo digital.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba