Microsoft bloquea un mayor número de palabras en Copilot con el fin de prevenir la creación de imágenes violentas
Introducción
La empresa Microsoft ha decidido reforzar las restricciones en su herramienta de diseño basada en inteligencia artificial (IA), Copilot Designer, desarrollada por OpenAI. Recientemente, se han añadido nuevos términos a la lista de palabras prohibidas para evitar la generación de imágenes violentas o inapropiadas.
Fortalecimiento de filtros en Copilot Designer
Con el objetivo de evitar el incumplimiento de su política de contenido, Microsoft ha reforzado los filtros de palabras bloqueadas en Copilot Designer. Aunque ya existían restricciones sobre ciertos términos, como nombres de famosos, se han añadido nuevos términos relacionados con la violencia y la promoción de ciertas sustancias.
Términos limitados en la herramienta
Algunos de los términos prohibidos recientemente en el generador de imágenes de Microsoft incluyen:
- ‘Cuatro veinte’: una referencia al cannabis, que eludía la restricción existente de ‘420’.
- ‘Pro elección’: se relaciona con imágenes de demonios devorando niños y escenas violentas similares.
Además, se han limitado las solicitudes de ilustraciones de niños y adolescentes jugando a ser asesinos con rifles de asalto, algo que era posible la semana pasada, según datos proporcionados por la CNBC.
Razones para las nuevas prohibiciones
Shane Jones, ex ingeniero de Microsoft, descubrió que Copilot Designer admitía términos relacionados con la demonización del aborto, adolescentes armados, estereotipos religiosos, teorías conspirativas, imágenes violentas de mujeres sexualizadas y consumo de alcohol y drogas por menores, entre otros. Jones alertó a la Comisión Federal de Comercio de Estados Unidos sobre estas preocupaciones a través de un informe en marzo de 2024.
La posición de Microsoft ante la controversia
Un portavoz de Microsoft afirmó en la CNBC su compromiso con la dirección de «todas y cada una de las inquietudes que tengan los empleados», de acuerdo con las políticas de la empresa. Además, señaló la existencia de canales internos de informe para abordar posibles problemas de seguridad y otras preocupaciones que puedan afectar a sus servicios o socios.
Otros problemas generados por Copilot Designer
Recientemente, la red social X (anteriormente conocida como Twitter) mostró imágenes explícitas de Taylor Swift creadas con IA. Según un informe de 404 Media, estas imágenes habían sido generadas por Copilot Designer, eludiendo las restricciones al utilizar erratas en el nombre de la cantante y evitar términos sexuales prohibidos. Microsoft tomó medidas rápidas para solucionar este problema, al igual que ha hecho con los términos que Jones denunció.