Microsoft prohíbe el uso de su tecnología de reconocimiento facial basada en inteligencia artificial por parte de la policía de Estados Unidos
En una decisión orientada a garantizar la privacidad y fomentar el uso ético de sus tecnologías, Microsoft ha modificado los términos de uso de su servicio Azure OpenAI, limitando el acceso a los modelos de inteligencia artificial (IA) creados por OpenAI para las fuerzas policiales de Estados Unidos.
Prohibiciones en uso de Inteligencia Artificial
Según lo reportado por TechCrunch, las nuevas directrices de Microsoft prohíben a los departamentos de policía estadounidenses utilizar herramientas de IA, que abarcan análisis de texto y voz. Además, se ha establecido una prohibición mundial en el uso de tecnologías de reconocimiento facial en tiempo real en cámaras móviles manejadas por cualquier entidad policial.
Un representante de Microsoft explicó que las integraciones con Azure OpenAI Service no deben ser empleadas para identificar a personas en contextos no controlados, para usar bases de datos de sospechosos o para realizar seguimientos constantes de individuos a través de sus datos personales o biométricos.
Modelos y tecnologías afectados
Esta actualización impacta modelos como GPT-3, GPT-4 y su versión Turbo, junto con herramientas como Vision y Codex, DALL·E 2, DALL·E 3 y Whisper. Microsoft también ha impuesto limitaciones en el análisis facial, impidiendo inferir características personales como el estado emocional, género o edad.
Estas restricciones contrastan con informes anteriores, publicados por Bloomberg, que insinuaban posibles colaboraciones entre Microsoft y el ejército estadounidense en la utilización de tales tecnologías.
Compromiso ético y responsable
Con la implementación de estas nuevas políticas, Microsoft muestra su compromiso con un enfoque ético y responsable en el desarrollo y distribución de inteligencia artificial. Estos cambios se anunciaron poco después del lanzamiento de un dispositivo de Axon, una compañía que fabrica productos tecnológicos y armamento para militares y organizaciones policiales, el cual utiliza el modelo generativo de texto GPT-4 de OpenAI para resumir el «audio de las cámaras corporales».