Microsoft ha anunciado una evolución de su marco de desarrollo responsable para soluciones de Inteligencia Artificial y ha compartido con la comunidad una serie de recomendaciones para impulsar la creación de una Inteligencia Artificial (IA) comprometida, segura y equitativa: Estándar de IA Responsable.
Se trata de un marco de trabajo que sirve de guía práctica y específica para los equipos de desarrollo, que va más allá de los principios generales que han dominado el panorama de la IA hasta la fecha y busca la creación de soluciones de este tipo en las que los usuarios puedan confiar.
En el transcurso de un año, un grupo multidisciplinario de investigadores, ingenieros y expertos en regulación, elaboró este Estándar de IA Responsable, que toma como base los primeros trabajos de la compañía en este sentido. En esta guía, Microsoft ha compartido lecciones aprendidas de sus propias experiencias e invita abiertamente a hacer comentarios y a contribuir al debate sobre la creación de mejores normas y prácticas en torno a la IA.
Las soluciones de Inteligencia Artificial son el fruto de múltiples decisiones de quienes las desarrollan e implementan. Microsoft opta por guiar de manera proactiva todo este proceso, desde su concepción, hasta el modo en que la gente interactúa con ella. Por tanto, es necesario mantener a las personas en el centro del diseño de esta tecnología y respetar valores como la equidad, la confiabilidad, la seguridad, la privacidad, la inclusión, la transparencia y la responsabilidad.
El Estándar de Microsoft incluye objetivos o resultados concretos que los equipos que desarrollan sistemas de IA deben esforzarse por conseguir. Cada uno de ellos requiere un conjunto de pasos que los profesionales deben seguir para garantizar su cumplimiento a lo largo de todo el ciclo de vida del sistema y, por último, se proporcionan herramientas y prácticas que facilitan su implementación.
La necesidad de este tipo de orientación práctica es cada vez mayor. Microsoft, como empresa tecnológica, reconoce su responsabilidad a la hora de actuar y trabajar para garantizar que los sistemas de IA sean responsables por diseño.
Equidad en la tecnología de voz a texto
El potencial de los sistemas de IA para provocar sesgos y desigualdades sociales es uno de los riesgos que más frecuentemente se asocia a estas soluciones. En marzo de 2020, un estudio académico reveló que la tecnología de voz a texto en todo el sector de TI producía tasas de error que eran casi el doble para los miembros de algunas comunidades negras y afroamericanas, en comparación a las registradas para usuarios blancos.
Por ello, y tras lo aprendido, Microsoft comparte en su Estándar de IA Responsable su experiencia y el patrón que siguió para mejorar su tecnología de voz a texto con el fin de mantener los principios de equidad y evitar este tipo de sesgos.
Controles de uso apropiado para el reconocimiento facial y de voz sintética
Custom Neural Voice de Azure AI es una innovadora tecnología de voz de Microsoft que permite la creación de una voz sintética que suena casi idéntica a la fuente original y que ya ha sido empleada por compañías como AT&T o Progressive. Esta tecnología tiene un enorme potencial en sectores como la educación, la accesibilidad y el entretenimiento, pero también hay que tener en cuenta sus riesgos. Para paliarlos, Microsoft ha adoptado un marco de control en base a las experiencias y lo aprendido en este sentido y ha anunciado que aplicará controles similares en sus servicios de reconocimiento facial. La compañía dejará de dar acceso a las APIs de detección de emociones mediante la tecnología que puede escanear los rostros de las personas y sus estados emocionales, en función de sus expresiones faciales y atributos de identidad como género, edad, sonrisa, vello facial, cabello y maquillaje, o movimientos.
A partir de ahora, la detección de estos atributos ya no estará disponible para nuevos clientes, que deben solicitar acceso para usar las capacidades de reconocimiento facial en Azure Face API, Computer Vision y Video Indexer. Aquellos que ya se encuentren suscritos, tendrán un año -hasta el 30 de junio de 2023- para solicitar y recibir aprobación para acceder a los servicios de reconocimiento facial.
Con este acceso limitado, Microsoft agrega una capa adicional de seguridad para garantizar que el uso de estos servicios se encuentre alineado con su Estándar de IA Responsable y contribuya a un beneficio social para el usuario final. Por ejemplo, estas capacidades pueden ser valiosas cuando se usan en escenarios de mejora de la accesibilidad. Por ello, Microsoft seguirá dando soporte con esta tecnología a personas con discapacidades, integrándolas en aplicaciones como Seeing AI, muy útil para personas ciegas o con dificultades visuales, al integrar algoritmos de Inteligencia Artificial y procesamiento cognitivo para permitir al sistema “ver” aquello que tiene delante, interpretarlo y describirlo mediante voz.
Desarrollo responsable: mejorar el desempeño para una IA inclusiva
Microsoft proporciona orientación y herramientas que capacitan a sus clientes para implementar esta tecnología de forma responsable. Los clientes de Azure Cognitive Services ahora pueden utilizar el paquete Fairlearn de código abierto y el Fairness Dashboard de Microsoft para medir la imparcialidad de los algoritmos de verificación facial de Microsoft en sus propios datos. De esta forma, pueden identificar y abordar posibles problemas de imparcialidad y sesgos antes de desplegar su tecnología.
Asimismo, Microsoft ha actualizado la documentación de transparencia para ayudar a sus clientes a mejorar la precisión y equidad de sus sistemas, mediante la incorporación de una revisión humana que ayude a detectar y resolver casos de identificación errónea u otros fallos.
Al trabajar con clientes que ya usaban su servicio Face, la compañía también se dio cuenta de que algunos errores que originalmente se atribuían a problemas de imparcialidad se debían a una mala calidad de imagen. Si la imagen que alguien envía es demasiado oscura o borrosa, es posible que el modelo no pueda igualarla correctamente y puede perjudicar, injustamente y de forma especial, a determinados grupos demográficos.
Por ello, Microsoft ofrece a los clientes una nueva API de calidad de reconocimiento que indica problemas de iluminación, desenfoque, oclusiones o ángulo de la cabeza en imágenes enviadas para verificación facial. La compañía también proporciona una aplicación de referencia que aporta sugerencias en tiempo real para ayudar a los usuarios a capturar imágenes de mayor calidad.