Singapur promociona la necesidad de transparencia de la IA en el lanzamiento de un conjunto de herramientas de prueba
El nuevo marco piloto y el conjunto de herramientas permitirán a las empresas demostrar su uso "objetivo y verificable" de la inteligencia artificial, dice el gobierno de Singapur, que espera impulsar la transparencia en las implementaciones de IA a través de controles técnicos y de procesos.
Las empresas de Singapur ahora podrán aprovechar un marco de pruebas de gobernanza y un conjunto de herramientas para demostrar su uso "objetivo y verificable" de la inteligencia artificial (IA). La medida es parte de los esfuerzos del gobierno para impulsar la transparencia en las implementaciones de IA a través de controles técnicos y de procesos.
Bautizado como A.I. Verify, el nuevo conjunto de herramientas fue desarrollado por la Autoridad de Desarrollo de Medios de Comunicación (IMDA) y la Comisión de Protección de Datos Personales (PDPC), que administra la Ley de Protección de Datos Personales del país.
Las agencias gubernamentales subrayaron la necesidad de que los consumidores sepan que los sistemas de IA son "justos, explicables y seguros", ya que más productos y servicios se integran con IA para ofrecer una experiencia de usuario más personalizada o tomar decisiones sin intervención humana. También necesitaban asegurarse de que las organizaciones que implementan dichas ofertas fueran responsables y transparentes.
Singapur ya ha publicado marcos y directrices voluntarios de gobernanza de la IA, y su Marco Modelo de Gobernanza de la IA se encuentra actualmente en su segunda iteración.
A.I Verify ahora permitirá a los actores del mercado demostrar a las partes interesadas relevantes su implementación de IA responsable a través de pruebas estandarizadas. El nuevo kit de herramientas está disponible actualmente como un producto mínimo viable, que ofrece "suficientes" características para que los primeros usuarios las prueben y proporcionen comentarios para el desarrollo posterior del producto.
En concreto, ofrece pruebas técnicas en función de tres principios de "equidad, explicabilidad y solidez", empaquetando bibliotecas de código abierto de uso común en un conjunto de herramientas para la autoevaluación. Estos incluyen SHAP (SHapley Additive exPlanations) para la explicabilidad, Adversarial Robustness Toolkit para la robustez adversarial, y AIF360 y Fairlearn para pruebas de equidad.
El kit de herramientas piloto también genera informes para desarrolladores, administradores y socios comerciales, que cubren áreas clave que afectan el rendimiento de la IA, probando el modelo de IA con lo que dice hacer.
Por ejemplo, el producto impulsado por IA se probaría para ver cómo el modelo llegó a una decisión y si la decisión predicha tenía un sesgo no intencionado. El sistema de IA también podría ser evaluado por su seguridad y resistencia.
Actualmente, el kit de herramientas funciona con algunos modelos de IA comunes, como la clasificación binaria y los algoritmos de regresión de marcos comunes, como scikit-learn, Tensorflow y XGBoost.
IMDA agregó que el marco de prueba y el kit de herramientas permitirán a los desarrolladores de sistemas de IA realizar autopruebas no solo para mantener los requisitos comerciales del producto, sino también para ofrecer una plataforma común para mostrar los resultados de estas pruebas.
En lugar de definir estándares éticos, A.I. Verify tenía como objetivo validar las afirmaciones hechas por los desarrolladores de sistemas de IA sobre su uso de la IA, así como el rendimiento de sus productos de IA
Sin embargo, el conjunto de herramientas no garantizaría que el sistema de IA probado estuviera libre de sesgos o riesgos de seguridad, subrayó la IMDA.
Sin embargo, podría facilitar la interoperabilidad de los marcos de gobernanza de la IA y podría ayudar a las organizaciones a cerrar las brechas entre dichos marcos y las regulaciones, dijo la agencia gubernamental de Singapur.
Agregó que estaba trabajando con organizaciones de regulaciones y estándares para mapear A.I. Verify con los marcos de IA establecidos, para que las empresas puedan ofrecer productos y servicios impulsados por IA en diferentes mercados globales. El Departamento de Comercio de EE. UU. es una de las agencias con las que Singapur estaba trabajando para garantizar la interoperabilidad entre sus marcos de gobernanza de IA.
Según IMDA, 10 organizaciones ya habían probado y ofrecido comentarios sobre el nuevo conjunto de herramientas, incluidas Google, Meta, Microsoft, Singapore Airlines y Standard Chartered Bank.
IMDA añadió que A.I. Verify estaba alineado con los principios y directrices aceptados a nivel mundial sobre la ética de la IA, incluidos los de Europa y la OCDE, que abarcaban áreas clave como la repetibilidad, la solidez, la equidad y el bienestar social y ambiental. El marco también aprovechó los regímenes de prueba y certificación que comprendían componentes como la ciberseguridad y la gobernanza de datos.
Singapur buscará continuar desarrollando A.I. Verify para incorporar estándares internacionales de gobernanza de IA y puntos de referencia de la industria, dijo IMDA. También se agregarían gradualmente más funcionalidades con la contribución y los comentarios de la industria.
En febrero, el país asiático también publicó un conjunto de herramientas de software para ayudar a las instituciones financieras a asegurarse de que estaban utilizando la IA de manera responsable, así como cinco documentos técnicos para guiar a estas empresas en la evaluación de su implementación basada en principios predefinidos. El regulador de la industria, la Autoridad Monetaria de Singapur (MAS), dijo que los documentos detallan metodologías para incorporar los principios FEAT -de Equidad, Ética, Responsabilidad y Transparencia- en el uso de la IA dentro del sector de servicios financieros.