Búsqueda de sitios web

Eliminar el sesgo de la IA: los expertos del sector opinan


"El sesgo en la IA no es solo un problema técnico; Está entrelazado en todos los departamentos".

Los desarrolladores y los científicos de datos son humanos, por supuesto, pero los sistemas que crean no lo son, son simplemente reflejos basados en código del razonamiento humano que se aplica a ellos. Conseguir que los sistemas de inteligencia artificial ofrezcan resultados imparciales y garanticen decisiones empresariales inteligentes requiere un enfoque holístico que involucre a la mayor parte de la empresa. 

No se puede -ni se debe- esperar que el personal de TI y los científicos de datos actúen en solitario cuando se trata de IA. 

Existe un impulso creciente para expandir la IA más allá de los confines del desarrollo de sistemas y hacia la suite empresarial. Por ejemplo, en un panel reciente en AI Summit, los panelistas coincidieron en que los líderes empresariales y los gerentes no solo deben cuestionar la calidad de las decisiones tomadas a través de la IA, sino también involucrarse más activamente en su formulación. (Copresidí la conferencia y moderé el panel).  

Es necesario que haya formas sistematizadas de abrir el proceso de desarrollo y modelado de IA, insiste Rod Butters, director de tecnología de Aible. "Cuando les decimos a los científicos de datos que salgan y creen un modelo, les estamos pidiendo que lean la mente y adivinen. El científico de datos está tratando de hacer lo correcto, creando un modelo responsable y sólido, pero ¿en base a qué?", dice.

"El simple hecho de crear un gran modelo no necesariamente resuelve todos los problemas".  

Entonces, ¿cómo rectificamos la situación que describe Butters y abordamos los posibles sesgos o inexactitudes? Claramente, este es un desafío que debe abordarse en todo el espectro de liderazgo empresarial. La informática, que ha estado soportando la mayor parte del peso de la IA, no puede hacerlo sola. Los expertos de todo el sector instan a abrir el desarrollo de la IA a una mayor participación humana. 

"Poner la carga en los líderes y el personal de TI es generalizar erróneamente un conjunto de problemas éticos, legales y de reputación sustanciales en toda la organización por un problema técnico", dice Reid Blackman, CEO de Virtue y asesor de Bizconnect. "El sesgo en la IA no es solo un problema técnico; Está entrelazado en todos los departamentos". 

Hasta la fecha, no se ha hecho lo suficiente para combatir el sesgo de la IA, continúa Blackman. "A pesar de la atención a los algoritmos sesgados, los esfuerzos para resolver esto han sido bastante mínimos. El enfoque estándar -- aparte de no hacer nada, por supuesto -- es utilizar una variedad de herramientas que vean cómo se distribuyen los bienes y servicios variados en varias subpoblaciones, incluyendo sobre todo a los grupos relacionados con la raza y el género; o utilizar una serie de métricas cuantitativas para determinar si la distribución es justa o sesgada".

Eliminar los sesgos y las imprecisiones en la IA lleva tiempo. "La mayoría de las organizaciones entienden que el éxito de la IA depende de establecer confianza con los usuarios finales de estos sistemas, lo que en última instancia requiere algoritmos de IA justos e imparciales", dice Peter Oggel, CTO y vicepresidente senior de operaciones tecnológicas de Irdeto. Sin embargo, cumplir con esto es mucho más complicado que simplemente reconocer que el problema existe y hablar de él". 

Se requieren más acciones más allá de los confines de los centros de datos o los sitios de analistas. "Los científicos de datos carecen de la formación, la experiencia y las necesidades empresariales para determinar cuáles de las métricas incompatibles de equidad son apropiadas", dice Blackman. "Además, a menudo carecen de influencia para elevar sus preocupaciones a altos ejecutivos bien informados o expertos en la materia relevantes".

Es hora de hacer más "para revisar esos resultados no solo cuando un producto está activo, sino también durante las pruebas y después de cualquier proyecto importante", dice Patrick Finn, presidente y gerente general de las Américas de Blue Prism. "También deben capacitar al personal técnico y del lado comercial sobre cómo aliviar el sesgo dentro de la IA y dentro de sus equipos humanos, para empoderarlos para que participen en la mejora del uso de la IA de su organización. Es un esfuerzo tanto de arriba hacia abajo como de abajo hacia arriba impulsado por el ingenio humano: eliminar el sesgo obvio para que la IA no lo incorpore y, por lo tanto, no ralentice el trabajo ni empeore los resultados de alguien".

Finn añade: "Aquellos que no piensan de manera equitativa sobre la IA no la están usando de la manera correcta".  

Resolver este desafío "requiere más que validar los sistemas de IA con respecto a un par de métricas", dice Oggel. "Si lo piensas, ¿cómo se define la noción de justicia? Cualquier problema puede tener múltiples puntos de vista, cada uno con una definición diferente de lo que se considera justo. Técnicamente, es posible calcular métricas para conjuntos de datos y algoritmos que dicen algo sobre la equidad, pero ¿con qué se debería medir?"

Oggel dice que se requiere más inversión "en la investigación de los sesgos y en la comprensión de cómo eliminarlos de los sistemas de IA. El resultado de esta investigación debe incorporarse a un marco de estándares, políticas, directrices y mejores prácticas que las organizaciones puedan seguir. Sin respuestas claras a estas y muchas más preguntas, los esfuerzos corporativos para eliminar el sesgo tendrán dificultades".

El sesgo de la IA suele ser "involuntario e inconsciente", añade. "Hacer que el personal sea consciente del problema contribuirá de alguna manera a abordar los sesgos, pero igualmente importante es garantizar que haya diversidad en sus equipos de ciencia de datos e ingeniería, proporcionar políticas claras y garantizar una supervisión adecuada".

Si bien abrir los proyectos y las prioridades a la empresa lleva tiempo, hay medidas a corto plazo que se pueden tomar a nivel de desarrollo e implementación.

Harish Doddi, CEO de Datatron, aconseja hacerse las siguientes preguntas a medida que se desarrollan los modelos de IA:  

  • ¿Cómo eran las versiones anteriores?  
  • ¿Qué variables de entrada entran en el modelo?  
  • ¿Cuáles son las variables de salida?  
  • ¿Quién tiene acceso al modelo?  
  • ¿Ha habido algún acceso no autorizado?  
  • ¿Cómo se comporta el modelo cuando se trata de ciertas métricas?  

Durante el desarrollo, "los modelos de aprendizaje automático están sujetos a ciertas suposiciones, reglas y expectativas" que pueden dar lugar a resultados diferentes una vez puestos en producción, explica Doddi. "Aquí es donde la gobernanza es fundamental". Parte de esta gobernanza es un catálogo para realizar un seguimiento de todas las versiones de los modelos. "El catálogo debe ser capaz de realizar un seguimiento y documentar el marco en el que se desarrollan los modelos y su linaje".

Las empresas "necesitan asegurarse mejor de que las consideraciones comerciales no superen a las consideraciones éticas. Este no es un acto de equilibrio fácil", dice Oggel. "Algunos enfoques incluyen el monitoreo automático de cómo cambia el comportamiento del modelo a lo largo del tiempo en un conjunto fijo de puntos de datos prototípicos. Esto ayuda a comprobar que los modelos se comportan de la manera esperada y se adhieren a algunas restricciones en torno al sentido común y los riesgos conocidos de sesgo. Además, la realización regular de comprobaciones manuales de ejemplos de datos para ver cómo las predicciones de un modelo se alinean con lo que esperamos o esperamos lograr puede ayudar a detectar problemas emergentes e inesperados".

Artículos relacionados