Búsqueda de sitios web

Google y Microsoft se asocian con OpenAI para formar un grupo de vigilancia de la seguridad de la IA


La asociación, denominada Frontier Model Forum, se produce después de una reunión en la Casa Blanca la semana pasada con las mismas empresas, además de Amazon y Meta, para discutir el desarrollo seguro y transparente de la futura IA.

Algunos de los nombres más importantes de la tecnología se están uniendo para ayudar a mantener segura la IA. Los gigantes tecnológicos Google y Microsoft se están asociando con OpenAI y Anthropic para garantizar que la tecnología de IA progrese de forma "segura y responsable".

Esta asociación se produce después de una reunión en la Casa Blanca la semana pasada con las mismas empresas, además de Amazon y Meta, para discutir el desarrollo seguro y transparente de la futura IA.

El grupo de vigilancia, llamado Frontier Model Forum, señaló que si bien algunos gobiernos de todo el mundo están tomando medidas para mantener segura la IA, esas medidas no son suficientes. Más bien, depende de las empresas de tecnología.

En una publicación de blog en el sitio de Google, el foro enumeró cuatro objetivos principales:

  • Mejorar la investigación de seguridad de la IA para minimizar riesgos futuros
  • Identificar las mejores prácticas para el desarrollo responsable y la implementación de modelos futuros.
  • Trabajar con formuladores de políticas, académicos y otros para compartir conocimientos sobre los riesgos de seguridad de la IA.
  • Apoyar el desarrollo de usos de la IA para resolver los mayores problemas de la humanidad, como el cambio climático y la detección del cáncer.

Un representante de OpenAI añadió que si bien el foro trabajaría con los responsables de la formulación de políticas, estos no se involucrarían en el cabildeo gubernamental.

La membresía en el foro está abierta a cualquier empresa que cumpla con tres criterios: desarrollar e implementar modelos de frontera, demostrar un fuerte compromiso con la seguridad de los modelos de frontera y la voluntad de participar en iniciativas conjuntas con otros miembros. ¿Qué es un "modelo de frontera"? El foro lo define como "cualquier modelo de aprendizaje automático a gran escala que vaya más allá de las capacidades actuales y tenga una amplia gama de capacidades".

Si bien la IA tiene potencial para cambiar el mundo, dice el foro, "se requieren barreras de seguridad apropiadas para mitigar los riesgos". Anna Makanju, vicepresidenta de asuntos globales de OpenAI, emitió una declaración: "Es vital que las empresas de IA, especialmente aquellas que trabajan en los modelos más potentes, se alineen en un terreno común. Este es un trabajo urgente. Y este foro está bien posicionado. actuar rápidamente para mejorar el estado de seguridad de la IA".

El presidente de Microsoft, Brad Smith, se hizo eco de esos sentimientos y dijo que, en última instancia, depende de las empresas que crean tecnología de inteligencia artificial mantenerlas seguras y bajo control humano.

Artículos relacionados