Google, Microsoft, Anthropic y OpenAI han hecho un importante anuncio conjunto a través de un comunicado de prensa: la creación del “Frontier Model Forum”, una iniciativa pionera en la regulación de inteligencia artificial de última generación.
Las compañías que conforman este proyecto que está en proceso, se comprometen a compartir las mejores prácticas para que la inteligencia sea menos peligrosa debido a su reciente popularidad. En una publicación en el blog de Google, se anunció: “El Foro será un vehículo para debates y acciones interinstitucionales sobre la seguridad y la responsabilidad de la IA”.
Esta autorregulación parte de la preocupación de las autoridades y la sociedad ante la utilización de la inteligencia artificial, ya que los estados comenzaron a legislar proyectos para controlarla. Un claro ejemplo, es el programa de la Unión Europea (UE) que impondría obligaciones a las empresas del sector, como la transparencia con los usuarios o el control humano sobre las máquinas.
En el sitio web de Google, se establecen los objetivos del programa Frontier Modern Forum, que se basa en avanzar en la investigación de seguridad de la IA para promover el desarrollo responsable de modelos de frontera, minimizar los riesgos y permitir evaluaciones independientes de seguridad.
Además, el plan tiene el objetivo de identificar las mejores prácticas para el desarrollo e implementación responsable de modelos de frontera. Para esto, busca colaborar con legisladores, académicos, y empresas para compartir conocimientos sobre riesgos de confianza y seguridad.
Por último, se propone apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a enfrentar los mayores desafíos de la sociedad, como la adaptación al cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las ciberamenazas.