Open AI, Anthropic, Google y Microsoft se unen para autorregular el desarrollo de modelos IA

No es ningún secreto que el desarrollo de IA conlleva muchos riesgos de seguridad. Si bien los órganos rectores están trabajando para establecer regulaciones, por ahora, depende principalmente de las propias empresas tomar precauciones. Por esta razón, se produce el nacimiento del Frontier Model Forum por parte de Anthropic, Google, Microsoft y Open AI, un organismo liderado por la industria enfocada en el desarrollo seguro y cuidadoso de la IA. Considera que los “frontier models” son cualquier «modelo de aprendizaje automático a gran escala» que va más allá de las capacidades actuales y tienen una amplia gama de habilidades.

El Foro planea establecer un comité asesor, estatutos y financiamiento. Ha establecido pilares básicos que tienen la intención de centrarse en promover la investigación de seguridad de la IA, determinar las mejores prácticas, trabajar en estrecha colaboración con los legisladores, académicos, la sociedad civil y las empresas, y alentar los esfuerzos para construir una IA que «pueda ayudar a enfrentar los mayores desafíos de la sociedad».

Según se informa, los miembros trabajarán en los primeros tres objetivos durante el próximo año. Hablando de membresías, el anuncio describe las calificaciones necesarias para unirse, como producir “frontier models” y mostrar un claro compromiso para hacerlos seguros. «Es vital que las empresas de IA, especialmente aquellas que trabajan en los modelos más potentes, se alineen en un terreno común y promuevan prácticas de seguridad reflexivas y adaptables para garantizar que las poderosas herramientas de IA tengan el mayor beneficio posible», según un comunicado de Anna Makanju, vicepresidenta de asuntos globales de OpenAI. «Este es un trabajo urgente y este foro está bien posicionado para actuar rápidamente para mejorar el estado de la seguridad de la IA».

La creación del Foro sigue a un reciente acuerdo de seguridad entre la Casa Blanca y las principales empresas de inteligencia artificial, incluidos los responsables de esta nueva empresa. Las medidas de seguridad comprometidas incluyeron pruebas de mal comportamiento por parte de expertos externos y la colocación de una marca de agua en el contenido creado por AI.

Vía – Engadget

Jeremías Rodríguez

Profesor de Historia. Amante de los libros, la tecnología y el buen café.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.