Open AI desarrolla nuevos métodos para rastrear el contenido y demostrar si fue generado por IA

OpenAI ha agregado una nueva herramienta para detectar si una imagen se creó con su generador de imágenes DALL-E AI, así como nuevos métodos de marcas de agua para patentar más claramente el contenido que genera.

En una publicación de blog, OpenAI anunció que ha comenzado a desarrollar nuevos métodos de procedencia para rastrear el contenido y demostrar si fue generado por IA. Estos incluyen un nuevo clasificador de detección de imágenes que utiliza IA para determinar si la foto fue generada por IA, así como una marca de agua resistente a manipulaciones que puede etiquetar contenido como audio con señales invisibles.

El clasificador predice la probabilidad de que DALL-E 3 haya creado una imagen. OpenAI afirma que el clasificador funciona incluso si la imagen se recorta o comprime o se cambia la saturación. Si bien la herramienta puede detectar si las imágenes se crearon con DALL-E 3 con alrededor del 98 por ciento de precisión, su rendimiento para determinar si el contenido era de otros modelos de IA no es tan bueno, señalando solo entre el 5 y el 10 por ciento de las imágenes de otros generadores de imágenes.

OpenAI anteriormente agregó credenciales de contenido a los metadatos de imágenes de la Coalición de Autoridad y Procedencia del Contenido (C2PA). Las credenciales de contenido son esencialmente marcas de agua que incluyen información sobre quién es el propietario de la imagen y cómo se creó. OpenAI, junto con empresas como Microsoft y Adobe, es miembro de C2PA. Este mes, OpenAI también se unió al comité directivo de C2PA.

La compañía de inteligencia artificial también comenzó a agregar marcas de agua a los clips de Voice Engine, su plataforma de conversión de texto a voz que actualmente se encuentra en vista previa limitada.

Tanto el clasificador de imágenes como la señal de marca de agua de audio aún se están perfeccionando. OpenAI dice que necesita recibir comentarios de los usuarios para probar su eficacia. Los investigadores y los grupos periodísticos sin fines de lucro pueden probar el clasificador de detección de imágenes aplicándolo a la plataforma de acceso a investigaciones de OpenAI.

OpenAI lleva años trabajando en la detección de contenido generado por IA. Sin embargo, en 2023, tuvo que poner fin a un programa que intentaba identificar texto escrito por IA porque el clasificador de texto de IA tenía constantemente baja precisión.

Vía – TheVerge

Jeremías Rodríguez

Profesor de Historia. Amante de los libros, la tecnología y el buen café.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.