OpenAI es demandado por difamación por primera vez
OpenAI se ha visto afectado por lo que parece ser la primera demanda por difamación en respuesta a información falsa generada por ChatGPT.
Un locutor de radio en Georgia, Mark Walters, está demandando a la compañía después de que ChatGPT declarara que Walters había sido acusado de defraudar y malversar fondos de una organización sin fines de lucro. El sistema generó la información en respuesta a una solicitud de un tercero, un periodista llamado Fred Riehl. El caso de Walters se presentó el 5 de junio en el Tribunal Superior del condado de Gwinnett de Georgia y está buscando daños monetarios no especificados de OpenAI.
El caso es notable dadas las quejas generalizadas sobre información falsa generada por ChatGPT y otros chatbots. Estos sistemas no tienen una forma confiable de distinguir los hechos de la ficción, y cuando se les pide información, particularmente si se les pide que confirmen algo que el interrogador sugiere que es cierto, con frecuencia inventan fechas, hechos y cifras.
Por lo general, estas fabricaciones no hacen más que engañar a los usuarios o hacerles perder el tiempo. Pero están comenzando a surgir casos de tales errores que causan daño. Estos incluyen a un profesor que amenaza con reprobar su clase después de que ChatGPT afirmara que sus estudiantes usaron IA para escribir sus ensayos, y un abogado que enfrenta posibles sanciones después de usar ChatGPT para investigar casos legales falsos. El abogado en cuestión le dijo recientemente a un juez: “Escuché sobre este nuevo sitio, que asumí falsamente que era como un súper motor de búsqueda”.
OpenAI incluye un pequeño descargo de responsabilidad en la página de inicio de ChatGPT que advierte que el sistema «ocasionalmente puede generar información incorrecta», pero la compañía también presenta a ChatGPT como una fuente de datos confiables, describiendo el sistema en el texto del anuncio como una forma de «obtener respuestas» y «aprender algo nuevo». El propio CEO de OpenAI, Sam Altman, ha dicho en numerosas ocasiones que prefiere aprender nueva información de ChatGPT que de los libros.
Sin embargo, no está claro si existe o no un precedente legal para responsabilizar a una empresa por los sistemas de inteligencia artificial que generan información falsa o difamatoria, o si este caso en particular tiene un mérito sustancial.
Tradicionalmente en los Estados Unidos, la Sección 230 protege a las empresas de Internet de la responsabilidad legal por la información producida por un tercero y alojada en sus plataformas. Se desconoce si estas protecciones se aplican a los sistemas de IA, que no solo se vinculan a las fuentes de datos, sino que generan información de nuevo (un proceso que también conduce a la creación de datos falsos).
Eugene Volokh, un profesor de derecho que ha escrito sobre la responsabilidad legal de los sistemas de IA, señaló en una publicación de blog que aunque se piensa que «tales reclamos por difamación [contra las empresas de IA] son en principio legalmente viables», esta demanda en particular «debería ser difícil de resolver». Volokh señala que Walters no notificó a OpenAI sobre estas declaraciones falsas, dándoles la oportunidad de eliminarlas, y que no hubo daños reales como resultado de la salida de ChatGPT. “Sin embargo, en cualquier caso, será interesante ver qué sucede finalmente aquí”, dice Volokh.
Vía – The Verge