ChatGPT Edu, la nueva aplicación de OpenAI para universidades
OpenAI hace que ChatGPT sea más accesible para escuelas y organizaciones sin fines de lucro. En un par de publicaciones de blog, la compañía compartió que está lanzando una versión de ChatGPT para universidades, junto con un programa que permite a las organizaciones sin fines de lucro acceder a ChatGPT a una tarifa con descuento.
OpenAI dice que ChatGPT Edu permitirá a las universidades «implementar IA de manera responsable para estudiantes, profesores, investigadores y operaciones del campus». Se basa en su modelo GPT-4o, más rápido, que ofrece capacidades multimodales mejoradas en texto, visión y audio.
Por ejemplo, OpenAI dice que las universidades pueden utilizar la herramienta para revisar los currículums de los estudiantes, redactar solicitudes de subvenciones y ayudar a los profesores con las calificaciones. ChatGPT for Edu ofrece seguridad de «nivel empresarial» y no utiliza datos para entrenar los modelos de OpenAI. Se ofrece a un precio «asequible» para las universidades.
Además, OpenAI presentó OpenAI para organizaciones sin fines de lucro, que brinda acceso al equipo ChatGPT a una tarifa más económica de 20 dólares por mes por usuario. Las organizaciones sin fines de lucro pueden solicitar el descuento en el sitio web de OpenAI. Las organizaciones más grandes que necesitan más capacidades y seguridad también pueden comunicarse con OpenAI para obtener ChatGPT Enterprise con un descuento del 50 por ciento.
Estos anuncios se producen después de otras semanas tumultuosas en OpenAI. Varios investigadores clave renunciaron, citando preocupaciones de seguridad, mientras que el director ejecutivo de OpenAI, Sam Altman, enfrentó críticas por implementar una voz de IA que suena inquietantemente similar a Scarlett Johansson después de que la actriz rechazó el papel.
Mientras tanto, la ex miembro de la junta directiva de OpenAI, Helen Toner, quien ayudó a liderar la iniciativa para despedir a Altman el año pasado, habló sobre el CEO durante una entrevista en el podcast The TED AI Show. Toner citó «múltiples ocasiones» en las que Altman proporcionó información inexacta sobre los procesos de seguridad de la empresa y evidencia que la junta observó a Altman «mintiendo y siendo manipulador en diferentes situaciones».
Vía – TheVerge