OpenAI, empresa líder en su campo, ha lanzado nuevos modelos de inteligencia artificial generativa (GAI) que permiten a los usuarios utilizar una aplicación que puede pensar más profundamente y responder preguntas complejas y relativamente generales, principalmente en los campos de las matemáticas, la codificación y la ciencia.
La compañía también expresó sus ambiciones de mejorar el rendimiento de estas aplicaciones y cerrar las brechas en ellas.
En un comunicado del jueves, la empresa líder en tecnología, inventora de la revolucionaria aplicación de inteligencia artificial ChatGPT , confirmó que su nuevo modelo generativo, llamado o1, “piensa antes de responder”.
La compañía lanzó el jueves la versión beta de o1 y más adelante estará disponible para los usuarios de ChatGPT pagando una tarifa.
La compañía considera la aplicación un nuevo paso en su ambicioso proyecto de “desarrollar inteligencia artificial general”, refiriéndose a una inteligencia similar a la humana.
Ambiciones de “reducir las alucinaciones” y llenar vacíos
La compañía expresó sus esperanzas de desarrollar herramientas que mitiguen las “alucinaciones”, las vulnerabilidades electrónicas que a veces afectan a este tipo de software y que resultan en la invención de datos e información inexactos.
En el futuro, la empresa intentará superar estas deficiencias que afectan a los modelos de IA generativa en general, que se basan principalmente en predecir respuestas sin pensar y, por lo tanto, sin comprender las frases o imágenes que generan. Además, son incapaces de procesar o crear contenido que no sea texto.
experiencia práctica
La Agencia France-Presse probó el modelo o1 planteándole preguntas lógicas sencillas. Obtuvo los mismos resultados que el GPT-4o, pero tardó más y proporcionó respuestas más detalladas, en lugar de generarlas casi instantáneamente.
Por su parte, la compañía probó su nuevo modelo de resolución de problemas matemáticos en una competencia con más de 500 estudiantes de secundaria en Estados Unidos.
El nuevo modelo fue capaz de producir líneas de código después de tomarse el tiempo para pensar, tal como lo hacen los humanos.
La compañía explicó que el modelo también es capaz de reconocer y corregir sus propios errores.
También ofrece a los usuarios nuevas garantías que no se encontraban en modelos anteriores en cuanto a seguridad y compatibilidad con los valores humanos, porque su pensamiento se ha vuelto “legible”.