Desde inicios de diciembre, OpenIA nos ha regalado 12 días de novedades sin parar, a modo de calendario de adviento. Este maratón de novedades ha finalizado hoy. En caso de que te hayas perdido alguna de las sorpresas presentadas, ¡aquí te traigo un listado con todos los detalles que debes saber!
Día 1: Lanzamiento de o1 y ChatGPT Pro
OpenAI inició con fuerza con o1 y o1 pro, modelos diseñados para llevar el razonamiento complejo a otro nivel. Además, introdujo ChatGPT Pro, un plan premium por U$D200 al mes que incluye acceso ilimitado a GPT-4, o1 y o1 pro, junto con funciones avanzadas de voz.
Además, la versión disponible de o1 ahora tiene soporte para visión, podrás adjuntar imágenes para trabajar dentro de la interfaz de ChatGPT, lamentablemente solo es posible realizar esto con imágenes, aún no es posible con archivos.
Día 2: Programa de Investigación de Fine-tuning
OpenAI amplió su programa de investigación de Fine-tuning, abriendo sus puertas a investigadores, empresas y universidades, con el objetivo de que exploren las nuevas técnicas de personalización de modelos que han desarrollado.
Lo más importante a destacar aquí es que se viene para 2025 una ola de novedades en Fine-tunning, es posible que tengamos herramientas mucho más sencillas para personalizar el comportamiento de los modelos prontamente.
Día 3: Sora, el creador de videos
El esperado modelo de generación de video Sora por fin llegó oficialmente. Con el plan Plus, puedes crear clips de hasta 5 segundos en 720p. El plan Pro extiende esta capacidad a 20 segundos de duración y en calidad 1080p. Además, Sora cuenta con un sitio web separado al que puedes loguearte con tu misma cuenta de ChatGPT ingresando a sora.com
El modelo tiene la capacidad, no solo de generar videos a partir de un prompt, sino de generar video a partir de imágenes existentes. El plan plus tiene una limitación que el plan pro no posee: No es posible generar un video a partir de una imagen que contenga seres humanos.
️Día 4: Edición interactiva con Canvas
Canvas, es una funcionalidad que ya estaba disponible para los usuarios de pago en ChatGPT. Se trata de una ventana de trabajo, la cual es un editor de texto sobre el que ChatGPT puede editar y modificar el contenido según se solicite y tú puedes editar el contenido como si se tratara de un documento de texto. Anteriormente, Canvas estaba disponible en un modelo diferente que debías seleccionar desde el selector de modelos antes de iniciar la conversación.
Ahora Canvas está directamente integrado en GPT-4o y estará disponible para todos los usuarios. Además, se introducen mejoras que permiten dar formato al texto y editar de una manera mucho más interactiva.
️Día 5: ChatGPT + Apple Intelligence
Se presentó una nueva extensión para integrar ChatGPT con las plataformas de Apple, mejorando significativamente la accesibilidad para usuarios de iOS y macOS. Durante el demo, OpenAI mostró cómo Siri, el asistente de voz de Apple, ahora puede interactuar directamente con ChatGPT, permitiendo realizar consultas y recibir respuestas rápidas sin intermediarios.
️Día 6: Voz avanzada y Santa
Al fin se habilitó la funcionalidad de visión para el nuevo modo de voz. Ahora es posible compartir con el modo de voz imágenes tomadas de la cámara del dispositivo, lo que ofrece una interacción muchísimo más natural para el usuario no avanzado. Por otra parte, este día se habilitó temporalmente un modo de voz especial donde el usuario podía conversar con Santa, para celebrar la época navideña.
️Día 7: Proyectos
Se presentó Proyectos, una nueva herramienta de organización dentro de ChatGPT que facilita estructurar conversaciones. Ahora puedes agrupar un set de instrucciones, archivos adjuntos y chats bajo un mismo proyecto, permitiendo que todas las conversaciones relacionadas dentro de este proyecto compartan acceso a los recursos correspondientes.
️Día 8: Mejoras en ChatGPT Search
La interfaz de usuario de ChatGPT Search fue optimizada para corregir errores y mejorar su funcionamiento, basándose en el valioso feedback de los usuarios. Entre las novedades más destacadas, ahora es posible visualizar videos y mapas directamente en los resultados.
Además, ChatGPT puede realizar búsquedas de manera autónoma si detecta que son necesarias, incluso si el usuario no lo solicita explícitamente. Para completar, las búsquedas ahora están disponibles en el modo de voz, ampliando aún más sus capacidades.
️Día 9: Novedades para desarrolladores
Se presentaron novedades para los desarrolladores y mejoras en las API, se añadió soporte para WebRTC y nuevos modelos, junto con una reducción de precios. Todo pensado para hacer la vida de los desarrolladores más fácil. En especial, se debe destacar las facilidades que se están ofreciendo para que los desarrolladores puedan realizar integraciones con los modelos de voz de una forma mucho más sencilla que antes.
️Día 10: 1-800-CHATGPT
Se habilitó un número gratuito (+18002428478), que permite a cualquier persona «conversar» con ChatGPT por teléfono, SMS o WhatsApp. Sin mucha más novedad que esto, es importante saber que tenemos un competidor oficial para el modelo de Llama de Meta, con el cual la mayoría de los usuarios interactúa mediante WhatsApp.
️Día 11: Mejoras en la app de escritorio de ChatGPT
La versión de la Aplicación de escritorio para Mac ahora permite interactuar con más aplicaciones externas. La versión de Windows, en cambio, sigue siendo un simple WebView que tiene incluso menos funcionalidades que la versión web y esto no me pone muy contento 😛 ¡Contraten desarrolladores Windows urgente!
️Día 12: Adelanto de o3, el nuevo modelo
Se ha presentado un nuevo modelo de la serie o, se trata del o3. Es importante decir que, en estos días, una empleada de OpenAI, había publicado un screenshot en X que borró a los pocos minutos, donde se observaba claramente que estaba trabajando con un modelo nuevo. Mi opinión es que han decidido anunciar directamente el nuevo modelo para ahorrarse especulaciones de la gente.
Se presentó una vista previa de o3 y o3 mini, modelos revolucionarios aún en pruebas de seguridad. Investigadores interesados pueden inscribirse para participar en estas pruebas limitadas en el sitio de OpenAI. Además, aunque no quiso revelar demasiado, Sam Altman dijo que estaban esperando lanzar, al menos o1 mini, a fines de enero del 2025.