Gemini 2.0 ya está disponible para todas las personas

Gemini 2.0 ya está disponible para todas las personas

Tomado de https://blog.google/

El mes pasado, dimos inicio a la era de los agentes al lanzar una versión experimental de Gemini 2.0 Flash — nuestro modelo de trabajo de alta eficiencia para desarrolladores con baja latencia y rendimiento mejorado. A principios de este año, actualizamos 2.0 Flash Thinking Experimental en Google AI Studio, lo que mejoró su rendimiento al combinar la velocidad de Flash con la capacidad de razonar a través de problemas más complejos.

Y la semana pasada, pusimos una versión actualizada de 2.0 Flash a disposición de todos los usuarios en la aplicación Gemini para escritorio y dispositivos móviles, ayudando a todos a descubrir nuevas formas de crear, interactuar y colaborar con Gemini.

Hoy, estamos haciendo que la versión actualizada de Gemini 2.0 Flash esté disponible de forma general a través de la API de Gemini en Google AI Studio y Vertex AI. Los desarrolladores ahora pueden crear aplicaciones de producción con 2.0 Flash.

También estamos lanzando una versión experimental de Gemini 2.0 Pro, nuestro mejor modelo hasta ahora para rendimiento de codificación y prompts complejos. Estará disponible en Google AI Studio y Vertex AI, y en la aplicación Gemini para usuarios de Gemini Advanced.

Estamos lanzando un nuevo modelo, Gemini 2.0 Flash-Lite, nuestro modelo más eficiente hasta la fecha, está en versión preliminar pública en Google AI Studio y Vertex AI.

Finalmente, 2.0 Flash Thinking Experimental estará disponible para los usuarios de la aplicación Gemini en el menú desplegable de modelos para escritorio y dispositivos móviles.

Todos estos modelos contarán con entrada multimodal y salida de texto en su lanzamiento, con más modalidades generales en los próximos meses. Más información y detalles sobre precios, en el blog post oficial de Google para Desarrolladores. De cara al futuro, estamos trabajando en más actualizaciones y capacidades mejoradas para la familia de modelos Gemini 2.0.

2.0 Flash: una nueva actualización disponible para todos

Presentado por primera vez en I/O 2024, la serie de modelos Flash es popular entre los desarrolladores como un modelo robusto y potente, ideal para tareas de alto volumen y alta frecuencia a gran escala, y capaz de hacer razonamientos multimodales a través de grandes cantidades de información con una ventana de contexto de 1 millón de tokens. Nos ha encantado la recepción por parte de la comunidad de desarrolladores.

2.0 Flash ahora está disponible para más personas a través de nuestros productos de IA, junto con un rendimiento mejorado en puntos de referencia clave como LiveCodeBench y MMMU, con generación de imágenes y conversión de texto a voz próximamente.

Prueba Gemini 2.0 Flash en la aplicación Gemini o en la API de Gemini en Google AI Studio y Vertex AI. Los detalles de precios se pueden encontrar en el blog post oficial de Google para Desarrolladores.

2.0 Pro Experimental: nuestro mejor modelo hasta la fecha para codificar el rendimiento y las indicaciones complejas

A medida que compartimos las primeras versiones experimentales de Gemini 2.0, como Gemini-Exp-1206, hemos recibido excelentes comentarios de los desarrolladores sobre sus puntos fuertes y los mejores casos de uso, como la codificación.

Hoy, estamos lanzando una versión experimental de Gemini 2.0 Pro que responde a esos comentarios. Tiene el mejor rendimiento de codificación y la capacidad de manejar indicaciones complejas, con mejor comprensión y razonamiento del conocimiento del mundo, que cualquier modelo que hayamos lanzado hasta ahora. Viene con nuestra ventana de contexto más grande, de 2 millones de tokens, lo que le permite analizar y comprender grandes cantidades de información de manera integral, además de la capacidad de usar herramientas como Google Search y ejecución de código.

Tomado de https://blog.google/