Este año, en Google I/O, mostramos cómo puedes compilar en las diferentes plataformas de Google y también innovar utilizando nuestros mejores modelos de IA de Google DeepMind. Estos son los principales anuncios de la presentación para desarrolladores.
Link to Youtube Video (visible only when JS is disabled)
Google AI Studio es la forma más rápida de evaluar modelos y comenzar a compilar con la API de Gemini.
Google AI Studio facilita la compilación con la API de Gemini: integramos Gemini 2.5 Pro en el editor de código nativo, lo que te permite crear prototipos más rápido. Está estrechamente optimizado con el SDK de GenAI para que puedas generar de manera instantánea aplicaciones web a partir de mensajes de texto, imágenes o videos. Comienza con un simple mensaje o inspírate con las app de inicio en la presentación.
Crea experiencias auténticas con la API de Gemini: crea agentes con capacidades de razonamiento avanzado de Gemini 2.5 a través de la API de Gemini y nuevas herramientas, como el contexto de URL. Permite que el modelo extraiga contexto de las páginas web con solo un vínculo. También anunciamos que los SDK de Gemini admitirán las definiciones del protocolo de contexto de modelo (MCP), lo que facilitará el aprovechamiento de las herramientas de código abierto.
Gemini 2.5 Flash Native Audio en la API en vivo: crea aplicaciones auténticas que escuchen y hablen, con control total sobre la voz, el tono, la velocidad y el estilo general del modelo, en 24 idiomas. Gemini 2.5 Flash Native Audio es mucho mejor para comprender el flujo conversacional e ignorar los sonidos o las voces de fondo, lo que genera un ida y vuelta más fluido y natural.
Genera diseños de interfaz de usuario de alta calidad con Stitch: una nueva herramienta impulsada por IA para generar diseños de interfaz de usuario y el código de frontend correspondiente para aplicaciones web. Itera entre tus diseños de forma conversacional utilizando el chat, ajusta los temas y exporta fácilmente tus creaciones a CSS/HTML o Figma para seguir trabajando. Prueba Stitch para el diseño de la interfaz de usuario.
Nuestro agente de código asíncrono, Jules, ahora está en versión beta pública: Jules es un agente de codificación paralelo y asíncrono que funciona directamente con tus repositorios de GitHub. Puedes pedirle a Jules que asuma tareas como actualizaciones de versiones, pruebas de escritura, actualización de funciones y correcciones de errores, por nombrar algunas. Hace funcionar una máquina virtual en la nube, realiza ediciones coordinadas en su base de código, ejecuta pruebas y puede abrir una solicitud de extracción desde su rama cuando estés conforme con el código.
Descubre cómo te facilitamos la creación de experiencias excelentes en todos los dispositivos.
Creación de experiencias con IA generativa: la IA generativa mejora las apps al hacerlas inteligentes, personalizadas y auténticas. Anunciamos nuevas API de GenAI de ML Kit que utilizan Gemini Nano para tareas comunes en el dispositivo. Mostramos una aplicación de ejemplo de IA, Androidify, que te permite crear un robot Android de ti mismo a partir de una selfie. Descubre cómo se compila Androidify y lee la documentación para desarrolladores para comenzar.
Creación de apps excelentes de forma adaptativa en 500 millones de dispositivos: las apps para Android para dispositivos móviles forman la base en teléfonos, plegables, tablets y ChromeOS, y este año te ayudamos a llevarlas a los automóviles y Android XR. También puedes aprovechar Material 3 Expressive para ayudar a que tus apps brillen.
Gemini en Android Studio: agentes de IA para ayudarte a trabajar: Gemini en Android Studio es el compañero de codificación impulsado por IA que hace que los desarrolladores sean más productivos en cada etapa del ciclo de vida del desarrollo. Presentamos una versión preliminar de Journeys, una experiencia de agente que ayuda a escribir y ejecutar pruebas de extremo a extremo. También presentamos una versión preliminar de Version Upgrade Agent, que ayuda a actualizar las dependencias. Obtén más información sobre cómo estas experiencias de agentes de Gemini en Android Studio pueden ayudarte a crear mejores aplicaciones y más rápido.
Estamos facilitando la creación de experiencias web potentes, desde la creación de una mejor interfaz de usuario y una depuración más rápida, hasta la creación de nuevas funciones impulsadas por IA.
Los carruseles ahora son más fáciles de compilar que nunca con unas pocas líneas de CSS y HTML: compila hermosos carruseles con CSS que sean interactivos desde la primera renderización. Con Chrome 135, combinamos algunas nuevas primitivas CSS para que la compilación de carruseles y otros tipos de interfaz de usuario fuera de pantalla sea mucho más fácil. Utiliza conceptos CSS conocidos para crear carruseles atractivos, interactivos, fluidos y más accesibles, en una fracción del tiempo.
Presentamos la nueva API experimental de Interest Invoker: alterna de forma declarativa los elementos emergentes cuando el interés del visitante esté activo durante un tiempo reducido. Combínalo con API de Anchor Positioning y la API de Popover para compilar elementos de interfaz de usuario complejos, receptivos y en capas, como descripciones emergentes y tarjetas flotantes, sin JavaScript. La API de Interest Invoker está disponible como prueba de origen.
La disponibilidad de las funciones de Baseline ahora está entre tus herramientas conocidas: VS Code muestra el estado de Baseline de las funciones a medida que las compilas y pronto se agregará compatibilidad con otros IDE basados en VS Code y WebStorm de JetBrains. Baseline ahora también es compatible con ESLint para CSS, HTML ESLint y Stylelint. RUMvision combina la información de Baseline con los datos del usuario real, lo que te permite seleccionar estratégicamente el objetivo de Baseline óptimo para tu audiencia. Además, con el conjunto de datos de funciones web 100% mapeado, ahora puedes acceder al estado de Baseline de cada función en todos los navegadores principales.
La IA en Chrome DevTools es compatible con tu flujo de trabajo de depuración: mejora tu flujo de trabajo de desarrollo con Gemini integrado directamente en Chrome DevTools. Con la asistencia de IA, ahora puedes aplicar directamente los cambios sugeridos a los archivos en tu espacio de trabajo del panel Elementos. Además, el panel de rendimiento reinventado ahora cuenta con una potente integración "Ask AI" que proporciona información contextual sobre el rendimiento para ayudar a optimizar las Métricas web principales de tu app web.
Ya están disponibles las nuevas APIs de IA integradas que utilizan Gemini Nano, incluidas las capacidades multimodales: Gemini Nano ofrece privacidad mejorada, latencia reducida y menor costo. A partir de Chrome 138, la API de Summarizer, la API de Language Detector, la API de Translator y la API de Prompt para las extensiones de Chrome están disponibles en Stable. Las API de Writer y Rewriter están disponibles en pruebas de origen, y la API de Proofreader y la API de Prompt con capacidades multimodales están en Canary. Únete a nuestro programa de versión preliminar anticipada para ayudarnos a dar forma al futuro de la IA en la web.
Crea prototipos, compila y ejecuta apps modernas y de pila completa impulsadas por IA que a los usuarios les encantan con Firebase. Utiliza Firebase Studio, un espacio de trabajo de IA basado en la nube e impulsado por Gemini 2.5, para convertir tus ideas en una aplicación completa en cuestión de minutos, desde el prompt hasta la publicación.
Los diseños de Figma pueden cobrar vida en Firebase Studio: importa un diseño de Figma directamente en Firebase Studio con el plugin builder.io, luego agrega características y funcionalidades con Gemini en Firebase sin tener que escribir ningún código.
Firebase Studio ahora sugerirá un backend: esta función se implementará durante las próximas semanas. Cuando uses el agente de creación de prototipos de apps, Firebase Studio podrá detectar la necesidad de un backend. Firebase Studio ahora recomendará Firebase Auth y Cloud Firestore, y cuando tengas todo listo para publicar la aplicación en Firebase App Hosting, Firebase Studio te proporcionará esos servicios.
Lógica de IA de Firebase: integra los modelos de IA generativa de Google directamente a través de tus aplicaciones cliente o a través de Genkit para su implementación en el servidor. Como parte de la evolución de Vertex AI en Firebase a Firebase AI Logic, también estamos lanzando nuevas funciones, como integraciones del lado del cliente para la API de Gemini para desarrolladores, inferencia híbrida, observabilidad mejorada e integraciones más profundas con productos de Firebase, como Verificación de aplicaciones y Remote Config.
Hay muchas cosas que puedes hacer cuando compilas con Gemini, pero a veces es mejor entrenar y ajustar tu propio modelo. Es por eso que lanzamos Gemma, nuestra familia de modelos abiertos diseñados para ser de vanguardia y adaptarse a los dispositivos.
Gemma 3n está en versión preliminar anticipada: este modelo puede ejecutarse con tan solo 2 GB de RAM gracias a las innovaciones en investigación. Es el primer modelo basado en la nueva y avanzada arquitectura que prioriza los dispositivos móviles y que también impulsará la próxima generación de Gemini Nano, y está diseñada para un rendimiento de IA inigualable directamente en dispositivos portátiles.
MedGemma es nuestro modelo abierto más capaz para la comprensión multimodal de textos e imágenes médicas: una variante de Gemma 3, MedGemma es un gran punto de partida que los desarrolladores pueden ajustar y adaptar para crear sus propias aplicaciones de IA basadas en la atención médica. Su pequeño tamaño lo hace eficiente para la inferencia, y debido a que es abierto, permite a los desarrolladores ajustar el modelo con flexibilidad y ejecutarlo en sus entornos preferidos. MedGemma está disponible para su uso ahora como parte de Health AI Developer Foundations.
Colab está lanzando una primera experiencia de agente que transforma la codificación: con la tecnología Gemini 2.5 Flash, Colab te ayuda a realizar tareas complejas, como ajustar un modelo. Mostramos cómo el nuevo Colab que prioriza la IA, puede crear una interfaz de usuario y ahorrarte mucho tiempo de codificación.
SignGemma es un modelo de comprensión del lenguaje de señas que llegará a la familia de Gemma a fin de este año: es, hasta la fecha, el modelo más capaz para traducir lenguajes de señas a texto en lenguaje hablado (el mejor en lenguaje de señas en inglés estadounidense), lo que te permite desarrollar nuevas formas para que los usuarios sordos o con problemas de audición accedan a la tecnología. Comparte tu opinión en goo.gle/SignGemma.
DolphinGemma es el primer gran modelo de lenguaje del mundo para delfines: después de trabajar con investigadores de Georgia Tech y el Wild Dolphin Project, DolphinGemma ajustó los datos de décadas de investigación de campo, para ayudar a los científicos a comprender mejor los patrones de cómo se comunican los delfines.
Ampliamos los beneficios de la IA para el Programa de Google Developer, incluidos Gemini Code Assist Standard, un crédito anual para desarrolladores de IA de última generación y 3 meses de Google One AI Premium. También anunciamos una nueva comunidad de Google Cloud y NVIDIA donde puedes comunicarte con expertos de ambas empresas en un foro dedicado y, pronto, obtendrás acceso a contenido y créditos de aprendizaje exclusivos.
Después de las presentaciones, transmitiremos en vivo las sesiones de IA, Android, la web y la nube del 20 al 21 de mayo. Luego, podrás ver todos los anuncios y actualizaciones de Google I/O con más de 100 sesiones, codelabs y más disponibles on demand a partir del 22 de mayo.
Asegúrate de conectarte con nuestra próspera comunidad global de desarrolladores y síguenos en LinkedIn e Instagram mientras mostramos los eventos de I/O Connect a desarrolladores de todo el mundo.