
Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
En su edición 2025, Google I/O dejó claro que su apuesta por la inteligencia artificial va más allá de las promesas: presentó el modelo Gemini 2.5 Pro, diseñado para elevar el razonamiento, la comprensión multimodal y las capacidades de programación. Este modelo no solo es más potente, sino que se integrará directamente en herramientas clave como Gmail, Chrome y Google Search, facilitando una interacción más contextual e inteligente con estas plataformas.
Una de las funciones que más llamaron la atención durante el evento fue el nuevo “modo IA” para búsquedas complejas, que comenzará a implementarse primero en Estados Unidos. Este modo permite procesar consultas entre dos y cinco veces más largas de lo habitual y realizar preguntas de seguimiento, transformando por completo la experiencia del buscador.
También se presentó Google Beam, evolución de Project Starline, junto con novedades en Google Meet, que incluirá traducción en tiempo real entre inglés y español, y más idiomas próximamente. Según Sundar Pichai, director ejecutivo de la compañía, esta nueva función ayuda a las personas a superar las barreras lingüísticas “casi en tiempo real”, manteniendo la voz, tono y expresión de interlocutor.
Otro anuncio clave fue Project Astra, una iniciativa enfocada en desarrollar un asistente capaz de resolver tareas complejas como encontrar información dentro de correos, manuales o videos, y ejecutar acciones como hacer llamadas.
En cuanto a generación de contenido, se introdujeron modelos avanzados como Veo 3, que puede crear videos con efectos, audio y diálogos realistas, e Imagen 4, con mejoras notables en precisión visual y generación de texto.
El evento culminó con anuncio en el campo de la realidad extendida: las nuevas gafas desarrolladas por Samsung y Google, conocidas como Project Moohan.
De acuerdo con Google, este dispositivo ofrecerá una experiencia inmersiva al integrar aplicaciones, navegación y asistencia con inteligencia artificial directamente en el campo visual del usuario. Gemini desempeñará un rol protagónico como asistente contextual, capaz de interpretar e interactuar con el entorno en tiempo real.
Se espera que las gafas estén disponibles para su compra a finales de este año, consolidando un avance significativo en la evolución de Android hacia la realidad mixta.
Termina el evento Google I/O 2025
Pichai terminó el Google I/O 2025 destacando dos iniciativas que reflejan el alcance de la tecnología más allá de la inteligencia artificial. La primera fue FireSat, una red de monitoreo satelital diseñada para detectar incendios forestales casi en tiempo real. La segunda, Wing, es el sistema de reparto mediante drones de la compañía, que sigue avanzando como alternativa de logística aérea.
El evento dejó una visión clara del rumbo que tomará Google en los próximos años: un buscador potenciado por inteligencia artificial, asistentes más autónomos y contextuales como Gemini, avances en realidad extendida con Android XR y una apuesta cada vez mayor por la integración de estas tecnologías en el día a día.
Google y Samsung presentan Project Moohan
Estas gafas ofrecerán una experiencia de realidad extendida más inmersiva, integrando aplicaciones, navegación y asistencia con inteligencia artificial directamente en el campo visual del usuario. Gemini tendrá un papel central en estos dispositivos, actuando como asistente contextual capaz de interactuar con el entorno en tiempo real.
Las gafas desarrolladas conjuntamente por Samsung y Google, bajo el nombre Project Moohan, estarán disponibles para su compra a finales de este año, marcando un paso importante en la evolución del ecosistema Android hacia la realidad mixta.
Novedades de Android XR
Gemini tendrá un rol protagónico en los dispositivos de realidad extendida y en la plataforma Android XR, integrándose de forma profunda como asistente inteligente dentro de los headsets.
Music AI Sandbox
Esta plataforma permite a músicos y creadores generar melodías, acompañamientos y elementos sonoros a partir de indicaciones simples, facilitando el proceso creativo sin necesidad de conocimientos técnicos avanzados.
Crear escenas de video con Veo 3
Veo 3 en la nueva versión de su modelo de generación de video mediante inteligencia artificial. Esta actualización no solo mejora la calidad visual, sino que introduce una novedad clave: la capacidad de generar diálogos con interpretación de voces. Con esta herramienta, es posible crear escenas completas en las que los personajes no solo se mueven, sino que también hablan con entonación y expresividad.
From capturing real-world physics - like the noise and movement of water, or the look and sound of walking in snow - to lip syncing, Veo 3 is great at understanding what you want.
— Google DeepMind (@GoogleDeepMind) May 20, 2025
You can tell a short story in your prompt, and the model gives you back a clip that brings it to… pic.twitter.com/ePh3mnOQZt
Interacción natural con Gemini Live
Próximamente, los usuarios podrán conectar esta herramienta con sus aplicaciones y realizar acciones habladas directamente, sin necesidad de escribir o tocar la pantalla. Según Google, Gemini Live ya está disponible en más de 45 idiomas y opera en más de 150 países.
El nuevo probador virtual de Google
Google ha anunciado una innovadora función impulsada por inteligencia artificial: un probador virtual en vivo. Esta herramienta permite al usuario seleccionar una prenda, subir una foto propia y ver cómo luciría con esa ropa puesta, gracias a un modelo de IA que analiza tanto la imagen de referencia del producto como la fotografía del usuario para generar una visualización realista.
La experiencia se complementa con la posibilidad de configurar un agente inteligente que monitoree el precio del artículo. Si detecta una oferta que se ajusta a los criterios del usuario, el sistema puede incluso gestionar la compra automáticamente.
Project Mariner
Se trata del nuevo agente de inteligencia artificial de Google, también estará integrado en el modo IA del buscador. Gracias a esta funcionalidad, los usuarios podrán realizar solicitudes como comprar boletas para un evento, y dejar que el sistema se encargue del proceso de forma automática, sin necesidad de intervención adicional.
Lo nuevo de AI Overviews
Según la compañía, este sistema utiliza contexto personal, comprensión multimodal y capacidades de investigación profunda para responder preguntas complejas de forma integral.
Cuando el usuario formula una consulta difícil, AI Overviews es capaz de identificarla y generar una respuesta enriquecida, que puede incluir imágenes, mapas, enlaces útiles y recomendaciones precisas.
De acuerdo con Pichai, se trata del lanzamiento más importante de Google Search en la última década, marcando un renglón destacado en la evolución del motor de búsqueda hacia una plataforma guiada por inteligencia artificial.
Las novedades de Project Astra
Las actualizaciones de Project Astra representan uno de los avances más ambiciosos de Google en el desarrollo de asistentes inteligentes. Este proyecto incorpora capacidades multimodales que le permiten comprender el contexto, interpretar necesidades y ejecutar acciones de manera autónoma.
Entre sus funciones destacadas se encuentra la capacidad de interactuar con archivos, como desplazarse por un PDF hasta una sección específica según las indicaciones del usuario, demostrando un nivel avanzado de comprensión e iniciativa.
Last year, we introduced Project Astra: a research prototype exploring capabilities for a universal AI assistant. 🤝
— Google DeepMind (@GoogleDeepMind) May 20, 2025
We’ve been making it even better with improved voice output, memory and computer control - so it can be more personalized and proactive. Take a look ↓ #GoogleIO pic.twitter.com/MziQ0KuN0G
Gemini Robotic
Un modelo desarrollado específicamente para mejorar la capacidad de los robots en la interpretación y comprensión del entorno físico.
Gemini Difussion
Un nuevo enfoque dentro de su familia de modelos de inteligencia artificial, especialmente diseñado para resolver tareas complejas relacionadas con matemáticas y programación.
Gemini 2.5 can now organize vast amounts of multimodal information, reason about everything it sees, and write code to simulate anything. ↓ #GoogleIO pic.twitter.com/rgliP2poj7
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Líder de DeepMind entra al escenario
Anuncia el nuevo modelo Gemini 2.5 Flash, que estará disponible a partir de junio. Según Google, Gemini 2.5 es su modelo más seguro hasta la fecha.
Agent Mode de Gemini
Se ha presentado Agent Mode, una nueva funcionalidad de Gemini que marca un paso decisivo hacia asistentes verdaderamente autónomos.
Project Starline
Google ha retomado su ambicioso proyecto de videollamadas tridimensionales, anteriormente conocido como Project Starline, y lo ha rebautizado como Google Beam.
Cifras de Gemini
Pichai ha revelado que actualmente procesa alrededor de 480 billones de tokens al mes, una cifra que da cuenta de la magnitud operativa de sus modelos de inteligencia artificial. Además, la compañía informó que la aplicación de Gemini ya cuenta con más de 400 millones de usuarios a nivel global.
Comienza el evento
Sundar Pichai, CEO de Google, se adueña del escenario en Mountain View, California. Le da la bienvenida a los asistentes y calienta los motores de lo que será una jornada llena de novedades.
Lo que se espera del Google I/O 2025
A diferencia de ediciones anteriores, este año no se esperan grandes novedades en torno a Android, ya que la compañía adelantó sus anuncios sobre el sistema operativo la semana pasada. En esta ocasión, el protagonismo recaerá casi por completo en los avances en inteligencia artificial, aunque también se espera una breve actualización relacionada con realidad extendida (XR).
Los interesados podrán seguir la transmisión en vivo a través del sitio web oficial de Google I/O o desde el canal de YouTube de la compañía.
La inteligencia artificial toma el protagonismo
Como era de esperarse, la inteligencia artificial será el eje central de la conferencia inaugural del Google I/O 2025. La compañía ha venido consolidando su estrategia en este campo con Gemini, su familia de modelos de IA, que ha marcado la pauta en las últimas ediciones del evento. Este año no será la excepción, especialmente en un contexto de fuerte competencia con gigantes como OpenAI, Meta y Microsoft.
También se espera que la compañía comparta novedades relacionadas con el ambicioso Proyecto Astra, una iniciativa orientada a llevar la inteligencia artificial a nuevos niveles de interacción y funcionalidad.
Sin embargo, el protagonismo no será exclusivo de la IA. Google también ha confirmado que presentará avances en el ámbito de la realidad extendida. Aunque el sistema operativo Android XR tuvo escasa visibilidad en el Android Show reciente, se espera que el I/O sea el escenario para revelar novedades importantes, especialmente en lo referente a su integración con Gemini y los avances en dispositivos como las gafas inteligentes que aún se encuentran en fase de desarrollo.