fbpx

Google I/O 2024

La conferencia Google I/O del 14 de mayo fue la oportunidad para la empresa estadounidense de presentar todas sus innovaciones en inteligencia artificial. Ahora, Google se enfoca en su modelo de IA Gemini y lo integra en todos sus servicios principales, desde el motor de búsqueda hasta sus aplicaciones de productividad como Gmail, Docs y Drive.

El objetivo anunciado es “hacer que la IA sea útil para todos”. Pero también es una oportunidad para que Google compita más seriamente con OpenAI, que acaba de revelar su último modelo de IA: GPT-4o.

Google despliega su nueva experiencia de búsqueda

Durante varios meses, Google ha estado probando una nueva experiencia de búsqueda llamada SGE (Search Generative Experience), que genera una respuesta en la parte superior de los resultados de búsqueda en lugar de simplemente mostrar enlaces simples.

Google anuncia el despliegue de esta nueva función de IA para todos en Estados Unidos y planea hacerla disponible en otros países más adelante. Durante su conferencia, Google presentó la experiencia de búsqueda bajo el nombre de Resúmenes de IA. Está basada en su nuevo modelo personalizado Gemini y es “capaz de razonamiento en múltiples pasos, planificación y multimodalidad”.

Google Lens permite realizar búsquedas a través de videos

Si bien Google Lens ya permitía la búsqueda por fotos, ahora también puede realizar búsquedas a partir de videos. Inicialmente, esta función estará disponible solo para usuarios de Search Labs en Estados Unidos antes de extenderse a otros países.

Gemini llega a Gmail, Docs, Drive, Slides, Sheets…

Gemini también se integrará como asistente de IA en las aplicaciones de la suite Workspace. Google anuncia que las funcionalidades de Gemini se ampliarán para incluir a un mayor número de usuarios e integrarse en el panel lateral de Gmail, Docs, Drive, Slides y Sheets. Además, las funcionalidades de Gemini también se agregarán a la aplicación móvil de Gmail.

Podrás conversar con Gemini para resumir, analizar y generar contenido, aprovechando la información de tus correos electrónicos, documentos y mucho más, todo ello sin salir de la aplicación en la que te encuentres, indica Google en su publicación de blog.

Gemini llega a los teléfonos Android

Google describe su herramienta como un “nuevo tipo de asistente que utiliza IA generativa para ayudarte a ser más creativo y productivo”. Aquí hay algunos ejemplos de usos con Gemini en Android:

  • Realizar una búsqueda con la opción de Rodear para buscar (Circle to Search).
  • Solicitar un resumen completo de un PDF.
  • Obtener descripciones de imágenes más detalladas (con TalkBack).
  • Recibir alertas en caso de sospecha de estafa durante tus llamadas.

Veo, un competidor de Sora para generar videos por IA

“Veo genera videos de alta calidad con una resolución de 1080p que pueden durar más de un minuto, en una amplia variedad de estilos cinematográficos y visuales”. Google aprovechó su conferencia para mostrarnos su modelo de generación de video más avanzado. Veo es una respuesta directa a Sora, el generador de videos de OpenAI que podría lanzarse antes de fin de año. Está disponible en vista previa cerrada en la nueva plataforma VideoFX, y próximamente se integrará en algunas herramientas de Google.

Proyecto Astra: el futuro de la búsqueda multimodal

Otra novedad muy interesante presentada: Project Astra, desarrollado por Google DeepMind. Se trata de un asistente similar a ChatGPT Voice, que tiene la capacidad de hablar y ver a través de la cámara de un teléfono inteligente. Puedes ver un adelanto de su funcionamiento en el video a continuación.

Para ser realmente útil, un agente debe comprender y reaccionar a un mundo complejo y dinámico, al igual que lo hacen las personas, y recordar y memorizar lo que ve y oye para entender el contexto y actuar. También debe ser proactivo, educativo y personal, para que los usuarios puedan hablar con él de manera natural y sin demora ni retraso, explica Google en su publicación de blog.

Jean-Luc Lenoble
https://www.linkedin.com/in/jeanluclenoble