Buscador
Ver revista digital
Empresas

Google presenta nuevos productos de Inteligencia Artificial

14-05-2024, 2:37:37 PM Por:

Google anunció el lanzamiento de 1.5 Flash, una IA más ŕapida y eficiente; el Proyecto Astra, una IA con "habilidades humanas", como ver, oír, recordar, asimilar y hablar; así como futuras actualizaciones.

Mountain View (EE. UU.), 14 may (EFE).- Google presentó este martes una serie de nuevas funciones de inteligencia artificial (IA), que buscan posicionar a la empresa como la referencia en este sector tecnológico. Destaca el lanzamiento de 1.5 Flash, una IA más ŕapida y eficiente; el Proyecto Astra, una IA con “habilidades humanas”, como ver, oír, recordar, asimilar y hablar; así como futuras actualizaciones: búsquedas con vídeo y la personalización de Gemini.

No obstante, los anuncios se vieron en parte eclipsados por su rival OpenAI, que ayer presentó ChatGPT-4o, la nueva versión gratuita, más rápida y con capacidades mejoradas de su popular ‘chatbot’.

Google presenta 1.5 Flash

Google presentó este martes 1.5 Flash, una nueva versión de su inteligencia artificial (IA) diseñada para ser “rápida y eficiente”, como parte de su esfuerzo para convertirse en la IA de referencia.

Según detalló Google hoy en su evento anual de desarrolladores, Google I/O, 1.5 Flash “se destaca en resúmenes, aplicaciones de chat, subtítulos de imágenes y videos, extracción de datos de tablas y documentos extensos, entre otras cosas”.

Esto es gracias a su entrenamiento por un proceso llamado “destilación”, donde los conocimientos y habilidades más esenciales de un modelo más grande se transfieren a un modelo más pequeño y más eficiente.

Google anunció que Gemini 1.5 Flash está disponible para que los desarrolladores lo prueben en Google AI Studio y Vertex AI a partir de hoy, con un millón de tokens para comenzar y 2 millones disponibles bajo demanda.

Gemini 1.5 Pro en 35 idiomas

Google abrió Gemini 1.5 Pro a los suscriptores de Gemini Advanced -que tiene un precio de 19,99 dólares al mes- en más de 35 idiomas, entre ellos el español, en 150 países.

Además, Sundar Pichai, director ejecutivo de la compañía, dijo desde un anfiteatro en la sede de la empresa en California que Gemini 1.5 Pro tendrá una ventana de contexto (la cantidad de información que un modelo de IA puede entender) de dos millones de tokens, en comparación con el millón de tokens que lee actualmente.

“Un millón de tokens abre posibilidades completamente nuevas. Es emocionante, pero creo que podemos esforzarnos aún más. Así que hoy ampliamos la ventana de contexto a dos millones de tokens”,

señaló Pichai entre los aplausos del público.

Google permitirá crear chatbots con IA personalizados

El gigante tecnológico también subrayó que “pronto” la nueva función de la IA de Gemini ‘Gems’ permitirá personalizar un chatbot, por ejemplo para crear un entrenador personal, un chef o un profesor de escritura creativa, para los suscriptores de Gemini Advanced.

Se trata de producto similar al GPT de OpenAI, que permite crear chatbots ChatGPT personalizados, o a los chats personalizados -algunos con famosos- de Meta.

Google presenta su asistente de IA capaz de ver, oír, recordar, asimilar y hablar

La empresa también presentó el Proyecto Astra, su asistente de inteligencia artificial (IA) con “habilidades humanas” que le permiten ver, oír, recordar, asimilar y hablar; una herramienta futurista que previó lanzar a finales de año.

Google mostró varios ejemplos -según la compañía, grabados en directo y no manipulados de ninguna manera- en los que una de sus trabajadoras en Londres preguntó al asistente qué apodo le pondría a una mascota, le pidió ayuda con programas de codificación y matemáticos, y también para encontrar sus gafas, tras mostrarle una habitación.

Otra cualidad que tienen estas tecnologías es que pueden ser interrumpidas durante sus respuestas para pasar al siguiente punto de la conversación, y pueden tener distintas personalidades, aunque en ambos ejemplos se usó la voz de una mujer.

“Estos agentes se crearon sobre nuestro modelo Gemini y otros modelos de tareas específicas, y fueron diseñados para procesar información más rápido codificando continuamente cuadros de video, combinando la entrada de vídeo y voz en una línea de tiempo de eventos y almacenando en caché esta información para recuperarla de manera eficiente”,

explica la empresa en un comunicado.

Usarla con gafas inteligentes

Google se sacó un as de la manga sorprendiendo con la posibilidad de usar esta tecnología con unas gafas inteligentes, además de con un teléfono, aunque la compañía no hizo anuncios específicos al respecto.

En su último evento de desarrolladores, Meta también apuntó que está desarrollando sus gafas inteligentes para que puedan acceder a su IA y contestar a los usuarios preguntas sobre lo que ven.

Son muchas las tecnológicas que este año han apostado por herramientas con IA que interactúan con el usuario sin la necesidad de un teléfono u ordenador -como The Rabbit R1 o Humane AI Pin-, pero ninguno, de momento, ha conseguido un éxito rotundo.

Será posible preguntar con videos

La firma “pronto” integrará la posibilidad de preguntar en su buscador con videos para obtener ayuda de la inteligencia artificial (IA), según anunció la compañía este martes en su evento anual de desarrolladores, Google I/O.

Este revolucionario paso para el buscador de la compañía, que ya tiene más de un cuarto de siglo, será posible gracias a un nuevo modelo Gemini (la IA del gigante tecnológico) personalizado para la búsqueda de Google.

En tanto, el buscador utiliza esta tecnología para su razonamiento de varios pasos, la planificación y la multimodalidad.

Para ejemplificar esta nueva herramienta una empleada de Google se subió al anfiteatro de la sede de la compañía en Mountain View, California, para contar que se compró un tocadiscos en una tienda de segunda mano, pero que no funciona cuando lo enciende, ya que la pieza de metal con la aguja no para de moverse.

“¿Por qué esto no se queda quieto?”, preguntó la mujer a Google junto con el video -sin la necesidad de anotar el modelo del equipo o abundar en otros detalles sobre el problema- y obtuvo una respuesta generada por IA.

En su réplica, la IA ofreció una descripción general de los posibles problemas, como la posibilidad de que la pieza estuviera desequilibrada, y dio algunas pistas para solucionar el problema.

La búsqueda con video estará disponible “pronto” para los usuarios de Search Labs en inglés en EE.UU. y se extenderá a más regiones después. EFE

MÁS NOTICIAS:

autor Agencia de noticias internacional con sede en Madrid y presencia en más de 110 países.

Comentarios