La Voz del Interior @lavozcomar: Google mostró su modelo de IA “más rápido y eficiente”: también habla como humano

Google mostró su modelo de IA “más rápido y eficiente”: también habla como humano

En lo que puede verse como una respuesta al lanzamiento de GPTo hace unos días, Google mostró algunas de las nuevas habilidades de su chatbot Gemini AI en el evento para desarrolladores I/O del martes, y adelantó un nuevo asistente Gemini que habla con el usuario como un asistente humano. Algo bastante parecido, de hecho, a lo que se conoció tras el último lanzamiento de la herramienta de Open AI.

Gemini Live, el nuevo asistente, comparte algunas de las mismas funciones y características con el nuevo ChatGPT potenciado por GPT-4o que OpenAI anunció el lunes: ambos asistentes pueden procesar imágenes, mantener conversaciones con sonido humano con el usuario, recordar grandes cantidades de información y razonar y planificar.

Los avances en IA que mostró Google se basan en el modelo Gemini Pro 1.5 de Google DeepMind, que logra un equilibrio entre rendimiento y velocidad.

El CEO de Alphabet, Sundar Pichai, habla en el evento de Google I/O en Mountain View, California, el martes 14 de mayo de 2024. (Foto de Jeff Chiu/AP)

En breve, los suscriptores del nivel de servicio Gemini Advanced obtendrán un chatbot capaz de procesar y recordar mucha más información (y más que cualquier otro chatbot de consumo). Google afirma que Gemini ofrece una ventana contextual de un millón de tokens, lo que significa que puede recordar hasta 1.500 páginas de documentos o resumir 100 correos electrónicos.

Según Google, un usuario puede subir un contrato de alquiler extenso y, a continuación, plantear a Gemini preguntas sobre las normas que regulan los animales domésticos o las disputas sobre el alquiler. Los usuarios podrán subir archivos de Google Drive directamente al chatbot.

En una demostración en directo, Google mostró cómo el chatbot puede ahora ayudar más eficazmente a planificar actividades durante un próximo viaje. Comienza extrayendo los detalles del próximo viaje (horarios de los vuelos, ubicación de los hoteles, etc.) de los correos electrónicos de confirmación que has recibido de la aerolínea y el hotel a través de Gmail.

Tras recabar información sobre lo que le gusta al usuario y a su familia, puede sugerir algunas atracciones cercanas al hotel (basándose en los datos de Google Maps) que probablemente sean pertinentes. Gémini utiliza sus habilidades de razonamiento y planificación para considerar cuestiones logísticas, como si la agenda propuesta deja tiempo suficiente para viajar de un punto a otro.

El CEO de Alphabet, Sundar Pichai, habla en el evento de Google I/O en Mountain View, California, el martes 14 de mayo de 2024. (Foto de Jeff Chiu/AP)

Google afirma que los usuarios de Gemini también verán mejoras en la comprensión de imágenes por parte del chatbot. Por ejemplo, será posible subir una foto de un problema matemático y obtener instrucciones paso a paso sobre cómo resolverlo.

GEMINI live: lenguaje natural

El anuncio más interesante del gigante de las búsquedas fue algo llamado Gemini Live, una versión más avanzada del asistente Gemini que te habla en un estilo relativamente natural.

Google dice que los usuarios de «Live» (es decir, los suscriptores del nivel de servicio Gemini Advanced) pueden elegir entre varias voces. Como Gemini Pro es rápido, se puede interrumpir al asistente y éste se detendrá y esperará a recibir más información antes de continuar, igual que haría un asistente humano.

Se puede pedirle a Live ayuda para preparar una entrevista de trabajo. El asistente podría ofrecer información sobre el currículum y los puntos fuertes para el puesto, o incluso representar una entrevista y brindar información sobre las posibles respuestas.

Google dice que añadirá un elemento visual a finales de este año que permitirá a Live hablar con el usuario sobre las imágenes que «ve» a través de la cámara del teléfono.

Gemini Live aún no está disponible (llegará «en los próximos meses», dice Google), pero puede considerarse como el estado actual de la técnica en asistentes de IA.

«El razonamiento es un nuevo conjunto de capacidades en el que hemos estado trabajando», dijo Sissie Hsiao, vicepresidente de Google y director general de Gemini, durante una entrevista con Fast Company el lunes. «Así que aplicarlo no sólo a la generación de texto o de imágenes, sino realmente a la resolución de problemas utilizando otras herramientas, y componer esas herramientas es la próxima epopeya».

https://www.lavoz.com.ar/tecnologia/google-mostro-su-modelo-de-ia-mas-rapido-y-eficiente-tambien-habla-como-humano/


Compartilo en Twitter

Compartilo en WhatsApp

Leer en https://www.lavoz.com.ar/tecnologia/google-mostro-su-modelo-de-ia-mas-rapido-y-eficiente-tambien-habla-como-humano/

Deja una respuesta