Una nueva edición del Google I/O 2019 arrancó hoy por todo lo alto, con un montón de novedades donde, a diferencia de ediciones anteriores, muchas de ellas están disponibles desde hoy. Otra diferencia con respecto a años anteriores, es que hoy Google también presentó hardware, incluido una nueva versión de su famoso smartphone Pixel, lo que hizo que esta conferencia fuera de las más animadas e interesantes de los últimos años.
Por otro lado, fue interesante ver un nuevo enfoque centrado en la privacidad, un tema delicado que hizo que el mismo Sundar Pichai, CEO de Google, terminara declarando hace unos meses ante el Congreso de los Estados Unidos. En aquel entonces, prometió cambios en cuanto a las herramientas de privacidad y hoy las vimos hechas realidad.
Como mencionaba, fueron un montón de anuncios y ahora llega el turno de repasarlos uno a uno para aquellos que no hayan estando pendientes de la conferencia.
La primera demo del día fue para Google Search, el buscador de Google que ahora es capaz de activar la cámara de nuestro smartphone. ¿El objetivo? Habilitar experiencias en realidad aumentada desde los mismos resultados del buscador.
ARe you seeing this?! With new AR features in Search rolling out later this month, you can place, view and interact with 3D objects right in your own space. #io19 pic.twitter.com/Q61U0r2Hvg
— Google (@Google) 7 de mayo de 2019
Esta característica llegará a finales de este mes de mayo y nos permitirá interactuar con objetos en 3D dentro de entornos reales. Es decir, podremos ver, por ejemplo, cómo de grande es un tiburón blanco si lo comparamos con nuestro sofá, o probarnos unas zapatillas, todo con realidad aumentada.
Google también adelantó que ya están trabajando con compañías e instituciones como la NASA, New Balance, Samsung, Target, Visible, Volvo y otras, para añadir nuevas experiencias y objetos relacionados sus términos de búsqueda.
Siguiendo con la cámara de nuestro smartphone, Google Lens, la aplicación de reconocimiento que usa machine learning, se actualiza para ser "más inteligente", ya que gracias a las mejoras en la plataforma de inteligencia artificial de la compañía ahora será capaz de reconocer nuevos objetos y ofrecer nuevas funciones.
Today's special: Google Lens. ?? Automatically highlighting what's popular on a menu, when you tap on a dish you can see what it looks like and what people are saying about it, thanks to photos and reviews from @googlemaps. #io19 pic.twitter.com/5PcDsj1VuQ
— Google (@Google) 7 de mayo de 2019
Ahora con Google Lens podremos, por ejemplo, leer el menú de un restaurante y la aplicación resaltará aquellos platillos recomendados y con imágenes en Google Maps, lo que nos permitirá echar un vistazo a su aspecto y a comentarios de otros usuarios.
Asimismo, ahora con Google Lens tendremos un traductor en tiempo real con el cual podremos no sólo traducir anuncios y carteles a nuestro idioma, sino también pedir que nos lo lea en nuestro idioma, convirtiendo así el texto a audio y sin necesidad de tener datos activados, ya que, según Google, todo se hace de forma local en el móvil.
Google Lens se implementará primero en Google Go, la app de búsqueda diseñada para teléfonos con especificaciones de gama de entrada, y pesará sólo 100 kb. Posteriormente llegará al resto de dispositivos.
¿Recuerdan el año pasado aquella impresionante demo donde Assistant se hace pasar por una persona para llamar y pedir una reservación como si fuésemos nosotros? Pues esto fue posible gracias a Google Duplex, una aplicación de la que no se profundizó mucho en esta ocasión, pero que nos adelantaron a que a finales de año llegará a la web y permitirá nuevas tareas como alquilar un coche o comprar boletos para el cine.
We?re extending Duplex to the web, previewing how the Google Assistant can help you complete a task online, like renting a car or buying movie tickets. More later this year. #io19 pic.twitter.com/lSWH5Rz72X
— Google (@Google) 7 de mayo de 2019
Bajo el argumento de ser más útil y ayudar a todas las personas sin importar condición económica, social o ubicación geográfica, Google presentó nuevas funciones para su famoso asistente, que ahora es capaz de entender el contexto, realizar varias tareas a la vez, saber más de nosotros para efectuar tareas de una forma más eficiente y mucho más.
Según Google, ahora Assistant será más rápido y permitirá realizar varias tareas encadenadas sin tener que decir 'Ok, Google' cada vez. Ante esto, Google lo ha llamado "la próxima generación de Assistant".
Running on-device and coming to new Pixel phones later this year, the next generation Google Assistant can understand and process your requests up to 10 times faster, making operating your phone, multi-tasking and even composing email easier than ever. #io19 pic.twitter.com/iNPpOvwDM2
— Google (@Google) 7 de mayo de 2019
De entre las demos que presentaron, pudimos ver cómo Assistant es capaz de abrir Gmail, identificar a quién está dirigido el correo, cuál es campo de asunto y cuál es el contenido del mismo. Además de añadir archivos adjuntos desde otras aplicaciones. También será capaz de saber más de nosotros, y así cuando le pidamos fotos de nuestro hijo o la dirección de nuestra madre sabrá a qué nos referimos.
Por último, a partir de este verano, Assistant se integra a Waze y estrena un nuevo modo de conducción, donde la idea es tener al alcance sugerencias personalizadas para navegación, mensajería, llamadas y comunicación.
Como mencionaba al inicio, durante la conferencia, Google repitió en varias ocasiones el tema de la privacidad, donde ahora la decisión será del usuario de compartir más o menos información con Google. Para esto, presentaron una nueva interfaz dentro de nuestra cuenta que servirá para administrar todas nuestras preferencias de privacidad.
To ensure privacy controls are always at your fingertips, we?re making your Google Account easily accessible with one tap from all major Google products. #io19 pic.twitter.com/yEniCV5JUk
— Google (@Google) 7 de mayo de 2019
Este nuevo menú será accesible desde el acceso directo a nuestra cuenta, en la foto ubicada en la parte superior derecha, donde podremos ver y modificar todos nuestros controles relacionados con la privacidad de nuestra información dentro de todos los servicios de Google.
Coming soon to @googlemaps, when you turn on Incognito mode in Maps, your activity?like the places you search or get directions to?won?t be saved to your Google Account. Just tap from your profile picture to easily turn it on or off. #io19 pic.twitter.com/z7GRkkmDbn
— Google (@Google) 7 de mayo de 2019
Como parte de esto, el modo incognito se estrena en Google Maps, lo que significa que cualquier actividad que realicemos en los mapas de Google, como los lugares que buscamos o de los que pedimos indicaciones, no se guardarán en nuestra cuenta de Google.
Otro de los anuncios que más llamaron la atención fue la implementación de inteligencia artificial en herramientas de reconocimiento de audio y conversaciones para transcripción en tiempo real. Se trata de varios proyectos relacionados, pero lo más interesantes son tres: Project Euphonia, Live Caption y Live Relay.
En el caso de Live Caption la idea es añadir subtítulos automáticos a cualquier fuente de vídeo desde un smartphone. Se trata de una herramienta creada en conjunto con la comunidad de sordos y personas con dificultades auditivas.
En segundo lugar tenemos Live Relay, que es una herramienta pensada para ayudar a las personas a realizar llamadas telefónicas sin tener que hablar ni escuchar. Se basa en reconocimiento de voz y la traducción de texto a voz, por lo que cualquier persona, ya sea sorda o muda, podrá hacer una llamada telefónica y no habrá cambios para el interlocutor.
To help people make phone calls without having to speak or listen, Live Relay uses on-device speech recognition and text-to-speech conversion, allowing a phone to listen and speak on someone's behalf ? # #io19 pic.twitter.com/sqeEUzZY2E
— Google (@Google) 7 de mayo de 2019
Por último tenemos Project Euphonia, una iniciativa de Google AI que cuenta con la colaboración de organizaciones sin fines de lucro y voluntarios, cuyo objetivo es que la plataforma de reconocimiento de voz sea capaz de entender y transcribir las voces de aquellas personas con dificultades del habla, lo que les ayudará a comunicarse de una forma más rápida y precisa.
La nueva beta de Android Q llegó con un montón de novedades, donde se destaca el modo oscuro, 'Focus Mode', 'Family Link' y nuevas herramientas de seguridad y privacidad. Además, esta beta está disponible por primera vez para 21 nuevos smartphones que la pueden instalar desde hoy. Por cierto, Google también aprovechó para anunciar que Android ya está presente en 2.500 millones de dispositivos en todo el mundo.
Google acaba de darle nueva fuerza a Nest, la cual pasa de ser la marca de dispositivos IoT a convertirse en la marca para todos los gadgets para el hogar conectado, incluido los Google Home.
You make a house a home, we make a home a nest. Welcome to the #HelpfulHome. pic.twitter.com/riSfh3kLO1
— Google Nest (@googlenest) 7 de mayo de 2019
El primer dispositivo de esta nueva familia de gadgets para el hogar es el Nest Hub Max, una mejora ante el Nest Hub, el cual aumenta el tamaño de su pantalla, incorpora cámara frontal con reconocimiento facial y administra todos los datos privados dentro del mismo dispositivo, según Google. Por cierto, el Nest Hub llega finalmente a España.
Introducing #nesthubmax, the ultimate smart display built with a screen that?s big enough for everything from video chats to YouTube streaming. #io19 pic.twitter.com/iJe4CNeZND
— Made by Google (@madebygoogle) 7 de mayo de 2019
La estrella y anuncio bomba de la conferencia fue sin duda la nueva variante de su famoso smartphone, que ahora lleva su fantástica cámara a la gama media a partir de los 399 dólares y disponible desde el día de hoy.
Conozcan todos los detalles de los nuevos Pixel 3a, incluido nuestro análisis a fondo.
Por último, Google anunció que su nueva función de navegación en realidad aumentada para Google Maps llega como función exclusiva a todos los Pixel. Hay que recordar que esta nueva característica está disponible actualmente en versión beta para el resto de los dispositivos compatibles.
Google Maps meets AR.
— Google Maps (@googlemaps) 7 de mayo de 2019
Rolling out to Pixel phones, starting today. #io19 pic.twitter.com/rDBxvbZyF8