Que-puede-hacer-Motion-Sense-basado-en-Project-Soli-de-Google

¿Motion Sense puede cambiar radicalmente la forma de interacción con el smartphone?

Por lo general, Google generación tras generación los dispositivos Pixel han tenido un marco superior grande, pero en la cuarta iteración parece que será justificado. La empresa ha desvelado que tendrá un desbloqueo facial 3D avanzado así como Motion Sense, basado en el proyecto Soli.

Tras algunas filtraciones que mostraban el cristal protector del Pixel 4, podíamos ver una gran cantidad de recortes que no sabíamos de qué se trataba. Ahora sabemos de que se trata y podría revolucionar la navegación de la interfaz de los teléfonos Pixel.

Todo lo que puede hacer Motion Sense basado en Project Soli

En el nuevo dispositivo de Google existirá una plataforma encargada del reconocimiento de gestos que solo se ha mostrado hasta ahora en forma de prototipo, y Google ha confirmado que lo empleará con el nombre oficial Motion Sense. El chip que lo hace posible se llama «Soli» y emplea «una nueva tecnología de detección que utiliza un radar en miniatura para detectar interacciones de gestos sin contacto».

Esto es muy similar a lo que presentó hace unos meses LG, ya que podíamos controlar algunos aspectos mediante gestos sin necesidad de tocar la pantalla. Aunque no reconocía demasiado bien los gestos mediante la cámara frontal con detección 3D en el G8 ThinQ, Google lleva trabajando en esta tecnología años y parece que está lista para su correcta implementación.

Radar-Project-Soli-Google

La empresa responsable de la tecnología del chip Soli, ha hecho posible su inclusión en un smartphone gracias a reducir de forma considerable este módulo de reconocimiento 3D. El chip es tan pequeño como la uña de un meñique, pero es capaz de detectar movimientos leves con gran precisión.

Funciona según el mismo principio que los grandes radares de vuelo que detectan los movimientos de los aviones en el cielo, razón por la cual la FCC negó su implementación hasta el 31 de diciembre de 2018:

«Mediante esta Orden, otorgamos una solicitud de Google, LLC (Google) para la exención de la sección 15.255 (c) (3) 2 de las reglas que rigen los dispositivos de detección de movimiento interactivos de corto alcance, de acuerdo con los parámetros establecidos en Google-Facebook Presentación conjunta ex parte, para permitir la certificación y comercialización de su sensor de perturbación de campo del Proyecto Soli (sensor Soli) para operar a niveles de potencia más altos que los permitidos actualmente. Además, renunciamos al cumplimiento de la disposición de la sección 15.255 (b) (2) del
reglas para permitir a los usuarios operar dispositivos Google Soli mientras están a bordo de un avión.

Encontramos que los sensores Soli, cuando operan bajo las condiciones de exención especificadas en este documento, presentan un potencial mínimo de causar interferencia perjudicial a otros usuarios del espectro y usos de la banda de frecuencia de 57-64 GHz, incluido el servicio satelital de exploración de la Tierra (EESS) y Servicio de radioastronomía (RAS). Además, descubrimos que la concesión de la exención servirá al interés público al proporcionar funciones innovadoras de control del dispositivo utilizando la tecnología de gestos manuales sin contacto.»

Ahora sabes un poco más su procedencia y para qué puede ser usado este pequeño sensor de movimiento altamente preciso. Pero, ¿cómo funciona Project Soli?

¿Cómo funciona Motion Sense?

Lógicamente Motion Sense no es solo un chip que actúa como radar, sino también hay una gran implementación de software para lograr el reconocimiento de gestos. Según Google, el hardware junto al software pueden «rastrear el movimiento submilimétrico a altas velocidades con gran precisión».

rango-de-variaciones-radar-soli

El chip Soli expulsa ondas electromagnéticas en un amplio espacio que se refleja de nuevo en la pequeña antena interior para ser capaz e percibir el más mínimo movimiento.

Los movimientos emiten una cierta energía, la cual gracias a la combinación de sensores y algoritmos de software es capaz de entenderla y determinar «las características y dinámicas del objeto, incluyendo tamaño, forma, orientación , material, distancia y velocidad». Google ha perfeccionado sus algoritmos de detección de movimiento y predicción para permitir ligeras variaciones en los gestos que se transformarán en una misma acción de interfaz, ya que el rango de espacio de detección es limitado.

Estamos acostumbrados a interactuar con la pantalla, es decir, a una interface táctil. Google tiene como objetivo revolucionar la interacción con nuestros dispositivos móviles mediante el uso de la tecnología Motion Sense basada en radar que incluiría, entre otros, gestos naturales como pulsar un botón o la acción de deslizar que se pueden emplear en cualquier orientación, de día o de noche.

Esta tecnología supera con creces a la detección 3D que se implementa en la parte frontal o posterior de algunos dispositivos. Pronto se podrá poner a prueba. con el Google Pixel 4, y comprobar si tiene una aceptación y uso real para los usuarios. Así mismo, la empresa responsable del desarrollo ha publicado un vídeo explicativo acerca de esta nueva característica.

Newsletter icon

¿Quieres recibir la mejor información sobre tecnología?

Disfruta de las noticias destacadas de cada semana directamente en tu correo para estar siempre informado.​

Creador y editor jefe de Techdroy. Desde pequeño me apasiona la tecnología, es una forma de vida que me gusta compartir con el mundo entero. Por ello, creé Techdroy para desarrollar mis ideas y opiniones acerca de los smartphone, ordenadores o cualquier dispositivo electrónico. ¿Te unes a nosotros?