Un mini proyector reproduce un teclado en la piel y desde allí se envían las órdenes. Ya funciona un prototipo. La fascinación por las pantallas táctiles parece nunca tocará el techo. La novedad en este campo llega de la mano de un grupo de investigadores estadounidenses, quienes le dan forma al futuro inmediato con un sistema llamado Skinput, que permite proyectar las teclas sobre la piel humana.
El prototipo fue desarrollado por científicos de la Universidad Carnegie Mellon (CMU) y los laboratorios de Microsoft. Gracias a este hallazgo, desde el propio cuerpo se podrán transmitir órdenes inalámbricas -a través de Bluetooth- hacia teléfonos inteligentes, reproductores de música y equipos portátiles.
Con sólo disparar una imagen sobre el antebrazo o cualquier parte del cuerpo, será posible regular el volumen de la música, escribir un mensaje de texto, dar instrucciones al navegador de Internet, seleccionar una lista de opciones y todas las acciones que uno pueda ejecutar.
La gran virtud del Skinput es hacer del cuerpo una superficie táctil. Esto lo consigue al detectar los distintos niveles de vibración producidos por el organismo. Estas señales, que son imperceptibles para el oído humano, se originan, por ejemplo, al rozar la piel con la yema de los dedos.
La intensidad de estos movimientos puede variar de acuerdo a la densidad y cantidad de huesos, tendones y músculos, o dependiendo del área corporal en la que se registren.
El sistema está capacitado para reconocer cinco zonas de contacto. Para identificar la presión, se vale de unos sensores acústicos que captan las vibraciones de onda larga que se producen en la epidermis. Esta información es enviada hacía un proyector diminuto anclado en un brazalete, para finalmente, por medio de un software especial, plasmar sobre la piel humana un teclado o menú.
Según teorizan sus creadores, cuando se pulsa una parte del cuerpo, este devuelve un pequeño eco, semejante a la onda expansiva que genera una piedra al chocar contra el agua. La aplicación se ocupa de nivelar las frecuencias de sonido para determinar qué porción de la piel está pulsando el operador.
Y si bien hay mucho para mejorar y las pruebas recién comienzan, los resultados obtenidos son por demás optimistas. Los testeos realizados señalan que, luego de un entrenamiento de apenas 20 minutos, el ejecutor puede conseguir que el sistema responda con más del 95% de precisión. Según apunta Chris Harrison, investigador del CMU "esto supone un fallo por cada 20 órdenes, una precisión similar a la de un iPhone".
Un proyecto similar está a cargo de Pranav Mistry, un estudiante del Instituto de Tecnología de Massachusetts, que decidió prescindir de teclados, mouse y pantallas para convertir cualquier superficie en un módulo interactivo de manejo. La intención fue crear una suerte de "sexto sentido digital", definida por el propio autor como una suerte de "Internet física que está en todas partes".
Visto : Clarin.com
No hay comentarios.:
Publicar un comentario