23/10/2015

2035: del coche autónomo al rimel virtual

Cinco, diez, veinte años. El ejercicio prospectivo permite elegir el horizonte: 2020, 2025 o 2035. Ian Pearson, reputado futurólogo de las TI, ha dirigido el estudio The 2-in-1 Trend Report, patrocinado por Toshiba, en el que enumera los cambios que pronostica para cada una de esas fechas, no tan lejanas. El objetivo del patrocinador es pragmático: definir qué papel van a jugar los dispositivos móviles, en especial los llamados 2 en 1. Entre los augurios – algunas verdades como puños en el presente – se encuentra la expansión de los coches autónomos, la entrada de los robots en la vida cotidiana y el recurso generalizado a la inteligencia artificial. Poco original, pero es bueno saberlo.

2020 está demasiado cerca, pero es hasta ahora el horizonte ritual de los estudios prospectivos. Sólo unos pocos coches autónomos rodarán por las carreteras ese año. En lugar de conducir, los propietarios emplearán su tiempo de viaje a trabajar o recrearse, tal como hacen los pasajeros de trenes o autobuses, lo que les permitirá salir de casa más tarde y abandonar la oficina [porque seguirá habiendo oficinas] más tarde.

Gracias a la evolución y asequibilidad de las tecnologías asociadas al coche autónomo, habrá más pantallas integradas en un mayor número de equipos y productos, tanto en el hogar como en el trabajo. Estos displays se dedicarán a tareas específicas, y los teclados y pantallas de los híbridos – auténticos protagonistas del estudio – actuarán como interfaces para controlar e interactuar con aquellas, según el contexto. Estos dispositivos serán básicos a la hora de proveer las imágenes que transformarán los visores de realidad virtual o aumentada. Lo necesario para atraer a la generación que para entonces podría llevar como atributo la letra Z.

En esta vorágine tecnológica, habrá que asumir una pequeña decepción: dentro de sólo cinco años, los hogares no estarán repletos de robots, pero muchas empresas habrán empezado a utilizarlos para tareas como las de recepcionista o asistente. A imagen y semejanza del ´geminoide` Aiko Chihira, desarrollado precisamente por Toshiba.

Con admirable precisión, Pearson avanza cinco años hasta situarse en 2025 y asegurar al lector que los híbridos 2 en 1 habrán dado otro paso en su evolución: se convertirán en un centro móvil para lo que el autor llama ´gestión multidispositivo`. Esté donde esté el usuario, actuarán como el hub de control del resto de plataformas tecnológicas.

Para esas fechas, los coches autónomos se harán más comunes en el paisaje, pero lo importante es que el equipamiento interior utilizarán materiales, paneles o sistemas de climatización ajustables en función de las preferencias del pasajero. Y todo ello estará controlado por híbridos 2 en 1, que se ocuparán – por supuesto – de facilitar el entretenimiento. Un servicio disponible será la proyección de imágenes holográficas o virtuales. Llegados a ese punto, los usuarios controlarán sus dispositivos por medio de la voz y gestos.

No hace falta mirar tan lejos, en realidad. Ya hay prototipos de circuitos electrónicos impresos, diseñados para adherirse a la piel, pero en 2025 las membranas incluirán capacidades de display y «posiblemente» [extraña vacilación en un futurólogo] serán sensibles al tacto. También se utilizarán como pantallas de monitorización biomédica, aunque la mayoría funcionará como «video tatuajes», elementos de decoración corporal, o para la visualización de vídeos y fotografías [resulta tranquilizador saber que la fotografía, antes un arte respetable, sobrevivirá diez años a la trivialización actual].

En su peculiar regreso al futuro, el estudio da un salto de veinte años (2035) para afirmar que para entonces los humanos compartirán sus vidas cotidianas con robots que tendrán apariencia humana, asumirán distintas personalidades y dispondrán de sus propios sistemas de control. Para interactuar con ellos no serán necesarios equipos informáticos al uso: los ordenadores de 2035 – pronostica el autor, como si lo viera – utilizarán armazones robóticos para moverse y realizar tareas. Y, lo que puede ser más interesante, podrán controlarse a distancia haciendo uso de sensores inteligentes.

Se materializarán, por tanto, todas las interfaces propias de la ciencia ficción. El reconocimiento no ya de la voz, sino del pensamiento, será algo habitual – auxiliado por los gestos y la expresión facial – trabajando en conjunción con sistemas de inteligencia artificial que, cómo no, conocerán a los usuarios mejor que estos a sí mismos.

«Nos rodeará la informática invisible». No es un enigma: los dispositivos de procesamiento, almacenamiento, comunicaciones y sus respectivos sensores quedarán fuera de la vista y serán ubicuos. El cloud computing ya no estará centralizado en granjas de servidores sino que, como una nube verdadera, se extenderá como una fina niebla sobre el mundo cotidiano. Algunos de estos dispositivos [¿sólo algunos?] serán inteligentes, lo que significa que conocerán las tareas a realizar y harán todo lo posible para hacerlas realidad, sin necesidad de más instrucciones. El resultado será «un entorno inteligente que entenderá y responderá a simples comandos de voz». Si un proceso necesitase inteligencia más avanzada, será enrutado a donde sea necesario para ser cubierto.

la realidad virtual será familiar para muchas personas ya en 2020, año en el que la visión y el sonido podrán ser replicados, pero todavía no sucederá lo mismo con otros sentidos. Los intentos para proporcionar el tacto están todavia en un estadio temprano, y dependen principalmente de la fuerza y la vibración, explica el autor. Pero, en 2035, las conexiones directas con el cerebro permitirán que cualquier sentido sea integrado en la realidad virtual.

Lo más importante de todo: los individuos no sólo serán más inteligentes, sino más esbeltos. Los circuitos electrónicos utilizados –recuérdese: en 2025 – como «video tatuajes» evolucionarán hacia circuitos (invisibles) impresos en la superficie de la piel para controlar un maquillaje digital que estaría hecho de partículas capaces de orientarse para defractar la luz y generar colores.

Estas partículas estarían controladas por los omnipresentes circuitos electrónicos en cada área corporal, de forma que el maquillaje de labios, párpados o mejillas se mostrará de formas diferentes. Podrán programarse para evolucionar a lo largo del día según la localización, la hora u otro contexto. Las versiones más avanzadas convertirán la superficie cutánea en una pantalla más, con funcionalidades similares a las de los «video tatuajes» [que, a juzgar por el estudio, serán una conquista de la humanidad]. Pearson aventura que los robots querrán aprovecharse de las posibilidades que ofrecerá este nuevo rimel virtual.

[informe Marga Peonia]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons