LOS DESAFÍOS QUE PLANTEA LA REALIDAD VIRTUAL

La realidad virtual es una de las tecnologías que más ha crecido durante el último año. Durante los últimos meses, compañías de la talla de Sony – a través de PlayStation –, HTC, Facebook – con su línea Oculus –, Samsung, LG, Google, y hasta Microsoft, han llevado al mercado sistemas de realidad virtual que, con distintos grados de sofisticación, y objetivos diversos, les proponen a los usuarios sumergirse en experiencias inmersivas con propósitos vinculados al entretenimiento, al arte, a la educación, y hasta a la actividad profesional. Sin embargo, a pesar de este enorme empuje por parte de los fabricantes, todavía no está del todo claro hasta que punto existe un interés genuino por parte del público por esta tecnología. Y esto, en gran parte, dependerá de cómo estas empresas enfrenten algunos desafíos que la misma presenta.

A continuación descubriremos cuáles son los principales desafíos que plantea esta tecnología y que, a pesar de ya comenzar a copar el mercado con nuevos productos, los fabricantes y desarrolladores todavía no han resuelto.

LOS POSIBLES MAREOS Y DESORIENTACIÓN DE LOS USUARIOS

Uno de los principales problemas que plantean los sistemas de realidad virtual, tiene que ver con los mareos que éstos producen en algunos usuarios. Así como las consolas de videojuegos, o la pantalla de un dispositivo móvil o un e-reader en un vehículo en movimiento, muchas personas se sienten desorientadas y comienzan a experimentar dolores de cabeza y fatiga al sumergirse en los mundos virtuales.

Con un mercado que, por el momento, todavía es pequeño, y aplicaciones de esta tecnología que se limitan mayormente a los videojuegos y el consumo de unos pocos contenidos, todavía no está claro hasta que punto los mareos son un verdadero problema, o qué porcentaje de usuarios afectan. Pero si tenemos en cuenta el enorme potencial transformador que tiene esta tecnología, está en el mejor interés tanto de los fabricantes, como de los desarrolladores de contenido, y del público en general el resolver este problema, y volverla accesible a todos.

Es por eso que varios investigadores ya están trabajando en esta problemática. En el Laboratorio de gráficos de computadora e interfaces de usuario de la Universidad de Columbia, por ejemplo, están experimentando con la posibilidad de limitar el campo visual de los usuarios cuando utilizan cascos de realidad virtual, restringiendo un poco la visión perimetral, y en las partes superior e inferior. Esto, de acuerdo con el Profesor Steven K. Feiner, a cargo del proyecto, podría ayudar a evitar estos efectos. Si bien, comparado con el mundo real, esto supone una pérdida en la percepción del mundo virtual que rodea al usuario, la realidad es que los estudios realizados por el departamento han descubierto que quienes utilizan sistemas de realidad virtual rara vez perciben lo que ocurre en los límites de su campo visual, por lo que el sacrificio resulta menor.

Este es apenas uno de varios enfoques que se orientan a resolver el problema. El mismo, sin embargo, resulta prometedor, y podría poner fin a un potencial problema vinculado con esta tecnología, incluso antes de que la misma se vuelva masiva.

LOS EFECTOS EN LA SALUD EN EL LARGO PLAZO

Más allá del problema de los mareos, que puede afectar a un grupo de usuarios, pero no tener repercusión alguna sobre otros, existe otro desafío vinculado con la salud. Y es que no existen estudios que registren los efectos de la realidad virtual en el mediano y largo plazo.

En noviembre de 2014, un grupo de neurólogos de la Universidad de California en Los Ángeles (UCLA) publicó un artículo explicando que sus estudios iniciales habían descubierto que el cerebro se comporta de manera totalmente distinta cuando se encuentra en entornos virtuales, que en la vida real.

De acuerdo con los investigadores, un estudio hecho con ratas, en el que se expuso a un grupo de animales a un entorno virtual mientras corrían por una cinta, y luego a un entorno real de exactamente las mismas características, resultó en patrones de actividad neuronal muy distintos entre ambos escenarios. En el entorno virtual, por ejemplo, una gran cantidad de células del hipocampo de las ratas – un área del cerebro muy vinculada con la orientación espacial – se encontraban apagadas, y aquellas encendidas generaban impulsos que no parecían tener un patrón ordenado, mientras que en el espacio real estas se encontraban activas y desarrollando patrones rítmicos, que facilitan la creación de recuerdos y la habilidad de remitir a ellos.

Pero este es apenas un aspecto de las implicancias médicas de la realidad virtual. Como señalan distintos expertos consultados en diferentes artículos publicados en medios como The Guardian, y Venture Beat, todavía no se han hecho estudios sobre los efectos de esta tecnología en otras áreas de la salud, como la vista, o en cuestiones vinculadas con la salud mental de los usuarios. Y si bien muchos expertos son optimistas y hasta apuestan por el uso terapéutico de esta tecnología, muchos reconocen que estos estudios son necesarios.

Es por este motivo que, en las primeras versiones de sus productos, los fabricantes han incluido todo tipo de advertencias, que llegan al punto tal de sugerir que las mujeres embarazadas no deberían utilizar los dispositivos, y que para la población general la misma puede provocar efectos tan variados como convulsiones, dolor en los ojos, movimientos involuntarios, visión doble o borrosa, mareos, desorientación, pérdida de la estabilidad, transpiración excesiva, náuseas, dolores de cabeza, fatiga, y otros síntomas. Los mismos no se basan en investigaciones previas, sino que tienen que ver con la voluntad de las compañías de cubrirse de potenciales demandas, y de advertir a los usuarios acerca de todo lo que se les ocurre que pueda llegar a suceder al utilizar sus equipos.

De todos modos, sería mejor si tanto los fabricantes como el mundo académico se volcaran por comenzar a estudiar más detenidamente los efectos de la realidad virtual, de forma tal de determinar si, efectivamente, existe la posibilidad de que se produzcan estos, u otros efectos, y que tan inocua resulta esta tecnología para los usuarios eventuales e intensivos.

LA MONETIZACIÓN DE LOS CONTENIDOS

Finalmente, el último desafío vinculado con la realidad virtual no tiene que ver con la salud o con cuestiones fisiológicas, pero si tiene una estrecha relación con el largo plazo. Se trata de la monetización de los contenidos.

Existen algunas plataformas que, por sus propias características, ya tienen resuelto este problema. Tal es el caso, por ejemplo, de PlayStation, cuyo sistema de realidad virtual se conecta a sus consolas, a través de las cuáles los usuarios pueden acceder a juegos y otros contenidos pagos. Esta realidad, sin embargo, no resulta tan lineal para otro sistemas de realidad virtual, y especialmente para aquellos vinculados con el móvil.

Si bien los sistemas de mayor calidad como los asociados a las consolas, e incluso ecosistemas como los planteados por HTC, con su sistema Vive, y Facebook a través de Oculus, también contarán con contenidos pagos, especialmente en el campo de los juegos, también existirán una cada vez mayor cantidad de contenidos gratuitos, en campos como el educativo, o el entretenimiento. No está claro si un video o una experiencia inmersiva en el fondo del mar, podrán monetizarse a través de estrategias publicitarias, ya que todavía no existen formatos optimizados para esta plataforma. Y mucho menos métricas capaces de determinar su capacidad de ofrecer un retorno en la inversión.

Algo similar sucede con las aplicaciones de realidad virtual disponibles para los dispositivos móviles como los fabricados por Samsung, Google, LG, y otros. Montadas sobre apps tradicionales, las experiencias virtuales disponibles hoy resultan mayormente gratuitas, y tienen el objetivo de enriquecer las plataformas. Todavía puede pasar un tiempo hasta que se desarrollen modelos que permitan monetizarlas, por lo que quienes deseen apostar este mercado, necesitan contar con inversiones o una espalda financiera que les permita esperar.

Esta es la conclusión a la que llegaron un grupo de inversores y fondos de riesgo el año pasado, durante la Augmented Reality Expo, en la que se concluyó que, si bien todas las apuestas están puestas en el mercado de la realidad virtual, la mayor parte de las compañías vinculadas con este nuevo sector tardarán varios años en comenzar a facturar.

Y es que, además de diseñar estrategias que permitan generar esta facturación, para que las mismas tengan éxito es necesario generar una masa crítica de usuarios capaces de consumir productos y servicios vinculados con este campo. Y para ello es necesario vender equipos.

Hoy, el principal desafío de los fabricantes de cascos y dispositivos de realidad virtual de todas gamas consiste en entusiasmar a los usuarios, demostrarles que existe valor en esta tecnología, y lograr que éstos la adopten y comiencen a utilizarla. Solamente cuando esto ocurra se podrá hablar en serio de monetización y de modelos de negocio que resulten rentables para esta incipiente industria.

DOS TECNOLOGÍAS QUE PUEDEN AYUDAR A LLEVAR MEJOR CONECTIVIDAD A LAS ZONAS RURALES

No hace falta alejarse demasiado de los principales centros urbanos para encontrarse con carencias en la cobertura de las redes de banda ancha y en las velocidades de conexión. La falta de competencia, y también las grandes distancias, hacen que incluso en zonas del conurbano de la Ciudad de Buenos Aires y otras grandes ciudades argentinas (y también latinoamericanas), existan barrios donde no llegan las redes 4G LTE, y donde hasta la banda ancha fija entre cinco y diez veces más lenta que una conexión promedio en las zonas más céntricas. En las zonas rurales esta realidad a veces es aún peor. Y si bien esto resulta en una desventaja para las personas que viven en esos lugares, que a veces no pueden disfrutar del mismo modo de algunos contenidos o servicios digitales, de no corregirse estos problemas, el crecimiento de la demanda de los servicios de datos podría terminar generando una brecha cada vez mayor entre quienes viven en entornos urbanos, y quienes lo hacen en zonas suburbanas o rurales.

Este problema resultará aún más notorio a partir del despliegue y la mayor adopción de dispositivos conectados a través de la Internet of Things. En breve, no contar con una cobertura de alta velocidad en todo el territorio, llevará a que muchos electrodomésticos y hasta equipos vinculados con la provisión de servicios púbicos (como medidores de luz y gas) no puedan utilizarse. Y con la cercanía cada vez mayor de los automóviles inteligentes, y los sistemas de conducción autónoma – es decir, del piloto automático –, los cuales se conectan a sistemas de mapeo y requieren de un feedback casi permanente de distintos servidores conectados a la nube, pueden resultar en la inutilidad o menor eficiencia de esos dispositivos. Es por eso que las operadoras están trabajando en desarrollar nuevas tecnologías que permitan extender las conexiones de alta velocidad a territorios cada vez más extensos, ofreciendo servicios de calidad no solo para los usuarios residenciales, sino que para el catálogo cada vez más complejo de productos y equipos que requieren de conectividad para operar y brindar servicios fundamentales para la vida diaria. Hoy conoceremos a dos de esas innovaciones.

LOS POSTES DE LUZ, UNA AUTOPISTA DE DATOS PARA AT&T

Usar el cableado eléctrico para transmitir datos no es una idea novedosa. Varias veces se ha intentado aprovechar esta infraestructura para transportar información, y hasta para establecer conexiones residenciales sin la necesidad de tender nuevos cables. Lamentablemente, las distintas interferencias nunca permitieron que esta tecnología se desarrolle del todo, y todos los intentos fracasaron.

 

Hace algunas semanas, sin embargo, la operadora estadounidense AT&T presentó un proyecto que permite aprovechar los tendidos de media tensión, sin sufrir estas dificultades. Llamado Project AirGig, este sistema utiliza los postes instalados por las distribuidoras eléctricas, pero no sus cables. Para esto, coloca pequeñas antenas plásticas de bajo costo y corto alcance encima de cada uno de los postes, las cuales se conectan entre sí, llevando el flujo de datos a alta velocidad hasta las antenas móviles instaladas en localidades remotas o, eventualmente, hasta centros desde donde se distribuyen a través de conexiones fijas a través de cable, ADSL, o fibra óptica.

El secreto de esta tecnología consiste en utilizar ondas de radio milimétricas (por encima de los 30GHz), que viajan apenas unos pocos metros entre un poste y otro, y que no interfieren con otros servicios, o con las ondas de radio que transmiten las conexiones 3G y 4G directamente a los usuarios. De todas formas, estas antenas pueden utilizar cualquier tipo de señales, en cualquier parte del espectro radioeléctrico, lo que las vuelve muy versátiles.

De esta forma, la operadora busca aprovechar los tendidos eléctricos, los cuáles ya están planificados y suelen correr junto a las rutas y conectar todos los centros urbanos, sin importar su tamaño o densidad poblacional, y también a muchos campos y zonas rurales, para llevar conexiones de alta velocidad a todos lados.

Al mismo tiempo, esta tecnología permite generar microceldas, que pueden formar parte de las redes móviles conectadas a los equipos de los usuarios y, así, ampliar la cobertura del servicio, e impactar zonas donde lo único que hay es una carretera, sin la necesidad de invertir en levantar grandes antenas u otras obras de infraestructura.

Como contraprestación para las empresas de servicio, la compañía de telecomunicaciones propone que su sistema de antenas funcione como un sistema de alerta temprana, capaz de detectar disrupciones en la red, cortes provocados por inundaciones, ramas de árbol, y otros fenómenos climáticos, y como una plataforma de monitoreo que permita abaratar los costos y hacer más eficiente el mantenimiento de esta infraestructura.

En un país como el nuestro, con grandes extensiones de tierra, y pueblos y zonas rurales desconectados, la implementación de este tipo de tecnologías puede resultar en una alternativa más barata y eficiente para llevar conectividad de alta velocidad tanto a las redes móviles como fijas del interior. Al mismo tiempo, podrán garantizar la cobertura con redes 3G y 4G en todas las rutas del país, algo que no solamente aumentará masivamente la productividad y las oportunidades del interior, sino que además hará más seguras las rutas y habilitará la utilización de los autos inteligentes en el país.

LA BANDA ANGOSTA PARA LA INTERNET OF THINGS

Otra innovación tiene que ver con el desarrollo de una banda unificada y específica para la conexión de electrodomésticos, equipos vinculados a los servicios públicos, wereables, y hasta ropa inteligente a Internet.

Acordada por los principales miembros de GSMA, el consorcio que reúne a las operadoras móviles, y a las principales empresas vinculadas con el sector móvil en todo el mundo – entre las que se encuentra Vrainz – este nuevo estándar llevará a la instalación de una nueva red opera en paralelo a las redes 2G, 3G y 4G desplegadas por las operadoras en una nueva banda que le es propia. A diferencia de estas redes, sin embargo, se trata de conexiones de banda angosta y baja potencia, que tienen gran dispersión por el territorio, y alcanzan sin mayores complicaciones a espacios remotos o cerrados.

De esta forma, el objetivo es lograr una cobertura total, incluso en sectores alejados, y permitir que una gran cantidad de dispositivos se conecten a las nuevas redes, sin interferir con las redes tradicionales. Del mismo modo, por sus características técnicas, la Banda Angosta IoT – el nombre con el que se conoce a esta norma – insumirá un mucho menor consumo energético por parte de los dispositivos, lo que permitirá que éstos operen sin la necesidad de cargar las baterías por largos períodos de tiempo, y a veces incluso años.

Esto tiene que ver con que, a diferencia de lo que ocurre con un smartphone, que realiza una gran cantidad de operaciones en simultáneo, e intercambia grandes volúmenes de datos con la red, muchos aparatos conectados a la Internet de las Cosas, intercambian apenas unos pocos kilobytes y, en ocasiones, ni siquiera establecen una conexión hasta que esto no resulte necesario. Este es el caso de, por ejemplo, los chalecos salvavidas inteligentes, que alertan a las autoridades sobre su ubicación y los signos vitales de sus usuarios cuándo éstos son encendidos, de modo tal de facilitar el rescate, o de otros dispositivos vinculados con la seguridad.

En otros casos, como los medidores de luz inteligentes, las conexiones resultan más frecuentes, pero tampoco requieren de grandes velocidades, ya que intercambian datos muy concisos, y sin mayor urgencia.

Establecer una norma para desplegar este tipo de redes resultaba fundamental, ya que así podrá asegurarse la compatibilidad de todo tipo de equipos, y los fabricantes hasta podrán comenzar a crear los chips necesarios para operar estos dispositivos, y asegurar su correcta conectividad.

La conectividad a Internet, ya sea para conectar computadoras, tabletas y smartphones para trabajar, acceder a todo tipo de servicios en línea, y consumir contenidos; o para conectar equipos de todo tipo a la Internet de las Cosas, resulta cada vez más importante no sólo para las zonas urbanas, sino que para todo tipo de poblaciones. Y gracias a innovaciones como estas, y muchas otras, es posible que en un futuro cercano ya no importe el lugar o el contexto en el que nos encontremos para poder disfrutar de una conexión veloz capaz de soportar cualquier servicio que necesitemos.

LAS MIL Y UNA OPORTUNIDADES DE LA REALIDAD AUMENTADA

Tras casi cinco años en los que la tecnología móvil continuó su evolución de manera bastante lineal, y en los que los principales cambios se dieron por el mejoramiento sustancial de las tecnologías que ya se encontraban disponibles, una nueva revolución comienza a gestarse en los laboratorios de los principales gigantes tecnológicos. Hace pocos meses hablábamos de lo disruptivos que los nuevos sistemas de realidad virtual prometen ser para la industria de los videojuegos (así como para otros sectores vinculados con el contenido, pero también con otras áreas). Hoy nos enfocaremos en una tecnología que es prima de la de realidad simulada, y cuyas aplicaciones prácticas van mucho más allá de lo lúdico. Una tecnología literalmente capaz de cambiar la forma en la que vemos el mundo e interactuamos con el. Hablamos, nada menos, que de la realidad aumentada.

Lejos de ser novedoso, el concepto de realidad aumentada se comenzó a popularizar con la introducción de los primeros smartphones. Estos equipos fueron algunos de los primeros en contar con GPS, giroscopios, y otras piezas de hardware que dieron lugar a que distintos desarrolladores experimentaran con aplicaciones que, por ejemplo, permitían descubrir actividades, atracciones turísticas, restaurantes, y otros puntos de interés en las cercanías del usuario, con apenas apuntar el teléfono en la dirección correcta. Sin embargo, a pesar de ser innovadoras, estas apps no ofrecían demasiado valor. No el suficiente como para que el usuario medio las utilizara cuando necesitaba encontrar algo, por lo menos. En otras industrias, como la de la defensa y la aviación, esta tecnología sí marcó un antes y un después. Y esto sucedió muchas décadas antes de que los smartphones fueran, siquiera, una posibilidad y de que se acuñara este término.  

Las_mil_y_una_oportunidades_de_la_Realidad_Aumentada_vrainz

Foto: Acrossair, una app lanzada en 2011 que permitía descubrir el entorno gracias a la realidad aumentada.

 

Una de las primeras aplicaciones de la realidad aumentada ocurrió en 1942, en plena Segunda Guerra Mundial, cuando a los pilotos de los aviones cazas británicos se les complicaba encontrar a los enemigos que veían en el radar o seguir las instrucciones dadas por sus compañeros en la radio. Para resolverlo, a los ingenieros de la Fuerza Aérea se les ocurrió proyectar la pantalla del radar en una parte plana del vidrio del avión, dando lugar a una tecnología que hoy se conoce como HUD, o Head Up Display. El HUD es una pantalla transparente ubicada tanto en los jets militares, como en distintos modelos de aviones comerciales y civiles, que permite que los pilotos obtengan datos de la altitud, la actitud y la velocidad del avión, así como información de navegación sin tener que despegar la vista del exterior.

Las_mil_y_una_oportunidades_de_la_Realidad_Aumentada_vrainz

Foto: El HUD de un Boeing 787-8. Tomada por Mohamed Nazmi (CC 2.0 Flickr)

Otras plataformas en las que la realidad aumentada ya es moneda corriente son las consolas de videojuegos como la PlayStation y la XBOX, las cuales utilizan cámaras tridimensionales para generar experiencias y juegos en pantalla en los que los participantes interactúan, a veces sin necesidad de un control, con personajes y entornos digitales.

 Video: Trailer de los usos de la realidad aumentada en la Sony PlayStation 4.

 

Desarrollando las aplicaciones indicadas, el móvil puede valerse de la realidad aumentada para agregar valor en todo tipo de disciplinas. Tanto Google como Microsoft y otras empresas están atentas a esto, y se han volcado a desarrollar nuevas tecnologías que permitan hacerlo.

 

De Glass a Project Tango: la propuesta de Google

Uno de los productos móviles de realidad aumentada más icónicos fue nada menos que Google Glass, una pequeña pantalla unida a una computadora colocada en una vincha, que puede utilizarse como si se tratara de un par de anteojos, o combinada con el mismo, y permite recibir notificaciones e información mientras se realizan actividades como caminar por la vía pública o todo tipo de trabajos. Si bien fue anunciado en 2011 y lanzado por primera vez en 2013 en su versión para desarrolladores, este producto todavía no ha concluido su etapa de desarrollo, y aún no cuenta con fecha de lanzamiento al público en general.

En cambio, un proyecto que avanza más rápidamente es Project Tango, una tecnología desarrollada por Google que, incorporando distintas cámaras y sensores, permite que los dispositivos móviles obtengan una visión tridimensional del entorno en el que se encuentran, más similar a la vista humana. Esto permite, por un lado, que los equipos puedan ubicarse en el espacio identificando puntos de referencia, lo cual dará lugar a aplicaciones que no necesiten de un GPS, Bluetooth o de ningún tipo de conexión a Internet para ofrecer localización a nivel local, especialmente en espacios internos. Al mismo tiempo, esta visión humana les da a los equipos la posibilidad de ver en tres dimensiones, distinguiendo la profundidad de la misma forma en la que lo hacen nuestros ojos, lo cual no solamente servirá para crear juegos de todo tipo, sino que también para ayudar a los dispositivos a identificar objetos, trazar rutas, y generar experiencias mucho más ricas de realidad aumentada, capaz de brindarle más valor al usuario.

Aunque todavía se encuentra en etapa de desarrollo, ya existen dispositivos como celulares y tablets que incorporan la tecnología de Project Tango y se venden para desarrolladores. El objetivo de la compañía es lograr que la comunidad desarrolladora avance en la creación de aplicaciones que puedan aprovechar esta tecnología en distintos campos. Según anunció la compañía durante la feria CES 2016, este año saldrá a la venta la primera tableta orientada al público general que incorporará esta tecnología. La misma será producida por Lenovo.

 

HoloLens: la apuesta de Microsoft

Gracias a su experiencia desarrollando Kinetic, la tecnología detrás de las Xbox 360 y One Microsoft es una de las empresas que más ha avanzado en el desarrollo de la realidad aumentada. Y HoloLens, un visor transparente que cuenta con dos cámaras y una computadora integrada que corre Windows 10, es el resultado de este trabajo.

Este dispositivo, también en etapa de desarrollo, permite crear un entorno “holográfico”, en el que los usuarios pueden crear e interactuar con objetos tridimensionales que no existen en el mundo físico.  De esta manera, es posible desarrollar desde juegos complejos hasta todo tipo de aplicaciones prácticas tan variadas, como permitir el acceso a información sin la necesidad de contar con una pantalla, como la posibilidad de visualizar diseños y prototipos virtuales como si fueran reales, y hasta asistir a las fuerzas de seguridad y de defensa brindando información extra e identificando amenazas en la calle y en el campo de batalla.

Esta tecnología —o en realidad, combinación de tecnologías— todavía se encuentra en pañales, pero es tal su potencial que Microsoft, así como Google, está apostando a construir una comunidad de desarrolladores capaces de generar el software necesario para llevarla a todo tipo de industrias, y a la vida cotidiana.

 

Una gran oportunidad que no termina de convencer a los inversores

Una de las características de esta tecnología es que, como ya mencionamos, cuenta con un enorme potencial para asistir en todo tipo de tareas. Así, además de resultar muy interesante en el campo del entretenimiento —en el que será posible crear juegos e interactuar con personajes tanto en la pantalla como a través de visores que los insertarán en el mundo real—, será posible adaptarla a todo tipo de prácticas. Un ejemplo claro es el de la medicina, donde tanto médicos como cirujanos podrán valerse de información extra, y de la posibilidad de hacer mediciones, identificar objetos, órganos y tejidos, y mucho más utilizando uno de estos dispositivos. Hace pocas semanas un equipo médico en Miami se valió de una tecnología similar, la de la realidad virtual, para crear un modelo 3D del corazón y los pulmones de una beba que nació con apenas un ventrículo, y pudo así planificar una operación que le salvó la vida, algo que hubiera resultado imposible con un modelo visto en una pantalla tradicional.

De la misma forma ingenieros, diseñadores industriales, y hasta estudiantes podrán acceder a un mundo nuevo de información a través de una interfaz sencilla y poco invasiva capaz de modificar el mundo a su alrededor y ayudarlos a volverse más productivos.

Sin embargo, y aunque nos encontramos cerca de que esta tecnología salga al mercado y empiece a volverse masiva, todavía existe escepticismo por parte de la comunidad inversora. Y esto tiene sentido. La realidad aumentada, así como varios otros campos que presentan una gran promesa tanto desde el valor que generan sus aplicaciones como desde el punto de vista de las oportunidades de negocio, viene generando expectativa desde hace años, y más de una vez ha fallado catastróficamente, tanto desde el punto de vista del producto como desde la adopción por parte de los usuarios. Resta ver si, esta vez, las cosas serán distintas, y si la generación de un ecosistema desarrollador, y de dispositivos creados específicamente para este fin logran estar a la altura de la oportunidad, y crear un nuevo mercado.

TRES TECNOLOGÍAS QUE PODRÍAN REDEFINIR AL SMARTPHONE TAL Y COMO LO CONOCEMOS

Aunque puedan parecer un fenómeno relativamente reciente, los smartphones en realidad existen desde hace décadas. En 1994, por ejemplo, BellSouth lanzó el Simon, un celular fabricado por IBM que contaba con una pantalla táctil y la capacidad de enviar y recibir faxes y correos electrónicos, e incluía una calculadora y servicio de pager. Con una amplia memoria de 1MB, una hora de batería y un peso 500 gramos, este dispositivo se trataba de un equipo muy adelantado a su tiempo. Pero a pesar de su precio competitivo de $899 dólares con contrato, la empresa vendió solamente 50.000 unidades y el proyecto fue un fracaso. Esto, sin embargo, no detuvo a otros fabricantes de seguir intentando.

Tres_tecnologías_que_podrían_redefinir_al_smartphone_tal_y_como_lo_conocemos_vrainz

Durante la década de los 90s existieron varios intentos de lanzar un teléfono inteligente que fuera exitoso. Y algunos gozaron de una popularidad relativa. El Nokia 9000 Communicator, por ejemplo, combinaba un PDA en forma de minicomputadora con un teléfono celular, y distintos OEMs empezaron a adoptar el Windows Mobile como sistema operativo. En 2001, el fabricante japonés Kyocera y Palm lanzaron el QCP 6035, un teléfono que a pesar de su nombre poco atractivo, combinaba todas las funciones de un PDA con las de un celular en un diseño atractivo y usable.

Un año después, la operadora estadounidense T-Mobile lanzó el Sidekick, un producto que fue un verdadero éxito. Con una pantalla a color y un teclado QWERTY, este dispositivo permitía usar mensajeros instantáneos y navegar por Internet. Además, fue el primero en ser creado con la experiencia del usuario en mente. Pero, lo más importante, es que se trató del primer teléfono orientado a los jóvenes, lo que llevó a que fuera adoptado por celebridades y se convirtiera en un verdadero ícono en su mercado de origen.

Otro hito que vale la pena rescatar es el BlackBerry. Todavía vigente —aunque cada vez menos—, este Smartphone fue lanzado en 1999 como un celular orientado al público profesional por la compañía canadiense RIM. Su éxito indiscutido tuvo que ver con que fue el primero en desarrollar una comunidad y una plataforma de aplicaciones capaz de agregar valor y de incentivar su adopción masiva.

En el camino, otras empresas como Nokia, la fabricante de smartphones más populares hasta 2007, y Motorola también hicieron historia. Ese año, sin embargo, las cosas cambiaron para siempre cuando Apple introdujo el primer iPhone. Y un año más tarde, el cambio se hizo más evidente a partir de la introducción del App Store, que le dio lugar a los teléfonos inteligentes tal y como los conocemos hoy.

Esto, sin embargo, no significa que estos dispositivos siempre vayan a ser así y, de hecho, hoy existen varias tecnologías y desarrollos que podrían cambiar nuevamente nuestra concepción sobre lo que es un smartphone. A continuación conoceremos algunas de ellas, y veremos por qué tienen un enorme potencial.

 

Teléfonos Modulares

Una de las mayores innovaciones que podrían experimentar los teléfonos inteligentes tiene que ver con la modularización de sus partes. Es decir, con la posibilidad de remover y reemplazar cada uno de los componentes de manera sencilla, así como de realizar actualizaciones en el hardware sin la necesidad de cambiar todo el dispositivo.

Concebidos hasta ahora como sistemas cerrados, en los que reemplazar una parte como consecuencia de una rotura requiere de una pieza específica y de una cierta experiencia, los smartphones de los distintos modelos compiten entre sí a partir de sus características. Así, es posible que el factor determinante a la hora de elegir un modelo por sobre el otro sea la cámara de fotos que posee, la velocidad del procesador, o el tamaño de la pantalla. Sin embargo, esto puede no ser así por mucho más tiempo.

Existen varias compañías, entre las que se destacan Google y Motorola, trabajando en distintos prototipos de celulares modulares, que permitirían que cada usuario arme el teléfono que mejor se adapte a sus necesidades. Así, una persona que quiere una cámara de buena calidad, pero no se preocupa mucho por el almacenamiento, podrá elegir el módulo de una buena cámara, y un pequeño módulo barato de memoria flash, y quien tenga prioridades distintas podrá optar por otras alternativas.

Si bien esta tecnología todavía no pasó de la etapa de prototipo, es posible que un Smartphone de estas características llegue al mercado en algún momento de 2017. Resta ver si el público lo adoptará y se convertirá en algo frecuente para todos los fabricantes, o si nadie le verá atractivo y no será más que otro proyecto trunco.

 

Vidrio irrompible

La adopción de la pantalla táctil fue, sin dudas, uno de los grandes avances que marcaron a los smartphones durante los últimos años, y la preferencia del público por pantallas cada vez más grandes trajo aparejada una consecuencia desafortunada: las roturas cada vez más frecuentes.

Tres_tecnologías_que_podrían_redefinir_al_smartphone_tal_y_como_lo_conocemos_vrainz

Para la mayoría de los usuarios reemplazar las pantallas no resulta sencillo, y con repuestos que muchas veces no son baratos, y —por lo menos en nuestro mercado— servicios técnicos deficientes y de alto valor, esto constituye un verdadero problema. De acuerdo con Motorola, el 37% de los usuarios tienen sus pantallas rotas, lo que es un número muy elevado.

Ante esta situación, algunos fabricantes comenzaron a trabajar en posibles soluciones. Antes de la salida al mercado del iPhone 6, se rumoreaba que la pantalla elegida por Apple sería de zafiro, un material irrompible, pero esto no fue así. Sin embargo, dos años después Motorola anunció el lanzamiento del Droid Turbo 2, un teléfono que es totalmente irrompible. Viene con un chasis flexible fabricado en aluminio, y un display 4K de 5,4 pulgadas hecho de cuatro capas que reemplaza a la pantalla convencional por una pantalla AMOLED flexible, lentes también flexibles, un laminado plástico, y un protector externo. Esto hace que el dispositivo pueda resistir a virtualmente cualquier impacto sin dañarse, ni rayarse, ni quebrarse.

Si esta tecnología da buen resultado, es posible que otros fabricantes comiencen a adoptarla, y que las pantallas rotas sean, finalmente, un problema del pasado.

 

¿El adiós a las tarjetas SIM?

Finalmente, otro cambio cultural que puede verse asociado al avance de la tecnología tiene que ver con la eliminación de las tarjetas SIM. Compañeras inseparables de todo tipo de móviles —por lo menos de aquellos que operan en redes GSM y sus derivados— estos chips permiten identificar al usuario y reemplazar fácilmente el equipo, o cambiarlo de red y proveedor en apenas segundos. Esto podría terminarse pronto.

Tanto Apple como Samsung están trabajando con las principales operadoras del mundo para decirles adiós a las tarjetas SIM. En cambio, los fabricantes proponen colocar una tarjeta SIM fija en los teléfonos, la cual puede ser alterada a través de un software conocido como E-SIM, que puede registrarla en cualquier red GSM del mundo. De esta manera, los usuarios podrán cambiar de operadora simplemente eligiendo aquella a la que desean sumarse de una lista.

Si bien se trata de una tecnología prometedora, que podría resultar beneficiosa para los usuarios, ésta supondría un problema para las operadoras, que verían cómo la barrera que deben atravesar los usuarios para cambiar de red se vuelve todavía más baja. Algo que no les resulta conveniente, y que puede alterar sus niveles de retención de usuarios.

Suceda lo que suceda, todavía queda por lo menos un año antes de que esta tecnología resulte viable, aunque ya hemos visto un adelanto a través del Apple SIM incluido en los iPad Air 2 vendidos por la compañía en los Estados Unidos.

Es posible observar las tendencias y tratar de predecir qué pasará en el futuro, pero no hay que olvidar que los mayores cambios suelen darse a partir de innovaciones inesperadas, ocurridas en el momento justo. Así fue que Nokia y BlackBerry no vieron venir la amenaza que suponían el iPhone y Android; y el público no pudo apreciar las ventajas y capacidades del Simon veinte años antes de que éstas se popularizaran. Lo que es innegable es que el Smartphone del futuro será distinto a lo que hoy conocemos. Y, así como lo hicimos con estas tecnologías, no tardaremos mucho en adoptarlo y olvidarnos de que antes nos comunicábamos de maneras muy distintas.