FACEBOOK BUSCA TRANSFORMAR EL MERCADO DE LAS TELECOMUNICACIONES

Resultaría extraño pensar en Facebook como una compañía de hardware. Con un foco puesto en el mercado de las redes sociales, y un dominio abrumador en las tiendas de aplicaciones móviles con su amplio portfolio de apps esta es, sin lugar a dudas, una empresa muy alejada de ese negocio. De hecho, cuando en 2013 la empresa intentó lanzar su propio smartphone, el HTC First – diseñado en conjunto con el fabricante taiwanés –no cosechó resultados muy positivos. Sin embargo, hace pocos días, la compañía anunció sus planes de meterse en este negocio. Esta vez, sin embargo, no lo hará de la mano de dispositivos orientados al consumidor, sino que de equipamiento orientado a las empresas de telecomunicaciones para el despliegue de sus redes de datos.

Este mercado, que a nivel mundial tiene una magnitud de $500 mil millones de dólares, hoy se encuentra dominado por empresas como Cisco, Ericsson, Huawei, Nokia, Alcatel Lucent (en manos de la anterior), y otras, y poco tiene que ver con las líneas de negocio o con el expertise de la empresa de Mark Zuckerberg. Sin embargo, el desarrollo de más y mejores redes capaces de satisfacer la creciente demanda de datos, y de conectar a los miles de millones de personas que aún se encuentran desconectadas, se alinea directamente con sus intereses. Y es que, que con más de 1.500 millones de usuarios, el crecimiento de la compañía se encuentra atado al crecimiento de Internet en general.

Es por este motivo que, aunque busca revolucionar las telecomunicaciones, el objetivo principal de Facebook no radica en desarrollar un nuevo canal de ingresos. En cambio, la posibilidad de ayudar a las operadoras y otras telcos a expandir las redes móviles, sobre todo en nuevos mercados, la llevará a obtener beneficios indirectos, a través de la captación de nuevos usuarios para sus aplicaciones.

“La misión de Facebook – escribió la compañía en su blog de ingeniería – es hacer un mundo más abierto y conectado, ya sea mediante el desarrollo de tecnología que permita conectar a los desconectados, o crear experiencias inmersivas que requieren de mejores conexiones. Con el crecimiento en el consumo de video y de realidad virtual, es necesario desarrollar redes más grandes y mejores. Este es un desafío increíble, y en los próximos años todos debemos trabajar juntos para comprender los desafíos específicos de la conectividad en cada mercado, y para desarrollar tecnologías y procesos que los puedan resolver”.

Más allá de sus necesidades individuales, Facebook tiene razón en querer apalancar esta tecnología. Y es que la creciente demanda de datos, propulsada por el consumo de video, llevará a que globalmente el tráfico de datos móviles crezca de 6.765 Petabytes por mes en 2016 a 24.313 Petabytes por mes en 2019, según datos de GSMA. El crecimiento de la Internet de las Cosas, pero especialmente de nuevas tecnologías como la realidad virtual y la realidad aumentada incrementarán aún más esa demanda, por lo que hará falta un ancho de banda mayor para poder suplirla.

La primera innovación de Facebook en ese sentido es Voyager, un transponder óptico (u optical swtich, por su nombre en inglés), es decir una pieza de equipo que toma paquetes de otros switches y routers y los prepara para enviarlos a través de un único cable de fibra óptica. Los mismos se utilizan tanto dentro de redes metropolitanas, las cuáles conectan distintos centros de distribución dentro de la misma ciudad, o para el transporte de los datos a través de largas distancias. La tecnología que permite hacer esto se llama DWDM (Dense Wavelength-Division Multiplexing, o Multiplexado compacto por división en longitudes de onda) la cual, en pocas palabras, combina distintas señales ópticas en un mismo cable de fibra óptica utilizando distintas longitudes de onda para cada una de ellas.

El desarrollo de esta tecnología, la cual ha avanzado a pasos agigantados desde los años 90s, ha comenzado a detenerse durante los últimos años, a medida que nos acercamos a los límites de la eficiencia del espectro. Es por eso que Facebook, con su nuevo producto, busca cambiar el enfoque que ha tenido la industria hasta el momento, el cual consiste en la producción de equipos cuyo hardware y software se encuentran confinados a entornos cerrados. El nuevo producto de Facebook busca cambiar eso, desacoplando el software del hardware, y utilizando una filosofía de código abierto, para permitir que cualquier compañía pueda desarrollar sobre el dispositivo. Por ese motivo la compañía ha catalogado a este producto como un “White box” (una caja blanca), en contraste con la caracterización genérica de “Black box” (caja negra) que suelen recibir este tipo de equipos, y que hacen referencia a su entorno cerrado.

Del mismo modo, Facebook apunta a generar una cultura colaborativa en torno al diseño del hardware necesario para el despliegue de las redes, y sobre su implementación. De esta forma, busca que las empresas puedan aprender unas de las otras, y optimizar entre todas los procesos y tecnologías necesarias para su despliegue y operación. Al mismo tiempo, la empresa se encuentra trabajando en la creación de otras piezas de hardware, y en el desarrollo de una red móvil de código abierto, para lo cual está colaborando con distintas compañías en el campo de la infraestructura y el software, a través de una iniciativa llamada Telecom Infra Project, la cual presentó en el Mobile World Congress en Barcelona en 2016.

Esta no es la primera vez que Facebook hace algo de este estilo. En 2011, en plena expansión de sus data centers, la compañía lanzó el Open Computer Project, u OCP, una iniciativa para convertir el hardware necesario para armar este tipo de centros de datos en tecnologías de código abierto. El objetivo consiste en ayudar a que las compañías que operan este tipo de centros puedan beneficiarse construyendo sus propios equipos a través de piezas disponibles en el mercado, y aprendiendo unas de otras. Hasta ese entonces, el diseño de los data centers se tomaba como secretos industriales, y rara vez una empresa podía aprender de las experiencias de otras, o de los desarrollos internos realizados por sus competidores para optimizar sus procesos.

El proyecto fue un verdadero éxito, e hizo temblar por completo a la industria. Una gran cantidad de compañías se sumaron al OCP, especialmente los bancos e instituciones financieras, las cuales utilizan decenas de miles de servidores para procesar las millones de transacciones financieras realizadas por sus clientes, y también otros en el campo de la tecnología. Recientemente, LiknedIn también se sumó al movimiento, a través del lanzamiento del Project Altair, un proyecto interno para el desarrollo de su propia infraestructura.

Llevando esta filosofía al móvil, Facebook busca facilitar el avance de las nuevas tecnologías, su adopción por parte de las operadoras y otras compañías de telecomunicaciones y, en definitiva, acelerar la expansión de la cobertura móvil, a costos más bajos. De este modo, espera, cada vez más personas tendrán acceso a Internet a través de sus móviles, a una mayor velocidad, y con mayor capacidad de transmitir y recibir enormes cantidades de datos a bajo costo. Algo que, indirectamente, puede repercutir en grandes beneficios para su modelo de negocios.

LA INTERNET DE LAS COSAS, UN ACTOR FUNDAMENTAL EN LOS ÚLTIMOS ATAQUES INFORMÁTICOS

Es frecuente que hablemos acerca de las enormes oportunidades que presenta la Internet de las Cosas (o IoT, por sus siglas en inglés). De acuerdo con Gartner, en 2016, existen un total de 6.400 millones de cosas conectadas a la red, y que este número crecerá hasta superar los 20.800 millones hacia 2020. Estos números excluyen a tecnologías como computadoras y teléfonos móviles y, en cambio, se centran en dispositivos como relojes inteligentes, pulseras creadas para fitness y otros wereables, ropa inteligente, automóviles conectados, medidores de servicios públicos, cámaras de seguridad, lavarropas y heladeras inteligentes, robots industriales, y muchos otros equipos que, cada vez en mayor medida, utilizan la conectividad para ampliar su funcionalidad. Y si bien la Internet de las Cosas resulta muy prometedora, tanto desde el punto de vista de negocio, como desde las mejoras en campos tan diversos como la salud, la seguridad, la educación, y hasta la manufactura, también existe un lado preocupante asociado con esta tecnología.

El viernes 21 de octubre, el mundo fue testigo de uno de los más notables ataques informáticos ocurridos durante los últimos años. Ese día la empresa Dyn, la cual ofrece servicios de DNS – es decir, crea el nexo entre distintos sitios web y la dirección que escriben los usuarios en sus navegadores – fue atacada con un Distributed Denial of Service Attack (or DDOS, por sus siglas en inglés), lo que radicó en que muchos de los sitios y aplicaciones web más populares, incluyendo Twitter, Spotify, CNN, Reddit, Github, UrbanDictionary, HBO Now, Netflix, PayPal, The New York Times, Pinterest, Starbucks, Zendesk, y muchos otros, se volvieran inaccesibles, especialmente desde la Costa Este de los Estados Unidos.

Este tipo de ataques consisten en utilizar una gran cantidad de computadoras para ingresar a un mismo sitio web una y otra vez de manera simultánea. Esto lleva a que el sitio en cuestión exceda su capacidad y se sature, volviéndolo inaccesible para el público en general.

Si bien no se trata de una técnica novedosa, el ataque del 21 de octubre contó con una peculiaridad que lo vuelve especialmente preocupante. Y es que los atacantes se aprovecharon de decenas de millones de dispositivos conectados a Internet y que no poseen virtualmente ningún tipo de seguridad. Se trata de dispositivos como webcams, monitores de bebés, DVRs – dispositivos que permiten grabar programas de televisión en un disco rígido –, impresoras, y cámaras de seguridad hogareñas conectadas a la Internet de las Cosas, las cuáles fueron convertidas, a través de un simple software, en un ejército de robots programados para ingresar una y otra vez a los sitios web más populares del mundo para, así, tirarlos abajo.

En esta oportunidad, la mayor parte de los dispositivos contaban con una característica en común: muchos de sus componentes habían sido fabricados por la compañía china Hangzhou Xiongmai Technology. Esto, sin embargo, no significa que otros dispositivos con partes hechas por otros fabricantes no resulten vulnerables. De acuerdo con Brian Krebs, un especialista en seguridad informática que realizó un profundo análisis del ataque y fue citado por el Washington Post y por el Daily Mail, estos dispositivos fueron vulnerados utilizando un malware conocido como Mirai, el cuál escaneá la web en búsqueda de equipos conectados a la Internet de las Cosas y que estén protegidos por una de las 60 contraseñas más frecuentes y, al detectarlos, los infecta dejándolos a merced de los atacantes. Esto es posible gracias a que, en la mayoría de los casos, los usuarios no se molestan en cambiar las contraseñas provistas por los fabricantes, y a que estos dispositivos no cuentan con mecanismos de seguridad demasiado sofisticados.

El malware Mirai fue lanzado hace un mes por un hacker anónimo, quién puso su código a disposición de la comunidad, lo que significa que cualquiera puede haberlo utilizado para conducir este ataque. Pero independientemente de este episodio en particular, el cual está siendo investigado por las autoridades y podría, o no, encontrarse vinculado a otros ataques recientes, como el hackeo de los servidores de correo electrónico del Partido Demócrata en los Estados Unidos, luego difundidos por WikiLeaks, el mismo implica un problema para los fabricantes intentando desarrollar la Internet de las Cosas.

UN DESAFÍO PARA LA INDUSTRIA

Hasta ahora, las principales amenazas advertidas por los expertos en seguridad, tenían que ver con escenarios hipotéticos en los que distintos grupos de hackers pudieran tomar el control de automóviles autónomos, o por lo menos conectados a la red, de plantas industriales y paralizar a los robots que operan en la producción, o producir otros daños en la infraestructura urbana y de los servicios públicos. Sin embargo, este tipo de ataque puede resultar igual de insidioso, y puede ser llevado adelante con mucha menos sofisticación técnica por parte de los agresores.

Es por eso que el potencial de otros ataques similares implica un enorme dolor de cabeza tanto para los OEMs – es decir los fabricantes de hardware –, para otras empresas vinculadas con el desarrollo de la Internet de las Cosas, e incluso para las operadoras, las cuales apuestan por el desarrollo de nuevas redes, e incluso de la tecnología 5G, para potenciar este tipo de conexiones.

Hoy la industria se encuentra en la obligación de desarrollar estándares de seguridad capaces de prevenir este tipo de ataques, que puedan ser adoptados por todos los actores que participan de la misma. En este sentido han surgido proyectos como la IoT Security Foundation, la cual trabaja con todos los involucrados en esta industria para elevar la calidad de los dispositivos y para desarrollar lineamientos mínimos de seguridad que puedan ser adoptados globalmente para impedir que se desarrollen otros episodios como estos. Pero, así como ha surgido esta fundación, existen otros proyectos similares como la Open Connectivity Foundation, y hasta el Industrial Internet Consortium, cada uno de los cuáles ha lanzado sus propios lineamientos, atentando contra la creación de un estándar universal capaz de alinear a toda la industria.

Al mismo tiempo el espacio de la Internet de las Cosas hoy se encuentra repleto de nuevas startups, las cuáles desarrollan sus propias tecnologías con proyectos fondeados a través de sitios de crowdsourcing, y también de otras compañías de todo tipo y tamaño. Así, desarrollar modelos comunes, y procesos de certificación que garanticen la seguridad de todos los dispositivos resulta difícil. De acuerdo con los críticos, esto puede llevar a que, eventualmente, los gobiernos comiencen a regular este nuevo espacio y a imponer procesos de certificaciones propios los cuales, según los críticos, podrían elevar el costo de desarrollar nuevos dispositivos y, a la vez, incrementar el costo de la innovación.

Esto último, sin embargo, ya parece inevitable, y sin lugar a dudas comenzará a ocurrir tras este ataque. De todas formas, hay luz al final del túnel. Por diverso y descentralizado que sea este espacio, los distintos jugadores ya se han puesto de acuerdo a la hora de establecer distintos estándares. Un ejemplo de ello es el lanzamiento de las redes de Banda Angosta que las operadoras que forman parte de GSMA comenzarán a desplegar a lo largo del mundo para atender a las necesidades de estas nuevas tecnologías.

Sin embargo, queda mucho trabajo por hacer si aspiramos a vivir en un mundo repleto de aparatos inteligentes más prácticos y funcionales que los disponibles hoy en día. Y el primer paso es realizar acuerdos que permitan garantizar la seguridad y tranquilidad de los usuarios.

 

DOS TECNOLOGÍAS QUE PUEDEN AYUDAR A LLEVAR MEJOR CONECTIVIDAD A LAS ZONAS RURALES

No hace falta alejarse demasiado de los principales centros urbanos para encontrarse con carencias en la cobertura de las redes de banda ancha y en las velocidades de conexión. La falta de competencia, y también las grandes distancias, hacen que incluso en zonas del conurbano de la Ciudad de Buenos Aires y otras grandes ciudades argentinas (y también latinoamericanas), existan barrios donde no llegan las redes 4G LTE, y donde hasta la banda ancha fija entre cinco y diez veces más lenta que una conexión promedio en las zonas más céntricas. En las zonas rurales esta realidad a veces es aún peor. Y si bien esto resulta en una desventaja para las personas que viven en esos lugares, que a veces no pueden disfrutar del mismo modo de algunos contenidos o servicios digitales, de no corregirse estos problemas, el crecimiento de la demanda de los servicios de datos podría terminar generando una brecha cada vez mayor entre quienes viven en entornos urbanos, y quienes lo hacen en zonas suburbanas o rurales.

Este problema resultará aún más notorio a partir del despliegue y la mayor adopción de dispositivos conectados a través de la Internet of Things. En breve, no contar con una cobertura de alta velocidad en todo el territorio, llevará a que muchos electrodomésticos y hasta equipos vinculados con la provisión de servicios púbicos (como medidores de luz y gas) no puedan utilizarse. Y con la cercanía cada vez mayor de los automóviles inteligentes, y los sistemas de conducción autónoma – es decir, del piloto automático –, los cuales se conectan a sistemas de mapeo y requieren de un feedback casi permanente de distintos servidores conectados a la nube, pueden resultar en la inutilidad o menor eficiencia de esos dispositivos. Es por eso que las operadoras están trabajando en desarrollar nuevas tecnologías que permitan extender las conexiones de alta velocidad a territorios cada vez más extensos, ofreciendo servicios de calidad no solo para los usuarios residenciales, sino que para el catálogo cada vez más complejo de productos y equipos que requieren de conectividad para operar y brindar servicios fundamentales para la vida diaria. Hoy conoceremos a dos de esas innovaciones.

LOS POSTES DE LUZ, UNA AUTOPISTA DE DATOS PARA AT&T

Usar el cableado eléctrico para transmitir datos no es una idea novedosa. Varias veces se ha intentado aprovechar esta infraestructura para transportar información, y hasta para establecer conexiones residenciales sin la necesidad de tender nuevos cables. Lamentablemente, las distintas interferencias nunca permitieron que esta tecnología se desarrolle del todo, y todos los intentos fracasaron.

 

Hace algunas semanas, sin embargo, la operadora estadounidense AT&T presentó un proyecto que permite aprovechar los tendidos de media tensión, sin sufrir estas dificultades. Llamado Project AirGig, este sistema utiliza los postes instalados por las distribuidoras eléctricas, pero no sus cables. Para esto, coloca pequeñas antenas plásticas de bajo costo y corto alcance encima de cada uno de los postes, las cuales se conectan entre sí, llevando el flujo de datos a alta velocidad hasta las antenas móviles instaladas en localidades remotas o, eventualmente, hasta centros desde donde se distribuyen a través de conexiones fijas a través de cable, ADSL, o fibra óptica.

El secreto de esta tecnología consiste en utilizar ondas de radio milimétricas (por encima de los 30GHz), que viajan apenas unos pocos metros entre un poste y otro, y que no interfieren con otros servicios, o con las ondas de radio que transmiten las conexiones 3G y 4G directamente a los usuarios. De todas formas, estas antenas pueden utilizar cualquier tipo de señales, en cualquier parte del espectro radioeléctrico, lo que las vuelve muy versátiles.

De esta forma, la operadora busca aprovechar los tendidos eléctricos, los cuáles ya están planificados y suelen correr junto a las rutas y conectar todos los centros urbanos, sin importar su tamaño o densidad poblacional, y también a muchos campos y zonas rurales, para llevar conexiones de alta velocidad a todos lados.

Al mismo tiempo, esta tecnología permite generar microceldas, que pueden formar parte de las redes móviles conectadas a los equipos de los usuarios y, así, ampliar la cobertura del servicio, e impactar zonas donde lo único que hay es una carretera, sin la necesidad de invertir en levantar grandes antenas u otras obras de infraestructura.

Como contraprestación para las empresas de servicio, la compañía de telecomunicaciones propone que su sistema de antenas funcione como un sistema de alerta temprana, capaz de detectar disrupciones en la red, cortes provocados por inundaciones, ramas de árbol, y otros fenómenos climáticos, y como una plataforma de monitoreo que permita abaratar los costos y hacer más eficiente el mantenimiento de esta infraestructura.

En un país como el nuestro, con grandes extensiones de tierra, y pueblos y zonas rurales desconectados, la implementación de este tipo de tecnologías puede resultar en una alternativa más barata y eficiente para llevar conectividad de alta velocidad tanto a las redes móviles como fijas del interior. Al mismo tiempo, podrán garantizar la cobertura con redes 3G y 4G en todas las rutas del país, algo que no solamente aumentará masivamente la productividad y las oportunidades del interior, sino que además hará más seguras las rutas y habilitará la utilización de los autos inteligentes en el país.

LA BANDA ANGOSTA PARA LA INTERNET OF THINGS

Otra innovación tiene que ver con el desarrollo de una banda unificada y específica para la conexión de electrodomésticos, equipos vinculados a los servicios públicos, wereables, y hasta ropa inteligente a Internet.

Acordada por los principales miembros de GSMA, el consorcio que reúne a las operadoras móviles, y a las principales empresas vinculadas con el sector móvil en todo el mundo – entre las que se encuentra Vrainz – este nuevo estándar llevará a la instalación de una nueva red opera en paralelo a las redes 2G, 3G y 4G desplegadas por las operadoras en una nueva banda que le es propia. A diferencia de estas redes, sin embargo, se trata de conexiones de banda angosta y baja potencia, que tienen gran dispersión por el territorio, y alcanzan sin mayores complicaciones a espacios remotos o cerrados.

De esta forma, el objetivo es lograr una cobertura total, incluso en sectores alejados, y permitir que una gran cantidad de dispositivos se conecten a las nuevas redes, sin interferir con las redes tradicionales. Del mismo modo, por sus características técnicas, la Banda Angosta IoT – el nombre con el que se conoce a esta norma – insumirá un mucho menor consumo energético por parte de los dispositivos, lo que permitirá que éstos operen sin la necesidad de cargar las baterías por largos períodos de tiempo, y a veces incluso años.

Esto tiene que ver con que, a diferencia de lo que ocurre con un smartphone, que realiza una gran cantidad de operaciones en simultáneo, e intercambia grandes volúmenes de datos con la red, muchos aparatos conectados a la Internet de las Cosas, intercambian apenas unos pocos kilobytes y, en ocasiones, ni siquiera establecen una conexión hasta que esto no resulte necesario. Este es el caso de, por ejemplo, los chalecos salvavidas inteligentes, que alertan a las autoridades sobre su ubicación y los signos vitales de sus usuarios cuándo éstos son encendidos, de modo tal de facilitar el rescate, o de otros dispositivos vinculados con la seguridad.

En otros casos, como los medidores de luz inteligentes, las conexiones resultan más frecuentes, pero tampoco requieren de grandes velocidades, ya que intercambian datos muy concisos, y sin mayor urgencia.

Establecer una norma para desplegar este tipo de redes resultaba fundamental, ya que así podrá asegurarse la compatibilidad de todo tipo de equipos, y los fabricantes hasta podrán comenzar a crear los chips necesarios para operar estos dispositivos, y asegurar su correcta conectividad.

La conectividad a Internet, ya sea para conectar computadoras, tabletas y smartphones para trabajar, acceder a todo tipo de servicios en línea, y consumir contenidos; o para conectar equipos de todo tipo a la Internet de las Cosas, resulta cada vez más importante no sólo para las zonas urbanas, sino que para todo tipo de poblaciones. Y gracias a innovaciones como estas, y muchas otras, es posible que en un futuro cercano ya no importe el lugar o el contexto en el que nos encontremos para poder disfrutar de una conexión veloz capaz de soportar cualquier servicio que necesitemos.

URUGUAY ES EL PAÍS MÁS Y MEJOR CONECTADO EN LA REGIÓN

Existen distintos criterios que permiten definir qué tan bien conectada se encuentra la población de un país. Además de contar con la infraestructura necesaria para llegar a las personas en distintas partes del territorio con redes móviles, la conectividad depende de qué esas personas tengan los recursos económicos para acceder a los servicios que estas redes ofrecen, el conocimiento de su existencia y la capacidad de utilizarlos, y contenido interesante y útil al cuál acceder a través de las mismas. Estos cuatro factores son los que ha tomado en cuenta GSMA, la principal asociación de operadoras y compañías vinculadas al sector móvil en todo el mundo – de la que Vrainz es miembro –, para desarrollar un índice global de conectividad, que permite comparar cuán bien conectado se encuentra cada país en el mundo, y qué tan accesible resultan Internet y sus servicios asociados para todos sus habitantes.

En América Latina la conectividad ha mejorado notablemente durante los últimos años y, hoy, se encuentra por encima de la media a nivel global. En el mundo, el 44% de la población tiene acceso a la Internet móvil a través de una red 3G o 4G, otro 34% se encuentra cubierto por redes que podrían proporcionar acceso a esas redes, pero no se encuentra conectado, y un 22% no se encuentra cubierto ni conectado. Europa es, hoy, la región en la que se observan los mejores indicadores, con un 63% de la población conectada, un 35% cubierta pero no conectada, y apenas un 2% descubierta. En nuestra región, los conectados ascienden al 47%, los cubiertos al 43%, y los no cubiertos ni conectados al 9%, un número alto, pero mejor que el 21% que no posee cobertura en Asia y el Pacífico, y el 22% y el 57% que sufren del mismo problema el Medio Oriente y África Subsahariana respectivamente.

Conectividad móvil en el mundo GSMA

Esto habla bien de nuestra región, la cual muestra índices que la ubican al tope del mundo en vías de desarrollo. Sin embargo, como suele ocurrir cuando se realizan análisis regionales, éstos no muestran en detalle la realidad de cada uno de los países las cuáles, especialmente en el caso de América Latina, son muy distintas. Es teniendo esto en cuenta que, a continuación, analizaremos primero cuál es el grado e cobertura que posee cada uno de nuestros países y, luego, tomaremos las cuatro variables identificadas por GSMA para evaluar cuáles de ellos poseen un mejor índice de conectividad general.

EXPANSIÓN DE LAS REDES MÓVILES

El reciente crecimiento en la conectividad se debe, en gran medida, a la expansión de las redes móviles, no sólo en el aspecto territorial – lo cual ha permitido que una proporción cada vez mayor de la extensa geografía de la región se encuentre cubierta por las mismas – sino que también desde el punto de vista tecnológico, ampliando cada vez más la cobertura de las redes 3G y 4G de alta velocidad. Entre 2009 y 2014, las distintas operadoras móviles que brindan servicios en la región han invertido unos $80 mil millones de dólares en conjunto para llevar adelante esta expansión. Esto equivale a un promedio de inversión de $129 dólares por habitante, lo que supera a las inversiones en este sector en todo el resto del mundo en vías de desarrollo.

Este nivel de inversión ha llevado a que algunos países como Argentina, Chile, Brasil, México y Perú hayan alcanzado una cobertura mayor al 90% con sus redes 3G, lo que significa que 9 de cada 10 habitantes tienen acceso a la banda ancha móvil en esos países. En otros casos como Haití, ese índice alcanza apenas al 75% de la población y, en Cuba, al 0%.

En el caso del 4G, de acuerdo con OpenSignal, Uruguay es el país con mayor cobertura geográfica, ya que sus redes LTE alcanzan al 82% de su población, Perú se encuentra en el segundo lugar con el 66%, México en el tercero con el 61%, Colombia en el cuarto con 58%, luego Venezuela con el 57%, por debajo Brasil con el 52%, Argentina con el 51%, Chile con el 47%, y Ecuador con el 41%. Esto, por supuesto, no significa que este porcentaje de sus usuarios móviles accedan a ese tipo de conexiones, sino que simplemente viven en zonas donde existen antenas capaces de conectarlos a través de esa tecnología.

Si tomamos en cuenta la cantidad neta de conexiones 4G LTE, el ranking se encuentra encabezado por Brasil, donde en diciembre de 2015 existían unas 22 millones de conexiones activas a esta tecnología, seguido por México con 6,6 millones de conexiones, Argentina y Colombia con 3 millones de conexiones cada uno y Chile, con 2,7 millones de conexiones. A pesar de contar con un número relativamente bajo, nuestro país es el que muestra un crecimiento más acelerado ya que alcanzó la marca de los 3 millones en apenas 15 meses desde lanzada esa tecnología, algo que a Brasil le tomó 21 meses, a México 27 y a Colombia 45.

CONOCIMIENTO Y ENTORNO FAVORABLE DEL CONSUMIDOR

Uno de los elementos fundamentales para garantizar un alto nivel de conectividad, tiene que ver con la capacidad que los usuarios de un país tienen para utilizar la Internet móvil. Esto, por supuesto, no habla solamente de la calidad técnica de los usuarios, sino que del conocimiento que éstos tienen de la existencia de estos servicios y la apreciación que hacen de cómo los puede beneficiar, de la tasa de alfabetización, y de la existencia de un entorno cultural favorable para que todos los individuos accedan a este tipo de servicios.

De acuerdo con GSMA, los países de la región dónde esta variable resulta más elevada son, en primer lugar, Argentina, donde la suma de estos factores arrojó un puntaje de 85,8. En segundo puesto se ubica Chile, con 83,8, luego Venezuela, con 80,7, seguido por Uruguay con 80, Brasil, con 76,3 Colombia, con 75,2, Ecuador, con 73,8 Paraguay con 72,6, Bolivia, con 72,1, México con 71,4, y Perú, con 69,5.

conocimiento y entorno cultural del consumidor

ACCESIBILIDAD ECONÓMICA

El grado de accesibilidad económica resulta fundamental para determinar el índice de conectividad. Después de todo, un usuario cubierto por las redes de banda ancha, y con los conocimientos e incentivos culturales suficientes para utilizar la Internet móvil depende, también, de contar con los recursos económicos para poder hacerlo. Para medir esta variable, GSMA ha cruzado no solamente el precio del servicio y los ingresos de los distintos segmentos en cada país, sino que ha tenido en cuenta el grado de inequidad en la distribución del ingreso, y la cantidad de impuestos que los usuarios deben pagar por los servicios móviles. En base a estos datos, se ha desarrollado un puntaje de 0 a 100, donde los puntajes más altos indican una mayor accesibilidad. Este índice resulta más representativo de la realidad local que mediciones como la realizada en 2013 por la International Telecommunications Union y publicada por Gizmodo, que comparaba el precio de los 500MB de datos en distintos países del mundo, y que arrojaba que, a excepción de Ecuador, Colombia, y algunos países de América Central, donde los precios superaban los $40 dólares, y Venezuela, donde se encontraban debajo de $20 dólares, en la región promediaban los precios de entre $20 y $40 dólares.

En este sentido, el país que cuenta con los servicios móviles más accesibles desde el punto de vista económico es Venezuela, con un puntaje de 69,4, seguido por Uruguay, con 66,7, Chile con 62,5, Paraguay con 61,8, Perú con 61,7, México con 61,4, y Ecuador con 61,1. Los países dónde más cuesta adquirir servicios móviles en la región son Argentina, con un puntaje de 60,9, Colombia con 56,7, Bolivia con 56,3, Brasil con 51,3.

accesibilidad economica

CONTENIDO LOCAL

Finalmente, para realizar un índice de conectividad, es necesario considerar la cantidad de contenido local que justifique que los habitantes de cada uno de los países tomen la decisión de conectarse a la Internet móvil. Hace algunas semanas, descubrimos que, en el caso de Argentina, la falta de contenido local es la principal barrera para la adopción de esta tecnología en una medida mucho mayor que el precio y las limitaciones económicas, sobre todo en las clases bajas. Cuando hablamos de contenido local, no nos referimos puramente a las noticias y el entretenimiento, sino que a toda la gama de servicios móviles disponibles, incluyendo los servicios bancarios y financieros, los contenidos educativos, las redes sociales, y los servicios gubernamentales, que resulten relevantes para las poblaciones locales. Así como con las otras variables, GSMA le otorgó un puntaje de 0 a 100 a cada uno de los países de la región, con el que determinó la disponibilidad de contenido local en cada uno de ellos.

En esta variable, el país que encabeza la lista es Chile, con 72,7. En segundo lugar se encuentra Uruguay, con un puntaje de 72,2. Tercero se encuentra Colombia, con 69,8, luego Argentina, con 68,5, México con 65,3, seguido por Brasil y Venezuela con 64,7, Ecuador con 62,1, Perú con 61, Bolivia con 56, y Paraguay con 53,5.

Contenido Local

ÍNDICE CONECTIVIDAD EN LOS PAÍSES DE AMÉRICA LATINA

Si se promedian todas estas variables, Uruguay es el país con el índice de conectividad más alto, con un puntaje total de 69,4%. Esto lo ubica como el país donde la combinación de la infraestructura, el conocimiento y el entorno cultural del consumidor, la accesibilidad económica, y la existencia de contenido local encuentran un mejor balance, permitiendo que una mayor proporción de sus habitantes se encuentren conectadas a las banda ancha móvil. El segundo puesto en este ranking es para Chile, con un puntaje de 67,4. El tercero es para Argentina, con 62,9 puntos. Luego se ubica Venezuela, con 61,4 puntos; más abajo Brasil, con 61,3; México con 60,5, Colombia, con 60,3; Perú, con 59,7; Ecuador, con 58,3, guiado fundamentalmente por su falta de infraestructura; y Paraguay con 57,8. Bolivia, con 55,1 puntos, es el país de la región con peor índice de conectividad (excluyendo a los países centroamericanos), situación a la que llega por contar con una de las infraestructuras menos extendidas en la región, un bajo índice de accesibilidad económica, y poco contenido local.

Si comparamos estos valores con los obtenidos por países más desarrollados como Australia, que obtuvo el primer puesto a nivel mundial con un puntaje de 84,7, y Holanda, que obtuvo 84,4, podemos observar que a la región le queda mucho camino por recorrer. Sin embargo, incluso el país con peor conectividad en la región, se encuentra por encima de Sudáfrica, el país mejor posicionado en África Subsahariana, que cuenta con un índice de 53,4.

Indice

América Latina es una región diversa, donde el crecimiento de la infraestructura y la gran preparación de los consumidores, está llevando a que exista un crecimiento permanente de la conectividad móvil. Pero la deuda que la región posee en materia de contenido local, y los costos elevados para muchos segmentos de la población, constituyen barreras que todavía debemos superar para poder conectar a un mayor número de personas, y desarrollar las grandes oportunidades que esto significa.

EL MÓVIL: UNA HERRAMIENTA VITAL EN ZONAS DE DESASTRE

No son pocas las veces en las que hemos mencionado la gran importancia que la tecnología móvil ha adquirido en áreas como la salud y la educación, o como herramienta para generar inclusión financiera en mercados en vías de desarrollo. Esto demuestra que, además de ofrecer enormes oportunidades de negocio, la industria móvil encierra un rol social capaz de ayudar a todo tipo de sociedades a desarrollarse y generar servicios con el potencial de mejorar la calidad de vida de las personas. Hoy conoceremos un nuevo rol que el móvil ha adquirido en los últimos años, y que lo convierte en una herramienta vital capaz de salvar vidas y prevenir daños mayores durante las peores tragedias. Hablamos del móvil como herramienta de rescate en zonas de desastre.

Las comunicaciones móviles juegan un rol vital en el caso de un desastre natural o un accidente de grandes proporciones. Por un lado, constituyen una herramienta vital de aviso y prevención, capaz de informar a millones de personas cómo protegerse, escapar, o qué hacer en el momento en el que ocurra el siniestro. Por otro, en los momentos posteriores al desastre, los dispositivos y las redes móviles resultan todavía más importantes, puesto que pueden ayudar a coordinar actividades de rescate, de traslado y atención de heridos, y de localización de personas perdidas. Pero existe un problema fundamental, y es que en la mayoría de los casos, los grandes desastres que destruyen la infraestructura, los hogares, y les cuentan la vida a miles de personas también tienen un impacto sobre las redes móviles, cortando la comunicación o generando baches en la cobertura que inutilizan a esta tecnología.

Esto genera una paradoja, y es que cuando más necesario es, el móvil muchas veces no se encuentra disponible. Es por eso que tanto las operadoras como los gobiernos, y también distintos grupos de emprendedores, han comenzado a trabajar en soluciones para hacer frente rápidamente a este tipo de dificultades.

En muchos casos, como el del Ciclón Pam, que golpeó a varias islas del Pacífico – y en especial a la pequeña República de Vanuatu – en Marzo del 2015 con vientos de más de 300 kilómetros por hora, destruyendo casas, rutas, y todo a su paso, la respuesta consistió en apurar los trabajos de reparación de la red. Así, en pocos días, la operadora local Digicel logró restablecer las comunicaciones en toda la isla para ayudar a los rescatistas en sus esfuerzos. Al mismo tiempo, la empresa colocó estaciones de carga por toda la ciudad, y entregó más de $250.000 dólares en crédito gratis a sus usuarios, muchos de los cuáles se habían quedado sin la posibilidad de hablar por no poder acceder a sistemas de recarga, o por haberlo perdido todo.

Algo similar sucedió en abril del año pasado, cuando un terremoto de 7,8 grados de magnitud golpeó a Nepal. El sismo, y sus decenas de repeticiones, ocasionaron daños en todo tipo de edificios, e interrumpieron la mayoría de los servicios, incluida la cobertura móvil. La respuesta de las operadoras fue inmediata. De acuerdo con GSMA, la operadora local Ncell proveyó a los rescatistas y hasta a la prensa extranjera de tarjetas SIM sin costo para comunicarse en las zonas de desastre. Al mismo tiempo, empresas extranjeras como Vodafone y Ericsson – a través de su programa Ericsson Rsponse, el cual ofrece conectividad en campos de refugiados y ante desastres naturales – instalaron antenas provisorias, con el objetivo de restaurar las comunicaciones lo antes posible. Al mismo tiempo, las operadoras locales les ofrecieron llamadas gratuitas a todos sus suscriptores, para ayudarlos a encontrarse con sus seres queridos. De la misma forma, muchas operadoras extranjeras, sobre todo en países con una gran inmigración nepalí como los Estados Unidos, ofrecieron llamadas gratuitas al país asiático, para facilitar la comunicación con las personas afectadas por el sismo.

 

EMPRENDIMIENTOS CON FOCO EN LAS ZONAS DE DESASTRE

Durante 2015, unas 48 millones de personas fueron desplazadas de sus hogares por desastres naturales, guerras civiles – como el caso de Siria, que se ha convertido en la principal fuente de desplazados en el mundo –, y otros conflictos. Según un reporte de la BBC, al llegar a los distintos campamentos de refugiados, antes que agua o comida, la mayoría de las personas preguntan si hay Wi-Fi o red móvil, de forma tal de poder comunicarse con sus seres queridos. En muchos casos esto no es posible, sin embargo, distintas empresas y ONGs se han propuesto ayudar a estas personas a conectarse y acceder a estos servicios.

 

Un ejemplo de ello es el startup croata MeshPoint. Esta compañía fabrica un dispositivo portátil que puede ser desplegado en minutos, y permite conectar hasta 150 dispositivos a Internet a través de WiFi o una antena 4G. Equipado con una batería y una carcaza resistente, este equipo, cuya fabricación fue financiada con aportes a través de la plataforma de crowdfunding Indiegogo, tiene un valor de menos de 400€ Euros.

Meshpoint

 

La Vodafone Foundation – una fundación perteneciente a la operadora europea –desarrolló una mochila de 11Kg que puede ser colocada en cualquier parte y ofrecer cobertura 2G en un área de un kilómetro de radio. Este equipo contiene una batería y un panel solar, lo que le da una autonomía de 6 horas. De esta forma, en caso de una catástrofe, es posible desplegar una red móvil en muy poco tiempo, y atender las necesidades urgentes de los rescatistas y la población de manera inmediata.

 

Otra innovación interesante, esta vez desde el punto de vista del software, es la realizada por la ONG sueca Flowminder, la cual desarrolló un software que toma los datos de las operadoras en una zona de desastre y – previa anonimización de los datos – presenta los movimientos de las personas, permitiendo generar mapas de población dinámicos que ayudan a identificar y comprender el comportamiento de las personas, observar hacia donde se escapan o se trasladan, y en definitiva como atenderlas mejor en el momento del desastre. Estos datos también se pueden utilizar en el largo plazo para comprender como ocurre el proceso de migración luego de las tragedias, y de factores más extendidos en el tiempo como el cambio climático.

 

Desde la ubicación y la asistencia a los heridos, hasta poner en contacto a los sobrevivientes con sus familiares, y ayudar a las autoridades a comprender los flujos humanos en los momentos más complicados, el móvil sin lugar a dudas es una herramienta invaluable para mitigar el daño durante las peores tragedias. El compromiso de las operadoras, y el desarrollo de tecnologías y planes de emergencia que permitan responder de manera veloz en caso de un desastre, son sin dudas elementos que hacen que esta tecnología sea aún más valiosa en el esfuerzo de salvar vidas.