Optimice las Inversiones en su Red de Datos

O principios esenciales de redes en términos no-técnicos para directores y tomadores de decisiones.

En mi profesión de consultor e integrador de soluciones de redes LAN (cableadas) y WLAN (inalámbricas) frecuentemente encuentro graves errores de diseño en las redes de las organizaciones que visito, causándoles problemas y frustración constantes. Para estas empresas, el síndrome de “se cayó el Internet” es el “pan de todos los días” repercutiendo directamente en la productividad y ánimo de sus empleados. Desafortunadamente esto sucede muy a menudo pese a cuantiosas inversiones realizadas en equipo de redes y servicios relacionados debido a una mal asesoría o porque los tomadores de decisiones ven a las redes de datos como una bola de cajas que hacen quien-sabe-qué, casi equiparables a la magia negra.

O principios esenciales de redes en términos no-técnicos para directores y tomadores de decisiones.

En mi profesión de consultor e integrador de soluciones de redes LAN (cableadas) y WLAN (inalámbricas) frecuentemente encuentro graves errores de diseño en las redes de las organizaciones que visito, causándoles problemas y frustración constantes. Para estas empresas, el síndrome de “se cayó el Internet” es el “pan de todos los días” repercutiendo directamente en la productividad y ánimo de sus empleados. Desafortunadamente esto sucede muy a menudo pese a cuantiosas inversiones realizadas en equipo de redes y servicios relacionados debido a una mal asesoría o porque los tomadores de decisiones ven a las redes de datos como una bola de cajas que hacen quien-sabe-qué, casi equiparables a la magia negra.

redes efectivas1

Esta situación se puede evitar cuando el tomador de decisiones logra un entendimiento básico de los principios de redes de datos y es capaz de hacer las preguntas claves al momento de autorizar o solicitar la compra de dichos equipos.

En esencia, la adquisición de componentes caros y potentes de equipos de redes, tales como switches, ruteadores, firewall, APs (Access Points), o servicios relacionados de Internet, entre otros NO garantiza un servicio rápido y confiable en una empresa. Esto se debe a que las redes se comportan como un “sistema” o conjunto de elementos individuales que interaccionan entre sí dentro de un mismo ambiente. Dicho lo anterior, cambiar un elemento no implica que el resultado final mejore. Frecuentemente sólo se transfiere el problema de un lugar a otro, permaneciendo la falla, o bien el beneficio es demasiado pequeño para ser palpable. Es como tratar de solucionar el problema de tránsito en una ciudad construyendo una supercarretera de solo unos cuantos kilómetros y que no alcanza a atravesarla. Como expliqué a un cliente aficionado a los autos: “De nada nos sirve un Ferrari si el camino es de terracería”.

Ya sea que se busque ampliar la red o mejorar su desempeño, lo recomendable es que directores o tomadores de decisiones se involucren lo suficientemente en la selección de equipos y servicios de red para lograr una optimización de su inversión

He decidido utilizar el término “red efectiva” para referirnos a una red de datos que cumple con los objetivos de la misma en cuanto a capacidad, velocidad y confiabilidad, y que además es equilibrada y eficiente en los costos de sus elementos. Siguiendo con la analogía de autos estaríamos hablando de un Vocho, Golf o Tsuru, autos preferidos por taxistas y flotas utilitarias por sus características de economía, sencillez y durabilidad, cumpliendo así con el término “efectiva”.

Cuando hablamos de redes no existe tal cosa como los lujos. Las funcionalidades que salen sobrando son simplemente un desperdicio de dinero a menos de que se tenga planeado implementarlas en un futuro. Una red efectiva está conformada por equipos de tamaño y características adecuadas que cumplen con los requerimientos actuales y toma en cuenta el crecimiento estimado de por lo menos 2 o 3 años más. Esto trae como resultado un mejor desempeño de red con una menor inversión total.

Desgraciadamente existen vendedores y asesores inexpertos que desconocen el concepto de red efectiva, o simplemente ignoran las necesidades del cliente. Entonces el vendedor simplemente ofrece el equipo más caro que cree poder vender para incrementar su comisión y evitar problemas. Por ello, la importancia de realizar un análisis serio de la situación actual de la red para identificar las limitantes o “cuellos de botella” en la misma antes de comprar equipo o servicios adicionales.

Este artículo, el primero de una serie que he denominando “Tecnología para Todos”, explica en términos sencillos cuatro de los principios fundamentales en el diseño de redes efectivas. Fue elaborado pensando en directores y tomadores de decisión, a nivel empresarial o corporativo, para brindarles elementos básicos de análisis y ayudarles a hacer las preguntas correctas durante el proceso de compra de equipos de red. Analicemos a continuación estos cuatro principios:

 

I. Una cadena es sólo tan fuerte como su eslabón más débil

Para aplicar el primer principio debemos empezar con una visión integral de lo que es una red y posteriormente identificar el eslabón más débil o lento en dicha red. El eslabón más débil determina el máximo desempeño de toda la red y por ende es donde debemos enfocar nuestros esfuerzos.

A diferencia de lo que muchos usuarios piensan, el hecho de contratar un servicio de Internet veloz, un switch Gigabit de alta capacidad, o un AP (Access Point) súper potente, , el desempeño de una red estará siempre limitado a al elemento más lento o de menor capacidad en toda la cadena de “saltos” que dan los paquetes de datos entre equipos desde mi dispositivo hasta Internet. Esto es porque las redes se comportan como una cadena de eslabones o elementos que integran un “sistema”[1].

En el caso de redes de datos el objetivo es transmitir la mayor cantidad de datos o “paquetes” en el menor tiempo posible. La transmisión de datos se da siempre entre dos o más elementos. Generalmente uno de ellos es nuestro dispositivo (PC, laptop, tablet, móvil, consola de video juego, etc.). El otro elemento es algún servidor ya sea local o en Internet que contiene la información que deseamos enviar o recibir. Otros elementos intermedios que se requieren para que funcionen correctamente las redes debido a los diferentes medios y estándares utilizados son: el módem (si recibimos Internet por la línea telefónica) u ONT (en caso de recibir Internet por fibra), el firewall/router, un switch y un AP (Access Point o equipo inalámbrico que propaga la señal inalámbrica dentro de nuestra oficina o casa). Todos estos elementos pueden estar integrados en una sola caja, como la que entrega el ISP (proveedor de servicio Internet) o en cajas separadas dependiendo del servicio contratado.

Por lo tanto, debemos considerar a cada una de estas piezas como un eslabón en nuestro sistema de red, y conocer sus límites tanto de capacidad como de velocidad para poder hacer una estimación acertada del desempeño de principio a fin o “end-to-end”.

Una analogía de ello sería encontrarnos en nuestro auto detrás de un camión que avanza lentamente sin poder rebasarlo. En ese momento no importa la potencia o velocidad máxima de nuestro auto ya que no podemos ir más rápido que el camión. Es decir, la velocidad del camión se vuelve nuestra velocidad máxima.

En resumen, este principio recomienda examinar cada uno de los elementos que conforman la red para asegurarnos de que puedan operar en forma simultánea a la velocidad contratada al proveedor de servicio de Internet. Solo después de este análisis podremos asegurar un desempeño uniforme cercano a la velocidad contratada al proveedor de servicios de Internet. Es aquí donde un consultor experto en redes puede ser de gran utilidad, especialmente para empresas de tamaño mediano o corporativos.

 

II. No todas las redes son iguales

El segundo principio de diseño de redes efectivas atiende a un error común por parte de usuario y algunos administradores de redes: asumir que la capacidad de una red LAN (cableada) es similar a una red WLAN (inalámbrica).

Esto se debe a una sencilla razón: las redes inalámbricas operan sobre un ambiente compartido mientras que las cableadas no es compartido ya que cada cable es un medio independiente de comunicación. Por compartido me refiero a que todas las redes WiFi comparten las mismas frecuencias para ser compatibles los dispositivos entre sí y esto tiene un efecto divisorio sobre la capacidad total. Inclusive si hay otras redes cercanas que llegan con suficiente intensidad, también nos van a reducir la velocidad de nuestra red porque comparten las mismas frecuencias. Esto es muy común por ejemplo en el caso de oficinas o departamentos por la cercanía de las redes vecinas.

Y de nada sirve solo agregar más APs, como algunos creen, ya que primero hay que analizar las frecuencias en uso y su capacidad disponible. Dicha banda de frecuencias tiene una capacidad total finita dentro del área de cobertura; es decir, sin importar el número de APs que se coloquen, la velocidad de la red inalámbrica estará limitada a la capacidad disponible “en el aire” o en las frecuencias asignadas por el ITU[2]

En el caso de una red LAN (cableada) la cantidad de ancho de banda (capacidad para transmitir datos) se determina multiplicando el número de puertos que tiene el switch por la velocidad máxima de cada uno de ellos. Pero la realidad es que el ancho de banda es prácticamente infinito ya que con sólo agregar otro switch podemos duplicar esta capacidad y continuar de esta manera sucesivamente hasta cubrir nuestras necesidades. Es decir, con un switch Gigabit de 24 puertos tenemos una capacidad total de 24 Gbps en nuestra red. Pero si quisiéramos aumentar esta capacidad debido a una expansión, solo agregamos otro switch y de inmediato tenemos el doble o 48 Gbps y así sucesivamente hasta alcanzar el ancho de banda deseado.

Sin embargo, esto no ocurre en el caso de la redes inalámbricas (WLAN) ya que como mencioné anteriormente, comparten todas las mismas frecuencias por lo que la máxima capacidad disponible es finita. En el caso de la frecuencia típica de 2.4 GHz que todos los dispositivos WiFi están obligados a soportar, ocupa las frecuencias de 2.4 a 2.494 GHz con una capacidad total de 60 MHz (son tres canales que no se traslapan de 20 GHz cada uno), la cual dependiendo del estándar inalámbrico utilizado (802.11 b, g o n) se traduce en entre 20 y 75 Mbps efectivos por canal o de 60 a 225 Mbps sumados. Estos 200 Mbps (considerando que tenemos equipos AP de penúltima generación 802.11n) probablemente son suficientes para una hogar o pequeña oficina pero no lo son para un colegio, auditorio, sala de exposiciones o cualquier ubicación con más de 100 dispositivos conectados simultáneamente. , considerada entonces como un escenario de “alta densidad”.

Hago un breve paréntesis aquí para explicar cómo llegué a este número ya que existe mucha confusión en las velocidades de APs. Entre fabricantes de equipo inalámbrico existe una batalla por tener la velocidad más alta por lo que etiquetan su dispositivo con las velocidades teóricas de los estándares que soportan y no con velocidades reales de transmisión, confundiendo y desilusionando a los clientes.

La razón tiene que ver con la forma en que se lleva a cabo la comunicación. Dos dispositivos conectados vía cable pueden enviar y recibir información al mismo tiempo como si fuera una autopista de 4 carriles. A esto se le llama comunicación “full-duplex”, la cual logra aprovechar casi la totalidad de la capacidad total disponible. Un pequeño porcentaje se pierde porque se utiliza para señales de control.

Las redes inalámbricas, en cambio, utilizan comunicación “half-duplex”, similar a un solo carril o un radio de Nextel, lo que significa que solo un dispositivo puede transmitir o recibir datos a la vez, reduciendo efectivamente la capacidad del canal al 50%. Adicionalmente, los fabricantes suelen manejar velocidades que requieren agrupar dos canales adyacentes, lo cual no es práctico en la mayoría de los ambientes debido a la interferencia que generan otras redes alrededor y nuevamente debemos dividir el número entre 2. También hay que considerar como mínimo entre un 10 y un 20% adicional de pérdida por colisiones y señales de control en las transmisiones.

Es por ello que nunca se debe esperar que un AP con tecnología 802.11n, en cuya caja dice 300Mbps, sobrepase los 100Mbps efectivos. La velocidad real del WiFi, ya considerando los factores anteriormente descritas será por tanto cercana a ¼ de su velocidad anunciada o teórica. Así para un AP anunciado de 300 Mbps esperamos máximo unos 75 Mbps en condiciones reales y de 40 a 50 en condiciones sub-óptimas como pudiera ser el caso de muchas redes inalámbricas alrededor, varios muros intermedios, distancias muy grandes, etc.

Los fabricantes de equipos especializados para redes inalámbricas, tales como Ruckus Wireless, Cisco, Meraki, Zebra Technologies, Aruba, etc. rara vez ponen velocidades en las especificaciones. Sólo identifican los estándares que soportan sus equipos ya que asumen que alguien que va a desembolsar arriba de $400 USD por cada AP conoce los alcances y limitaciones de cada estándar.

Regresando al tema de capacidad, 200 Mbps en un área considerada de alta densidad, no es suficiente para aplicaciones que requieren más de 1 Mbps por ejemplo de video en tiempo real. Afortunadamente esta situación fue prevista hace algunos años por el ITU y por ello la frecuencia de 5GHz (de 5.1 a 5.825 GHz para ser más precisos) fue también asignada a las redes WiFi. Por su mayor frecuencia y ancho de banda esta frecuencia de 5GHz puede acomodar hasta 23 canales independientes, ofreciendo cerca de 1 Gbps de capacidad adicional.

Contar con esta capacidad adicional sin embargo, no viene sin alguna concesión y ésta se refleja en una menor penetración de la señal a través de materiales incluyendo el aire. En nuestra experiencia un AP típico en 5GHz sólo alcanza de un 60 a 70% de la distancia que logra un AP en 2.4GHz pero este número puede variar dependiendo del fabricante del AP, la tecnología utilizada y los materiales presentes.

Un servicio comúnmente solicitado por corporativos para maximizar la efectividad de sus redes inalámbricas es realizar un “Site Survey”. Dicho servicio ahora está al alcance de las pequeñas empresas y el hogar, permitiendo determinar el número y la ubicación correcta de los APs para cubrir un espacio dado. Por medio de este servicio, se colocan uno o varios APs de prueba en el área que se desea cubrir y se toman medidas de intensidad de la señal para poder predecir la cobertura y así asegurar la efectividad de la red WLAN. Estas mediciones se extrapolan mediante un software especializado y se genera un mapa de calor en el cual se pueden observar las intensidades de señal mediante diferentes colores.


mapa calor

Ejemplo de un mapa de calor para 2.4 GHz.

Concluyendo esta sección, un buen análisis y un buen diseño es fundamental para garantizar el desempeño de una red inalámbrica. Utilizar los servicios de un experto en redes complejas y sobre todo en ambientes de alta densidad es una buena inversión en su red.

 

III. La redundancia es tu mejor amigo

Por redundancia debemos entender la colocación de más de un aparato (generalmente dos) que realizan la misma función para que en caso de fallar uno, el otro pueda seguir prestando el servicio. Existen los esquemas de redundancia pasiva que es cuando el segundo equipo solo entra a funcionar en caso de falla del primero o activa que es cuando los dos equipos están en funcionamiento y se reparten la carga

Esta práctica es actualmente factible gracias a la disminución notable de los precios de equipos de redes y enlaces de Internet. Por lo que es relativamente económico contratar dos enlaces y tener redundancia en las organizaciones donde el servicio de Internet es primordial. También recomendamos por lo menos dos APs, lo cual aporta el beneficio adicional de agregar más canales o capacidad a la red inalámbrica. Estimamos que más del 80% de las fallas en las redes se presentan en la salida a Internet o en el AP por lo que mediante esta sencilla acción vamos a incrementar la disponibilidad de nuestros servicios de redes a más de un 95% y evitar las frecuentes pérdidas de productividad asociadas.

El enlace a Internet es el primer lugar donde debemos enfocarnos y me refiero a los servicios típicos de bajo costo conocidos como “no-dedicados”, por ejemplo Infinitum de Telmex, Extremo de Axtel, y Enlace Internet de Enlace TPE. Mientras que su velocidad se ha incrementado cerca de 10 veces en los últimos 5 años, permitiéndonos descargar grandes cantidades de información rápidamente, siguen siendo servicios “best effort”, lo cual significa que no hay penalidad para el ISP en caso de una falla ni tampoco ha un tiempo máximo de respuesta. La disponibilidad promedio de un servicio de este nivel es alrededor de 99.50%. Esto equivale como a 4 hrs. al mes sin servicio y si consideraos que el tiempo de respuesta ante una falla puede ser de varias horas rápidamente podemos ver las ventajas de contar con un segundo enlace. ¿Pero cómo los conecto para evitar tener dos redes distintas?

Lo único que requerimos para ello es un router/firewall con dos entradas para enlaces WAN o Internet y contratar dos servicios con proveedores diferentes. Debo aclarar que estos equipos no los entregan los ISPs sino que se tienen que adquirir con un proveedor de equipos de redes y ofrecen un esquema de redundancia activa. De esta manera mientras los dos servicios estén arriba, gozaremos de la suma de sus anchos de banda y si llegase a fallar uno de ellos, automáticamente el tráfico se redirige hacia el que permanece arriba.

Existe un rango bastante amplio de routers/firewall para casa o PYME con capacidad para dos enlaces WAN dependiendo del tamaño de la organización: el TP-Link TL-R470T ($50 usd.) es de los más económicos pero muy limitado en funcionalidad, el Linksys LRT224 ($250 usd.) y el Peplink Balance 20 ($300 usd.), los tres para no más de 25 o 30 usuarios simultáneos. O para algo más completo para PYMES recomendamos los equipos Meraki administrado en la nube como el MX64 o 64W (que incluye AP) por $595 y $945 usd. respectivamente y que soportan más de 60 usuarios.

En la parte de APs también es recomendable tener más de uno tanto para fines de redundancia como para contar con por lo menos 2 canales (o 4 si son dual-band) para poder distribuir mejor el tráfico. Pero si se trata de una red casera o una empresa muy pequeña de menos de 20 usuarios, pueden optar por un solo AP pero que sea de alta calidad como los que fabrican Ruckus Wireless, Meraki Zebra Technologies, Aruba o Ubiquiti. Mientras coloquemos a cada radio en un canal diferente (y con por lo menos con 5 canales de separación en el caso de 2.4GHz) podemos colocarlos en la misma área de cobertura sin problemas de interferencia y no solo gozaremos de mayor velocidad sino que además tendremos redundancia en caso de que uno de ellos falle o se presente interferencia en uno de los canales utilizados.

 

IV. Lo barato sale caro

El mercado de TI es un mercado en donde invariablemente se cumple el conocido lema en inglés “You get what you pay for” cuya mejor traducción considero que es “La calidad está en función de lo que pagas”. O también en México decimos “Lo barato sale caro”.

Es decir, al final del día son la calidad de los componentes electrónicos, el procesador y la cantidad de investigación y desarrollo invertido en los productos los factores que determinan su desempeño. No debemos esperar que un equipo de bajo costo multiusos que incluye modem/router/fw/switch/AP como los que entregan los proveedores de Internet tenga un buen desempeño para más de una decena de dispositivos, dependiendo de las aplicaciones que utilicen.

Por lo tanto nuestra recomendación en este sentido, excepto para redes muy pequeñas, es separar del módem o ONT de las funciones de ruteo (incluyendo NAT[1]) y red inalámbrica agregando equipos especializados para cada una de estas dos aplicaciones. Esto lo logramos con el router dual-wan ya mencionado en la sección anterior y un buen AP dual-band (2.4 y 5GHz) con de preferencia con el nuevo estándar 802.11ac. Cualquiera de las marcas de APs mencionadas en la sección III son excelentes.

Resumiendo esta sección, no se dejen engañar por la mercadotecnia de equipos baratos que supuestamente son de alto desempeño y lo hacen todo. Mejor pregunten a los expertos para saber su opinión o consigan uno de prueba para validarlo ustedes mismos antes de invertir en ellos.

Concluyendo, al conocer y aplicar estos cuatro principios lograran crear una red confiable y eficiente en su organización a un costo razonable, es decir, una red realmente efectiva.



___________________________________________

Andrés Arizpe es Director Técnico y Comercial de Soluciones Aplicadas Fastweb, una empresa dedicada a integración de redes LAN y WLAN y soluciones integrales IP para la pequeña y mediana empresa. Cuenta con certificación CCENT y está en proceso de certificación CCNA Wireless, ambos por parte de Cisco. Además, está certificado en redes inalámbricas por parte de Ruckus Wireless, Meraki, Zebra Technologies y Aruba. Puede ser contactado mediante correo electrónico en This email address is being protected from spambots. You need JavaScript enabled to view it..



[1] Puedes leer más acerca de este campo denominado ingeniería de sistemas en Wikipedia: https://es.wikipedia.org/wiki/Ingenieria_de_sistemas

[2]( https://en.wikipedia.org/wiki/International_Telecommunication_Union).

Información contacto

 
Acapulco 62 int. 501
Col. Roma, CDMX 06700 México
ventas@fastweb.com.mx
(55) 5211-9110, (55) 5211-9120

Acerca de Nosotros

Soluciones Aplicadas Fastweb o “Fastweb” es una empresa líder en soluciones integrales de comunicación, movilidad y seguridad sobre IP. Una de sus áreas de mayor demanda son las redes inalámbricas, en donde administran actualmente más de 50 redes para clientes reconocidos en los mercados educativo, corporativo, sitios públicos y logística.

 

Conéctate con nosotros: