O lo que todo responsable de una red debe saber
En mi profesión de consultor e integrador de soluciones de redes LAN (cableadas) y WLAN (inalámbricas) frecuentemente encuentro graves incongruencias y errores de diseño en las redes en las organizaciones que visito, causándoles problemas constantes y frustración innecesaria. Para ellos, el síndrome de “se cayó el Internet” es cosa todos los días lo cual repercute directamente en la productividad de la empresa. Y lo peor es que a menudo recientemente invirtieron una cantidad considerable en equipo de redes y servicios relacionados. Esta situación probablemente se pudiera haber evitado si el tomador de decisiones hubiera tenido un entendimiento básico de los principios de redes de datos al momento de autorizar o solicitar las compras de dichos equipos.
O lo que todo responsable de una red debe saber
En mi profesión de consultor e integrador de soluciones de redes LAN (cableadas) y WLAN (inalámbricas) frecuentemente encuentro graves incongruencias y errores de diseño en las redes en las organizaciones que visito, causándoles problemas constantes y frustración innecesaria. Para ellos, el síndrome de “se cayó el Internet” es cosa todos los días lo cual repercute directamente en la productividad de la empresa. Y lo peor es que a menudo recientemente invirtieron una cantidad considerable en equipo de redes y servicios relacionados. Esta situación probablemente se pudiera haber evitado si el tomador de decisiones hubiera tenido un entendimiento básico de los principios de redes de datos al momento de autorizar o solicitar las compras de dichos equipos. |
En escencia, equipos de redes como switches, ruteadores, firewall, APs (Access Points), etc. caros y potentes NO garantizan un servicio rápido y confiable debido a que la redes se comportan con un “sistema” o conjunto de elementos individuales que interaccionan entre sí, y cambiar un elemento no implica que el resultado final mejore. Frecuentemente solo se transfiere el problema de un lugar a otro, permaneciendo la falla, o el impacto es demasiado pequeño como para ser palpable. Como le expliqué a un cliente mio aficionado a los autos: “De nada nos sirve un Ferrari si el camino es de terracería”.
Pretendo con este artículo resumir en términos sencillos los conceptos esenciales de redes para que directores o tomadores de decisiones puedan involucrarse lo suficiente en la compra de equipo de redes para realizar inversiones inteligentes y efectivas. Con este artículo, profesionales fuera del ámbito de redes de datos y sistemas podrán contar con las bases para cuidar las inversiones en TI o mejorar el desempeño de la red ya sea en su empresa o en su casa.
He decidido utilizar el término "red efectiva” para referirnos a una red de datos que antes que nada cumple con los objetivos de la misma en cuanto a capacidad, velocidad y confiabilidad pero que además es equilibrada y eficiente en los costos de sus elementos. Siguiendo con la analogía de autos estaríamos hablando de un Vocho o Tsuru, autos consentidos de taxistas y flotas utilitarias por sus características de economía, sencillez y durabilidad, cumpliendo así con el término efectivo.
Cuando hablamos de redes no existe tal cosa como los elementos de lujo. Las funcionalidades que no se requieren o salen sobrando son un desperdicio de dinero. Una red efectiva, por el contrario, además de basarse en un buen diseño, consiste de equipos de tamaño y características adecuadas que cumplen con los requerimientos actuales y que además toma en cuenta el crecimiento estimado de por lo menos 2 o 3 años más. Esto trae como resultado un mejor desempeño con una menor inversión total.
Desgraciadamente existen muchos vendedores inexpertos que ignoran el concepto de red efectiva y no han sido entrenados adecuadamente en el proceso de análisis de redes. O no se toman el tiempo suficiente para entender las necesidades del cliente. Por tanto simplemente ofrecen el equipo más caro que creen poder vender para incrementar su comisión y evitar problemas futuros. Por ello, queda en manos del usuario o un consultor externo realizar el análisis de la situación actual de la red e identificar las limitantes o “cuellos de botella” en su red.
Este artículo, el primero de una serie que he denominando “Tecnología para Todos”, no sólo pretende exponer cuatro de los principios fundamentales e indispensables en el diseño de redes efectivas sino proveer también a directores y tomadores de decisión a nivel empresarial o corporativo, de elementos básicos de análisis como para poder hacer las preguntas correctas en el proceso de compra. Veamos a continuación cuales son.
I. Una cadena es solo tan fuerte como su eslabón más débil
Para aplicar el primero principio debemos empezar con una visión integral de lo que es una red y posteriormente buscar en ella cuál es el eslabón más débil o lento. Ese eslabón determina el máximo desempeño de toda la red.
A diferencia de lo que muchos usuarios piensan, el hecho de contratar un servicio de Internet veloz, un switch Gigabit de alta capacidad, un AP (Access Point) súper potente, o cualquiera que sea el dispositivo de redes de moda, el desempeño de una red estará siempre limitado a al elemento más lento o de menor capacidad en toda la cadena de “saltos” que dan los paquetes de datos entre equipos desde mi dispositivo hasta Internet. Esto es porque las redes se comportan como una cadena de eslabones o elementos que integran un “sistema”[1].
En el caso de redes el objetivo es siempre transmitir la mayor cantidad de datos en el menor tiempo posible entre dos elementos. Generalmente uno es nuestro dispositivo (PCs, laptops, tablets, móviles, consolas de video juegos, etc.) y el otro es algún servidor destino ya sea local o en Internet que contiene la información que deseamos. Los elementos más comunes que conforman una red son: el módem (si recibimos Internet por la línea telefónica) u ONT (en caso de recibir Internet por fibra), el firewall/router, un switch y un AP (Access Point o equipo inalámbrico que propaga la señal inalámbrica dentro de nuestra oficina o casa). Todos estos elementos pueden estar en una sola caja, como la que entrega el ISP (proveedor de servicio Internet) o en cajas separadas si compro cada elemento por separado.
Por tanto, debemos considerar cada uno de estas piezas como un eslabón en la cadena entre nuestro dispositivo y el destino final de los datos y conocer sus límites tanto de capacidad como de velocidad para poder hacer una estimación acertada del desempeño de principio a fin o “end-to-end”.
Este principio es muy importante porque hay clientes que creen que porque contratan un servicio de Internet a 200 Mbps, automáticamente toda su red va a “volar” a esa velocidad. Esto no es necesariamente cierto porque habría primero que examinar cada uno de los elementos que conforman la red y asegurarse de que puedan todos operar en forma simultánea a 200 Mbps. Solo después de este análisis podremos asegurar un desempeño cercano a esa velocidad desde cualquier dispositivo.
Una analogía de ello sería cuando nos encontramos en nuestro auto detrás de un camión que avanza lentamente sin poder rebasarlo. En ese momento no importa la potencia o velocidad máxima de nuestro auto o de los demás en la fila ya que no podemos ir más rápido que el camión. Es decir, la velocidad del camión se vuelve nuestra velocidad máxima.
Dependiendo si el destino final de nuestra comunicación esta dentro de nuestra red local (LAN) o en Internet, generalmente el eslabón más lento se va a encontrar en el enlace a Internet, en el AP, o en el router dependiendo de las características de cada uno de ellos. En el caso de redes empresariales o corporativa de mayor complejidad aquí es donde un consultor experto en redes puede ser de gran utilidad.
II. No todas las redes son iguales
El segundo principio de diseño de redes efectivas se refiere a un error común por parte de los usuarios y administradores de redes: asumir que la capacidad de una red LAN o cableada es similar a una red WLAN o inalámbrica.
Esto es muy lejos de ser cierto por una sencilla razón: las redes inalámbricas operan sobre un ambiente compartido mientras que las cableadas no. Y con compartido me refiero a que las redes de nuestros vecinos, si están suficientemente cercanas podrían impactarnos. Es necesario que las redes inalámbricas compartan las mismas frecuencias ya que de otra manera no habría intercomunicación entre dispositivos de diferentes fabricantes. Es por ello que el ITU (International Telecommunications Union, organismo internacional encargado de la gestión de frecuencias a nivel mundial) definió cierto conjunto o banda de frecuencias para comunicación inalámbrica de dispositivos personales y por tanto tienen una capacidad total finita dentro del área de cobertura, sin importar el número de APs que se coloquen.
Profundicemos un poco más en este tema. En una red LAN (cableada) la cantidad de ancho de banda (capacidad para transmitir datos) se determinar multiplicando el número de puertos que tiene el switch por la velocidad máxima de cada uno de ellos. Pero la realidad es que el ancho de banda es prácticamente infinito ya que con sólo agregar otro switch podemos duplicar esta capacidad y continuar de esta manera sucesivamente hasta cubrir nuestras necesidades. Es decir, con un switch Gigabit de 24 puertos tenemos una capacidad total de 24 Gbps en nuestra red. Pero si quisiéramos aumentar esta capacidad debido a una expansión, solo agregamos otro switch y de inmediato tenemos el doble o 48 Gbps y así podríamos continuar sucesivamente hasta alcanzar el ancho de banda deseado.
Sin embargo esto no ocurre en el caso de la redes inalámbricas (WLAN) ya que como mencioné anteriormente, comparten todas las mismas frecuencias y en determinada área de cobertura por lo que la máxima capacidad disponible es finita. En el caso de la frecuencia típica de 2.4 GHz que todos los dispositivos WiFi están obligados a soportar, ocupa las frecuencias de 2.4 a 2.494 GHz y tiene una capacidad de 60 MHz (son tres canales que no se traslapan de 20 GHz cada uno), lo cual dependiendo del estándar inalámbrico utilizado (802.11 b, g o n) se traduce en entre 20 y 75 Mbps efectivos por canal o de 60 a 225 Mbps sumados. Estos 200 Mbps probablemente son suficientes para una hogar o pequeña oficina pero no lo son para un colegio, auditorio, sala de exposiciones o cualquier ubicación con más de unos 100 dispositivos, considerada entonces de “alta densidad”.
Hago un breve paréntesis aquí para mencionar cómo llegué a este número ya que existe entre fabricantes de equipo inalámbrico una batalla por tener la velocidad más alta por lo que etiquetan su dispositivo con las velocidades teóricas de los estándares que soportan y no con velocidades reales de transmisión, confundiendo a los prospectos y desilusionando a los clientes.
La razón tiene que ver con la forma en que se lleva a cabo la comunicación. Dos dispositivos conectados vía cable pueden enviar y recibir información al mismo tiempo como si fuera una autopista de 4 carriles. A esto se le llama comunicación “full-duplex” en términos técnicos y se logra aprovechar aproximadamente un 95% de la capacidad total disponible. El otro 5% se pierde porque se utiliza para señales de control.
Las redes inalámbricas en cambio, utilizan comunicación “half-duplex”, lo cual, similar a un radio de tipo Nextel, significa que el dispositivo puede únicamente transmitir o recibir datos el dispositivo, reduciendo efectivamente la capacidad del canal al 50%. Adicionalmente, los fabricantes suelen poner velocidades que requieren agrupar dos canales adyacentes ocupando 40MHz en lugar de los 20 MHz que normalmente se usan pero esto no es práctico en la mayoría de los ambientes debido a la interferencia que generan otras redes alrededor.
Es por ello que nunca se debe esperar que un AP con tecnología 802.11n que dice 300Mbps en la caja sobrepase los 100Mbps efectivos. La velocidad real del WiFi, ya considerando la situación anteriormente mencionada de no poder usar 40GHz de ancho de banda, half-duplex y los protocolos de control, etc. será por tanto cercana a ¼ de su velocidad anunciada o teórica. Así para un AP anunciado de 300 Mbps esperamos máximo unos 70 Mbps en condiciones reales y de 40 a 50 en condiciones sub óptimas (muchas redes inalámbricas alrededor, varios muros intermedios, distancias muy grandes, etc.).
Los fabricantes de equipos especializados para redes inalámbricas como Ruckus Wireless, Cisco, Meraki, Zebra Technologies, Aruba, etc. rara vez ponen velocidades en las especificaciones sino solo identifican los estándares que soportan sus equipos ya que asumen que alguien que va a desembolsar arriba de $400 USD. en un AP conoce los alcances y limitaciones de cada estándar.
Regresando al tema de capacidad, 200 Mbps en un área considerada de alta densidad no es apta para aplicaciones de video en tiempo real pero afortunadamente los ingenieros del IEEE (la Organización Internacional de Ingenieros Eléctricos) previeron esta situación hace algunos años y por ello también asignaron la frecuencia de 5GHz (de 5.1 a 5.825 GHz para ser más precisos), a las redes WiFi, la cual por su mayor frecuencia y ancho de banda puede acomodar hasta 23 canales que no se traslapan, ofreciendo cerca de 1 Gbps de capacidad adicional.
Contar con esta capacidad adicional sin embargo, no viene sin alguna concesión (como suelen ser las cosas en el ámbito de la ingeniería) y ésta se refleja en una menor penetración de la señal a través de materiales incluyendo el aire debido a su mayor frecuencia. En nuestra experiencia un AP típico en 5GHz solo alcanza de un 60 a 70% de la distancia que logra un AP en 2.4GHz pero este número puede variar dependiendo del fabricante del AP, tecnología utilizada y materiales presentes.
La práctica recomendada para determinar el número y la ubicación correcta de APs necesarios para cubrir un espacio dado es obtener un AP de prueba y realizar algunas mediciones reales en sitio. Para ello existe el servicio ofrecido por empresas expertas en redes inalámbricas conocido como “site survey”, donde colocan uno o varios APs de prueba en el área que se desea cubrir y toman medidas de intensidad de la señal para poder predecir la cobertura y así asegurar la efectividad de su red WLAN. Estas mediciones se extrapolan mediante un software especial y se genera algo llamado mapa de calor en donde se reflejan las intensidades de señal mediante diferentes colores.
Ejemplo de un mapa de calor para 2.4 GHz.
Concluyendo esta sección, la planeación requerida para instalar una red inalámbrica es fundamental, sobre todo en ambientes de alta densidad.
III. La redundancia es tu mejor amigo
Por redundancia debemos entender que se colocan dos aparatos que realizan la misma función o dos servicios de Internet para que se complementen y en caso de fallar uno, el otro pueda seguir prestando el servicio, aunque con una reducción en el desempeño.
Esta práctica es actualmente factible gracias a que los precios de los equipos de redes y enlaces típicos de Internet han disminuido notablemente en los últimos años por lo que es relativamente económico contratar dos enlaces y tener redundancia en las organizaciones donde el servicio de Internet es indispensable. También recomendamos por lo menos dos APs, lo cual aporta el beneficio adicional de agregar más canales o capacidad a la red inalámbrica. Estimamos que más del 80% de las fallas en las redes se presentan en la salida a Internet o en el AP por lo que mediante esta sencilla acción vamos a incrementar la disponibilidad de nuestros servicios de redes a más de un 95% y evitar las frecuentes pérdidas de productividad asociadas.
En redes más grandes que cuentan con múltiples switches administrables se pueden crear esquemas de redundancia en los switches usando protocolos como STP (Spanning Tree Protocol), lo cual deja al router/firewall como prácticamente el único punto crítico de falla al ser la red inalámbrica la opción de respaldo para nodos cableados. Pero estos esquemas van más allá del alcance de este artículo.
El enlace a Internet es el primer lugar donde debemos enfocarnos y me refiero a los servicios típicos de bajo costo conocidos como “no-dedicados”, por ejemplo Infinitum de Telmex, Extremo de Axtel, y Enlace Internet de Enlace TPE. Mientras que su velocidad se ha incrementado cerca de 10 veces en los últimos 5 años, permitiéndonos descargar grandes cantidades de información rápidamente, siguen siendo servicios “best effort”, lo cual significa que no hay penalidad para el ISP en caso de falla y su disponibilidad promedio es alrededor de 99.50%. Esto equivale como a 4 hrs. al mes sin servicio y adicionalmente al considerarse de bajo costo, los tiempos de respuesta ante una falla pueden ser de varias horas lo cual deja vulnerable a la organización en caso de una falla.
La buena noticia es que podemos tener 100% de disponibilidad en nuestra conexión a Internet a un precio muy accesible. Lo único que requerimos para ello es un router/firewall con dos entradas para enlaces WAN o Internet y contratar dos servicios con proveedores diferentes. De esta manera mientras los dos servicios estén arriba, gozaremos de la suma de sus anchos de banda y si llegase a fallar uno de ellos, automáticamente el tráfico se redirige hacia el que permanece arriba.
Existe un rango bastante amplio de routers/firewall para casa o PYME con capacidad para dos enlaces WAN: el TP-Link TL-R470T ($50 usd.) es de los más económicos pero limitado en funcionalidad, el Linksys LRT224 ($250 usd.), Peplink Balance 20 ($300 usd.) o para algo más completo para PYMES recomendamos los equipos Meraki administrado en la nube como el MX64 o 64W (que incluye AP) por $595 y $945 usd. respectivamente y que soportan más de 50 usuarios.
En la parte de APs también es recomendable tener más de uno tanto para fines de redundancia como para contar con por lo menos 2 canales (o 4 si son dual-band) para poder distribuir mejor el tráfico. Pero si se trata de una red casera o una empresa muy pequeña de menos de 20 usuarios, pueden optar por un solo AP pero que sea de alta calidad como los que fabrican Ruckus Wireless, Meraki Zebra Technologies, Aruba o Ubiquiti. Mientras coloquemos a cada radio en un canal diferente (y con por lo menos con 5 canales de separación en el caso de 2.4GHz) podemos colocarlos en la misma área de cobertura sin problemas de interferencia y no solo gozaremos de mayor velocidad sino que además tendremos redundancia en caso de que uno de ellos falle.
IV. Lo barato sale caro
El mercado de TI es un mercado en donde invariablemente se cumple el conocido lema en inglés “You get what you pay for” cuya traducción literal es “La calidad está en función de lo que pagas”. En Mexico decimos “Lo barato sale caro”.
Es decir, al final del día son la calidad de los componentes electrónicos y la cantidad de investigación y desarrollo invertido en los productos por el fabricante los factores que determinan su desempeño. No debemos esperar que un equipo de bajo costo multiusos que incluye modem/router/fw/switch/AP como los que entregan los proveedores de Internet tenga un buen desempeño para más de una decena de dispositivos, dependiendo de las aplicaciones que utilicen.
Por lo tanto nuestra recomendación en este sentido, excepto para redes muy pequeñas, es separar del módem o ONT de por lo menos las funciones de NAT (Network Address Translation o función de un ruteador para compartir una sola IP pública entre múltiples dispositivos) y red inalámbrica agregando equipos especializados para cada una de estas aplicaciones. Esto lo logramos con el router dual-wan ya mencionado en la sección anterior y un buen AP dual-band (2.4 y 5GHz) con de preferencia con el nuevo estándar 802.11ac.
Concluyendo esta sección, no se dejen engañar por la mercadotecnia de equipos baratos que supuestamente son de alto desempeño porque esto es muy raro. Mejor pregunten a los expertos para saber su opinión o consigan uno de prueba para validarlo ustedes mismos.
En resumen si aplican estos cuatro principios fundamentales lograrán crear una red confiable y eficiente en su organización a un costo razonable, es decir, una red efectiva.
___________________________________________
Andrés Arizpe es Director Técnico y Comercial de Soluciones Aplicadas Fastweb, una empresa dedicada a integración de redes LAN y WLAN y soluciones integrales IP para la pequeña y mediana empresa. Cuenta con certificación CCENT y está en proceso de certificación CCNA Wireless, ambos por parte de Cisco. Además, está certificado en redes inalámbricas por parte de Ruckus Wireless, Meraki, Zebra Technologies y Aruba. Puede ser contactado mediante correo electrónico en This email address is being protected from spambots. You need JavaScript enabled to view it..
[1] Puedes leer más acerca de este campo denominado ingeniería de sistemas en Wikipedia: https://es.wikipedia.org/wiki/Ingenieria_de_sistemas