domingo, 30 de octubre de 2011

Cortando el cable: Como los ingenieros diseñaron la Wi-fi. [vídeo]


Hace un tiempo trajimos una artículo de Arstechnica que narraba la historia de como Ethernet llegó a nuestros días. Este que les traemos hoy es mas o menos lo mismo, pero nos vamos sobre la Wi-fi. Un par de aclaraciones antes de seguirle. Primero Debe hacerse una distinción entre los términos "estándares o normas" y los términos "corrección o modificación". En lo que a la Asociación de normas IEEE concierne solo existe la norma (o estándar) IEEE 802.11 seguida por la fecha en la que fue publicada, de manera que solo existen la norma original es decir IEEE 802.11-1997 y la norma que está vigente actualmente que es la IEEE 802.11-2007. Estas normas son actualizadas por medio de correcciones, modificaciones o rectificaciones que (por ejemplo) mejoran la seguridad, o incluyen capacidades de QoS o simplemente añaden extensiones para determinadas funciones. Por ejemplo la modificación IEEE 802.11j (2004) añade extensiones para su uso en Japón, o la IEEE 802.11e que introduce la capacidad de QoS. La norma actual IEEE 802.11-2007 incluye las modificaciones a, b, d, e, g, h, i y j). Segundo, hasta donde yo se (contrario a lo que dice el artículo) el acrónimo Wi-fi no significa nada, olviden el asunto de Wireless-Fidelity o cosas así. Al final les incluyo un vídeo que muestra lo que creo será el siguiente paso en lo que a velocidades Wi-fi se refiere, está en inglés pero básicamente explica una tecnología que empleando múltiples antenas y ciertas técnicas de cancelación previamente empleadas en sistemas de radares consiguen establecer conexiones inalámbricas full-duplex (hasta el momento wi-fi solo funciona en modo half-duplex, es decir no transmite y recibe al mismo tiempo) y esto básicamente doblaría las velocidades de la norma que sea (la investigación está a cargo de un equipo de la universidad de Rice). Eso, tengan muy buen lunes (que es de redes, pero no de selecciones) y nos vemos en el siguiente, provecho!

Cortando el cable: Como los ingenieros diseñaron la Wi-fi.
En la década de 1980, incluso antes de las conexiones a Internet se convirtieran en algo común, la gente se dio cuenta de que la conexión de un grupo de computadoras en una red de área local (LAN) volvía las computadoras algo mucho más útil. Cualquier usuario podría imprimir en impresoras compartidas, almacenar archivos en servidores de archivos, enviar correo electrónico y mucho más. Una década más tarde, la revolución de Internet recorrió el mundo y las redes de área local se convirtieron en la vía de acceso a la autopista de la información. La tecnología LAN de elección era casi universalmente la Ethernet, lo cual es fantástico, excepto por un gran inconveniente: los molestos cables.

A finales de 1990, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) resolvió el problema con su estándar 802.11, que especifica un protocolo para la creación de redes LAN inalámbricas. Si alguna vez la expresión "es más fácil decirlo que hacerlo", se aplicó mejor fue aquí. Enormes desafíos se han superado en los últimos 15 años para llevarnos al punto en que hoy en día, se puede implementar por cualquier persona un equipo LAN inalámbrico razonablemente confiable, rápido y seguro, y en que todos los portátiles viene con Wi-Fi. Pero hubo mucho que superar, y he aquí cómo.

Inicios de Aloha
El viaje comenzó en la década de 1970. La Universidad de Hawai tenía instalaciones repartidas por las diferentes islas, pero las computadoras se encontraban en el campus principal en Honolulu. En aquel entonces, las computadoras no eran precisamente portátiles, pero aun así era posible conectarse a los ordenadores desde ubicaciones remotas a través de una terminal y una conexión telefónica a la pasmosa velocidad de 300 a 1200 bits por segundo. Sin embargo, la conexión telefónica era lenta y poco fiable.

Un pequeño grupo de pioneros de redes dirigido por Norman Abramson sentían que podían diseñar un mejor sistema para conectar sus terminales a distancia a las instalaciones centrales de computación de la universidad. La idea básica, que más tarde se convirtió en "ALOHAnet", era utilizar las comunicaciones de radio para transmitir los datos de los terminales a de las islas remotas a los ordenadores centrales y viceversa. En aquellos días, el enfoque bien establecido para el intercambio de recursos entre varias estaciones de radio era dividir los canales ya sea en intervalos de tiempo o en bandas de frecuencia, y a continuación, asignar una ranura o banda para cada una de las estaciones. (Estos dos métodos se denominan acceso múltiple por división de tiempo [TDMA] y acceso múltiple por división de frecuencia [FDMA], respectivamente).

Obviamente, dividir el canal inicial en partes más pequeñas de tamaño fijo (ranuras o canales) resultaba en varios canales de menor velocidad, por lo que los creadores ALOHAnet ofrecieron un sistema diferente para compartir el ancho de banda de radio. ALOHAnet fue diseñada con sólo dos canales de alta velocidad de UHF: un enlace descendente (desde Honolulu) y un enlace ascendente (hacia Honolulu). El canal de enlace ascendente iba a ser compartido por todos los lugares remotos para transmitir hacia Honolulu. Para evitar cortar y rebanar en pequeñas ranuras o canales, toda la capacidad del canal quedaba disponible para todos. Pero esto crea la posibilidad de que dos estaciones remotas transmitan al mismo tiempo, haciendo imposible decodificar ambas transmisiones en Honolulu. Las transmisiones pueden fallar, al igual que cualquier surfista pueda caer de su tabla mientras navega una ola. Pero bueno, nada le impide volver a intentarlo. Esta fue la innovación fundamental de ALOHAnet, reutilizada en todos los miembros de la familia de protocolos conocidos como "protocolos de acceso aleatorio".
El enfoque de acceso aleatorio implementado en ALOHAnet representa un cambio de paradigma desde un enfoque de red de voz a una red de datos. Las técnicas tradicionales de canal común (FDMA y TDMA) implican la reserva de un canal de baja velocidad para cada usuario. Esta baja velocidad era suficiente para transmitir voz, y el hecho de que el canal estuviera reservado fue sin duda conveniente, esto impedía que la llamada de voz se interrumpiera bruscamente.

Pero el tráfico de la terminales a los ordenadores centrales presentaba necesidades muy diferentes. Por un detalle, el tráfico entre terminales ocurre a ráfagas. El usuario envía un comando, espera a que el equipo lo procese, y mira los datos recibidos mientras medita un comando más. Este modelo incluye tanto largos períodos de tiempo en silencio como ráfagas pico de datos.
La explosividad de tráfico informático necesitaba un uso más eficiente de los recursos de comunicación de lo que podría ser proporcionado por cualquiera de las dos TDMA o FDMA. Si a cada estación se le asignara un canal reservado de baja velocidad, la transmisión de una ráfaga tomaría mucho tiempo. Además, los recursos del canal se desperdiciarían durante los períodos de silencio largo. La solución fue un concepto que fue implementado por el protocolo de acceso aleatorio ALOHAnet que es fundamental para las redes de datos: la multiplexación estadística. Un solo canal de alta velocidad se comparte entre todos los usuarios, pero cada usuario lo utiliza sólo una parte del tiempo. Mientras que Alice examina cuidadosamente la salida de su programa con una taza de té, Bob podría subir sus datos a la computadora central para su posterior procesamiento. Más tarde, los papeles pueden invertirse, ya que Alice sube su nuevo programa, mientras que Bob ahora está navegando.

Para realizar este trabajo de multiplexación, el equipo necesitaba un mecanismo que permita a las estaciones remotas aprender sobre el fracaso de su intento de transmisión inicial (para que puedan intentarlo de nuevo). Esto se logró de una manera indirecta. Honolulu inmediatamente transmitía a través del canal de enlace descendente lo que sea que recibiera correctamente desde el canal de enlace ascendente. Así que si la estación remota veía su propia transmisión como un eco de regreso de Honolulu, sabía que todo iba bien y Honolulu había recibido la transmisión con éxito. De lo contrario, debía haber habido un problema, por lo que era buena idea volver a transmitir los datos.

Guerra de estándares
"Lo maravilloso acerca de los estándares es que hay tantos de ellos para elegir." Grace Hopper, de acuerdo con el Manual de los que odian UNIX página 9 o 49.

A finales del siglo pasado, dos normas estaban compitiendo cabeza a cabeza en la arena de redes inalámbricas de área local. La alternativa Americana, desarrollada por el IEEE, se basó en enfoques mas simples y directos. La alternativa, propuesta por el European Telecommunications Standards Institute (ETSI), era más sofisticada, con mayores velocidades de datos y priorización de tráfico para la diferenciación de servicios. Los vendedores favorecieron la alternativa más fácil de implementar del IEEE, haciendo caso omiso de todas las características opcionales.

Obviamente, un enfoque más simple tiene la ventaja de un menor tiempo de lanzamiento al mercado, lo cual fue fundamental para la obtención de cuota de mercado y allanó el camino para el éxito final de la especificación IEEE sobre el estándar ETSI por uno. El estándar IEEE 802.11 en cuestión pertenece a la familia de estándares de 802, que también incluye IEEE 802.3 (Ethernet). Con el tiempo, el estándar IEEE 802.11 se perfeccionó para incorporar algunas características que estaban presentes en la propuesta inicial ETSI, como tasas de datos más altas y la diferenciación de servicios.

La difusión del espectro para evitar la industria, la ciencia y la medicina
El punto de una red de área local (LAN) es que todo el mundo puede crear su propio sistema local sin tener que coordinar con nadie más. Sin embargo, el espectro radioeléctrico, sigue una regulación estricta de las normas a fin de evitar una interferencia indebida entre los diferentes usuarios. Wi-Fi deja de lado la necesidad de dicha reglamentación y la necesidad de pagar por espectro radioeléctrico, conviviendo con hornos de microondas, teléfonos inalámbricos, dispositivos Bluetooth, y mucho más en la banda sin licencia de 2,4 GHz industrial, científica, y médica (ISM).

La especificación original de 802.11 publicada en 1997, trabajaba a velocidades de 1 y 2 Mbps a través de enlaces infrarrojos, aunque esto nunca se implementó - o mediante el uso de radio de microondas en la banda ISM de 2.4GHz. Los usuarios de la banda ISM están obligados a utilizar técnicas de espectro ensanchado para evitar la interferencia tanto como sea posible. La mayoría de técnicas de modulación ponen tantos bits en tan pocos Hertz del espectro radioeléctrico como les sea posible, de manera que el ancho de banda de radio disponible se utilice de forma eficiente. Las técnicas de espectro ensanchado hacen exactamente lo contrario: extienden la señal a lo largo de una parte mucho mayor de la banda de radio, reduciendo del número de bits por Hertz. La ventaja de esto es que efectivamente diluye cualquier interferencia de banda estrecha.

Salto de frecuencia
La técnica de modulación mas sencilla de espectro ensanchado es la de salto de frecuencia, obsoleta en la actualidad en Wi-Fi, que es exactamente como suena: la transmisión salta rápidamente de una frecuencia a otra. El salto de frecuencia se inventó varias veces durante la primera mitad del siglo 20, especialmente por la actriz Hedy Lamarr y compositor George Antheil. A través de su primer marido (de seis), Lamarr se interesó en el problema de cómo guiar a los torpedos de un modo en que resistieran las interferencias e incluso la detección por el enemigo. El salto de frecuencias puede ayudar a resistir las interferencias, pero cambiar rápidamente las frecuencias sólo funciona si el emisor y el receptor funcionan en perfecta sincronía.

Antheil, que había creado la composición Ballet Mécanique para una colección de pianos sincronizados, contribuyó a la sincronización basada en un rollo de piano. Una patente de 1942 para el salto de frecuencia se le concedió a Lamarr y Antheil, pero la importancia de la invención no se reconoció hasta la década de 1990, cuando la revolución inalámbrica se puso en marcha.

802,11 espectro ensanchado de secuencia directa.
La versión de 1997 del estándar 802.11 permite una modulación de espectro ensanchado (DSSS) a 1 o 2 Mbps. En lugar de mover una transmisión de banda estrecha a través de la banda de 2,4 GHz, DSSS transmite una señal que ocupa una porción mucho más grande de la banda, pero lo hace de forma continua. La señal de datos subyacente en una transmisión DSSS es de un ancho de banda relativamente bajo en comparación con el ancho de banda de radio DSSS. En la transmisión, la señal de datos se extienden y en la recepción de la señal de datos original se recupera empleando un correlador, que invierte el procedimiento de difusión. El correlador se deshace de una gran cantidad de interferencia de banda estrecha en el proceso.

Es un poco como leer un libro en la playa. La arena en las páginas hará el texto difícil de leer. Para evitar esto, usted puede traer un libro con letras grandes y mantenerlo a una distancia mayor de lo habitual. Las letras parecerán de un tamaño normal, pero los granos de arena de verán más pequeños en relación con las letras, por lo que interfieren menos.

IEEE 802.11-1997 utiliza una velocidad de símbolo de 1 MHz, con uno o dos bits por símbolo codificado empleando modulación por desplazamiento de fase de binarios diferenciales o de cuadratura (DBPSK o DQPSK), donde se desplaza la fase de una señal portadora para codificar los bits de datos. ("Diferencial" significa que no es la fase absoluta la que importa, sino la diferencia en relación con el símbolo anterior. Vea nuestra publicación sobre DOCSIS (Data Over Cable Service Interface Specifications) para obtener más detalles acerca de cómo se codifican los bits como símbolos.)

La señal de 1MHz DBPSK / DQPSK se multiplica con una señal pseudoaleatoria que tiene 11 "fichas" para cada símbolo (para un chiprate de 11MHz). Cuando se transmite por el canal, el espectro se aplana debido a que el chiprate es más alto que la tasa de bits. Cuando una señal muy fuerte sufre interferencia de banda estrecha, el impacto es bajo ya que la mayoría de la señal transmitida no se ve afectada. El receptor toma la secuencia de fichas de entrada y la multiplica por la misma secuencia pseudo-aleatoria que fue utilizada por el transmisor. Esto recupera la señal original - PSK modulada.

802.11b: código de claves complementarias
Ser capaz de transferir datos de forma inalámbrica a una velocidad de no mucho mayor que 100 kilobytes por segundo es impresionante desde el punto de vista de que funciona en absoluto, pero para aplicaciones del mundo real, un poco de velocidad extra podría ser de utilidad. Aquí es donde entra la 802.11b, que especificó tasas de bits de 5,5 Mbps y 11 Mbps en 1999.

El simple aumento de la velocidad de símbolo y, con ello, del chiprate DSSS, habría permitido una mayor velocidad de bits, pero emplearía más espectro radioeléctrico. En cambio, 802.11b codifica bits de datos adicionales en la secuencia de DSSS, utilizando un esquema de modulación denominado Complementary Code Keying (CCK). La tasa de 5,5 Mbps utiliza cuatro secuencias de marcado de 8-bits (dos bits de codificación), mientras que la tasa de 11 Mbps utiliza 64 (seis bits). Junto con los dos bits DQPSK, esto se suma a cuatro u ocho bits por símbolo con una velocidad de símbolo de 1.375MHz.

802.11a: Multiplexación por división de frecuencia ortogonal (OFDM)
Para la especificación 802.11a del 1999, el IEEE seleccionó una tecnología muy diferente a DSSS/CCK: la multiplexación por división de frecuencias ortogonales (OFDM). DSSS es un enfoque de portadora única, ya que hay unasola señal de alta velocidad modulando la portadora (lo que significa banda ancha). Esto tiene algunos inconvenientes, debido a que un canal de banda ancha presenta comportamientos distintos en diferentes frecuencias y necesita ser ecualizado. Es mucho más conveniente enviar un gran número de portadoras y usar señales de baja velocidad (banda estrecha) para modular cada una de ellas. No fue sino hasta que estuvieron disponibles los potentes procesadores de señal digital (DSP) que pudo ser usado el algoritmo de transformada rápida inversa de Fourier (IFFT Inverse Fast Fourier Transform) para empacar un gran número de subportadoras muy cercanas (en frecuencia) sin demasiada interferencia.

En lugar de tener una sola señal ocupando la friolera de 22 MHz del espectro radioeléctrico, con DSSS, 802.11a transmite 48 subportadoras transportando datos sobre 20 Mhz. Debido a que hay tantas subportadoras, las tasas de bit y símbolo para cada una de ellas son bastante bajas: la tasa de símbolo es de uno cada 4 microsegundos (250 kHz), que incluye a 800 nanosegundos de intervalo de guarda entre símbolos. La baja tasa de símbolos y el tiempo de guarda para cada subportadora son las armas secretas de OFDM. Estos le permiten aislarse de las reflexiones o de la interferencia de trayectorias múltiples. Las ondas de radio de 2,4 GHz tienen una tendencia a rebotar en todo tipo de obstáculos, de tal manera que un receptor por lo general obtener copias múltiples de la señal transmitida, donde los reflejos llegan un poco más retrasados. Este es un fenómeno que algunos de nosotros recordamos de los días de la televisión analógica, donde aparecía como un fantasma.
Un problema con la transmisión de radio es que las señales invariablemente generan ecos a través de la banda de radio, con copias de la transmisión original apareciendo tambien en las frecuencias superiores e inferiores, causando la interferencia de las transmisiones vecinas. Esto hace que sea extremadamente difícil transmitir señales cercanas en frecuencia, y esto es, por supuesto, exactamente lo que hace OFDM. Pero OFDM consigue hacer esto porque las frecuencias portadoras y las tasas de símbolo se eligen de manera que los picos en la banda de frecuencia sean "ortogonales": sólo donde una transmisión es más potente, todas las demás transmisiones por arte de magia son silenciadas. Es similar a la forma en que los aviones de la Primera Guerra Mundial conseguían disparar a través del arco de la hélice, tanto la hélice como las balas de la ametralladora ocupan potencialmente el mismo espacio, pero son cuidadosamente programadas para no interferir.

Con técnicas como BPSK, QPSK, 16QAM, 64QAM o (1, 2, 4 o 6 bits por símbolo), esto adiciona entre 250 kbps y 1,5 Mbps por subportadora. La velocidad de bits total bruta de las 48 subportadoras es, pues, de entre 12 y 72Mbps.
A diferencia de 802.11-1997 y 802.11b, 802.11a utiliza la banda de 5 GHz ISM en lugar de la banda ISM de 2.4GHz. A pesar de que tomó un tiempo resolver la disponibilidad de los 5 GHz en todo el mundo, lo cual no ayudó precisamente el despliegue de 802.11a - la banda de 5 GHz tiene mucho más espacio que la estrecha banda de 2,4 GHz, con menos usuarios. Las señales de 5GHz se absorben más fácilmente por lo que no llegan tan lejos. Esto es a menudo una desventaja, pero también puede ser una ventaja: las redes vecinas no interfieren tanto porque las señales no pasan muy bien a través de paredes y suelos.

Aunque 802.11a consiguió cierto nivel de adopción en el ámbito empresarial, no fue el gran éxito. Lo que se necesitaba era una manera de traer las velocidades de 802.11a a la banda de 2,4 GHz de un modo compatible con versiones anteriores. Esto es exactamente lo que hace 802.11g (2003) mediante el uso del estilo OFDM de 802.11a en la banda de 2.4GHz. (Aunque incluye mecanismos de "protección" adicional [que discutimos más adelante] para la convivencia con 802.11b).

802.11n: mucha, mucha mas velocidad.
Sorprendentemente, 802.11g no sació la necesidad de más velocidad. Por lo que el IEEE volvió a la mesa de dibujo, una vez más para encontrar nuevas maneras de impulsar más bits a través del éter. No emplearon ninguna modulación nueva esta vez, sino más bien utilizaron varias técnicas que se suman a bitrates muy superiores, y, más importante, un rendimiento mucho mejor en el mundo real. En primer lugar, el número de subportadoras OFDM se incrementó a 52, lo que llevó la tasa bruta de bits hasta los 65Mbps.
El segundo aumento de velocidad llegó con MIMO: multiple-input/multiple-output. Con MIMO, una estación Wi-Fi pueden enviar y recibir flujos de datos a través de diferentes antenas al mismo tiempo. La señal entre cada combinación de antenas emisoras y receptoras toma un camino ligeramente diferente, por lo que cada antena ve cada flujo de datos transmitidos a una intensidad de señal ligeramente diferente. Esto hace que sea posible recuperar los múltiples flujos de datos mediante la aplicación de una buena cantidad de procesamiento de señales digitales.

Todos los sistemas Wi-Fi 802.11n, excepto los sistemas móviles soportan cuando menos dos flujos, pero también son posibles tres o cuatro mas. El uso de dos flujos incrementa la tasa de bits a 130Mbps.
El tercer mecanismo para aumentar la velocidad es una opción para usar "canales anchos" Los canales de 40 MHz en lugar de 20 MHz admiten 108 subportadoras, lo que eleva la tasa de bits a 270 Mbps con tecnología MIMO 2x2 (dos antenas utilizadas por el emisor y dos antenas utilizadas por el receptor). Opcionalmente, el intervalo de guarda se pueden reducir desde 800 hasta 400 nanosegundos, añadiendo otro 10 por ciento de aumento de velocidad, con lo que la tasa de bits total alcanza los 300Mbps para MIMO 2x2, 450 Mbps para MIMO 3x3, y 600 Mbps para MIMO 4x4. Sin embargo, como la banda de 2,4 GHz ya está muy llena de gente, algunos vendedores sólo implementar canales anchos en la banda de 5GHz.

Por último, pero no menos importante, 802.11n hace posible la transmisión de cargas múltiples en un solo paquete y el uso de reconocimiento de bloques, lo que reduce el número de bits adicionales que hay que transmitir.

Propagación e interferencia
La comunicación por cable utiliza un medio estrictamente controlado de propagación de la señal. Un cable tiene propiedades predecibles y está, en cierta medida, aislado del mundo exterior. En la comunicación inalámbrica, la situación es exactamente lo contrario. El comportamiento del medio de transmisión es bastante impredecible, y la interferencia es un hecho. Los ingenieros de radio recurren a las estadísticas para describir con la propagación de ondas de radio -- modelarlo con precisión es demasiado complejo. El canal atenúa (amortigua) la señal y también introduce la dispersión a través del tiempo y la frecuencia. Sólo bajo circunstancias ideales en el espacio abierto se puede conseguir que la señal simplemente se propague desde el emisor hasta el receptor a través de una trayectoria única, haciendo el problema susceptible de ser analizado.

Obviamente, las condiciones de propagación típicas están muy lejos de ser ideales. Las ondas de radio inciden sobre todo tipo de objetos que causan reflexiones. La señal que llega al receptor es la suma de un gran número de señales que siguieron caminos diferentes. Algunas señales siguen una ruta corta y por lo tanto llegan rápidamente. Otras siguen un camino más largo, por lo que tardan más tiempo en llegar. Deje caer una canica en un fregadero lleno de agua, y verá ondas que se propagan y se reflejan en todas las direcciones, por lo que el comportamiento general de las olas es difícil de predecir. En algunos lugares, dos frentes de ondas se suman, creando una onda más fuerte. En otros lugares, las ondas procedentes de distintas direcciones se anulan entre sí.

Luego está la interferencia. No es improbable que su vecino también tenga algun equipo Wi-Fi. Y hay otros dispositivos, tales como los dispositivos Bluetooth o los hornos de microondas, que operan en la misma banda que Wi-Fi. Obviamente, toda esta interferencia se suma a los problemas antes mencionados para que sea aún más difícil de detectar y decodificar correctamente la señal que queremos.
La conclusión es que la calidad de la señal de que vamos a observar es bastante impredecible. Lo mejor que podemos hacer es estar preparados para hacer frente a la heterogeneidad de la calidad de señal. Si las condiciones de propagación son buenas y la interferencia es baja, se pueden transmitir altas velocidades de datos. En condiciones de propagación difíciles, con una gran cantidad de interferencias, tenemos que recurrir a bajas tasas de datos. Esta es la razón por la que los dispositivos Wi-Fi ofrecen distintas velocidades de conexión y adaptan constantemente la velocidad de datos a las condiciones del entorno.

Canales y superposición.
Wi-Fi en la banda ISM de 2.4GHz utiliza 14 canales a intervalos de 5 MHz. (Los canales 12 y 13 no están disponibles en América del Norte y hay otras peculiaridades específicas en cada país. El canal 14 es un caso especial.) Sin embargo, la transmisión DSSS es de aproximadamente 22 MHz de ancho, por lo que el estándar 802.11b especifica que dos transmisiones deben tener 25 MHz de separación para evitar una interferencia indebida. Esta es la fuente de la creencia popular de que usted debe usar los canales 1, 6, y 11 para evitar superposiciones. Sin embargo, la vida real es mucho más desordenada de lo que se puede encapsular en una simple recomendación.

Los receptores generalmente no son tan buenos como el IEEE quiere que sean, con el resultado de que una señal lo suficientemente fuerte puede causar interferencias, incluso si está a más de 5 canales de distancia. Pero el uso de los canales que se superponen ligeramente a menudo funciona bien, especialmente si los diferentes transmisores están relativamente distantes. Así que si usted tiene cuatro estaciones de base Wi-Fi, es probable que sea mejor utilizar los canales 1-4-8-11 en América del Norte en lugar de tener dos estaciones base situadas en el mismo canal en una configuración 01/06/11. En Europa y en muchas otras partes del mundo es posible usar 1-5-9-13, que proporciona la separación necesaria de 20 MHz para 802.11g y 802.11n. En la banda de 5GHz donde reside 802.11a, y a veces 802.11n, los canales son de 20MHz de ancho, aunque todavía están numerados en intervalos de 5 MHz (por lo que tres cuartas partes de los números de los canales no se utilizan). Algunos canales de 5 GHz sólo están disponibles si no se utilizan para otros fines tales como el radar, por lo que sólo son seleccionados cuando se sitúa la selección de canales en "auto". Esto también varía según el país.

Por supuesto, en estos días pocos de nosotros tenemos el lujo de desmenuzar una banda de 2,4 GHz libre. No es raro ver a una docena o más de redes Wi-Fi en un barrio residencial. Afortunadamente, sólo porque estén ahí, no significa que todas estas redes van a interferir mucho. La mayoría de las redes están ociosas la mayor parte de la multiplexación estadística de tiempo como para llevarse el triunfo. Sin embargo, si usted se encuentra atrapado entre varias redes Wi-Fi activas, puede ser bueno experimentar un poco.
En algunos casos, la mejor opción es seleccionar el mismo canal que sus vecinos están utilizando. De esta manera, su red y la de los otros tomarán turnos para transmitir. Esperar por las transmisiones de su vecino reducirá su rendimiento máximo, pero también ellos esperarán por usted, así que tendrá que transmitir a la máxima velocidad cuando sea su turno. Por otra parte, si usted elige un canal que se superpone con la red de un vecino que es a la vez fuerte y activa, las dos redes no se "ven" la una a la otra y en vez de esperar su turno, generan interferencias cuando ambas transmiten al mismo tiempo, reduciendo las tasas de transmisión utilizables.

Por otra parte, en el caso de redes más remotas, la superposición puede ser una mejor opción que compartir el mismo canal. La distancia adicional reduce la interferencia, por lo que la velocidad de transmisión sigue siendo alta y su red no va a esperar a que se complete la transmisión de la otra. En igualdad de condiciones, seleccione el canal 1 o la mayor opción disponible. De esta manera, la superposición sólo puede venir de una dirección.

¿Quién transmite?: control de acceso.
Con un solo canal de radio para enviar y recibir y varios dispositivos que pueden tener datos para transmitir, por supuesto, es necesario algún protocolo para que los dispositivos trabajen bien y se turnen para transmitir. Imagínese que usted está participando en una conferencia telefónica. Tener todos los participantes de la llamada hablando a la vez no es muy eficaz. Lo ideal sería que los diferentes participantes que tienen algo interesante que decir hablen por turnos. Aquellos que no tienen nada que decir, simplemente pueden permanecer en silencio.
Una regla de cortesía natural es no se interrumpan unos a otros, es decir, espere a que la otra parte termine antes de hablar. Por lo tanto, las diferentes partes escuchan el medio antes de hablar, y se abstienen de decir nada cuando alguien está hablando. En la jerga de la red inalámbrica que se llama "acceso múltiple por detección de portadora" (CSMA carrier sense multiple access). CSMA resuelve parte del problema, pero aún permite que dos dispositivos comiencen a transmitir al mismo tiempo, después de que finaliza la transmisión anterior, creando colisiones. Y a diferencia de la Ethernet cableada, los dispositivos Wi-Fi no pueden detectar las colisiones que se producen.

La solución a este problema es que, después de esperar hasta que la transmisión en curso ha terminado, las estaciones que quieren transmitir esperen una cantidad aleatoria de tiempo adicional. Si tienen suerte, van a elegir un tiempo aleatorio diferente, y una iniciará la transmisión mientras que la otra espera, y de este modo evitan las colisiones. Esta solución es bien llamada "evasión de colisiones" (CA collision avoidance). La capa de control de acceso a los medios 802.11 combina CSMA y CA, acortado a CSMA/CA. Los dispositivos también observar un tiempo aleatorio entre los paquetes si tienen múltiples paquetes para transmitir, con el fin de dar a otros sistemas una oportunidad de transmitir también ellos.
La puesta en práctica de CSMA/CA utilizado en IEEE 802.11 se conoce como "función de coordinación distribuida" (DCF distributed coordination function). La idea básica es que antes de transmitir un paquete, las estaciones eligen al azar un contador "regresivo" (backoff en el original y en lo adelante). Entonces, siempre y cuando el canal se considere inactivo, las estaciones disminuyen su contador backoff en una unidad en cada ranura de tiempo. El tiempo de la ranura es de 9 ó 20 microsegundos, según la versión 802,11 de que se trate. Con el tiempo, el contador de backoff llega a cero y en ese momento la estación transmite su paquete. Después de la transmisión, la estación elige un nuevo valor de backoff y la historia se repite. De esta manera, las colisiones sólo se producen cuando dos estaciones eligen el mismo valor backoff aleatorio.

Si el paquete no alcanza el destinatario deseado, es retransmitido. Por supuesto, un transmisor necesita saber si la transmisión ha sido exitosa o no para decidir si es necesaria una retransmisión. Por esta razón, una estación IEEE 802.11 envía un paquete de confirmación inmediatamente después de recibir un paquete regular (unicast) de datos. (Esto no se hace para los paquetes multidestino/difusión debido a que hay más de un receptor. Estos paquetes simplemente son enviados a una tasa muy baja.) Si un emisor no recibe este reconocimiento, se programará el paquete para la retransmisión. De vez en cuando, un reconocimiento se pierde, por lo que sucede una retransmisión innecesaria, lo que lleva a un paquete duplicado.

Equidad
DCF es un protocolo "justo" en el sentido de que todas las estaciones tienen la misma oportunidad de transmitir. Este concepto de equidad resulta en un comportamiento un poco extraño que se conoce como la "anomalía de rendimiento", que se resume en "el más lento marca el ritmo." Si usted está justo al lado de su punto de acceso y disfruta de buenas condiciones de canal, se puede comunicar de forma inalámbrica a una velocidad relativamente alta, por ejemplo 54Mbps. Ahora, si alguien se conecta al mismo punto de acceso desde una habitación u oficina remota, utilizaría una tasa de datos más lenta, por ejemplo 6Mbps. Y ¡sorpresa! - Su velocidad caerá a una tasa aproximada como si estuviera usando la conexión a 6 Mbps. ¿La razón? DCF solo está siendo "justo", y ambos percibirán un comportamiento similar. El número de intentos de transmisión va a ser el mismo para ambos. La única diferencia es que el dispositivo remoto ocupará el canal por un largo tiempo (ya que usa una tasa de datos baja), mientras que el dispositivo más cercano ocupará el medio por un corto tiempo en cada intento de transmisión. Es un poco como compartir un carril con un camión grande y lento. Algunos pueden argumentar que este es un concepto muy particular de la justicia.
CSMA asume que todas las estaciones pueden ver la transmisión del otro. Esto no es necesariamente cierto. Es posible que dos estaciones interfieran unas con otras a pesar de que no puedan detectar la transmisión de la otra. Por ejemplo, cuando hay un obstáculo entre las dos estaciones transmisoras que les impide escucharse entre sí y ambas transmiten al mismo punto de acceso que tiene un canal claro para cada uno de ellas. O simplemente pueden estar fuera del alcance una de la otra. Esto se conoce como el "problema del nodo oculto".
El problema del nodo oculto
Digamos que una estación comienza a transmitir. La estación 2 no ve la transmisión de la estación 1, por lo que también empieza a transmitir. El punto de acceso escucha las transmisiones, pero no puede descifrar ninguna de las dos, ya que se superponen entre sí e interfieren en gran medida. El punto de acceso no envía reconocimientos (acknowledgments), por lo que las dos estaciones retransmiten y colisionan nuevamente. Esto continúa así y el rendimiento efectivo de la red es casi nulo.
Este problema puede aliviarse empleando un proceso de negociación (handshake) de cuatro vías, que consta de cuatro mensajes diferentes: solicitud a enviar (RTS request-to-send), despejado para enviar (CTS clear-to-send) datos y acuse de recibo (ACK). Una estación que está lista para transmitir envía un RTS que contiene un campo que indica que tanto tiempo en canal va a ser reservado. Si hay una recepción correcta, el receptor pretendido - el punto de acceso, envía un mensaje de CTS que también contiene la duración de la reserva del canal. Idealmente, este CTS será recibido por todos los interferentes potenciales que se encuentran en el rango de transmisión del AP (Access Point), luego del cual todos aplazan su transmisión para evitar colisiones, por lo que la estación que había publicado inicialmente el RTS transmite su paquete de datos sin ningún incidente y el AP envía un acuse de recibo.

Dado que el RTS, CTS, y los paquetes ACK son paquetes de señalización cortos, las posibilidades de que estos encuentren errores y colisiones es baja. Si se produce una colisión entre dos paquetes RTS, será un choque corto, así que no se malgasta demasiado tiempo del canales. Al utilizar el handshake de cuatro vías, las colisiones entre largos paquetes de datos se evitan. Pero los paquetes RTS/CTS extra significan una sobrecarga adicional, reduciendo el tiempo de los canales disponible para transmitir datos del usuario. Así RTS/CTS sólo está habilitada para los paquetes largos, y es a menudo totalmente deshabilitada.

La sobrecarga y el cuello de botella MAC
Alguna vez se preguntó ¿por qué no puede exprimirle 30Mbps a su hardware de 54Mbps? Culpe los cuellos de botella MAC. En primer lugar, las transmisiones se retrasa una cantidad aleatoria de tiempo lo que necesariamente quiere decir que hay momentos en que el medio está inactivo y, por tanto, el tiempo de canal se desperdicia. También se pierde tiempo del canal cuando se produce una colisión. E incluso las transmisiones exitosas vienen con una cierta cantidad de sobrecarga. Las transmisiones inalámbricas son precedidos por secuencias de entrenamiento o preliminares que permiten que el receptor se adapte a las condiciones del canal y sincronice con la temporización de los símbolos de datos entrantes. El reconocimiento también representa cierta sobrecarga. Además, el cambio entre transmisión y recepción y viceversa, no es libre, el hardware necesita algún tiempo para reconfigurarse. Tampoco ayuda que Wi-Fi transmite las tramas Ethernet completas en lugar de solo los paquetes IP dentro de tramas Ethernet.

Todo esto de arriba es aceptable para paquetes largos, pero a medida que los paquetes se hacen más cortos, la cantidad fija de gastos por paquete es relativamente mayor. El problema es que como las tasas de datos físicos aumentan a medida que evoluciona la tecnología, los paquetes efectivamente se hacen más cortos de manera que la sobrecarga relativa aumenta. Para un paquete corto, el tiempo perdido en forma de sobrecarga puede ser mayor que el tiempo que se utiliza para la transmisión de datos reales! Este es el problema de cuello de botella MAC: en un momento dado, no importa lo mucho que aumenta la tasa de datos físicos, el usuario no gozan de ninguna ventaja de rendimiento significativa.

El problema es especialmente grave con el lanzamiento de la modificación a la norma IEEE 802.11n que utiliza tecnología MIMO, canales más amplios y una mayor eficiencia en general para dar cabida a velocidades de la capa física hasta 600 Mbps. A pesar de este impresionante número, el cuello de botella MAC habría limitado el funcionamiento real a menos de los 100 Mbps de la Ethernet cableada. Esto era claramente inaceptable.

La solución fue agregar varios paquetes en paquetes de mayor tamaño con la consiguiente reducción en términos relativos de los gastos generales. Cada vez que una estación tiene acceso al canal, transmite varios paquetes agregados, y paga el impuesto de la sobre carga sólo una vez. Este sencillo esquema fue crucial para evitar el cuello de botella MAC y romper la barrera de los 100 Mbps de rendimiento en el mundo real 802.11n.

Protección contra los vecinos lentos
Con frecuencia se afirma que las redes 802.11 funcionarán a la velocidad del dispositivo más lento que esté conectado. Afortunadamente, eso no es cierto, a pesar de que la anomalía de funcionamiento que se mencionó anteriormente se activa cuando los dispositivos más lentos comienzan a transmitir. Además, en una red de modo mixto, los dispositivos más rápidos tienen que disminuir su velocidad en diversos grados para convivir con dispositivos más antiguos. Esto comenzó con 802.11b, que introdujo encabezados más cortos en comparación con el original 1 y 2 Mbps 802.11. Sin embargo, los encabezados cortos sólo se pueden utilizar cuando todos los sistemas son 802.11b. Más problemática es la convivencia entre 802.11b y 802.11g, porque los sistemas 802.11b, ven las señales OFDM como un ruido sin sentido.
Así que si uno o más sistemas 802.11b están presentes en un canal, las transmisiones OFDM estarán "protegidas" por paquetes DSSS RTS/CTS (o simplemente paquetes CTS). El paquete CTS anuncia una duración que abarca el paquete CTS DSSS, el paquete de datos OFDM, y el reconocimiento OFDM para los paquetes de datos de manera que las estaciones DSSS permanezcan en silencio durante ese tiempo. La protección se activa si son detectadas cualquiera de las estaciones DSSS, incluso si son parte de alguna otra red en la calle en el borde de alcance inalámbrico que utilice el mismo canal. Esta protección acalambra seriamente el estilo 802.11g 's, el rendimiento cae un 50 por ciento. Pero sin ella, los sistemas DSSS puede transmitir en el medio de una transmisión OFDM, en detrimento de ambos.
Debido a que 802.11a, g, y n emplean todas la modulación OFDM, la compatibilidad hacia atrás es más fácil aquí: parte de la cabecera MAC se envía a velocidades 802.11a / g para que los dispositivos más antiguos conozcan la duración de la transmisión. El resto de campos de cabecera y los datos se transmiten a velocidades 802.11n. Dado que las redes 802.11a son relativamente poco frecuentes, por lo general no hay problemas con trabajar solo en modo 802.11n en la banda de 5 GHz, pero hacer esto en la banda de 2,4 GHz no puede ser apreciado por sus vecinos 802.11g.

Normalización y certificación
Hasta ahora, hemos usado los términos Wi-Fi ("Wireless Fidelity", un juego de hi-fi) y IEEE 802.11 como sinónimos, pero hay una diferencia. El IEEE es el organismo de normalización encargado del estándar IEEE 802.11, mediante procedimientos largos y tediosos. Por ejemplo, el trabajo en la modificación IEEE 802.11n se inició en 2002. En 2007, la mayoría de los detalles técnicos habían sido resueltos, pero hubo que esperar hasta 2009 antes de que la nueva versión del estándar 802.11 fuera oficial. No ayuda que las empresas que trabajan en conjunto en el IEEE son competidoras en el mercado, y puede ser una ganancia enorme para una empresa tener su tecnología patentada formando parte de una norma.

La Alianza Wi-Fi, por otro lado, es un consorcio industrial que certifica que el hardware es compatible con la especificación y puede interoperar con ella. La Alianza Wi-Fi lleva a cabo algunas pruebas y (después del pago de las tasas correspondientes) certifica un producto como compatible con la especificación. Los productos certificados tienen un logotipo que los identifica como compatible con los estándares. Las especificaciones, obviamente, siguen el estándar 802.11, pero a veces puede requerir la aplicación de ciertas opciones, o incluso la no aplicación de las obsoletas, como WEP.

Seguridad.
Si conecta su computadora a su router usando un cable UTP, es muy poco probable que su vecino entrometido pueda espiar a sus hábitos de navegación. Para una conexión inalámbrica, la situación puede ser muy diferente. Las ondas de radio no reconocen los límites de la propiedad, cualquier persona puede comprar una antena direccional y recopilar datos inalámbricos desde una distancia segura. Su vecino barato, incluso, podrá hacer uso de su conexión de banda ancha en lugar de pagar por su propio cable o ADSL.
Para evitar estas eventualidades, las primeras versiones de la norma Wi-Fi venían con "Wired Equivalent Privacy" (WEP) para proteger la red inalámbrica. Por desgracia, WEP no está exactamente a la altura de su nombre. WEP se desarrolló en los días en que el gobierno de EE.UU. no desea que el cifrado fuerte fuera exportado, por lo que WEP utilizó originalmente tamaños de clave de 40 bits, que es intencionalmente demasiado corto para ofrecer mucho más que una ilusión de seguridad. (Las versiones posteriores soportaban claves de 104.)

La clave de 40 o 104 bits se combina con un vector de inicialización de 24 bits para un total de 64 o 128 bits. El algoritmo de encriptación de WEP es el cifrado Rivest RC4. Sin embargo, en los últimos años se han encontrado muchas debilidades en RC4, al punto en que ahora WEP puede ser violada en cuestión de minutos. Esto llevó a la alianza Wi-Fi a ofrecer un nuevo marco de seguridad llamada Wireless Protected Access (WPA), mientras que el IEEE comenzó a trabajar en un nuevo estándar de seguridad llamado IEEE 802.11i.
El objetivo de la WPA fue el de apuntalar la seguridad Wi-Fi sin tener que reemplazar el hardware, mientras que el objetivo de la IEEE fue el de construir algo fundamentalmente mejor. WPA introduce el Protocolo de Integridad de Clave Temporal (TKIP), que vuelve a utilizar las capacidades RC4 existentes en tarjetas Wi-Fi, pero crea una nueva clave de cifrado para cada paquete. Esto evitó la mayoría de las vulnerabilidades conocidas entonces en RC4. WPA2 es el nombre de la Alianza Wi-Fi para IEEE 802.11i, que utiliza CCMP, el "modo de contador con encadenamiento de bloques de cifrado del protocolo de código de autenticación de mensajes" (repita eso último tres veces rápido). CCMP se basa en el muy utilizado algoritmo de cifrado AES.

WPA y WPA2 están disponibles para uso personal y empresarial. WPA2 para uso personal usa una clave pre-compartida (PSK pre-shared key) de 256 bits , que se utiliza para negociar las claves de cifrado de los paquetes reales. Obviamente, aquellos que no conocen el PSK no se les permite el acceso a la red. WPA2 Empresarial utiliza una gran cantidad de protocolos adicionales para permitir al usuario un nombre de usuario y contraseña, que se verifican contra un servidor de autenticación remota. Siempre use sólo WPA2 con CCMP/AES menos que sea absolutamente necesaria la compatibilidad con equipos muy viejos.
Aunque la comunicación inalámbrica, especialmente en los límites - como la banda ISM, está plagada de peligros ocultos, los vendedores trabajando juntos en el IEEE y la Wi-Fi Alliance han logrado pastorear con éxito la tecnología de LAN inalámbrica desde sus humildes comienzos al alto rendimiento razonablemente fiable que disfrutamos hoy en día. Cada vez que un obstáculo se presenta, se introduce nueva tecnología para evitarlo, mientras que el rápido crecimiento del mercado mantiene los precios bajo presión. ¿Qué más podemos pedir?