viernes, 29 de julio de 2011

La velocidad importa: Como fue Ethernet de 3Mbps a 100 Gbps y mas allá...

Este lo prometí (creo), así que lo fui terminando a ratos y aquí les va. De nuevo, es historia, así que hay pocos detalles técnicos (pero historia al fin tiene algunos interesantes). El original es de Arstechnica. El lunes (si todo va bien, lo cual es a veces difícil) Seguimos con IPv6, pero entonces entraremos en detalle. Si no sale mas nada antes de, y como ya hoy es viernes les deseo un muy buen fin de semana. Provecho!

La historia de Ethernet .... o algo así
A pesar de que ver programas de televisión de la década de 1970 sugiere lo contrario, la época no estaba completamente desprovista de todas serie de cosas semejantes a los sistemas modernos de comunicación. Claro, los módems de 50Kbps que el ARPANET usaba eran del tamaño de refrigeradores, y los ampliamente usados módems Bell 103 sólo transferían 300 bits por segundo. Sin embargo, la comunicación de larga distancia digital era bastante común, en relación con el número de equipos desplegados. Los terminales también podían ser conectados a mainframes y minicomputadoras en distancias relativamente cortas, con simples líneas serie o enlaces multipuntos más complejos. Todo esto era bien conocido, lo que era nuevo en los años 70 era la red de área local (LAN). Pero, ¿cómo conectar todas estas máquinas?
El punto de una LAN es conectar mucho más que dos sistemas, por lo que un simple cable de ida y vuelta no hacía el trabajo. La conexión de varios miles de computadoras a una red LAN en teoría se puede hacer usando una topología de estrella, anillo o una topología de bus. Una estrella es bastante obvia: cada equipo está conectado a un punto central. Un bus se compone de un solo cable, al que los ordenadores se conectan a lo largo de su extensión. Con un anillo, un cable se extiende desde la primera computadora a la segunda, desde allí hasta la tercera y así sucesivamente hasta que todos los sistemas participantes están conectados, y el último se conecta al primero, completando el anillo.
En la práctica, las cosas no son tan simples. Token Ring es una tecnología LAN que utiliza una topología de anillo, pero no lo sabemos mirando el cableado de la red, porque los ordenadores están conectados a concentradores (similares a los conmutadores (switches) Ethernet de hoy en día). Sin embargo, el cable de hecho si forma un anillo, y Token Ring utiliza un sistema bastante complejo de testigos (tokens) que va pasando para determinar qué equipo va a enviar un paquete en cada momento. El token da la vuelta al anillo, y el sistema en posesión del mismo puede transmitir. Token Bus utiliza una topología de bus físico, pero también utiliza un esquema de paso de token para arbitrar el acceso al bus. La complejidad de una red token la hace vulnerable a una serie de modos de fallo, pero este tipo de redes tienen la ventaja de que el rendimiento es determinista, es posible calcularlo con antelación, lo cual es importante en ciertas aplicaciones.

Dilbert.com

Pero al final fue Ethernet quien ganó la batalla por la normalización de LAN a través de una combinación de políticas de cuerpo estándares y un diseño inteligente, minimalista - y por lo tanto barato de implementar. Consiguió anular la competencia buscando y asimilando protocolos de altas tasas de bits y adicionando sus características tecnológicas distintivas para si mismo. Décadas más tarde, se había convertido en omnipresente.
Si alguna vez ha mirado el cable de red que sobresale de su ordenador y se ha preguntado cómo empezó Ethernet, cómo ha durado tanto tiempo, y cómo funciona ,no pregunte más: aquí está la historia.

Presentado a ustedes por Xerox PARC
Ethernet fue inventada por Bob Metcalfe y otros en Xerox Palo Alto Research Center a mediados de la década de 1970. La Ethernet experimental PARC corría a 3 Mbps, una "tasa de transferencia de datos conveniente [...] muy por debajo de la trayectoria a la memoria principal de la computadora", por lo que los paquetes no tendrían que esperar en un buffer en las interfaces Ethernet. El nombre viene del éter luminoso que era el medio a través del cual una vez se pensó que se propagaban las ondas electromagnéticas, como las ondas sonoras se propagan por el aire.
Ethernet utiliza el cableado como el "éter" de la radio difundiendo simplemente paquetes a través de una gruesa línea coaxial. Los ordenadores estaban conectados al cable Ethernet a través de "grifos", donde se perforaba un agujero en el revestimiento de cable coaxial y el conductor externo para establecer una conexión con el conductor interno. Los dos extremos del cable coaxial -- no era permitido puentearlos--, están equipados con resistencias de terminación que regulan las propiedades eléctricas del cable de modo que las señales se propagan a lo largo de la longitud del cable, pero no se reflejan de regreso. Todos los ordenadores ven todos los paquetes que pasan, pero la interfaz Ethernet hace caso omiso de los paquetes que no son direccionados hacia el equipo local o a la dirección de difusión, de manera que el software sólo tiene que procesar los paquetes dirigidos a la computadora receptora.

Otras tecnologías LAN utilizan extensos mecanismos para arbitrar el acceso al medio de comunicación compartido. Ethernet no. Estoy tentado a utilizar la expresión "los locos controlan el asilo", pero creo que sería injusto para el mecanismo de control distribuido inteligente desarrollado en el PARC. Estoy seguro de que los fabricantes de mainframes y minicomputadoras de la época pensaban que la analogía del asilo no estaba tan equivocada, en verdad.
Los procedimientos de control de acceso al medio (MAC media access control) de Ethernet, conocidos como Acceso Múltiple por Detección de Portadora con Detección de Colisiones (Carrier Sense Multiple acceso with Collision Detect CSMA/CD), se basan en ALOHAnet. Esta era una red de radio entre varias islas de Hawai creada en la década de 1970, donde todos los transmisores remotos utilizaban la misma frecuencia. Las estaciones transmitían cada vez que le querían. Obviamente, dos de ellas podían transmitir al mismo tiempo, interfiriéndose unas con otras por lo tanto las transmisiones se perdían.

Para solucionar el problema, la ubicación central reconoce un paquete si se ha recibido correctamente. Si el remitente no ve un acuse de recibo, trata de enviar el mismo paquete un poco más tarde. Cuando se produce una colisión, ya que dos estaciones transmiten al mismo tiempo, las retransmisiones aseguran que los datos lleguen eventualmente.
Ethernet mejora ALOHAnet de varias maneras. En primer lugar, las estaciones Ethernet verifican para ver si el éter está en reposo (detección de portadora) y esperan si detectan una señal. En segundo lugar, una vez realizada la transmisión por sobre el medio compartido (acceso múltiple), las estaciones Ethernet comprueban si hay interferencias mediante la comparación de la señal en el cable con la señal que están tratando de enviar. Si las dos no coinciden, debe haber una colisión (detección de colisión). En ese caso, la transmisión se interrumpe. Sólo para asegurarse de que el origen de la transmisión que interfiere también detecta la colisión, al detectar una colisión, la estación envía una señal de "atasco" de 32  bits.

Ambas partes reconocen entonces que su transmisión falló, por lo que inician intentos de retransmisión mediante un procedimiento de retardo (backoff) exponencial. Por otro lado, sería bueno volver a transmitir tan pronto como sea posible para evitar desperdicio del valioso ancho de banda, pero por otra parte, producir una colisión inmediatamente después arruina en propósito. Por lo que cada estación Ethernet mantiene un máximo tiempo de backoff, contado como un valor entero que se multiplica por el tiempo que se tarda en transmitir 512 bits. Cuando un paquete es transmitido con éxito, el tiempo máximo de backoff se establece en uno. Cuando se produce una colisión, el máximo tiempo de backoff se duplica hasta llegar a 1024. El sistema Ethernet a continuación, selecciona un tiempo de backoff real que es un número al azar por debajo del máximo tiempo de backoff.
Por ejemplo, después de la primera colisión, el máximo tiempo de backoff es de 2, por lo que las opciones para el actual tiempo de backoff serían 0 y 1. Obviamente, si dos sistemas, ambos seleccionan 0 o seleccionan 1, lo cual sucederá el 50 por ciento de las veces, habrá otra colisión. El el tiempo de backoff máximo se convierte en 4 y las posibilidades de otra colisión bajan a 25 por ciento para dos estaciones que quieren transmitir. Después de 16 colisiones sucesivas, un sistema de Ethernet se rinde y tira el paquete a la basura.

Solía haber un montón de miedo, incertidumbre y dudas en torno al impacto sobre el rendimiento de las colisiones. Pero en la práctica son detectadas muy rápidamente y las transmisiones que colisionan son eliminadas. Así que las colisiones no malgastan mucho tiempo, y el rendimiento bajo carga de Ethernet CSMA/CD es bastante bueno: en su artículo de 1976 que describe la Ethernet experimental a 3Mbps, Bob Metcalfe y David Boggs mostraron que para paquetes de 500 bytes y más grandes, más del 95 por ciento de la capacidad de la red se utiliza para transmisiones exitosas, incluso si los 256 ordenadores continuamente tienen datos para transmitir. Muy inteligente.

Estandarización
A finales de 1970, Ethernet era propiedad de Xerox. Sin embargo, Xerox prefiere ser dueño de un pequeño trozo de un pastel grande y no de una torta pequeña, y se reunió con Digital e Intel. Como parte del consorcio DIX, crearon una especificación para una red Ethernet abierta (o al menos de varios proveedores) de 10 Mbps y rápidamente subsanando algunos errores, produjeron la especificación DIX Ethernet 2.0.
Entonces, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) se metió en el juego. Finalmente, se produjo la norma 802.3, que ahora es considerada la norma estándar de Ethernet, aunque el IEEE evita cuidadosamente usar la palabra "Ethernet" para no ser acusado de respaldar a ningún proveedor en particular. (DIX 2.0 y IEEE 802.3 son totalmente compatibles, salvo por una cosa: El diseño y el significado de los campos de la cabecera Ethernet)

Incluso desde el principio, los ingenieros se dieron cuenta de que tener un solo cable serpenteando a través de un edificio es algo limitado, por decir lo menos. La simple ramificación del cable coaxial grueso no era posible; pues tenía efectos nefastos sobre las señales de datos. La solución fue usar repetidores. Estos regeneran la señal y hacen posible la conexión de dos o más cables o segmentos Ethernet.
El cable coaxial de 9,5 mm de espesor tampoco era el tipo más fácil de cableado para trabajar. Por ejemplo, una vez vi a dos chicos de una empresa de telecomunicaciones martillar sobre un par de gruesos cables coaxiales que pasaban a través de una pared con el fin de doblar los cables hacia abajo. Esto les llevó la mejor parte de una hora. Otro me dijo que mantenía un buen pedazo de cable en su coche: "Si la policía encuentra un bate de béisbol en tu coche lo llaman un arma, pero un trozo de cable coaxial funciona igual de bien en una pelea y la policía nunca me dio ningún problema. "

Aunque es menos útil contra los gamberros, el coaxial fino es mucho más fácil de usar. Estos cables tienen la mitad del grueso de la Ethernet gruesa y se parecen mucho a los cables de antena de TV. El coaxial delgado elimina la "tomas vampiro", que permiten la conexión de nuevas estaciones en cualquier lugar de un segmento de cable grueso. En cambio, los cables finos terminan en conectores BNC y las computadoras están conectadas a través de conectores T. La gran desventaja de los segmentos de cable coaxial Ethernet es que si el cable se interrumpe en alguna parte del segmento, toda la red deja de funcionar. Esto ocurre cuando se conecta un nuevo sistema a la red, pero también sucede a menudo por accidente, dado que los trozos de coaxial deben pasar por cada computadora. Tenía que haber un modo mejor.
A finales de 1980, una nueva especificación fue desarrollada para permitir a Ethernet funcionar sobre cableado de par trenzado sin blindaje, en otras palabras, el cableado telefónico. Los cables UTP Ethernet vienen como cuatro pares de cables finos, torcidos. Los cables pueden ser de cobre sólido o hechos de filamentos finos. (El primero tiene mejores propiedades eléctricas, el último es más fácil de manipular.) Los cables UTP están equipados con los ahora comunes conectores plásticos RJ45 La Ethernet de 10Mbps (y 100 Mbps) sobre UTP utiliza sólo dos de los pares trenzados: uno para transmitir y otro para recibir.

Una pequeña complicación de esta configuración es que todos los cables UTP son también su propio segmento Ethernet. Así que el fin de construir una red local con más de dos ordenadores, era necesario el uso de un repetidor multipuerto, también conocido como Hub. El concentrador o repetidor simplemente repite la señal de entrada en todos los puertos y también envía la señal de atasco a todos los puertos si hay una colisión. Ciertas reglas complejas limitan la topología y el uso de hubs en las redes Ethernet, pero me las voy a saltar porque que dudo que alguien todavía tenga interés en la construcción a gran escala de redes Ethernet usando concentradores o Hubs.
Esta configuración crea sus propios problemas de cableado, y todavía está entre nosotros. Las computadoras usan los pines 1 y 2 para transmitir y los pines 3 y 6 para recibir, pero para los concentradores y conmutadores, esto es al revés. Esto significa que un equipo se conecta a un concentrador mediante un cable normal, pero dos equipos o dos hubs deben estar conectados usando cables cruzados (crossover) que conectan los pines 1 y 2, de un lado con los pines 3 y 6 en el otro lado (y viceversa ). Curiosamente, FireWire, co-desarrollado por Apple, logró evitar esta falta de sencillez de uso, simplemente exigiendo siempre un cable cruzado.

Sin embargo, el resultado final fue un sistema muy rápido y flexible, tan rápido que aún está en uso. Pero se necesitaba más velocidad.

La necesidad de velocidad: Fast Ethernet
Es difícil de creerlo ahora, pero en la década de 1980, Ethernet 10 Mbps era muy rápido. Piense en esto: ¿hay alguna tecnología de 30 años de edad, que todavía esté presente en los ordenadores actuales? los modems de 300 baudios? las memorias de 500 ns? las impresoras de margaritas? Pero aún hoy, 10 Mbps no es una velocidad totalmente inutilizable, y sigue siendo parte de las interfaces Ethernet 10/100/1000 Mbps en nuestros ordenadores.
Sin embargo, a principios de 1990, Ethernet no se sentía tan rápida como una década antes. Considere el VAX-11/780, una máquina lanzada en 1977 por Digital Equipment Corporation. El 780 viene con una memoria RAM de 2 MB y funciona a 5MHz. Su velocidad es casi exactamente un MIPS y ejecuta 1757 dhrystones por segundo. (Dhrystone es un benchmark para CPUs desarrollado en 1984, el nombre es un juego que referencia el mucho mas antiguo Whetstone.) Una máquina actual Intel i7 puede trabajar a 3 GHz, carga con 3GB de memoria RAM, y ejecuta casi 17 millones de dhrystones por segundo. Si las velocidades de la red hubieran aumentado a igual ritmo que la de los procesadores, un i7 hoy por lo menos tendría una interfaz de red de 10 Gbps y quizas de 100 Gbps.

Sin embargo, no han aumentado tan rápidamente. Afortunadamente, en la década de 1990, otra tecnología inalámbrica era diez veces más rápida que la Ethernet normal: La interfaz de datos distribuidos por fibra (FDDI Fiber Distributed Data Interface).

FDDI es una red en anillo que funciona a 100Mbps. Soporta un segundo anillo redundante de conmutación para cambio automático cuando el anillo primario se rompe en algún lugar, y puede abarcar no menos de 200 kilómetros. Así FDDI es muy útil como una red troncal de alta capacidad entre las diferentes redes de área local. A pesar de que Ethernet y FDDI son diferentes en muchos aspectos, es posible traducir el formato de paquetes, por lo que las redes Ethernet y FDDI pueden estar interconectadas a través de puentes.
Los puentes están conectados a múltiples segmentos de LAN y aprenden que direcciones se utilizan en qué segmento. A continuación, retransmiten los paquetes desde el segmento de origen y hacia el segmento de destino cuando sea necesario. Esto significa que, a diferencia de lo que sucede con un repetidor, la comunicación (y las colisiones!) locales para cada segmento permanecen locales. Así que un puente divide la red en dominios de colisión separados, pero todos los paquetes todavía van a todos lados, por lo que la red puenteada sigue siendo un único dominio de difusión.

Una red se puede dividir en varios dominios de difusión utilizando routers. Los routers operan en la capa de red, un nivel por encima de Ethernet. Esto significa que los routers desechan la cabecera Ethernet en la recepción de un paquete, y luego añaden una cabecera nueva de un nivel mas bajo -- Ethernet u otro -- cuando el paquete es reenviado.

FDDI fue útil para conectar los segmentos Ethernet y / o servidores, pero adolecía de los mismos "oops, no era mi intención entrar en ese cable!" problemas que la Ethernet de cable coaxial delgado, además de un alto costo. Se desarrolló CDDI, una versión de cobre de FDDI, pero no llegó a ninguna parte. Por lo que el IEEE creó Fast Ethernet, una versión de Ethernet de 100Mbps.
10 Mbps Ethernet utiliza "codificación Manchester" para poner los bits en el cable. La codificación Manchester transforma cada bit de datos en voltajes altos o bajos en el cable. Entonces, 0 se codifica como una transición bajo-alto y 1 como una transición alto-bajo. Esto, básicamente, duplica el número de bits transmitidos, pero evita los problemas que pueden surgir con largas secuencias de ceros o unos: los medios de transmisión por lo general no puede mantenerse en "bajo" o "alto" durante largos períodos, la señal se empieza a ver demasiado como un potencial de corriente directa. Además, los relojes derivan: Acabo de ver 93 o 94 bits a cero? La codificación Manchester evita ambos problemas por tener una transición entre alto y bajo en el centro de cada bit. Y tanto el cable coaxial como el UTP categoría 3 pueden manejar el ancho de banda adicional.

Pero no es así para 100 Mbps. Transmitir a esa velocidad utilizando la codificación Manchester sería problemático en UTP. Así que en vez de eso, 100BASE-TX toma prestado de CDDI la codificación 4B/5B MLT-3. La parte 4B/5B toma cuatro bits y los convierte en cinco. De esta manera, es posible asegurarse de que siempre hay al menos dos transiciones en cada bloque de cinco bits. Esto también permite algunos símbolos especiales, como un símbolo de reposo cuando no hay datos para transmitir.
La codificación MT-3 entonces hace un ciclo de desplazamiento por los valores -1, 0, +1, 0. Si un bit en un bloque de 4B/5B es uno, se ejecuta una transición al siguiente valor. Si el bit es cero, la señal se mantiene en el nivel anterior durante ese periodo de bit. Esto limita la frecuencia máxima de la señal, lo que le permite ajustarse a las limitaciones del cableado UTP. Sin embargo, el cableado UTP debe ajustarse a las especificaciones más estrictas de la categoría 5, en lugar de la categoría 3 para 10BASE-T. Hay muchas otras especificaciones de cableado Ethernet rápida además de 100BASE-TX sobre UTP Categoría 5, pero sólo 100BASE-TX se convirtió en un producto de mercado masivo.

De los puentes a los switches.
Fast Ethernet utiliza el mismo CSMA/CD que Ethernet, pero las limitaciones en la longitud del cable y el número de repetidores son mucho más estrictas para permitir que las colisiones se detecten en una décima parte del tiempo. Pronto, comenzaron a aparecer los hubs 10/100, donde los sistemas a 10 Mbps se conectan a otros sistemas de 10 Mbps, y los sistemas de 100 Mbps a los sistemas de 100Mbps. Por supuesto, es útil tener una comunicación entre ambos tipos de ordenadores, por lo general, estos hubs tenían un puente interno entre la parte de 10 Mbps y la de 100 Mbps.
El siguiente paso fue simplemente hacer un puente entre todos los puertos. Estos puentes multipuerto se denominaron hubs de conmutación o switches Ethernet. Con un switch, si el equipo en el puerto 1 envía datos a la computadora en el puerto 3, y el ordenador en el puerto 2 envía datos a la del puerto 4, no hay colisiones, los paquetes sólo se envían al puerto que conduce a la dirección de destino del paquete. Los switches aprenden qué dirección es accesible a través de qué puerto, simplemente mediante la observación de las direcciones de origen de los paquetes que circulan a través del si mismos. Si un paquete está dirigido a una dirección desconocida, es enviado a todos los puertos, al igual que los paquetes de difusión.

Una limitación que se aplica a los hubs y switches por igual es que una red Ethernet debe estar libre de bucles. Conectar el puerto uno en el switch A al puerto uno del switch B y el puerto 2 del switch B al puerto 2 del switch A conduce a resultados inmediatos y catastróficos. Los paquetes comienzan a dar vueltas en círculos en la red y los broadcasts se multiplican a medida que estos se saturan. Sin embargo, es muy útil disponer de enlaces de respaldo en una red, de modo que cuando una conexión principal se interrumpa, el tráfico siga fluyendo sobre el enlace de respaldo.
Este problema fue resuelto (para los switches) mediante la creación de un protocolo que detecta bucles en una red Ethernet e interrumpe las conexiones hasta que los lazos se han ido. Esto hace que la topología efectiva de la red luzca lo que los matemáticos llaman un árbol: un gráfico donde no hay más de una ruta entre dos puntos. Es un árbol de expansión si hay también al menos una ruta entre dos puntos cualesquiera, es decir, no hay nodos de la red sin conectar. Si una de las conexiones activas falla, el protocolo Spanning Tree (STP) se ejecuta de nuevo para crear un nuevo árbol de expansión y red sigue funcionando.

El algoritmo spanning tree fue creado por Radia Perlman en diciembre de 1985, quien también inmortalizó el algoritmo en forma de un poema:

Algoritmo.

        Pienso que nunca veré
        un gráfico más hermoso que un árbol.
        Un árbol cuya propiedad fundamental
        es la conectividad libre de bucles.
        Un árbol que debe asegurar la expansión 
        de modo que un paquete pueda llegar a cualquier LAN.
        En primer lugar, debe ser seleccionada la raíz.
        Por ID, es elegida.
        Se trazan los caminos menos costosos desde la raiz.
        En el árbol, estos caminos se sitúan.
        Una malla está hecha por gente como yo,
        entonces los puentes encuentran los árbol de expansión.

                         Radia Perlman

Aún más velocidad: Gigabit Ethernet.
Fast Ethernet se estandarizó en 1995, pero sólo tres años más tarde, llegó la siguiente versión de Ethernet: Gigabit Ethernet. Como antes, la velocidad se incrementó en un factor de diez y, como antes, se tomó tecnología de otro lugar para iniciar con buen pie. En este caso se trataba de canal de fibra (al parecer de origen británico), una tecnología que se utiliza sobre todo para redes de almacenamiento. Gigabit Ethernet es ampliamente utilizado en diferentes tipos y longitudes de fibra, en el que se ciña más a su pedigrí de canal de fibra.
Sin embargo, para 1000BASE-T, el IEEE necesitó abrir una nueva bolsa de trucos tomados de 100BASE-T2 y 100BASE-T4, estándares Fast Ethernet que nunca consiguieron llegar lejos, así como 100BASE-TX. Por un lado, los requisitos de cableado UTP se elevaron nuevamente a la categoría 5e y 1000BASE-T utiliza los cuatro pares trenzados en ambas direcciones al mismo tiempo.

Esto requiere un procesamiento avanzado de señal digital, similar a lo que sucede en módems dial-up, pero a 10.000 veces mas velocidad. Cada par de hilos transmite dos bits a la vez utilizando 4D-PAM5. El 4D significa cuatro símbolos de datos (dos bits), PAM5 es la modulación por amplitud de pulso con cinco niveles de señal. Esto ocurre a un ritmo de 125 millones de símbolos por segundo, la misma tasa que Fast Ethernet. También hay un complejo procedimiento de intercambio de bits que se asegura de que varias propiedades, como la posible interferencia, se han optimizado.
El mecanismo CSMA/CD depende del primer bit de un paquete que viaja todo el camino a través de un dominio de colisión antes de que una estación transmita la última parte de un paquete de modo que aquí hay una noción compartida de "transmitir al mismo tiempo." Con los tiempos de transmisión muy reducidos dada la mayor tasa de bits, el tamaño físico de los dominios de colisión ya tuvo que ser reducido para Fast Ethernet, pero para Gigabit Ethernet, esto tendría que reducirse a unos 20 metros, claramente inviable. Para evitar esto, Gigabit Ethernet añade una "extensión de portadora" que más o menos rellena paquetes hasta los 512 bytes, por lo que longitudes totales de cable de 200 metros siguen siendo utilizables.

Sin embargo, hasta donde yo sé, ningun vendedor aplicó el esquema anterior, sino que asumen la presencia de switches en su lugar. Con un switch, o con un cable directo entre dos equipos, no es necesaria CSMA/CD: las dos partes pueden simplemente transmitir al mismo tiempo. Esto se llama operación full-duplex, a diferencia de la operación tradicional half-duplex de CSMA/CD. Las variantes UTP Ethernet soportan un protocolo adicional de auto configuración que permite que dos sistemas Ethernet negocien que velocidad usar, en modo full o half duplex.
Antes de que el protocolo de auto-negociación fuera ampliamente utilizado, a veces las personas debían configurar manualmente un sistema para usar full duplex, pero el otro usaría half duplex. Con poco tráfico, esto provoca algunos problemas, pero a medida que aumenta el tráfico, se producen choques cada vez más frecuentes. Estos serán ignorados por el sistema que se encuentra en modo full-dúplex, dando lugar a paquetes corruptos que no se retransmiten. La auto negociación funciona de manera muy fiable en estos días, así que no hay ya ninguna razón para deshabilitarla e invitar a los problemas.

Velocidad ridícula: 10 Gigabit Ethernet.
Una forma común de crear una red local en un edificio o en la oficina en estos días es tener una serie de interruptores relativamente pequeños, tal vez por rack en el que se unen todos los cables UTP. Los pequeños switches se conectan a un switch más grande y/o más rápido que funciona como la columna vertebral (backbone) de la red LAN. Con los usuarios y servidores de varios pisos concentrados en una sala de servidores, a menudo se requiere una gran cantidad de ancho de banda entre los switches, incluso si las computadoras individuales no se acercan a saturar la conexión Gigabit Ethernet. Así que, aunque los ordenadores con conexiones 10 Gigabit Ethernet no son comunes hoy en día, 10GE era muy necesario, como una tecnología de backbone. La norma fue publicada en 2002.
En el mundo de las telecomunicaciones, se utiliza la tecnología conocida como SONET o SDH (Synchronous Optical Networking, o Jerarquía Digital Síncrona) para transmitir un gran número de llamadas telefónicas y de datos en forma digital a través de fibra. SONET está disponible en velocidades de 155Mbps, 622Mbps, 2.488Gbps ... y 9.953Gbps! Era demasiado perfecto para resistirse, por lo que una forma de 10GE adopta un tipo de encuadre de bajo nivel de SONET/SDH. Esto se llama WAN (Wide Area Network) PHY (como en PHYsical Layer). Pero también hay una LAN PHY, que corre a 10.3125Gbps. 10 Gigabit Ethernet ya no admite operación half-dúplex CSMA/CD, solo hay operación full duplex a esta velocidad.

Tanto 10GE WAN PHY como la mayoría de las variantes de LAN PHY usan fibra. Hacer que Gigabit Ethernet corriera sobre UTP, tampoco fue fácil. Esto es aún más cierto para 10 Gigabit Ethernet, que funciona muy bien a través de fibra, incluso en distancias muy largas, por lo que es muy popular entre los proveedores de servicios de Internet. Pero se requiere un poco de magia para hacer correr a 10GE sobre UTP - hubo que esperar hasta el 2006 para que se publicara el estándar 10GBASE-T. 10GBASE-T necesita aun mejores cables que 1000BASE-T-Categoría 6A para alcanzar los 100 metros. CAT 6A utiliza un aislamiento más grueso que Cat 5e, por lo que no siempre se ajusta físicamente donde entraban los cables anteriores.
10GBASE-T también aumenta el número de símbolos por segundo de 125 millones para Fast y Gigabit Ethernet a 800 millones y los niveles PAM de 5 a 16, codifiando 3,125 en lugar de 2 bits por símbolo. También elimina el eco, la diafonía de extremo cercano (Next) y otros procesamientos de señal que introdujo Gigabit Ethernet sobre UTP y añade Forward Error Correction (FEC) para reparar los errores accidentales de transmisión.

Llegando a 100 Gigabit Ethernet
Después de 10 Gigabit Ethernet, 100 Gbps era el siguiente paso obvio. Sin embargo, la transmisión a 100 Gbps sobre fibra tiene numerosos desafíos, dado que los pulsos de láser que llevan la información a través de la fibra son tan cortos tienen dificultades para mantener su forma a medida que viajan. El IEEE por lo tanto, mantiene abierta la opción de dar un paso más corto hacia 40 Gbps en lugar de sus habituales aumentos de velocidad de diez veces.

En la actualidad, hay un amplio conjunto de normas 100GBASE-*, pero muchos de ellos utilizan cuatro rutas de datos en paralelo para llegar a 40 o 100 Gbps y/o sólo funcionan en distancias cortas. Todavía está en curso los trabajos para crear la norma 100GBASE para gobernarlos a todos.

El futuro de Ethernet.
Es realmente alucinante que Ethernet haya logrado sobrevivir 30 años en producción, aumentando su velocidad en no menos de cuatro órdenes de magnitud. Esto significa que un sistema 100GE envía un paquete entero (bueno, si es de 1212 bytes de longitud) en el tiempo en que la Ethernet original de 10 Mbps enviaba un único bit. En esos 30 años, todos los aspectos de Ethernet se han cambiado: su procedimiento de MAC, la codificación de bits, el cableado ... sólo el formato del paquete sigue siendo el mismo - que, irónicamente, es la parte del estándar IEEE que es ampliamente ignorado en favor de la norma DIX 2.0 que es ligeramente diferente.
Toda esta compatibilidad hacia atrás es realmente un problema: a 10Mbps puede enviar alrededor de 14.000 paquetes de 46 bytes por segundo, o 830 paquetes de 1500 bytes. Sin embargo, incluso a velocidades de GE, el máximo de 1500 bytes es un problema. Muchas tarjetas de red Gigabit Ethernet modernas realmente permiten que la pila TCP/IP transmita y reciba paquetes mucho más grandes, que luego se dividen en otros más pequeños o se combinan en otros más grandes para hacerle la vida más fácil al CPU, ya que la mayoría del procesamiento es por paquetes, independientemente de lo grande que sean. Y enviar 140 millones de paquetes de 46 bytes por segundo a 100GE es ridículo. Por desgracia, permitir paquetes más grandes rompería la compatibilidad con sistemas más antiguos, y hasta ahora el IEEE siempre ha rechazado este cambio.

Las LAN están ahora en todas partes, aunque sólo sea para proporcionar una vía de acceso a Internet. Ethernet en sus diferentes sabores ha sido un éxito espectacular, eliminando el resto de las tecnologías LAN de la competencia. La única razón por la que el crecimiento de Ethernet se ha ralentizado en la última década se debe a que las redes LAN inalámbricas (en forma de Wi-Fi) son tan convenientes. (Y Wi-Fi es muy compatible con Ethernet por cable.) Sin embargo, las redes cableadas e inalámbricas son complementarias, por lo que a pesar de que los ordenadores cada vez pasan mas tiempo con un puerto Ethernet sin ocupar, o incluso sin tenerlo, Ethernet siempre está ahí para ofrecer la velocidad y fiabilidad que las inalámbricas compartidas siguen luchando por ofrecer.

Terabit Ethernet?
¿Va a haber Terabit Ethernet, que funcione a 1000Gbps? Por un lado, esto parece poco probable, dado que transportar 100 Gbps sobre fibra óptica ya es un gran reto. Por otro lado, en 1975, pocas personas habrían imaginado que los estudiantes de hoy llevarían ordenadores de clase económica con puertos 10 Gbps.
Los diseñadores de CPUs resuelven un problema similar usando múltiples núcleos en paralelo. Gigabit Ethernet ya utiliza el paralelismo mediante el uso de todos los pares de cuatro hilos en un cable UTP, y 40 Gbps y muchas variantes de 100 Gbps Ethernet sobre fibra también utilizan flujos de datos en paralelo, cada uno con una longitud de onda de luz láser un poco diferente. Los cables inter-oceánicos ya transportan ancho de banda multi-terabit agregado en una única fibra utilizando multiplexación por división en longitudes de ondas densas (DWDM dense wavelength division multiplexing), por lo que parece una clara oportunidad para Ethernet de tomar una vez más la tecnología existente, optimizarla, y empujar agresivamente el precio hacia abajo.

O tal vez no tiene por qué. Cuando enviamos un correo electrónico al Radia Perlman solicitando permiso para usar el poema Algorhyme, se refirió a una nueva tecnología denominada Interconexión transparente de un montón de enlaces (TRILL), que debería permitir la construcción de redes flexibles de alta velocidad Ethernet a través de "un montón de enlaces" en lugar de una enlace rápido único. En cualquier caso, parece probable que el futuro de Ethernet de alta velocidad implica alguna forma de paralelismo.

No puedo esperar para ver lo que traen los próximos 30 años para Ethernet.
Regresar al inicio