Hogar Negocio Mida la latencia de su red antes de que se convierta en un problema.

Mida la latencia de su red antes de que se convierta en un problema.

Tabla de contenido:

Video: Qué es Latencia y cómo mejorarla (Noviembre 2024)

Video: Qué es Latencia y cómo mejorarla (Noviembre 2024)
Anonim

La velocidad de una red generalmente se define como rendimiento: cuántos megabits o gigabits puede bombear su red a través de sus tuberías en el transcurso de un segundo. Eso es ciertamente importante, pero hay otro factor a considerar, y en estos días a menudo es al menos tan importante (y a veces más importante) que la velocidad en bruto. Ese factor es la latencia. La mejor manera de definir la latencia es como retraso: el lapso de tiempo entre el envío de un paquete o grupo de paquetes desde un origen a un destino, y generalmente se mide en milisegundos (ms). Para los usuarios, incluso las grandes diferencias en el tiempo de retraso a menudo no se notan en el curso del uso de sus aplicaciones cotidianas. Es decir, a menos que estén usando aplicaciones sensibles a la latencia. La lista de aplicaciones sensibles a la latencia ha estado creciendo últimamente, por lo que la latencia es tan importante. La mayoría de las aplicaciones pueden ajustarse para una latencia más lenta, pero algunas, especialmente aquellas que dependen de la transmisión de video u otro tipo de alimentación de datos constante, pueden negarse si no se cumple un rendimiento de latencia mínimo.

Un controlador clave que está cambiando el panorama de la latencia es el servicio en la nube. Los servicios en la nube, ya sea que se ejecuten en centros de datos privados o en nubes públicas, como Amazon Web Services (AWS) o Google Cloud, se ubican necesariamente a cierta distancia de su centro de datos. Normalmente, el camino a esos servicios en la nube viaja a través de Internet público. Para la mayoría del tráfico de red, una conexión a Internet está bien. Pero para las aplicaciones sensibles a la latencia, Internet es un desierto impredecible que puede estar tranquilo un milisegundo y tormentoso al siguiente. Esto se debe a que la ruta de datos está sujeta a los caprichos de las demoras de enrutamiento y procesamiento. Estos son factores que ni su personal de TI ni los profesionales de TI del servicio en la nube pueden controlar.

¿Qué es la latencia?

Hay dos tipos de latencia que afectan los servicios en la nube. Uno es el tiempo que tardan los datos en viajar a través de la red de un punto a otro. Esto está limitado por la "velocidad del cable" de la conexión, es decir, la velocidad de la luz cuando atraviesa un cable de fibra óptica de vidrio o la velocidad de la señal de datos que se ejecutan a lo largo de un cable de cobre Cat X En todos los casos, está directamente relacionado con la distancia involucrada. Lo más importante es que no puede hacer nada por los retrasos causados ​​por el tiempo que lleva la transmisión, excepto para acercarse al proveedor de la nube o elegir la ubicación del servidor más cercana para el servicio en la nube que está utilizando, aunque no todos los servicios en la nube darte esa opción.

El segundo tipo de latencia se crea procesando demoras o, a veces, por un enrutamiento deficiente. Cada vez que su paquete de datos pasa a través de un dispositivo, hay un breve retraso mientras el enrutador o conmutador decide a dónde enviarlo a continuación. Hay demoras adicionales causadas por la inspección de paquetes en firewalls u otros dispositivos de seguridad, y por servidores cuando reciben una solicitud de datos, la encuentran en su almacenamiento masivo, actúan sobre la solicitud y envían una respuesta. Si bien cada uno de esos retrasos puede ser breve, suman. A veces, si su ruta desde su centro de datos a sus datos en la nube está congestionada, entonces los retrasos y, por lo tanto, la latencia, realmente pueden sumar.

Medir la latencia con Traceroute

Afortunadamente, medir la latencia de sus datos es bastante fácil y no cuesta nada. Para averiguarlo, ejecute la línea de comando en el sistema operativo (SO) de su elección y ejecute un comando Traceroute. En Microsoft Windows, escriba el comando "tracert" en el símbolo del sistema, seguido del nombre del destino, tal vez "aws.amazon.com" o "cloud.google.com". (Ver captura de pantalla a continuación).

En Apple OS X o Linux, vaya a la ventana de terminal y escriba: traceroute -I companydomain.com. Alternativamente, puede reemplazar el nombre de dominio con una dirección IP real. Desea el modificador -I para que traceroute use el Protocolo de mensajes de control de Internet (ICMP), que necesitará para medir con precisión la latencia.

No importa el sistema operativo, lo que ve en la pantalla son las respuestas de cada enrutador a lo largo del camino hacia el sitio web que está revisando, junto con una medición de tiempo en ms. Súmelos y esa es su latencia. Si ejecuta el comando varias veces, notará que los mismos enrutadores no siempre aparecen. Esto se debe a que sus paquetes de datos pueden tomar diferentes rutas de Internet cada vez que ejecuta el comando. Algunas rutas pueden ser más largas que otras, lo que aumenta su latencia general. Bienvenido a la latencia en internet.

Haga clic en la captura de pantalla para ampliar.

Medir la latencia con herramientas de administración de red

Los profesionales de TI a cargo de una red corporativa tendrán algún tipo de herramienta de monitoreo de red para controlar lo que se está ejecutando a través de sus cables y cómo está funcionando ese tráfico. También puede verificar la latencia de la red de otras maneras. Si es una herramienta bien presentada, tendrá sus propias características de medición de latencia. Por ejemplo, Spiceworks tiene su propio software Traceroute que utiliza el Protocolo de control de transmisión (TCP) en lugar del protocolo ICMP utilizado en la función de traceroute estándar descrita anteriormente. Eso también se usa en el comando Ping. En algunos casos, el TCP puede ser más preciso porque algunos enrutadores están configurados para no responder a los paquetes ICMP.

Otro buen ejemplo es Paessler AG, que vende el Monitor de red Paessler PRTG. Esta herramienta proporcionará latencia de red junto con sus otras funciones. Paessler AG tiene una versión gratuita de su software, así como una versión de prueba gratuita. Examinaré el Monitor de red PRTG, incluidas sus capacidades de latencia, mientras pruebo la herramienta para una próxima revisión de PCMag.

"Más allá de los tiempos de ping, si estoy midiendo eso cada período de tiempo, esa es la medida básica de latencia", explicó Greg Ross, ingeniero de sistemas sénior en Paessler AG. "Puede dividir el camino y evaluar cada salto en el camino. Podemos hacerlo con un conteo de saltos de ruta de rastreo.

"El otro aspecto es el monitoreo de la calidad del servicio, que analiza la fluctuación y el tiempo de ida y vuelta entre mí y el punto final", dijo Ross. Dijo que dicho monitoreo también puede mostrar otras causas de latencia, como paquetes retrasados ​​o paquetes recibidos fuera de servicio.

Reduce el impacto de la latencia

Si sus aplicaciones están teniendo problemas con tiempos de alta latencia, entonces hay algunas cosas que puede hacer para aliviar el impacto de la latencia, incluso si no puede eliminarlo. El primero es investigar qué servicio del Sistema de nombres de dominio (DNS) está utilizando si no tiene su propio servidor DNS. Una causa oculta de latencia es la demora que ocurre mientras el servidor DNS que está utilizando busca la dirección de protocolo de Internet (IP) del sitio web al que desea acceder.

Un servidor DNS distante introducirá latencia, al igual que uno que simplemente no funciona bien. Tener su propio servidor reducirá ese tiempo de búsqueda, siempre que la dirección esté en las tablas de su servidor. De lo contrario, tendrá que esperar mientras le pide la dirección al siguiente servidor DNS en la línea. Para los sitios web que visita con frecuencia, esto puede reducir la latencia.

Tener una conexión dedicada también reducirá la latencia, siempre que sea realmente dedicada, lo que significa que tiene una conexión usando una línea definida. Esto puede ser una conexión de fibra física si está lo suficientemente cerca o una línea arrendada a un operador. De esta manera, reduce la cantidad de enrutadores involucrados y reduce la posibilidad de errores de enrutamiento que pueden causar latencia.

Y, por supuesto, puedes reducir la distancia. Según las tablas proporcionadas por M2 Optics, 100 KM de fibra introducen casi 500 microsegundos de latencia. Eso es medio milisegundo, así que puedes ver cómo la distancia puede sumar latencia.

Mantenga ese conteo de saltos pequeño

No importa qué "cura" use para lidiar con la latencia, asegúrese de considerar cómo afectará otros aspectos de su red. Por ejemplo, si está utilizando su nube para la recuperación ante desastres (DR), moverse demasiado cerca puede causar su propio conjunto de problemas, ya que no desea que el mismo desastre golpee su sitio de DR como golpea su centro de datos.

En general, puede reducir la latencia reduciendo el número de saltos en su camino, y hay varias formas de abordar ese problema. Además de los mencionados anteriormente, puede garantizar el ancho de banda para reducir la latencia causada por la congestión, o puede tener proveedores redundantes para que su aplicación pueda elegir la ruta con la menor latencia en tiempo real.

Si bien no puede eliminar la latencia sin violar las leyes de la física, tampoco puede ignorarla. Con aplicaciones populares como análisis de transmisión en tiempo real, videoconferencia e incluso el tráfico de Voz sobre IP (VoIP) de su empresa, cada vez es más sensible a la latencia, cavar en la latencia de su red ahora, antes de que se convierta en un problema, pagará dividendos en la línea.

Mida la latencia de su red antes de que se convierta en un problema.