Qual a importância da latência no desempenho de um site?

Um dos aspectos que as pessoas mais se preocupam quando buscam uma empresa de hospedagem de sites, é o desempenho. Aqueles que têm algum conhecimento técnico do assunto, costumam verificar a latência dos servidores que serão usados para hospedar seus sites, como um dos critérios para definir o desempenho. Está correto isso? A latência influencia o desempenho? A latência é um indicador confiável? O que é latência?

Para responder estas perguntas e lançar luz sobre o assunto, que preparamos este artigo para você!

O que é latência?

De nada adianta falar sobre latência e o seu peso no desempenho de um site, se você não souber o que é.

A partir da abordagem mais simples possível, pode-se dizer que a latência é uma medida de tempo. Mais especificamente, o tempo necessário para que um evento aconteça, com uma clara definição do seu princípio e fim.

A latência é uma medida associada a redes de computadores, que é utilizada para saber quanto tempo uma determinada quantidade de dados leva para ir e voltar entre dois pontos dessa rede e em função da capacidade que as redes têm atualmente, a unidade de tempo padrão, é o milissegundo, ou seja, um milésimo de segundo, ou ainda uma parte de um total de mil partes de um segundo.

Em termos práticos, a latência é obtida em qualquer rede, seja ela local ou até mesmo um ponto de uma rede do outro lado do mundo, como é o caso da Internet, utilizando-se um comando disponível em qualquer sistema operacional que equipa nossos computadores. Esse comando é o PING.

O que o comando PING – Packet Internet Network Groper ou em português, Localizador de Pacotes na Rede de Internet – faz, é enviar um pacote de dados de 32 bytes de tamanho, a um ponto da rede, que pode ser um domínio / host ou um endereço IP, aguardar a resposta deste ponto da rede e estabelecer quanto tempo levou para que a resposta seja recebida.

Quanto maior for o valor do PING, maior a latência e mais lenta será a transmissão de dados por meio da rede – ou redes – onde o comando foi executado ou até o destino remoto, em caso da Internet.

Geralmente a latência está relacionada a distância e por isso, pontos fisicamente mais distantes, apresentam maiores tempos de latência do que aqueles fisicamente mais próximos. É um conceito intuitivo e quem nunca abriu uma torneira a qual estivesse conectada uma mangueira e esperou que a água saísse na outra ponta? Quanto maior a mangueira, mais tempo até que a água saia.

Naturalmente em redes modernas, sobretudo aquelas em que há a presença de fibra óptica, as velocidades são muitas vezes maior do que a água em uma mangueira de jardim. Em termos reais, em uma rede óptica a luz pode “viajar” a velocidades superiores a 200 mil quilômetros por segundo! Considerando que a circunferência da Terra na linha do Equador é de pouco mais de 40 mil quilômetros, seria possível dar a volta completa na Terra pelo menos 5 vezes em apenas um segundo!

A latência é importante?

Objetivamente, sim. Mas em termos de desempenho que um site hospedado em um servidor em um datacenter qualquer ao redor do planeta, no mínimo não pode ser considerado o único fator, nem é totalmente decisivo ou preponderante. Resumidamente, influencia, mas não determina.

Responder de maneira correta a pergunta, significa considerar outros fatores, como por exemplo, a largura de banda, a qual pode ser tão ou mais decisiva que a latência.

A largura de banda é uma medida de capacidade que a rede tem de transferir dados em um intervalo de tempo. Usualmente estipula-se tal capacidade em bits por segundo, sendo que rigorosamente utiliza-se um multiplicador, como Megabit ou Gigabit.

Em termos daquilo que possivelmente você esteja familiarizado, a velocidade do link que você tem contratado junto ao seu provedor de acesso à Internet, é a largura de banda que você tem ao seu dispor para navegar na Internet. Acima de determinadas velocidades, diz-se que se tem uma banda larga. Um mesmo link como esse, porém com banda ainda mais larga, é conectado aos servidores de Internet em que os sites estão hospedados.

Voltando aos nossos exemplos hidráulicos, compreender a largura de banda, é análogo a avaliar os diâmetros internos de diferentes canos de água e sua relação com a vazão da água que passa por eles, em que quanto maior for esse diâmetro, mais água pode passar por uma secção dele em um intervalo de tempo.

Logo, quando se leva em consideração a latência e a largura de banda, usando a analogia da água e dos canos, se você tiver um cano de 1 metro, contra um cano de 100 metros de comprimento, no segundo caso, o tempo necessário para a água chegar ao fim do segundo, é maior.

No entanto, se o diâmetro do segundo cano for 10 vezes maior que o primeiro, o tempo necessário para se encher um recipiente de água de igual tamanho para ambos os canos, será bem menor no segundo cano, visto que o volume de água que passa por um cano aumenta exponencialmente conforme se aumenta o diâmetro.

Embora em redes de dados as coisas não se comportem exatamente da mesma maneira – nem em termos matemáticos, nem físicos – em que uma rede hidráulica, o princípio da largura de banda encontra igual correspondência, ou seja, há relação entre comprimento e largura do cano, bem como há entre latência e largura de banda.

Portanto, aqueles que observam a latência como único fator para determinar se um dado hospedado em alguma localidade pode ser obtido rapidamente, ou desconhecem os fatores envolvidos ou estão faltando com a verdade.

Uma situação real que ratifica isso, é quando um servidor está sofrendo um ataque DDoS, o qual por sua magnitude está congestionando a rede, ou em outras palavras, está consumindo toda a largura de banda do link que chega até o servidor. Ao executar um PING para o IP do servidor, esgota-se o tempo limite do pedido para todas as ocorrências.

Disso, deduz-se também, que o PING não é um valor estático ou permanente, mas que varia ao longo do tempo e das circunstâncias e que por si só, já é argumento suficiente para não podermos afirmar que seja representativo exclusivo do desempenho de um site.

O que mais é importante para o desempenho?

Se você imagina que taxas de latência baixas e larguras de banda elevadas são os requisitos determinantes para se obter um bom desempenho de um site, você pode estar enganado. É condição restritiva, ou seja, que pode impedir o bom desempenho, mas não é condição que o garante.

De que adianta um cano de água de diâmetro capaz de fornecer água a todo um bairro, ligando sua casa ao reservatório por apenas 10 metros de distância, se não há água no reservatório ou algum outro problema que impeça a água de sair?

Transportada esta situação hipotética para nossa realidade de redes e servidores, do que adianta a menor latência possível e a maior largura de banda disponível, se o servidor que alimenta de dados esta rede, está sobrecarregado, ou é ultrapassado e lento, ou tem outros tipos de problemas? Não adianta nada!

É comum vermos empresas de hospedagem alardeando o fato de terem servidores no Brasil e, portanto, baixas latências, como fator decisivo e significativo para desempenho ótimo dos sites neles hospedados. Mas o que se vê em muitos casos, que apesar da latência baixa, há também baixa largura de banda ou servidores sobrecarregados (muitos clientes) e não raramente, ambos!

Portanto, de nada adianta colocar um servidor na sala de sua casa, resultando em uma latência baixíssima, se este servidor tem 10000 clientes hospedados, ou um link pouco melhor do que seu provedor de acesso lhe fornece. O carregamento do seu site será péssimo, mesmo com a menor latência que se pode dispor.

Conclusão

A latência é sim um fator que conta na determinação do desempenho que um site pode atingir de acordo com a localização geográfica do servidor. No entanto, não é o único fator, devendo-se considerar outros aspectos, como a largura de banda e as condições de operação e desempenho do próprio servidor em que o site estiver hospedado.

Comentários ({{totalComentarios}})