Construir um caso de negócio: desenvolvimento de aplicativos personalizados
Pesquisadores do MIT esperam acelerar a rede dentro do centro de dados com conceitos que vão olhar familiar para hacks de redes antigas: eles propõem um árbitro central para o tráfego de rede que escolhe um caminho pré-determinado antes de um pacote é transmitido.
Os boffins chamar o Fastpass esquema, e sua outra característica é que o árbitro central também decide quando cada pacote pode ser melhor transmitida.
Com a ajuda do Facebook, o que proporcionou um pedaço de sua rede de centros de dados para os testes, o grupo Fastpass diz que era capaz de alcançar uma redução de comprimentos de fila de 4,35 MB para 18 KB, uma redução de 5.200 vezes no "desvio padrão de rendimento per-flow com cinco conexões simultâneas ", e 2,5 vezes redução retransmissões TCP na rede de teste do Facebook.
Neste documento , a ser entregue em SIGCOMM'2014 em Chicago, em agosto, os pesquisadores explicam o seu raciocínio: "As redes atuais de data center herdar os princípios que entraram no projeto da Internet, onde a transmissão de pacotes e caminho de seleção decisões são distribuídos entre os pontos finais e roteadores. Em vez disso, propõe-se que cada remetente deve delegar o controle a um árbitro-de quando cada pacote deve ser transmitido e que caminho deve seguir. Centralizado "
Isso, argumentam, "permite endpoints para estourar em wire-speed, eliminando o congestionamento nos switches."
Os três componentes são Fastpass:
- O algoritmo de alocação de intervalo de tempo, o que decide quando os pacotes são enviados;
- O algoritmo de atribuição de caminho, que atribui pacotes para caminhos entre interruptores; e
- Um protocolo de controle para o árbitro, a manipulação de mensagens de árbitros para endpoints, e proporcionando uma estratégia de replicação em caso de falhas árbitro ou de rede.
Fastpass depende de código em execução tanto no árbitro e nos pontos finais, comunicando-se ao longo de um dedicado Control Protocol Fastpass (FCP). Os endpoints chamar send () ou sendto () para o árbitro, que conta o ponto final quando ele pode enviar e por qual caminho.
Em outro pior, Fastpass é uma tentativa de introduzir um determinismo no mundo não-determinista da Ethernet na camada 2 e roteamento baseado em IP acima.
Como a imagem abaixo mostra, no ponto final do FCP fica entre a pilha de rede e placa de rede. Antes do endpoint envia os dados, o árbitro dá instruções sobre a programação e caminho.
Fastpass captura dados de rede antes de chegar ao NIC. Imagem: MIT
"Porque o árbitro tenha conhecimento de todas as demandas de ponto final, ele pode alocar o tráfego de acordo com as políticas globais que seriam mais difíceis de aplicar em um ambiente distribuído. Por exemplo, o árbitro pode alocar faixas horárias para alcançar max-min fairness, para minimizar o fluxo de tempo de conclusão, ou para limitar o throughput agregado de certas classes de traffic.When as condições mudam, a rede não precisa convergir para uma boa alocação - o árbitro pode mudar a alocação de um intervalo de tempo para a próxima ", escrevem os pesquisadores.
Eles também afirmam que o sistema é altamente escalável. A implementação árbitro pode ser executado atualmente em até oito núcleos, e dizem que um árbitro de oito núcleos pode agendar 2,21 Tbps de tráfego.
O código Fastpass está no github, aqui . ®
Nenhum comentário:
Postar um comentário