Otimização de Datacenter com Ethernet 10 Gigabit :: Admirável Mundo Novo




Muito Bem Vindo

Prezado Leitor, a proposta desse Blog é compartilhar conhecimento com as pessoas que trabalham com Linux, Asterisk, OpenSER, e com tecnologia de voz sobre a rede IP em geral, através de tutoriais, dicas, howto, notícias entre outros assuntos.

Atente para termo de uso do conteúdo do blog no rodapé da página.

quinta-feira, 8 de outubro de 2009

Otimização de Datacenter com Ethernet 10 Gigabit





Otimização de Datacenter com Ethernet 10 Gigabit



Autor Original do texto: David B. Jacobs, 17/04/2009
Fonte: http://searchnetworking.techtarget.com/tip/0,289483,sid7_gci1354129_mem1,00.html



Parte 2 do tutorial 10 Gigabit Ethernet: Conectando datacenters, storage, LAN e Muito mais.



A Ethernet há muito tempo é a tecnologia dominante para rede LAN. Agora, a disponibilidade da Ethernet 10 Gigabit (GbE 10) tem possibilitado novas aplicações em DataCenter. Dois fatores tornaram isso possível:

• Preço competitivo e desempenho;
• Necessidade de redes simplificadas para Datacenter.

Ethernet Gigabit é mais adequada para muitas aplicações LAN, mas não é suficiente para conectar servidores com as redes de armazenamento (SAN) e Network Attached Storage (NAS) ou para conexões entre servidores. Fibre Channel e InfiniBand têm sido amplamente utilizados para essas finalidades. Fibre Channel suporta taxas até 8 Gbps; interfaces InfiniBand comuns suportam taxas de 10 Gbps e portas de 20 Gbps para servidor e Switch também estão disponíveis.



Preço e desempenho da rede 10 GbE

Ao mesmo tempo em que a Ethernet 10 GbE não consegue competir com as taxas highend do InfiniBand, porém ela é adequada em muitos Datacenters. Apesar do desempenho competitivo, a 10 GbE não foi rapidamente adotada.

IEEE 802.3z, o padrão 10 GbE, foi concluído em 2002, mas os preços dos componentes de alta desacelerou de aceitação inicial. Agora os preços têm caído, e as vendas de placas de interface Ethernet 10 Gigabit e Switchs aceleraram. Em agosto de 2008, Dell'Oro Group, uma firma de pesquisa de mercado sediada na cidade de Redwood, Califórnia, revelou que, no segundo trimestre de 2008, lotes de Switch 10 GbE excedeu a 250.000 portas pela primeira vez.

Taxa de transmissão de dados bruto não é o único fator relevante. Bom desempenho de SAN requer baixa latência entre servidores e os armazenadores. A maioria dos Switchs Ethernet foi projetada para uso em LAN. Eles precisam receber o quadro entrante todo antes de começar a transmitir.

Os fabricantes de Switch estão agora resolvendo esse problema através do desenvolvimento de Switchs projetados especificamente para aplicações de Datacenter. Switchs com baixa-latência começam a transmitir no link sainte, após ler apenas o suficiente do quadro entrante para determinar seu destino. O resultado é Switchs com latência competitiva com os Switchs InfiniBand.



Carga de CPU de Servidor e Latência Reduzida

Carga de processamento nas CPUs do servidor é fator crítico de desempenho. Na maioria dos sistemas de computador, a CPU processa as cópias de dados e o processamento de protocolo necessário para suportar o tráfego de rede. Conforme aumenta a taxa de dados, aumenta a carga da CPU. A taxa de 10 Gbps, carga de processamento sobre a CPU se torna inaceitável.

Fabricantes de placas de interface de rede incorporaram três mecanismos em suas placas de 10 GbE para resolver este problema.

1. A TCP / IP offload engine (TOE) é um processador de propósito especial localizado em uma placa de rede. Uso de TOE transfere o processamento de protocolo da CPU para a interface de rede. O desempenho da aplicação na CPU melhora como um resultado da redução de carga. A Latência diminui porque o processador do cartão de interface é otimizado para mover quadros rapidamente.

2. Remote Direct Access Memory (RDMA) fornece um mecanismo eficiente para transferências de dados entre servidores. Ela reduz a latência e o consumo de CPU copiando dados do espaço de memória da aplicação diretamente para o cartão de interface. Essa cópia simples assistida pelo hardware elimina uma cópia da memória da aplicação para o kernel, uma segunda cópia para o driver do dispositivo de rede, e uma terceira para o cartão de interface.

3. iWARP (Wide Area RDMA Internet Protocol), desenvolvido pela Internet Engineering Task Force (IETF), permite que as aplicações sobre um servidor para ler ou escrever diretamente nas aplicações rodando em um outro servidor sem o suporte nenhum do sistema operacional do servidor.


Uso de TOE e RDMA exige mudanças no software do sistema operacional. Código de processamento de Protocolo precisa ser removido. A Microsoft forneceu TCP Chimney Offload para suportar o TOE e o RDMA no Windows Server 2003, Windows Vista e Windows Server 2008. A Aliança OpenFabrics está desenvolvendo o suporte do TOE e do RDMA para Linux.



Simplificando a rede do Datacenter

Substituição de Fibre Channel e InfiniBand por Ethernet resulta em redução de custos e maior flexibilidade. Fibre Channel e InfiniBand são tecnologias especializadas que conecta servidores e armazenadores. Qualquer das duas pode ser estendida além dos limites do Datacenter.

Uma rede 10 GbE única e um único switch pode suportar a LAN, comunicações entre servidores e a SAN, e pode se conectar à rede WAN. Funcionários de Datacenter estão familiarizados com a tecnologia de rede Ethernet e IP, assim substituir múltiplas redes por uma rede única simplifica o treinamento de pessoal e os custos de suporte.

Tanto Fibre Channel quanto InfiniBand exigem tipos de cabos específicos de cada tecnologia. A tecnologia 10 GbE usa o par trançado padrão ou cabos de fibra. Como bônus adicional, um Switch de alta capacidade única consome menos energia e produz menos calor do que dois Switchs menores.

LANs virtuais (VLANs) Ethernet tornam possível trocar recursos rapidamente enquanto se muda padrão de tráfego. Tráfego entre servidores e SAN na LAN pode ser alocado em VLANs individuais no mesmo cabo, se o nível de tráfego permitir, ou movidos para cabos separados quando o tráfego aumentar.



Fibre Channel over Ethernet e iSCSI

Fibre Channel over Ethernet (FCoE) foi desenvolvido por um grupo de fabricantes de equipamentos para proporcionar uma forma de preservar os investimentos dos clientes em Fibre Channel ao mesmo tempo que mantém as vantagens de uma única tecnologia de rede. Pacotes Fibre Channel são transmitidos em cima da Ethernet, em vez de usar interfaces Fibre Channel, cabos e Switchs.

Da mesma forma, iSCSI fornece um método para preservar os investimentos nos sistemas existentes, enquanto se beneficia de uma única rede. Armazenamento conectados via iSCSI aparece para um servidor como sendo uma unidade de disco SCSI conectada diretamente. Comandos SCSI padrões são transportados pelos protocolos TCP/IP sobre a Ethernet.

O Fibre Channel e a Tecnologia InfiniBand, em contraste com a Ethernet, garantir que nenhum pacote seja perdido em trânsito. Para remediar esse problema, o trabalho que está em curso atualmente no IEEE é o desenvolvimento de protocolos Ethernet que eliminem a perda de pacotes, fornecendo priorização flexível e eliminando o congestionamento da rede.

Este trabalho, combinado com mais reduções de preço, melhorias de desempenho, redução no consumo de energia e a necessidade por simplificação, vai continuar aumentando o uso da Ethernet 10 GbE em Datacenter.



Sobre o autor:
David B. Jacobs do grupo Jacobs tem mais de 20 anos de experiência na indústria de rede. Ele gerenciou projetos de desenvolvimento de software leading-edge e deu consultoria para empresas da Fortune 500, bem como startups de software.

















Nenhum comentário:




Creative Commons License
Admirável Mundo Novo: Tudo Sobre Asterisk, OpenSER, Linux e Tecnologias de Voz sobre IP
by Cléviton Mendes de Araújo is licensed under a Creative Commons Atribuição 2.5 Brasil License.