Admirável Mundo Novo: Tudo Sobre Asterisk, OpenSER, Linux e Tecnologias de Voz sobre IP: outubro 2009




Muito Bem Vindo

Prezado Leitor, a proposta desse Blog é compartilhar conhecimento com as pessoas que trabalham com Linux, Asterisk, OpenSER, e com tecnologia de voz sobre a rede IP em geral, através de tutoriais, dicas, howto, notícias entre outros assuntos.

Atente para termo de uso do conteúdo do blog no rodapé da página.

sábado, 10 de outubro de 2009

Ethernet 10 Gigabit





Tutorial sobre a Ethernet 10 Gigabit: Conectando DataCenters, Armazenagem, LAN e Muito mais


Fonte: SearchNetworking.com, 14 de Agosto de 2009


Não há dúvida de que os engenheiros de rede estão construindo redes de 10 Gigabit Ethernet porque eles são pressionados a suportar Armazenamento, DataCenter e rede local com uma única solução. Mas os times de TI têm várias escolhas a fazer quando se trata o todo, desde cabeamento básico até componentes de rede, a fim de projetar e gerir o DataCenter e suas conexões.

Neste guia da SearchNetworking.com, saiba como escolher o cabeamento correto pode afetar a distância da Ethernet 10 Gigabit, velocidade e desempenho global. Além disso, veja como as redes Ethernet 10 Gigabit pode resultar na otimização do DataCenter através da introdução de flexibilidade e prevenção de latência. Finalmente, saiba como os próximos protocolos da rede Ethernet 10 Gigabit vão enfrentar o desafio da perda de pacotes e potencializar priorização de tráfego mais efetiva na rede.

Este tutorial sobre a Ethernet 10 Gigabit foi dividido em três partes, escrito pelo freqüente colaborador David Jacobs, inclui as três dicas seguintes:



Soluções de interconexão da Ethernet 10 Gigabit: Investigue cuidadosamente antes de escolher

Em qualquer DataCenter com tecnologia de rede Ethernet 10 Gigabit (10 GbE), as equipes de TI devem decidir entre a fibra óptica, cabo de cobre ou par trançado para suportar seus equipamentos de rede. As soluções variam de acordo com a distância máxima de interconexão, consumo de energia e dissipação de calor, latência de sinal, confiabilidade e capacidade de adaptação às exigências futuras. Para cada opção, existem vantagens e desvantagens. Fazer a escolha muitas vezes resume-se a contrabalançar os desafios de cada solução com as necessidades específicas de sua rede e do DataCenter. Em última análise, o entendimento de todas as opções é fundamental para tomar as decisões certas para sua rede.

Saiba mais sobre as opções de interconexão da Ethernet 10 Gigabit.



Otimização do DataCenter com a Ethernet 10 Gigabit

As equipes de redes e do DataCenter são encarregadas da tarefa de criar uma rede que possa suportar a rede local, as comunicações entre servidores e as redes de área de armazenamento (SANs) ou Network Attached Storage (NAS) e que possa se conectar a rede WAN. Por fim, a tecnologia 10 GbE evoluiu para se tornar uma solução viável - pelo menos agora. Saiba como redes 10 Gigabit podem reduzir custos e introduzir flexibilidade ao DataCenter e ao armazenamento, enquanto retira a carga de processamento e evitando latência em toda rede.

Leia como a Ethernet 10 Gigabit possibilita a otimização de DataCenter.



Os novos protocolos da Ethernet 10 Gigabit vão melhorar o desempenho?

Preço, desempenho e flexibilidade tornaram a 10 GbE uma opção atraente para DataCenter. Ao mesmo tempo em que a Ethernet 10 GbE progrediu, a falta de recursos nos protocolos Ethernet existentes tem limitado sua maior penetração. A questão crítica da Ethernet é que ela não garante que os pacotes não sejam perdidos quando um Switch ou NÓ final é abarrotado momentaneamente por pacotes entrantes.

Atualmente, o IEEE e Internet Engineering Task Force (IETF) estão trabalhando no desenvolvimento de protocolos que vão melhorar a eficiência de rede e eliminar a perda de pacotes. Esse trabalho é considerado crítico para garantir o desempenho da rede Fibre Channel over Ethernet (FCoE) e da rede iSCSI (Internet SCSI).

Saiba mais sobre como os novos protocolos da Ethernet 10 Gigabit podem melhorar o desempenho de rede.



Sobre o autor:
David B. Jacobs do grupo Jacobs tem mais de 20 anos de experiência na indústria de rede. Ele gerenciou projetos de desenvolvimento de software leading-edge e deu consultoria para empresas da Fortune 500, bem como startups de software.

















sexta-feira, 9 de outubro de 2009

Interconexão 10 Gigabit: Investigue Cuidadosamente Antes de Escolher





Soluções de interconexões da Ethernet 10 Gigabit: Investigue cuidadosamente antes de escolher


Autor Original do texto: David B. Jacobs, 20/04/2009
Fonte: http://searchnetworking.techtarget.com/tip/0,289483,sid7_gci1354251_mem1,00.html



Parte 1 do tutorial Ethernet 10 Gigabit: Conectando datacenters, armazenagem, LAN e muito mais.



Uma grande variedade de tipos de cabos e de interconexão está disponível para suportar a Ethernet 10 Gigabit (10 GbE). As soluções variam em termos de distância máxima de interconexão, consumo de energia e dissipação de calor, latência de sinal, confiabilidade e capacidade de adaptação às exigências futuras. O custo total inclui mais do que simplesmente o custo de interfaces dos equipamentos e cabos. A mão de obra é frequentemente um fator importante. Escolher uma solução requer avaliar cuidadosamente cada opção fazendo a contraposição com os requisitos de sua aplicação.

A escolha básica é entre fibra óptica e cabo de cobre. Até recentemente, as taxas de transmissão de 10 Gigabit só poderia ser alcançado através do uso de fibra óptica, mas agora os padrões têm permitido o uso de par trançado. Fibra óptica e fio de cobre podem ser usados no mesmo Datacenter com a escolha para cada conexão baseada na distância entre os dispositivos a serem conectados. Para complicar ainda mais a decisão, diversas opções estão disponíveis tanto para fibra quanto para cobre.



Fibra Óptica

Opções para fibra incluem fibra multi-modo ou monomodo. A multi-mode está limitada a distâncias bem curtas quando comparadas com a monomodo. Como o cabo multi-modo é mais grosso do que o monomodo, parcelas do feixe de luz seguem caminhos diferentes à medida que incidem e refletem entre as paredes da fibra. O resultado é que o sinal que chega a outra extremidade do cabo fica distorcido. A distorção aumenta com o comprimento do cabo. O feixe de luz segue um caminho único no cabo mais fino da fibra monomodo, por isso que a distorção é muito menor.

O cabo multi-modo foi instalado em 1980 para suportar FDDI a 100 Mbps. Este cabo era de 62,5 mícrons de espessura. O padrão inicial para interface de fibra SR 10GBase era limitado a 26 metros de distâncias de conexão usando esse cabo. O trabalho de remover e substituir cabo instalado é caro, por isso o IEEE desenvolveu o padrão 10GBASE-LRM, também conhecido como IEEE 802.3aq. Ele usa um circuito que compensa a distorção. O resultado é que o novo padrão pode levar sinais a 220 metros em cabo de 62,5 mícrons.

As técnicas de produção de cabo melhoram. O cabo multi-modo recém-fabricado é de apenas 50 mícrons de espessura. A interface SR 10GBase pode suportar distâncias de conexão de 300 metros com o novo cabo multi-modo mais fino.

A fibra monomodo pode transportar sinais até 40 km, por isso que é usado para conectar redes WAN. Ela é mais difícil de conectar devido à finura do cabo, e ela exige uma fonte de luz laser mais cara do que exige a fibra multi-modo. O resultado é que a multi-modo é usado quando a distância de conexão não exige o uso de fibra monomodo.



Fio de Cobre

O padrão 10GBASE-CX4, padronizado pelo IEEE como 802.3ak em 2002, foi o primeiro disponível para interconexão com fio de cobre para Ethernet 10 GbE. Semelhante ao cabo de cobre InfiniBand, o 10GBASE-CX4 utiliza quatro cabos, cada um transportando dois Gigabits e meio de dados. É limitado a aproximadamente a 10-15 metros, mas o método oferece um excelente custo-benefício para conectar equipamento dentro dessa distância.

Small Form-Factor Pluggable Cobre (SFP+CU) oferece uma outra interconexão de baixo custo, e de baixo consumo de energia. É limitado a cerca de 10 metros.



Par Trançado

O padrão IEEE 802.3an, mais conhecido como 10GBase-T, foi concluído em 2006 e é esperado se tornar o método mais amplamente utilizados de interconexão 10 GbE. Ele usa o familiar par trançado e conectores RJ-45.

Chips atuais de Interface consomem mais energia, produzem mais calor e introduzem maior latência do que fibra ou do que as interfaces de cobre anteriores. Os mesmos problemas foram encontrados com as interfaces iniciais de par trançado no padrão Ethernet Gigabit, daí ser esperado uma segunda (e posterior) geração de chips que melhore essa latência. Ao mesmo tempo, esses problemas têm atrasado a adoção do padrão 10GBase-T.

Em muitos casos, os cabos de par trançado existentes devem ser substituídos. Apesar de algumas instalações ter sido bem sucedidos no funcionando da rede 10 GbE em cima de instalações com cabo Categoria 5, no entanto, isso não é recomendado. Mesmo que o teste indique que o cabo pode transportar tráfego de 10 Gigabits, problemas com intermitências podem vir a ocorrer no futuro.

Categoria 6, UTP 6a ou F/UTP 6a (UTP envolvido em alumínio) é recomendado. Cabo Categoria 6 é limitada a 55 metros, enquanto que a 6a ou F/UTP 6a pode suportar conexões de 100 metros. Os cabos Categoria 6 e 6a são mais grossos do que os cabos de categoria 5 para reduzir a possibilidade de interferência alien - isto é, a interferência entre cabos adjacentes.

Cabo grosso significa que os condutores em cabos adjacentes estão mais afastados, reduzindo a possibilidade de interferência. Capa de alumínio virtualmente elimina a possibilidade de interferência alien para Categoria F/UTP 6a.

Substituir o cabeamento existente pode não ser tão simples assim como retirar um cabo e colocar outro. Cabo com maior espessura significa que o cabo categoria 6 ocupa mais espaço nas bandejas. Bandejas adicionais podem ser necessárias se não houver espaço suficiente na bandeja existente. Cuidados precisam ser tomados para evitar a acumulação excessiva de cabos em cima dos outros. O peso pode espremer os demais da parte inferior e reduzir o espaçamento entre condutores.



Custos de Instalação

Avalie os custos de mão de obra cuidadosamente. A fibra era considerada mais cara de instalar porque cuidados precisavam ser tomados para evitar curvas muito sinuosas na fibra e na instalação de conectores. Par trançado a taxas de 10 Gigabit também exige cuidados extras, quando comparado com a menor banda do par trançado, quando anexando conectores e quando organizando cabo em bandejas. Custos de instalação de par trançado podem aumentar significativamente se for preciso instalar bandejas adicionais.



Se planeje para taxas de transferência de dados mais elevadas

O padrão 100 GbE está a caminho. O grupo IEEE 802.3ba começou a trabalhar no padrão 100 GbE em 2007 e se espera concluir o trabalho em 2010. O objetivo é suportar conexões de 40 km com fibra monomodo, conexões 100 metros sobre fibra multi-modo, mas somente 10 metros em fio de cobre. Considere instalar fibra agora, ainda que o cabo de cobre pareça ser a melhor escolha para suas necessidades atuais.



Sobre o autor:
David B. Jacobs do grupo Jacobs tem mais de 20 anos de experiência na indústria de rede. Ele gerenciou projetos de desenvolvimento de software leading-edge e deu consultoria para empresas da Fortune 500, bem como startups de software.

















quinta-feira, 8 de outubro de 2009

Otimização de Datacenter com Ethernet 10 Gigabit





Otimização de Datacenter com Ethernet 10 Gigabit



Autor Original do texto: David B. Jacobs, 17/04/2009
Fonte: http://searchnetworking.techtarget.com/tip/0,289483,sid7_gci1354129_mem1,00.html



Parte 2 do tutorial 10 Gigabit Ethernet: Conectando datacenters, storage, LAN e Muito mais.



A Ethernet há muito tempo é a tecnologia dominante para rede LAN. Agora, a disponibilidade da Ethernet 10 Gigabit (GbE 10) tem possibilitado novas aplicações em DataCenter. Dois fatores tornaram isso possível:

• Preço competitivo e desempenho;
• Necessidade de redes simplificadas para Datacenter.

Ethernet Gigabit é mais adequada para muitas aplicações LAN, mas não é suficiente para conectar servidores com as redes de armazenamento (SAN) e Network Attached Storage (NAS) ou para conexões entre servidores. Fibre Channel e InfiniBand têm sido amplamente utilizados para essas finalidades. Fibre Channel suporta taxas até 8 Gbps; interfaces InfiniBand comuns suportam taxas de 10 Gbps e portas de 20 Gbps para servidor e Switch também estão disponíveis.



Preço e desempenho da rede 10 GbE

Ao mesmo tempo em que a Ethernet 10 GbE não consegue competir com as taxas highend do InfiniBand, porém ela é adequada em muitos Datacenters. Apesar do desempenho competitivo, a 10 GbE não foi rapidamente adotada.

IEEE 802.3z, o padrão 10 GbE, foi concluído em 2002, mas os preços dos componentes de alta desacelerou de aceitação inicial. Agora os preços têm caído, e as vendas de placas de interface Ethernet 10 Gigabit e Switchs aceleraram. Em agosto de 2008, Dell'Oro Group, uma firma de pesquisa de mercado sediada na cidade de Redwood, Califórnia, revelou que, no segundo trimestre de 2008, lotes de Switch 10 GbE excedeu a 250.000 portas pela primeira vez.

Taxa de transmissão de dados bruto não é o único fator relevante. Bom desempenho de SAN requer baixa latência entre servidores e os armazenadores. A maioria dos Switchs Ethernet foi projetada para uso em LAN. Eles precisam receber o quadro entrante todo antes de começar a transmitir.

Os fabricantes de Switch estão agora resolvendo esse problema através do desenvolvimento de Switchs projetados especificamente para aplicações de Datacenter. Switchs com baixa-latência começam a transmitir no link sainte, após ler apenas o suficiente do quadro entrante para determinar seu destino. O resultado é Switchs com latência competitiva com os Switchs InfiniBand.



Carga de CPU de Servidor e Latência Reduzida

Carga de processamento nas CPUs do servidor é fator crítico de desempenho. Na maioria dos sistemas de computador, a CPU processa as cópias de dados e o processamento de protocolo necessário para suportar o tráfego de rede. Conforme aumenta a taxa de dados, aumenta a carga da CPU. A taxa de 10 Gbps, carga de processamento sobre a CPU se torna inaceitável.

Fabricantes de placas de interface de rede incorporaram três mecanismos em suas placas de 10 GbE para resolver este problema.

1. A TCP / IP offload engine (TOE) é um processador de propósito especial localizado em uma placa de rede. Uso de TOE transfere o processamento de protocolo da CPU para a interface de rede. O desempenho da aplicação na CPU melhora como um resultado da redução de carga. A Latência diminui porque o processador do cartão de interface é otimizado para mover quadros rapidamente.

2. Remote Direct Access Memory (RDMA) fornece um mecanismo eficiente para transferências de dados entre servidores. Ela reduz a latência e o consumo de CPU copiando dados do espaço de memória da aplicação diretamente para o cartão de interface. Essa cópia simples assistida pelo hardware elimina uma cópia da memória da aplicação para o kernel, uma segunda cópia para o driver do dispositivo de rede, e uma terceira para o cartão de interface.

3. iWARP (Wide Area RDMA Internet Protocol), desenvolvido pela Internet Engineering Task Force (IETF), permite que as aplicações sobre um servidor para ler ou escrever diretamente nas aplicações rodando em um outro servidor sem o suporte nenhum do sistema operacional do servidor.


Uso de TOE e RDMA exige mudanças no software do sistema operacional. Código de processamento de Protocolo precisa ser removido. A Microsoft forneceu TCP Chimney Offload para suportar o TOE e o RDMA no Windows Server 2003, Windows Vista e Windows Server 2008. A Aliança OpenFabrics está desenvolvendo o suporte do TOE e do RDMA para Linux.



Simplificando a rede do Datacenter

Substituição de Fibre Channel e InfiniBand por Ethernet resulta em redução de custos e maior flexibilidade. Fibre Channel e InfiniBand são tecnologias especializadas que conecta servidores e armazenadores. Qualquer das duas pode ser estendida além dos limites do Datacenter.

Uma rede 10 GbE única e um único switch pode suportar a LAN, comunicações entre servidores e a SAN, e pode se conectar à rede WAN. Funcionários de Datacenter estão familiarizados com a tecnologia de rede Ethernet e IP, assim substituir múltiplas redes por uma rede única simplifica o treinamento de pessoal e os custos de suporte.

Tanto Fibre Channel quanto InfiniBand exigem tipos de cabos específicos de cada tecnologia. A tecnologia 10 GbE usa o par trançado padrão ou cabos de fibra. Como bônus adicional, um Switch de alta capacidade única consome menos energia e produz menos calor do que dois Switchs menores.

LANs virtuais (VLANs) Ethernet tornam possível trocar recursos rapidamente enquanto se muda padrão de tráfego. Tráfego entre servidores e SAN na LAN pode ser alocado em VLANs individuais no mesmo cabo, se o nível de tráfego permitir, ou movidos para cabos separados quando o tráfego aumentar.



Fibre Channel over Ethernet e iSCSI

Fibre Channel over Ethernet (FCoE) foi desenvolvido por um grupo de fabricantes de equipamentos para proporcionar uma forma de preservar os investimentos dos clientes em Fibre Channel ao mesmo tempo que mantém as vantagens de uma única tecnologia de rede. Pacotes Fibre Channel são transmitidos em cima da Ethernet, em vez de usar interfaces Fibre Channel, cabos e Switchs.

Da mesma forma, iSCSI fornece um método para preservar os investimentos nos sistemas existentes, enquanto se beneficia de uma única rede. Armazenamento conectados via iSCSI aparece para um servidor como sendo uma unidade de disco SCSI conectada diretamente. Comandos SCSI padrões são transportados pelos protocolos TCP/IP sobre a Ethernet.

O Fibre Channel e a Tecnologia InfiniBand, em contraste com a Ethernet, garantir que nenhum pacote seja perdido em trânsito. Para remediar esse problema, o trabalho que está em curso atualmente no IEEE é o desenvolvimento de protocolos Ethernet que eliminem a perda de pacotes, fornecendo priorização flexível e eliminando o congestionamento da rede.

Este trabalho, combinado com mais reduções de preço, melhorias de desempenho, redução no consumo de energia e a necessidade por simplificação, vai continuar aumentando o uso da Ethernet 10 GbE em Datacenter.



Sobre o autor:
David B. Jacobs do grupo Jacobs tem mais de 20 anos de experiência na indústria de rede. Ele gerenciou projetos de desenvolvimento de software leading-edge e deu consultoria para empresas da Fortune 500, bem como startups de software.

















quarta-feira, 7 de outubro de 2009

Convergência para Ethernet Mais Eficiente





Ethernet Mais Eficiente em Convergência: Novos protocolos melhoram a Ethernet em Datacenter



Autor Original do texto: David Jacobs, 15/04/2009
Fonte: http://searchnetworking.techtarget.com/tip/0,289483,sid7_gci1353927_mem1,00.html



Parte 3 do tutorial 10 Gigabit Ethernet: Conectando datacenters, storage, LAN e Muito mais.



Preço, desempenho e flexibilidade tornaram a Ethernet 10 Gigabit (10 GbE) uma escolha atrativa para Datacenter. Enquanto o padrão 10 GbE tem feito progressos, a falta de recursos nos protocolos Ethernet existentes limitam a sua maior penetração.

A questão crítica com a Ethernet é que ela não garante que pacotes não serão perdidos quando um Switch ou nó final ficar momentaneamente inundado por pacotes entrantes. O IEEE e o Internet Engineering Task Force (IETF) estão atualmente trabalhando no desenvolvimento de protocolos que vão melhorar a eficiência da rede e eliminar situações nas quais os pacotes são perdidos. Esse trabalho é considerado crítico para garantir o desempenho do Fibre Channel over Ethernet (FCoE) e do iSCSI (Internet SCSI).

O trabalho está em curso para resolver:

• Priorização de tráfego;
• Controle de congestionamento;
• Melhoria na Seleção de rota.

O conjunto de protocolos projetados para resolver essas questões foi chamado de Enhanced Converged Ethernet (Convergência para 
Ethernet Mais Eficiente), ou Ethernet Sem Perda.



Priorização de tráfego e controle

Uma grande vantagem da Ethernet 10 GbE em relação às tecnologias concorrentes é que redes separadas para redes de armazenamento (SAN), comunicação entre servidores e a LAN pode ser substituída por uma única rede GbE 10. Enquanto links 10 Gb podem ter largura de banda suficiente para transportar todos os três tipos de dados, rajadas de tráfego pode inundar um Switch ou ponto final.

O Desempenho da rede SAN é extremamente sensível ao atraso. Lentidão no acesso ao armazenamento tem um impacto no desempenho do servidor e da aplicação. O tráfego entre servidores também sofre com atrasos, enquanto o tráfego LAN é menos sensível. Deve haver um mecanismo para atribuir prioridade ao tráfego crítico enquanto dados com menor prioridade aguarda até que o link fique disponível.

Os Protocolos Ethernet existentes não fornecem os controles necessários. Um nó receptor pode enviar um comando PAUSE do padrão 802.3x para interromper o fluxo de pacotes, mas PAUSE interrompe todos os pacotes.

O padrão 802.1p foi desenvolvido na década de 1990 para fornecer um método para classificar os pacotes em um dos oito níveis de prioridade. No entanto, não inclui um mecanismo para fazer pausa nos níveis individuais. O IEEE está agora desenvolvendo o Controle de Fluxo baseado em Prioridade (PFC) do padrão 802.1Qbb para fornecer uma forma de interromper o fluxo de pacotes de baixa prioridade, enquanto permite fluírem dados de alta prioridade.

Um mecanismo de alocação de largura de banda também é necessário. Seleção de Envio Melhorado (ETS) no 802.1Qaz fornece uma maneira de agrupar uma ou mais prioridades 802.1p em um grupo de prioridade. Todos os níveis de prioridade de um grupo devem exigir o mesmo nível de serviço. Cada grupo de prioridade é então atribuído uma percentagem de alocação do link. Um grupo de prioridade especial nunca é limitado e pode sobrescrever todas as outras alocações e consumir a banda toda do link. Durante os períodos quando os grupos de alta prioridade não estiverem usando sua largura de banda alocada, aos grupos de prioridade menor é permitido utilizar a banda disponível.



Controle de congestionamento

Os padrões 802.1Qbb e 802.1Qaz por si só não resolvem o problema de perda de pacotes. Eles podem interromper o tráfego de baixa prioridade em um link, mas não evitam o congestionamento quando um Switch ou nó final está sendo inundado por pacotes de alta prioridade a partir de dois ou mais links. Precisa haver uma maneira para os nós receptores notificar aos nós transmissores para reduzir as suas taxas de transmissão.

O padrão IEEE 802.1Qau prevê esse mecanismo. Quando um NÓ receptor detecta que ele está próximo do ponto onde ele começará a descartar pacotes entrantes, ele envia uma mensagem para todos os NÓs que estão no momento transmitindo pra ele. Os NÓs transmissores reduzem suas taxas de transmissão. Então, quando o congestionamento é desmarcado, o NÓ envia uma mensagem informando aos transmissores para retomar a sua taxa transmissão integral.



Melhoria na Seleção de rota

O Protocolo Spanning tree (STP) foi desenvolvido no início da história da Ethernet. Ele especifica um procedimento para eliminar loops de roteamento sem a necessidade de configuração manual. Switchs se comunicam uns com os outros para selecionar um NÓ raiz. Em seguida, cada NÓ determina a sua rota de menor custo para o NÓ raiz. Se um Switch for adicionado, removido ou um link falhar, os Switchs restantes se comunicar para determinar um novo NÓ raiz e novos caminhos para ele.

Spanning tree tem funcionado bem, mas tem limitações. O tráfego entre NÓs pode fluir através do raiz, mesmo quando existir uma rota mais direta entre os NÓs. Não há nenhuma maneira de espalhar o tráfego entre várias rotas de custo igual. Finalmente, o processo para determinar um novo NÓ raiz e caminhos pra ele pode ser lento. O tráfego de rede pára enquanto o processo ocorre.

O spanning tree padrão foi aprimorado para fornecer conjuntos separados de rotas por LAN virtual e dentro de seções da rede, mas ainda não selecionar necessariamente as rotas ótimas ou leva vantagem dos vários links.

O poder de processamento e memória limitados nos primeiros Switchs ditou que os cálculos necessários para determinar o NÓ raiz e rotas precisavam ser relativamente simples. Processadores e memória nos Switchs atuais possibilitam protocolos de seleção rota mais complexo. O IETF e IEEE estão trabalhando juntos para desenvolver o IEEE 802.1aq e o Transparent Interconnection of Lots of Links (TRILL). O objetivo desses esforços é usar um protocolo de roteamento estado de link para determinar as rotas mais eficientes através da rede, reagir rapidamente às mudanças da rede, e tirar proveito das várias rotas distribuindo o tráfego entre elas.



Sobre o autor:
David B. Jacobs do grupo Jacobs tem mais de 20 anos de experiência na indústria de rede. Ele gerenciou projetos de desenvolvimento de software leading-edge e deu consultoria para empresas da Fortune 500, bem como startups de software.












Prossegue ...   












Creative Commons License
Admirável Mundo Novo: Tudo Sobre Asterisk, OpenSER, Linux e Tecnologias de Voz sobre IP
by Cléviton Mendes de Araújo is licensed under a Creative Commons Atribuição 2.5 Brasil License.