Blog

A medição do PUE de um data center

No artigo publicado em 16 de maio de 2018, em meu blog (http://www.claritytreinamentos.com.br/2018/05/16/pue-uma-metrica-de-eficiencia-do-data-center/), expliquei o conceito da métrica PUE, cobrindo sua definição, princípio de cálculo e principais finalidades. Aqui, vou elaborar mais sobre o tema, explorando detalhes sobre sua medição e cálculo.

Como vimos, o PUE mostra o overhead de energia gasto em relação aos sistemas de TI. Esse overhead representa a energia gasta nos sistemas que auxiliam na contínua operação dos sistemas críticos de TI, incluindo, mas não necessariamente se limitando a:

  • Energia gasta na refrigeração/ventilação dos equipamentos de TI e dos equipamentos necessários ao seu funcionamento, incluindo bombas, chillers, ventoinhas, torres de resfriamento, fancoils, evaporadoras e condensadoras
  • Perdas elétricas nos equipamentos, cabos e conexões da distribuição elétrica (ex.: UPS, quadros elétricos, transformadores, geradores etc.)
  • Alimentação elétrica de sistemas auxiliares necessários, como alarmes de incêndio, controle de acesso e automação
  • Iluminação das salas que compõem o data center

Ao computar a energia gasta pelos sistemas de TI, deve-se considerar, para além de servidores, armazenamento e comunicações (switches e roteadores), todo o equipamento de TI suplementar, como monitores, chaveadores KVM, estações de monitoramento etc., desde que necessários à operação dos serviços críticos.

Então, um data center com PUE 1,60 significa que 60% de toda a energia por ele consumida é gasta por esses sistemas acima listados como overhead. Obviamente, quanto mais perto de 1,00, mais eficiente esses sistemas serão ao atenderem as necessidades de TI.

Mas, onde medir o consumo de TI e qual a unidade utilizada? A primeira edição do PUE descrevia somente uma relação entre picos de demanda. Ou seja, durante um período de avaliação (por exemplo, durante um mês), é anotado o pico de demanda total do data center (DEM_TOT) e o pico de demanda dos equipamentos de TI (DEM_TI), ambos medidos em kW. O PUE seria então DEM_TOT/DEM_TI. Exemplo: pico de demanda do data center durante um ano = 500 kW, pico de demanda de TI durante esse ano = 300 kW; PUE = 500/300 = 1,67.

Posteriormente, foi lançada a segunda versão do PUE, em três níveis, 1, 2 e 3. Esse novo PUE (versão 2) prefere que o cálculo seja feito com dados de consumo, em kWh, e não de demanda, como anteriormente. Então, durante o período de avaliação, é medido o consumo elétrico total do data center (CONS_TOT) e o dos equipamentos de TI (CONS_TI). O PUE é agora CONS_TOT/CONS_TI. Exemplo: consumo elétrico total do data center durante um ano = 4.500.000 kWh, consumo elétrico de TI durante esse ano = 2.600.000 kWh; PUE = 4.500.000/2.600.000 = 1,73. Esta maneira é superior à anterior, pois utiliza o consumo total, que já contabiliza todos os picos, vales e sazonalidades ocorridas durante o período.

Os três níveis do PUE versão 2 se referem ao local onde deve ser medido o consumo de TI, bem como periodicidade mínima da medição (se usada a demanda pontual):

  • PUE1: nível 1; medição na saída do UPS; se medido como demanda (kW), a periodicidade deve ser mensal ou semanal
  • PUE2: nível 2; medição na saída do PDU; se medido como demanda (kW), a periodicidade deve ser diária ou horária
  • PUE3: nível 3; medição na tomada elétrica dos equipamentos de TI (nos racks); se medido como demanda (kW), a periodicidade deve ser de 15 minutos ou menos

Atualmente, o PUE também é definido na norma ISO/IEC 30134-2 – Power usage effectiveness (PUE).

A medição do consumo total deve ser sempre realizada na entrada do data center. Deve-se deduzir daí toda energia utilizada para outros sistemas não relacionados ao data center, se existirem.

Quanto mais perto da carga de TI for a medição, ou seja, quanto maior o nível do PUE, mais precisa será a métrica ao identificar as perdas decorrentes do overhead das instalações.

Quando a medição for realizada por consumo (kWh), é importante manter o cálculo do PUE trimestral de cada estação climática do ano, bem como o anual, de forma a ressaltar (trimestral) e a nivelar (anual) os efeitos da temperatura externa no PUE.

Como curiosidade, e a nível de ilustração, podemos consultar o PUE dos data centers da Google aqui: https://www.google.com/about/datacenters/efficiency/internal/. Ali podemos ver o gráfico dos cálculos anuais e trimestrais do PUE.

O PUE1 e o PUE2 até admitem ter suas medições de consumo realizadas de forma manual, em rondas periódicas. É relativamente fácil obter dados de consumo de TI para o PUE1, pois todos os UPS já vêm com recursos para informar os dados de fornecimento de energia. Para o PUE2, é necessária a instalação de medidores nos quadros principais de distribuição de energia ininterrupta para o data center (PDU).

O PUE3, por sua granularidade (medição em cada rack de TI), deve necessariamente ser medido de forma automática. Isso não deve ser um problema, pois para o PUE3 é necessária a utilização de “PDU inteligente de rack” em todos os racks, os quais já são naturalmente dotados de capacidade remota de monitoramento, via SNMP ou equivalente. Porém, isso torna a instalação mais cara, portanto não é uma solução viável para muitos data centers.

Se o data center adquirir outros recursos utilizados para alimentação elétrica ou refrigeração, como diesel ou gás (para geração local regular), ou água potável (para refrigeração), a energia embutida em tais insumos também deve ser contabilizada na energia total consumida pelo data center. A norma do PUE inclui fatores para a conversão dessa energia embutida em energia a ser contabilizada pelo PUE.

O PUE, em princípio, não deve ser utilizado para comparar instalações diferentes, a não ser que a metodologia de todos os locais seja compatibilizada. O PUE é bastante útil para servir de base para o próprio data center medir sua evolução com o tempo e após alterações significativas da instalação.

Mas, atenção, o PUE não mede a eficiência elétrica dos equipamentos de TI! O aumento da eficiência de TI (com o uso de técnicas de consolidação e virtualização, por exemplo) reduzirá o consumo elétrico do data center, mas, se não houver um correspondente ajuste no parque eletromecânico, o PUE poderá aumentar, mesmo que o consumo total da instalação tenha diminuído.

Por outro lado, aumentar muito a temperatura de fornecimento do ar condicionado, para a faixa “permitida” da ASHRAE, poderá proporcionar uma boa economia no gasto energético da refrigeração. Mas, dependendo da temperatura e nível de carga dos servidores, pode ser que suas ventoinhas sejam aceleradas ao máximo, para compensar esse aumento. Isso pode levar a um consumo extra que anula os ganhos com a redução da refrigeração, levando a um maior consumo do data center. Nesse caso, paradoxalmente, o PUE pode melhorar, pois o consumo das ventoinhas dos servidores é contabilizado como consumo de TI!

Ou seja, o PUE não deve ser o único recurso para acompanhar a eficiência elétrica do data center. Ele deve sempre ser acompanhado por outros indicadores, como o consumo elétrico total e índices de eficiência dos equipamentos de TI, como por exemplo o ITEU e o ITEE, também definidos na norma ISO/IEC 30134.

Seguem os links para os sites onde se pode adquirir os documentos aqui citados:

The Green Grid® – PUE: https://www.thegreengrid.org/en/resources/library-and-tools/20-PUE%3A-A-Comprehensive-Examination-of-the-Metric

Norma ISO/IEC 30134-2:2016: https://www.iso.org/standard/63451.html

A medição do PUE é apenas um dos itens avaliados para a obtenção do único selo de eficiência energética para data centers, o CEEDA. Mais informações, aqui: http://www.ceedacert.com/

O cálculo do PUE é abordado nos cursos DCDA e EnergyPro, do DCProfessional. Mais informações, aqui: https://www.br.dcpro.training/

 

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design, Assessor CEEDA
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Uma introdução ao PoE – Power over Ethernet

Há muito tempo o cabo de cobre balanceado, mais conhecido como “cabo de par trançado” ou simplesmente UTP, é utilizado para a transmissão simultânea de informações e energia ao dispositivo remoto. Um exemplo clássico é o velho sistema analógico de telefonia, conhecido na bem-humorada sigla em inglês por POTS (Plain Old Telephone Service, ou ‘velho e simples serviço de telefonia’), onde o aparelho telefônico recebe, junto com os sinais de voz, uma alimentação elétrica em corrente continua proveniente da central, tudo pelo mesmo par de fios de cobre.

Sistemas privados de telefonia analógica (os onipresentes sistemas de PABX) também utilizam essa técnica de energização de aparelhos. Alguns sistemas utilizam até um par adicional do cabo para realizar a alimentação de alguns aparelhos mais “potentes”, como os ramais digitais ou sistemas KS.

Mais recentemente, sistemas de CFTV também começaram a utilizar pares do cabo para alimentar as câmeras através dos cabos de sinal de vídeo. Outros dispositivos utilizados em sistemas de automação também costumam utilizar essa técnica.

E qual a vantagem de se prover a alimentação elétrica ao dispositivo final remotamente, através do cabo de comunicação? Podemos ressaltar algumas:

  • Evitar a necessidade de tomada elétrica ao lado de cada dispositivo e respectiva distribuição de cabos e sua proteção;
  • Evitar a instalação de fontes de energia individuais em cada dispositivo, o que representaria menor eficiência e mais pontos de falha em relação a ter uma fonte centralizada;
  • Possibilidade de dotar todos os dispositivos com energia de backup (UPS e/ou gerador) de maneira central;
  • A distribuição de energia em corrente contínua a tensões usualmente menores que 50 V é mais segura.

O problema é que historicamente nunca houve uma maneira padronizada de realizar essa alimentação elétrica pelos cabos de dados. Cada fabricante tinha sua própria solução, cada qual utilizando fios, tensões, correntes e proteções únicos, impossibilitando a interoperabilidade.

Com a universalização do protocolo Ethernet (para dados, sons, imagens e controles), tornou-se possível a padronização da alimentação elétrica remota por esse protocolo. Essa técnica de alimentação elétrica através de enlaces de comunicação Ethernet por cabos de par trançado ficou conhecida como PoE – Power over Ethernet. A primeira versão do PoE foi lançada em 2003, sob o padrão IEEE 802.3af. A versão seguinte veio em 2009, com o padrão IEEE 802.3at, ficando conhecido como PoE+ (PoE plus).

Algumas características básicas desses dois padrões de PoE:

  • Ambos utilizam dois pares do cabo para alimentação em corrente contínua;
  • O equipamento que energiza o cabo (geralmente um switch ou um injetor de potência) é chamado de Power Sourcing Equipment (PSE);
  • O equipamento energizado (telefone, câmera, ponto de acesso Wi-Fi etc.) é chamado de Powered Device (PD);
  • O enlace deve ter 100 m ou menos de cabo de par trançado, com componentes e topologia compatíveis com as normas de cabeamento estruturado (tais como ISO/IEC 11801, ABNT/NBR 14565 e ANSI/TIA-568);
  • O padrão PoE garante até 12,95 W no PD, enquanto o PoE+ garante até 25,50 W no PD;
  • A alimentação elétrica pode seguir em pares distintos dos de dados (Modo B, para injetores PoE ou PoE+ em velocidades de 10 ou 100 Mb/s) ou simultaneamente pelos mesmos pares (Modo A, para switches PoE ou velocidades iguais ou superiores a 1 Gb/s).

As figuras abaixo mostram os dois modos de energização PoE e PoE+, o Modo A (quando o switch já tem o recurso PoE, técnica chamada de “endspan”) e Modo B (quando é utilizado um injetor PoE entre o switch e o PD, técnica chamada de “midspan”):

Esquema de utilização dos pares para energia e dados

Endspan

Midspan

O PoE+ foi um avanço, pois muitos dispositivos que não conseguiam ser alimentados com menos de 13 W passaram a poder utilizar esse recurso, como câmeras motorizadas (PTZ) e telefones VoIP com grandes telas touchscreen. Mas alguns equipamentos ainda ficaram de fora por necessitarem mais energia, como luminárias LED, monitores de TV e estações de trabalho. Para resolver isso, está em fase final de elaboração o padrão IEEE 802.3bt, que utiliza os quatro pares do cabo para alimentação elétrica, simultaneamente aos dados em Ethernet. Esse novo padrão está sendo referenciado como PoE++ (PoE plus plus) ou 4PPoE (four pair PoE).

O padrão 4PPoE trará duas novas classes de alimentação elétrica:

  • Tipo 3: até 51 watts no PD
  • Tipo 4: até 71 watts no PD
  • Os tipos 1 e 2 são compatíveis com os níveis dos padrões PoE e PoE+, respectivamente

Com esse padrão, será possível dotar quase qualquer equipamento ou dispositivo de comunicação ou automação de um ambiente comercial ou residencial com rede Ethernet de até 10 Gb/s e alimentação elétrica, tudo através de um único cabo de rede, por meio de uma conexão padrão “RJ45”. O 4PPoE possibilitará a instalação de maneira simples, e alimentados unicamente por cabos de par trançado, dos mais diversos equipamentos comuns nos escritórios atuais, para além dos telefones, câmeras e antenas Wi-Fi, tais como:

  • Thin clients
  • Monitores de TV
  • Estações de reserva de salas de reunião
  • Pontos de autoatendimento
  • Luminárias LED inteligentes
  • Leitores de cartão, senha e biometria
  • Alto-falantes
  • Relógios
  • Repetidores internos de sinal de celular
  • Dispositivos DAS – Distributed Antenna System
  • Sensores (iluminação, presença, temperatura, umidade, movimentação, contaminantes etc.)
  • Controladores (controle de acesso, VAV, persianas automatizadas, registros e disjuntores motorizados etc.)
  • Carregadores de celular

Particularmente, as luminárias LED inteligentes (dotadas de sensores e controles) e os dispositivos IoT, tornados possíveis principalmente por causa do PoE, têm o potencial de expandirem enormemente a demanda por cabeamento estruturado nas corporações. Empresas como Cisco já lançaram switches PoE próprios para tais aplicações, aptos a serem instalados por sobre forros, para atenderem às aplicações distribuídas pelo teto. Veja este vídeo sobre o edifício The Edge, de Amsterdam, que utiliza um sistema inteligente de iluminação suportado por PoE.

Até aqui, alguns pontos a ressaltar:

  • O PoE (e suas novas versões) não é um sistema qualquer de energização por cabo de par trançado, mas sim uma técnica específica, padronizada pelo IEEE, para ser utilizada com equipamentos Ethernet em cabeamento estruturado;
  • O protocolo de sinalização do PoE somente injeta potência no cabo se o PSE detectar um PD compatível. Ou seja, você não tomará choque se segurar um cabo UTP decapado cuja outra extremidade esteja conectada a um switch/injetor PoE.

A tabela abaixo mostra um resumo das principais características do PoE (lembrando que até a data que este artigo foi escrito, o padrão 4PPoE ainda não havia sido publicado, a previsão era de até o final de 2018):

Padrão IEEE 802.3af

PoE

IEEE 802.3at

PoE+

IEEE 802.3bd

4PPoE

IEEE 802.3bd

4PPoE

Tipo 1 2 3 4
Pares energizados 2 2 4 4
Faixa de tensão no PSE (Vcc) 44 a 57 50 a 57 50 a 57 52 a 57
Corrente máx. por par (mA) 350 600 600 960
Potência máx. fornecida pelo PSE (W) 15,4 30,0 60,0 100
Potência mín. fornecida ao PD (W) 12,95 25,5 51,0 71,0

Note que há uma diferença entre a potência fornecida pelo PSE e a garantida ao PD, pois há uma queda de tensão no caminho provocada pelo cabeamento instalado. Para que a queda não seja superior a essa, instalar sempre o cabeamento conforme as normas correspondentes e técnicas recomendadas pelos respectivos fabricantes.

O PoE padronizado pelo IEEE não é o único padrão existente de alimentação elétrica sobre cabos de par trançados. Há três outros dignos de nota:

  • UPOE (Universal PoE), lançado pela Cisco em 2011, pode fornecer até 60 W sobre cabeamento de par trançado a partir de switches compatíveis, como as séries Catalyst 4500E Series e Catalyst 3850;
  • POH (Power over HDBaseT), suportado pela HDBaseT Alliance, é um padrão baseado no PoE+ que permite o fornecimento de até 100 W em quatro pares sobre comunicações de áudio e vídeo pelo padrão HDBaseT, que utiliza cabos de par trançado (mín. Cat.5e) para trafegar vídeo de alta resolução, Ethernet a 100 Mb/s e sinais de controle entre equipamentos e dispositivos de entretenimento (segundo a última especificação Energy Star, nenhuma TV de até 60 polegadas pode consumir mais do que 100W);
  • PoDL (Power over Data Line), será um padrão semelhante ao PoE, mas para energizar enlaces dos novos protocolos Ethernet sobre cabos de um par trançado, como o 100BASE-T1 e o 1000BASE-T1, trabalhando com tensões de até 60 V e potências de até 50 W no PD.

Existem alguns cuidados que devem ser tomados em projetos para utilização do PoE em larga escala, principalmente quando se tem em mente o 4PPoE. Agrupar os cabos de par trançado em feixes provocará um aumento de sua temperatura, proporcional à quantidade de cabos agrupados, corrente transferida (tipo de PoE) e capacidade de dissipação térmica do cabo e do caminho onde o feixe é instalado. Normas começam a surgir (como a ANSI-TIA-184) com orientações sobre projetos com PoE que limitem o aumento de temperatura para além de um limite, o que poderia afetar a capacidade de tráfego de dados dos cabos devido ao aumento de sua atenuação. De uma forma geral, cabos de par trançado com condutores mais grossos (p.ex. 23 AWG), como os usualmente encontrados em cabos de Categoria 6A, permitem maior capacidade de corrente, em feixes maiores, sem grandes aumentos de temperatura.

Outro cuidado é a utilização de conectores modulares (tomadas e plugues modulares “RJ45”) que suportem a desconexão sob carga. Ao forçar a desconexão, por exemplo de um patch cord, sem antes desligarmos o dispositivo alimentado por PoE, pode haver uma faísca que, em repetidas situações, pode danificar os contatos o que, ao longo do tempo, pode levar a problemas na comunicação de dados. Eles devem, portanto, ser testados pelo menos conforme a norma IEC 60512-99-001.

Para concluir, o PoE é uma tecnologia em franco crescimento, que oferece o potencial de alterar a maneira como os dispositivos são conectados e distribuídos nos edifícios comerciais, tornando as instalações mais simples, padronizadas, ágeis e seguras.

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Norma ANSI/TIA-568.2-D aprovada para publicação

A principal norma de cabeamento estruturado dos EUA, uma das primeiras do mundo a tratar do tema, é a ANSI/TIA-568. Ela é dividida em 5 partes, sendo elas:

  • Parte 0: estabelece as bases para um sistema genérico de cabeamento estruturado
  • Parte 1: cabeamento estruturado para edifícios comerciais
  • Parte 2: especifica os componentes de par trançado balanceado
  • Parte 3: especifica os componentes em fibra óptica
  • Parte 4: especifica os componentes em cabo coaxial

Periodicamente, a TIA-568 passa por revisões, assim como a maioria das normas, para se atualizar em relação à tecnologia, produtos e melhores práticas adotados. Uma letra ao final indica a revisão. A primeira revisão foi indicada com a letra “A”. A revisão seguinte recebeu a letra “B”, e assim por diante. Assim, o nome ANSI/TIA-568-C.2 indica a revisão “C” (3ª revisão) da parte 2 da referida norma.

Só que a quarta revisão (“D”) mudou a ordem desses dois indicadores, tornando o nome mais coerente com as demais normas. Os indicadores de parte e revisão se inverteram, de forma que a 4ª revisão da 2ª parte passou a se chamar ANSI/TIA-568.2-D. A revisão “D” das demais partes já haviam sido publicadas nesse formato. Agora os nomes são:

  • ANSI/TIA-568.0-D, Generic Telecommunications Cabling for Customer Premises, publicada em 15/dez/2015
  • ANSI/TIA-568.1-D, Commercial Building Telecommunications Cabling Standard, publicada em 9/set/2015
  • ANSI/TIA-568.2-D, Balanced Twisted-Pair Telecommunication Cabling and Components Standard, a ser publicada em breve
  • ANSI/TIA-568.3-D, Optical Fiber Cabling And Components Standard, publicada em 25/out/2016
  • ANSI/TIA-568.4-D, Broadband Coaxial Cabling and Components Standard, publicada em 27/jun/2017

O que mudou na ANSI/TIA-568.2-D em relação à revisão anterior? Em resumo, os principais pontos alterados foram:

  • A adição da configuração MPTL (Modular Plug Terminated Link)
  • Incorporação da Categoria 8 ao corpo da norma
  • O reconhecimento de patch cords com bitola de condutor 28 AWG
  • Considerações ao suporte ao PoE

A adição da configuração MPTL (Modular Plug Terminated Link)

O MPTL é um acréscimo aos outros dois modelos padrões de enlace que já existiam, o canal (CH) e o enlace permanente (PL). Resumidamente, o CH é a configuração que inclui todo o cabeamento horizontal, incluindo todos os patch cords, enquanto o PL é a configuração que inclui apenas a parte “permanente” ou “fixa” do cabeamento, desde a terminação no rack até a terminação na tomada, sem incluir os patch cords.

Esta nova configuração, o MPTL, atende aos anseios de muitos usuários e instaladores, que se sentiam “incomodados” ao instalar uma tomada de telecomunicações, mais um patch cord, para conectar equipamentos fixos, principalmente próximos ao forro, como pontos de acesso wireless (WAP) e câmeras de vigilância (CFTV). Nesta configuração, o cabo horizontal é terminado diretamente com um plugue RJ45 (macho), em campo, que será diretamente conectado ao dispositivo terminal. Os principais fabricantes de cabeamento já estão disponibilizando tais plugues, com garantia de desempenho, para confecção em campo, incluindo versões com desempenho de Categoria 6A e até mesmo Categoria 8.

A norma também dará provisionamento para a forma como um enlace MPTL deverá ser testado. O desempenho do plugue terminado em campo deverá ser incluso no teste. Isso é diferente dos requisitos de teste de um canal, que exclui o desempenho dos plugues das extremidades. Outra coisa a ser ressaltada é que a norma continua obrigando a utilização de tomadas e patch cords para a conexão de dispositivos de usuário nas áreas de trabalho, como desktops, notebooks, telefones e impressoras. Tais dispositivos podem mudar de lugar com frequência, por isso o requisito de utilizar patch cords em sua conexão.

Incorporação da Categoria 8 ao corpo da norma 

A Categoria 8 de cabeamento de par trançado era parte de um adendo à norma TIA-568-C.2. Agora, fará parte da nova revisão 2-D. Lembramos que essa categoria, testada até 2000 MHz, permite a utilização de Ethernet a 40 Gb/s sobre um canal Cat. 8 de até 30 metros, sendo um enlace permanente de 24 metros, mais dois patch cords de até 3 metros cada. Tal aplicação foi pensada para conexões entre equipamentos localizados na mesma fileira de racks de um data center, e permitirá a configuração MPTL para conexão direta ao servidor.

O reconhecimento de patch cords com bitola de condutor 28 AWG

Anteriormente, apenas condutores 22 a 26 AWG eram reconhecidos para utilização em patch cords. Mas em racks de alta densidade, abrigando a terminação de centenas de cabos, isso poderia tornar a organização dos patch cords uma tarefa quase impossível!  Grandes quantidades de patch cords grossos poderiam também causar restrições ao fluxo de ar para a refrigeração de equipamentos ativos, causando seu sobreaquecimento.

Mas patch cords com bitola reduzida, como 28 AWG, apresentam maior atenuação de sinal e maior resistência à corrente elétrica. Por esse motivo, a norma provê recomendações para restringir o tamanho de canais contendo patch cords 28 AWG. Patch cords 28 AWG deverão utilizar 1,95 como fator de correção. Por exemplo, um canal com 10 metros em patch cords 28 AWG poderá ter um máximo de 92,5 m, sendo 82,5 m para o enlace permanente, em vez dos tradicionais 90 m. Com o tempo, melhores práticas deverão ser desenvolvidas e aplicadas com tais patch cords para minimizar possíveis problemas com sua utilização em canais que utilizem PoE, especialmente acima de 30 W, que surgirão com sua nova versão, o four-pair PoE, ou 4PPoE.

Considerações ao suporte ao PoE

Com a chegada do 4PPoE, que permite alimentação de quase 100 W pelo switch, garantindo um mínimo de 71 W no dispositivo remoto, começa a aumentar a preocupação com os projetos e instalações de sistemas em par trançado de forma a evitar anomalias na alimentação elétrica, como quedas excessivas de tensão e aumento exagerado da temperatura no feixe de cabos.

Referências ao boletim técnico ANSI/TSB-184-A, Guidelines for Supporting Power Delivery Over Balanced Twisted-Pair Cabling, são feitas nessa nova revisão, assim como o requisito para um teste particularmente importante para o PoE, que é o desequilíbrio resistivo dentro dos pares e entre os pares do cabo.

 

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Como Analisar um Relatório de Certificação de Cabeamento UTP

Neste artigo, vamos falar sobre a aceitação de um relatório de teste de certificação de cabos de par trançado realizado com um DSX-5000 CableAnalyzer da série Versiv, da Fluke Networks. E não vamos falar do relatório inteiro, nem dos aspectos mais técnicos dos parâmetros de desempenho, como NEXT e Return Loss. Vamos nos ater apenas ao cabeçalho do relatório.

Você sabia que é possível aceitar ou rejeitar um teste apenas analisando o cabeçalho do relatório? Vamos analisar o cabeçalho do teste abaixo e tirar algumas conclusões. Mas, antes de continuar a ler o artigo, dê uma olhada e veja se consegue descobrir algumas “pegadinhas”.

 

Vemos que o teste foi realizado no enlace identificado como TO-001 no dia 25 de maio de 2018, pouco depois das 10 horas da manhã. Comece sua análise por aí. Esse dia e horário faz sentido para você, é um momento condizente com o andamento dos serviços contratados?

Mais abaixo, a “altura livre” nos mostra o quanto o teste superou (ou não, se for negativo) a norma escolhida como parâmetro para a certificação. No caso, superou a norma da ANSI/TIA em 4,1 dB, o que é bom, compatível com o “PASSA” no canto superior direito.

Mas logo a seguir vemos uma aparente inconsistência: a norma utilizada para o teste foi da TIA, tendo por base a Categoria 5e de componentes, no modelo “Permanent Link”, que testa a parte “permanente” da instalação, ou seja, entre o patch panel do rack e a tomada de telecomunicações da área de trabalho, o que está ok. Só que logo abaixo o cabo foi descrito como sendo “Cat 6”, ou seja, de uma categoria superior ao limite Cat. 5e da norma utilizada. Isto estará certo? Se os demais componentes do enlace também forem da Categoria 6, o correto seria ter escolhido a norma “TIA Cat 6 Perm. Link”. O teste realizado não conferiu todo o desempenho do cabo instalado. Isso seria justificado se o enlace mistura cabo Cat. 6 com componentes Cat. 5e, como tomadas e patch panels. É assim que está a instalação? Ou o instalador não fez o serviço corretamente e não consegue certificá-lo como Cat. 6 (que é mais exigente) e rebaixou o teste para Cat. 5e, tentando enganar o cliente? A verificar…

Agora, voltando à “altura livre” e ao “PASSA”, vemos que ele se aplica ao teste Categoria 5e, e não a um cabeamento Categoria 6… Será que se refizermos o teste em Cat. 6 ele passa? Apenas lembrando, um enlace Cat. 6 deve ser certificado a até 250 MHz, enquanto o Cat. 5e é testado até somente 100 MHz, bem abaixo da Cat. 6.

Ainda falando sobre o tipo informado de cabo, “Cat 6 U/UTP”: esse cabo não é blindado. Mas, será que o cabeamento instalado é esse mesmo? Se for blindado, sua blindagem deve ser verificada por continuidade. Como foi informado um cabo não blindado, o equipamento não testou a continuidade da blindagem. Verifique o tipo de cabo instalado. Um cabo blindado precisa ter sua blindagem contínua ao longo de todo o enlace de forma a garantir seu desempenho contra interferências eletromagnéticas. E essa continuidade não será verificada se o operador do equipamento não informar corretamente o tipo de cabo.

Agora, uma pegadinha! Vimos que esse teste recebeu um “PASSA”, mas se analisarmos mais abaixo no relatório, na parte de resultados detalhados, vemos que há um teste cujo valor aparece com um asterisco do lado direito: “NEXT (dB)     0,1*”. O que significa isso?

Isso significa que o pior resultado desse teste caiu dentro da margem de precisão do equipamento utilizado! O nome disso é “resultado marginal”. Como o teste passou, isso é um PASSA*. Se tivesse falhado, seria um FALHA*. Isso é grave? Não muito, mas um resultado marginal o torna muito perto do limite estabelecido pela norma utilizada. Se você espera um cabeamento “muito melhor que a norma”, então resultados marginais não são o ideal. Além disso, se você requisitar a garantia estendida do fabricante de cabeamento, pode ser que ele recuse.

Outra coisa: foi informado um cabo genérico, sem especificar fabricante e modelo. Isso garantiria o tipo da blindagem e o NVP declarado, no caso, 70%. Se o NVP não estiver correto, o comprimento medido pelo equipamento não será o real, podendo ser maior ou menor. Se essa informação for importante para você, peça para que o modelo de cabo correto seja informado (com blindagem e NVP corretos), e que os testes sejam refeitos!

O nome do operador informado é “Marcelo”. Será que foi ele quem realizou o teste? Esse campo é editável no software… O ideal é que o teste tenha sido realizado por um técnico certificado “Fluke CCTT – Certified Cabling Test Technician”, garantindo que todos os passos, desde a configuração do teste até a documentação dos resultados tenham sido realizados da melhor maneira possível, de acordo com as recomendações do fabricante do equipamento. Esse certificado tem validade de dois anos. Na dúvida, peça cópia do diploma do técnico que está operando o equipamento.

O software presente no equipamento de testes apresenta o firmware versão 5.3, enquanto a versão atual é 5.5. Isso não é crítico, mas convém estar com o equipamento sempre atualizado, de forma a realizar os testes mais correntes.

Outra informação crítica: a data de calibração dos módulos (28/out/2016) é mais de um ano anterior à data do teste (25/mai/2018). A Fluke recomenda calibração anual dos módulos para que eles continuem com a precisão garantida. É bom pedir que os equipamentos sejam calibrados na autorizada e depois que os testes sejam refeitos!

E temos ainda mais uma inconsistência: os adaptadores de link utilizados (“DSX-CHA004”) são apropriados para testes de “canal”, que incluem os patch cords em ambas as extremidades do enlace. E a norma utilizada foi a de “permanent link”, que não inclui os patch cords, sendo portanto mais exigente. O correto seria ter feito o teste com os adaptadores modelo DSX-PLA004.

Como vimos, em um simples cabeçalho de teste temos diversas informações importantes sobre a certificação. Saber analisar tais informações é crucial para termos a certeza de que nosso cabeamento foi corretamente testado, de acordo com nossa necessidade, com aquilo que contratamos, e com as recomendações de normas e fabricantes.

O tema abordado neste artigo é apenas um dos tópicos que fazem parte do curso Fluke CCTT – Certified Cabling Test Technician. Confira aqui a data e o local da próxima turma desse curso.

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Artigos sobre cabeamento estruturado em “O Setor Elétrico”

Aqui estão links para dois artigos sobre cabeamento estruturado que foram publicados na conceituada revista “O Setor Elétrico”.

Normas para cabeamento estruturado, artigo publicado na Edição 110, de Março de 2015.

Cabeamento estruturado, artigo publicado na Edição 102, de Julho de 2014.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

PUE: uma métrica de eficiência do data center

Como já vimos em outros artigos, disponibilidade é algo primordial para os data centers atuais, tendo sido criadas até classificações, conhecidas como tiers.

Mas hoje em dia há outra característica a ser valorizada, que é a eficiência energética do data center, que é a sua capacidade de operar com menor consumo de energia. Energia elétrica é um recurso caro, portanto desperdiçá-lo não é uma boa ideia. E para podermos reduzir seu consumo precisamos, antes de mais nada, saber medi-lo e, em seguida, utilizar métricas que possam nos informar com que grau de sucesso estamos atingindo nossos objetivos de melhoria da eficiência.

O assunto eficiência energética em data centers começou a preocupar em 2008, a partir de um relatório ao Congresso dos EUA, quando verificaram que os data centers norte-americanos seriam responsáveis pelo consumo de aproximadamente 1,5% de toda a energia elétrica produzida no país! A última estatística, de 2014, aponta para um aumento para 2%.

Mas, antes de falarmos sobre alguma métrica de eficiência, vamos analisar quais os principais sistemas consumidores de energia elétrica de um data center. Obviamente, o principal tipo de equipamento existente em um data center, e que precisa ser energizado, é o equipamento de TI, motivo último da existência do data center. Nessa categoria estão os servidores, os dispositivos de armazenamento (storage) e os equipamentos de comunicação (como switches e routers). Todos os demais equipamentos e dispositivos que consomem energia em um data center são auxiliares ao funcionamento dos sistemas de TI. Dentre os principais sistemas auxiliares, podemos citar os seguintes: geração alternativa de energia (geradores), energia ininterrupta (UPS ou no-breaks), climatização, segurança patrimonial e incêndio, iluminação, monitoramento e automação. Vamos denominá-los conjuntamente de “sistemas de infraestrutura”.

Resumindo, temos dois grandes sistemas consumidores de energia elétrica no data center: os sistema de TI e os sistemas de infraestrutura. Ambos somados correspondem ao consumo do data center como um todo. A proporção entre ambos e entre os diferentes sistemas componentes pode variar bastante a cada data center.

Neste artigo vamos abordar apenas a métrica que mede a proporção de consumo elétrico entre os sistemas de infraestrutura e o de TI, chamada de PUE – Power Utilization Effectiveness, ou efetividade da utilização da energia, criada pelo The Green Grid. Ela indica o quanto de tudo o que consumimos no data center é relativo aos sistemas de infraestrutura. E por quê isso é importante? Se pensarmos bem, os únicos sistemas que deveriam necessariamente consumir algo são os de TI. São eles que importam. Qualquer gasto com sistemas de infraestrutura deveria ser visto como um overhead, um gasto extra, embora inevitável. Se queremos um ambiente estável, controlado e seguro para os sistemas de TI, é natural que gastemos alguma energia extra com isso. A questão é: quanto de energia estou gastando para manter esse ambiente, para além daquilo que é estritamente consumido pelos equipamentos de computação, armazenamento e comunicação?

Se analisarmos uma certa quantidade de data centers, veremos que é comum que metade de todo o consumo elétrico seja devido aos sistemas de infraestrutura, ou seja, PUE de 2.0, pois o cálculo do PUE é simplesmente a divisão do consumo energético total do data center pelo consumo dos sistemas de TI, para um determinado período. Exemplo: o data center todo consome 4 GWh em um ano, sendo 2 GWh em TI e 2 GWh em sistemas de infraestrutura, portanto PUE = 4 / 2 = 2.0. Embora um PUE de 2.0 seja relativamente comum, esse valor é alto. Veja a interpretação de valores de PUE:

  • PUE 3.0: muito ineficiente
  • PUE 2.5: ineficiente
  • PUE 2.0: médio
  • PUE 1.5: eficiente
  • PUE 1.2: muito eficiente

Note que não foi colocado o valor PUE = 1.0, pois em tese nunca teremos um data center que direcione 100% da energia elétrica para os sistemas de TI. Sempre haverá algum consumo devido à infraestrutura, nem que sejam apenas as perdas da distribuição elétrica. Mas, quanto mais o valor do PUE se aproximar da unidade, mais eficiente será os seus sistemas de infraestrutura, ou seja, menos energia eles consumirão em relação àquilo que é consumido por TI.

Um dos sistemas de infraestrutura que mais consome energia no data center é a climatização. Para um data center onde TI consome metade de toda a energia (PUE = 2.0), é normal que os sistemas de climatização consumam por volta de 40% do total, os demais 10% ficando principalmente com as perdas elétricas e demais sistemas auxiliares. É bastante usual, portanto, que as tentativas de redução do PUE se deem principalmente pela melhoria da eficiência do sistema de climatização do data center.

Em data centers profissionais, que utilizam o estado da arte em eficiência energética, podemos ver valores de PUE iguais ou inferiores a 1.1! Para se ter uma ideia, a média de PUE de todos os data centers do Google, medida em período de 12 meses, é de apenas 1.12. Veja aqui.  Em termos práticos, PUE de 1.12 significa que a cada 1000 Wh consumidos pelos sistemas de TI, apenas 120 Wh são consumidos pelos sistemas de infraestrutura, incluindo a climatização e as perdas elétricas!

Se você analisar alguns gráficos de PUE medidos ao longo do tempo, verá que ele variará em ciclos. Isso se deve à variação de eficiência do sistema de climatização, que é altamente dependente das condições climáticas do ambiente externo ao data center. Dias mais quentes exigem mais dos sistemas de ar condicionado, piorando o PUE momentaneamente. Data centers que possuem PUE muito baixo somente são possíveis em locais onde o clima local é ameno ou é possível a utilização de recursos naturais (como ar ou água) naturalmente frios (free cooling), reduzindo o consumo dos sistemas de climatização.

É importante termos a consciência de que o PUE não é a única métrica a ser utilizada para medir a eficiência energética do data center. Como vimos, ele mede o overhead de energia gasto em relação aos sistemas de TI. Mas, e o gasto dos sistemas de TI em si? Será que não poderíamos ter os mesmos serviços de TI, mas com um consumo energético menor? Menos energia consumida por TI levaria a menor necessidade de gastos com os correspondentes sistemas de infraestrutura que o suportam.  Existem técnicas de melhoria de eficiência energética para cada sistema de infraestrutura de um data center. Estas técnicas, mais as técnicas de redução de consumo de TI, farão parte de um futuro artigo para este blog.

Existem, porém, algumas dificuldades para o cálculo do PUE. Como dito no início, a primeira etapa é a correta medição do consumo de TI e dos sistemas de infraestrutura. E aí já surgem as questões:

  • Onde devo medir o consumo de TI? Em algum quadro elétrico? Na saída de algum equipamento de distribuição elétrica? Na entrada do equipamento de TI? Tanto faz?
  • Quais gastos devem entrar na medição do consumo da energia total consumida pelo data center?
  • Se o data center compartilha um edifício com áreas de escritório ou produção, como medir corretamente o consumo do data center?
  • Se a central de água gelada fornece água para todos os sistemas de ar condicionado do edifício, incluindo o data center, como ratear isso?
  • Eu meço demanda ou consumo? Pico ou média?
  • Como definir os períodos de medição?

Como vemos, embora o cálculo do PUE em si seja simples, ele suscita diversas dúvidas, que devem ser endereçadas com precisão antes de implantarmos tal métrica em nosso data center. Voltaremos ao assunto PUE em futuros artigos para este blog.

O tema abordado neste artigo é apenas um dos tópicos que fazem parte do curso DC100 – Fundamentos de infraestrutura de data center. Confira aqui a data e o local da próxima turma desse curso.

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Causas de downtime em data centers

Antes de mais nada, vamos definir “downtime”: é o tempo em que os serviços providos pelo data center ficam interrompidos. Podemos interromper seus serviços, basicamente, de duas formas: por paradas planejadas ou por paradas não planejadas. Paradas planejadas são usualmente realizadas durantes serviços de atualização ou manutenção de equipamentos, componentes, hardware ou software. Mas neste artigo vamos nos ater às paradas não planejadas, que são as mais temidas, pois, justamente por não serem planejadas, são as que causam mais impacto e, portanto, ocasionam mais prejuízos à empresa. Aqui, então, downtime será sinônimo de parada não planejada.

Qual será a principal causa de downtime, então? Segundo estudo publicado em 2016 pelo Ponemon Institute, “Cost of Data Center Outages”, a principal causa raiz de downtime, de acordo com os três estudos já realizados por eles (2010, 2013 e 2016), tem sido: falha em UPS! Ou seja, falha no sistema que deveria justamente manter fornecimento elétrico aos serviços de TI de maneira contínua, ininterrupta e com qualidade! Um quarto (25%) de todas as paradas tem sido causadas por esse motivo, de acordo com esse estudo, que contou com a participação de 63 data centers norte-americanos.

E qual o segundo lugar? Pasmem, a segunda colocação ficou com o crime cibernético, com 22%! Um aumento de 11 vezes desde o primeiro estudo, de 2010, quando ele representava apenas 2% das causas de downtime. Foi a causa que apresentou o maior crescimento dentre as sete principais causas identificadas no estudo (UPS, cybercrime, erro humano, climatização, clima, gerador, equipamento de TI). Empatado com o cybercrime, temos o erro humano, também com 22% das causas.

E em último lugar dentre as causas identificadas, temos as falhas em equipamentos de TI, com apenas 4% das causas de downtime. Mas aí que vem a surpresa: embora os equipamentos de TI representem apenas 4% das causas de falhas, eles são responsáveis pelos maiores prejuízos quando falham! Em média, o downtime causado por falhas em equipamentos de TI provoca prejuízos na ordem de US$ 995.000, seguido de perto pelo cybercrime (US$ 981.000), contra US$ 709.000 quando a causa é o UPS. O erro humano causa perdas médias na ordem de US$ 489.000.

Qual será o custo por minuto de um data center parado de forma não planejada? Os número variam bastante, desde US$ 926 até US$ 17.244 por minuto! Neste quesito, os números apresentam constante crescimento.  O custo médio de downtime aumentou 38% entre 2010 e 2016, enquanto o custo máximo reportado aumentou 81% no mesmo período!

Finalmente, os três segmentos de mercado que apresentam os maiores custos por decorrência de downtime são, em ordem decrescente: Serviços Financeiros, Comunicações e Saúde.

Como podemos diminuir todo esse downtime? Existem diversas técnicas, que passam pela implantação de níveis de redundância, escolha de componentes de melhor qualidade, melhor localização do data center, treinamento do pessoal de operação, cumprimento de rigoroso plano de manutenção preventiva e preditiva, criação de uma documentação abrangente e precisa da instalação e dos processos, para citar os principais. Para saber um pouco mais sobre as classificações em níveis de redundância, leia este artigo de nosso blog.

O tema abordado neste artigo é apenas um dos tópicos que fazem parte do curso DC100 – Fundamentos de infraestrutura de data center. Confira aqui a data e o local da próxima turma desse curso.

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Tiers de um data center

Você, que de alguma forma está envolvido no mundo dos data centers, com certeza já ouviu falar da classificação “tier” de data centers. Mas, sabe realmente o que ela significa?

Primeiramente, “tier” é uma palavra inglesa que significa nível ou camada. Sua pronúncia pode ser conferida aqui. Neste artigo, usaremos a palavra “nível” no lugar de tier.

No ecossistema dos data centers, a classificação em níveis se refere ao grau de redundância que seus sistemas de infraestrutura possuem. O objetivo da redundância é prover maior disponibilidade aos serviços de TI fornecidos pelo data center. Apenas lembrando, redundância não é o único recurso para aumento da disponibilidade; itens como qualidade dos componentes e equipamentos, treinamento do pessoal de operação e localização do data center também são cruciais para esse objetivo. A classificação tradicional em níveis não engloba esses itens.

Perguntas inevitáveis: como definir esses graus de redundância? Quais sistemas entram na avaliação? E é aí que as coisas complicam, pois existem diversas normas e padrões que definem níveis de redundância, e cada uma responde a essas questões de maneira diferente. Somente para citar as mais conhecidas, tanto o padrão “Tier Standard: Topology”, do Uptime Institute, quanto as normas TIA-942 e BICSI-002, ambas publicadas pela ANSI, definem níveis de redundância, nem sempre compatíveis entre si. Até os nomes diferem, cada qual utiliza um diferente: tier, level e class. Além disso, a BICSI-002 define cinco classes de redundância, enquanto as duas outras definem apenas quatro.

Os sistemas que entram na classificação também nem sempre são os mesmos. Enquanto os níveis do Uptime Institute focam apenas nos sistemas elétricos e mecânicos, os dois outros englobam os sistemas de cabeamento, segurança, arquitetura, dentre outros. E os requisitos para cada nível também não são exatamente os mesmos. Neste artigo, portanto, vamos procurar definir quatro níveis de redundância com o que há de consenso entre esses padrões e normas. Não entraremos em detalhes de cada nível, já que cada norma ou padrão detalha esses níveis de maneira um pouco diferente.

  • Nível 1: este nível na verdade não estabelece nenhum tipo de redundância da infraestrutura. Ele apenas estabelece os requisitos básicos que devem ser cumpridos, em termos de provisionamento de infraestrutura, para termos um data center minimamente disponível. Por exemplo, é necessário que geradores de backup e seus tanques e bombas de combustível, UPS (no-break) e sistemas completos de climatização, os chamados “componentes de capacidade”, existam e estejam corretamente dimensionados para toda a carga crítica de TI prevista para o data center. Um data center nível 1 é capaz de prover alguma disponibilidade dos sistemas de TI, já que possui energia ininterrupta e de backup, além de um clima adequado aos equipamentos, mas não pode manter os serviços durante manutenções preventivas ou corretivas. Adequado, portanto, para pequenas instalações, que não sejam tão críticas ao negócio da empresa.
  • Nível 2: aqui já é especificada uma redundância mínima dos componentes de capacidade, de forma a aumentar a disponibilidade dos serviços de TI. Manutenções preventivas de alguns equipamentos de infraestrutura (como UPS, p.ex.) podem ser realizadas sem prejuízo à disponibilidade. Algumas falhas em equipamentos redundantes também podem não comprometer os serviços críticos, mas não dá para garantir isso, já que geralmente as especificações de nível 2 não pedem para haver redundância nos “caminhos de distribuição” (p.ex., cabos alimentadores elétricos, tubulações de água gelada e backbones ópticos); manutenção ou falha em algum desses caminhos provoca indisponibilidade nos serviços. Dependendo do tipo de manutenção preventiva, também é possível que os serviços precisem ser interrompidos. O nível 2 é adequado para instalações pequenas ou médias onde a criticidade do negócio é maior, não suportando muito bem indisponibilidades durante o horário comercial.
  • Nível 3: um data center nível 3 tem que possuir redundância suficiente para que qualquer (veja bem, eu disse QUALQUER!) manutenção preventiva possa ser realizada na infraestrutura sem que haja a necessidade de se suspender nenhum serviço crítico de TI. Isso é o que chamamos de “manutenção simultânea”. Para tanto, não pode haver nenhum ponto único de falha, requerendo redundância também nos caminhos de distribuição, sendo que a qualquer momento apenas um dos caminhos deve ser necessário para suportar a carga crítica. Para ser efetivo, é preciso que todo equipamento de TI possua fontes redundantes de energia, conectadas a caminhos elétricos diversos. Durante manutenções preventivas, parte dos componentes de capacidade devem ser desligados, e os sistemas críticos de TI devem ser atendidos pelos componentes redundantes. Nesse momento, ele fica mais sujeito a paradas imprevistas, pois a redundância é temporariamente “perdida”. Algumas falhas em componentes de capacidade podem ser cobertas pelos componentes redundantes, mas dependendo da falha, ou se houver mais de uma falha simultânea, o sistema poderá cair. Este é o nível minimo para empresas que funcionam 24×7, sem possibilidade de paradas nos serviços de TI para manutenção da infraestrutura.
  • Nível 4: como vimos, alguns tipos de falha podem tirar um data center nível 3 do ar, como por exemplo um incêndio em uma sala de geradores. Como o nível 4 trata essa possibilidade? Requerendo que, fora da sala de computadores, todos os equipamentos de capacidade redundantes sejam instalados em salas separadas, em zonas de incêndio diferentes. Todo caminho de distribuição redundante externo à sala de computadores também deve manter essa separação. E para os sistemas redundantes entrarem em ação, não podem depender de ações humanas, isso tem que ser automático! Portanto, a ideia é que o nível 4 seja tolerante a falhas. Nenhuma falha isolada, em nenhum dos componentes de capacidade (equipamento ou caminho), pode resultar em indisponibilidade do sistemas críticos. Mesmo um incêndio em uma sala elétrica, já que os sistemas redundantes estarão em outra sala, isolada da primeira. Um exemplo de incidente que pode parar um data center nível 4 é um incêndio na sala de computadores. É um nível indicado para o data center principal de empresas que não podem sobreviver sem os serviços por ele disponibilizados, a todo o tempo.

A forma de implementar cada um desses níveis, quais sistemas são afetados, e o detalhamento das prescrições e recomendações, como já dito, dependem de qual norma ou padrão é utilizado. Algumas entidades possuem programas de certificação, sendo qualificadas a auditar o projeto ou as instalações e, posteriormente, emitir selos de conformidade a algum dos níveis pertinentes.

Mais alguns detalhes importantes sobre níveis de redundância de data centers:

  • Embora não mencionadas aqui, existem outras entidades que possuem métodos de classificação em níveis, como por exemplo o ICREA
  • Essa classificação se aplica a cada data center de maneira isolada, ou seja, dois data centers fisicamente distantes, mas “espelhados” em tempo real, não configuram um nível 3 ou nível 4, cada um deve ser classificado independentemente do outro
  • Os níveis constantes nos padrões aqui expostos não se aplicam aos sistemas de TI em si, apenas aos componentes da infraestrutura, comumente chamados de “facilities”; ou seja, executar sistemas de TI em diferentes servidores do data center, como forma de redundância, não afeta a classificação em níveis e nem é afetado por ela

Links úteis:
Uptime Institute Tier Standard: topology
Informações sobre a norma BICSI-002
Aquisição da norma TIA-942

O tema abordado neste artigo é apenas um dos tópicos que fazem parte do curso DC100 – Fundamentos de infraestrutura de data center. Confira aqui a data e o local da próxima turma desse curso.

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Polaridade em enlaces de fibra óptica dúplex

Você sabe como manter a polaridade em enlaces de fibra óptica dúplex? Como garantir que, ao montar um canal óptico dúplex (enlace mais patch cords de ativação), os equipamentos ativos se comuniquem através de um cabeamento que garanta que cada transmissor seja ligado a um receptor, estabelecendo assim um link up?

A regra geral é sempre fazer um canal óptico crossover, de forma a interligar transmissores com receptores. E para isso existem diversas opções disponíveis e utilizadas pelos instaladores de cabeamento. Vamos explorar as três mais conhecidas:

  • Enlace direto mais patch cords diferentes
  • Enlace com posicionamento simétrico
  • Enlace cruzado com pares invertidos

Cada um tem suas vantagens e desvantagens, e nem todos são normatizados. Vamos entender as diferenças entre esses métodos.

 

Enlace direto mais patch cords diferentes

Esse método, que parece ser um dos mais utilizados dentre os instaladores, não está dentre os recomendados pelas normas de cabeamento, notadamente a ISO/IEC 14763-2 Implementation and operation of customer premises cabling – Part 2: Planning and installation. Esta norma, aliás, está para ganhar uma versão nacional, uma NBR.

Nele, o enlace é instalado de maneira direta, ou seja, as fibras são conectadas aos adaptadores, em ambas as extremidades do cabo, na mesma sequência, em ordem crescente (1, 2, 3, 4…). Para cabos ópticos nacionais, a sequência se iniciaria com as fibras verde, amarela, branca, azul etc., em ambas extremidades da terminação. Para cabos importados, a sequência de cores mudaria, de acordo com a origem e norma correspondente, mas sempre de acordo com a ordem estabelecida pela norma em questão.

O cruzamento do canal acaba sendo realizado através dos patch cords de ativação, sendo que um deve ser direto e o outro, crossover. Se ambos forem iguais (diretos ou cross), o canal não fica cruzado e os ativos não “sobem”.

A principal desvantagem desse método, além de não ser normatizado, é que são necessários dois tipos de patch cords, com diferentes polaridades, o que pode causar problemas durante a operação. A qualquer momento, alguém não treinado no sistema pode querer usar patch cords iguais e o link acaba ficando fora do ar. Além de ser necessário manter dois itens em estoque.

 

Enlace com posicionamento simétrico

Este método é o preferido pela norma IEC 14763-2. Nele, os adaptadores são inseridos no patch panel em uma extremidade do cabo com orientação oposta aos adaptadores da outra extremidade do cabo. Em uma extremidade do cabo, os adaptadores são instalados de forma que a posição A do adaptador corresponda às posições ímpares do painel (ordem A-B, A-B), e na outra extremidade do cabo, os adaptadores são instalados na orientação oposta, de forma que a posição B do adaptador corresponda às posições ímpares do painel (ordem B-A, B-A). Já as fibras são conectadas aos adaptadores, em ambas as extremidades do cabo, na mesma sequência, em ordem crescente (1, 2, 3, 4…), assim como no método visto anteriormente. Mas, diferentemente do método anterior, os patch cords são todos iguais, todos crossover.

E onde se dará o cruzamento? Como os adaptadores em ambas extremidades ficam invertidos entre si, de um lado o patch cord é conectado também de forma invertida em relação ao outro lado.

Este método tem a grande vantagem de requerer apenas um tipo de patch cord, não estando sujeito a enganos na hora da ativação, pois os patch cords geralmente só conseguem ser inseridos de uma maneira, por causa das guias dos conectores. Mas, este método não consegue ser aplicado quando são utilizados patch panels que não permitem a inversão de polaridade dos adaptadores. Neste caso, deve-se usar o método seguinte.

 

Enlace cruzado com pares invertidos

Este método também está presente na norma IEC 14763-2. Nele, adaptadores são instalados no patch panel em uma extremidade do cabo com a mesma orientação dos adaptadores da outra extremidade do cabo. O cruzamento se dará na sequência das fibras. As fibras ópticas são conectadas nos adaptadores na sequência numérica normal em uma extremidade do cabo e com inversões par-a-par na outra extremidade. Para cabos nacionais, ficaria verde-amarela, branca-azul etc. de um lado e amarela-verde, azul-branca etc. do outro lado. Aqui, como no método anterior, todos os patch cords também são iguais.

A vantagem deste método é similar à anterior, teremos apenas um tipo de patch cord. A desvantagem é que na hora de testar (ou ativar) uma única fibra, ela estará em posição diferente, quando comparamos as duas extremidades, o que vai requerer um trabalho de identificação mais preciso fibra a fibra.

 

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Padrões Ethernet sobre um par

Todos os profissionais da área de infraestrutura de TI conhecem os clássicos padrões de rede Ethernet que utilizam dois ou quatro pares de cabos de par trançado, como por exemplo:

  • 10BASE-T: Ethernet a 10 Mb/s em 2 pares
  • 100BASE-TX: Ethernet a 100 Mb/s em 2 pares
  • 1000BASE-T: Ethernet a 1 Gb/s em 4 pares
  • 10GBASE-T: Ethernet a 10 Gb/s em 4 pares

Mas com o avanço da Internet das coisas (IoT) e da Indústria 4.0, o protocolo Ethernet tem evoluído e se adaptado para atender a dispositivos cada vez mais diversos e inusitados, como sensores ambientais, de presença e luminosidade, máquinas de todos os tamanhos, luminárias, sistemas de som e de alarme, equipamentos audiovisuais e de telemedicina, relógios e muitos outros.

Só que nem todos esses equipamentos precisam das altas velocidades disponibilizadas pelo 10GBASE-T, e nem todos podem ser limitados aos 100 metros tradicionais. Por outro lado, alguns dispositivos geralmente estão bem próximos (como dentro de um automóvel), então porque precisar de um padrão elaborado para 100 metros e suas limitações?

E ainda há o problema do tamanho dos cabos. Com a utilização maciça do Ethernet em edifícios inteligentes, em veículos e em ambientes industriais, o espaço necessário para os caminhos que transportam cabos de quatro pares passa a ser um empecilho.

Com tudo isso em mente, novos padrões Ethernet que utilizam apenas um par trançado estão surgindo. Alguns exemplos:

  • 10BASE-T1, padrão IEEE 802.3cg para 10 Mb/s (previsto para 2019)
  • 100BASE-T1, padrão IEEE 802.3bw para 100 Mb/s (aprovado em 2015)
  • 1000BASE-T1, padrão IEEE 802.3bp para 1 Gb/s (aprovado em 2016)

Todos trabalham com cabos contendo apenas um par trançado, com bitolas de condutor entre 18 e 24 AWG, frequências de transmissão entre 1 MHz e 1000 MHz, e para distâncias de canal entre 10 m e 1000 m.

Esses padrões são chamados de single-pair Ethernet (SPE), e estão sendo desenvolvidos pelo IEEE (Institute of Electrical and Electronics Engineers), com suporte da TIA (Telecommunications Industry Association), ISO (International Organization for Standardization), ODVA (Open DeviceNet Vendors Association) e OPEN (One-Pair Ether-Net), dentre outros. Aliás, é o desenho de um carro dotado de Ethernet sobre um par da aliança OPEN que ilustra este artigo.

Além dos padrões de dados acima expostos, em 2016 o IEEE também publicou o padrão 802.3bu, para alimentação elétrica sobre cabos de um par, chamado de PoDL (Power over Data Lines), similar ao que o PoE (Power over Ethernet) representa para os cabos de quatro pares. O PoDL pode trabalhar com tensões entre 5,5 V e 60 V em corrente contínua, fornecendo potências entre 0,5 W e 50 W, dependendo da bitola dos fios e do comprimento do canal.

As comissões de estudo de cabeamento da ISO e da TIA estão trabalhando para publicar novas normas e boletins técnicos para suplementar as normas existentes de forma a acomodar essas novas necessidades, incluindo aspectos como:

  • Especificações para cabos, conectores, patch cords e enlaces de um par em cobre
  • Requisitos de desempenho e procedimentos de teste
  • Topologia e arquitetura
  • Transições de cabos de quatro pares para cabos de um par, incluindo compartilhamento de capa e utilização de equipamento ativo na transição
  • Conexão direta dos dispositivos nas áreas de serviço

Todos esses novos padrões, de cabeamento e de aplicações, voltados a comunicações em canais de um par, facilitarão a adoção do Ethernet como tecnologia padrão para sistemas de comunicação em indústrias, veículos e edifícios inteligentes, em adição à sua já completa hegemonia nas redes corporativas de voz e dados.

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br