Optical Loss Budget Calculation

On 21/Mar/2019, I wrote an introductory article on the “Optical Loss Budget” (http://www.claritytreinamentos.com.br/2019/03/21/optical-loss-budget-an-introduction/), where I present what an optical loss budget is and what’s its purpose. In this article, we will address how to calculate it.

To recall, the “optical loss budget” is a calculation performed to estimate what will be the total attenuation of a fiber optic link even before it is installed. Among its purposes, we can emphasize two:

  • Verify that the optical link being designed meets the requirements of the applications that will run on it. If the calculated loss budget is greater than the loss margin allocated for the cabling of the intended application (e.g. 10GBASE-SR), the link may show data loss and even “go down”;
  • Establish a threshold that will be used during the performance of acceptance tests of the installed link. When testing the link with a PMLS (power meter + light source), if the measured attenuation is greater than the project’s loss budget, then we will know that something has failed during installation: the material and/or the labor were less than reasonable.

But how to calculate the optical loss budget? First, we must know exactly which optical components will be used in the link. If possible, know the exact brand name and model. Usual components are:

  • Fiber optic cable
  • Connectors
  • Splices
  • Splitters
  • Other passive components (e.g. taps and attenuators)

Next, we must determine the loss (attenuation) that each of these components will present when installed on the link. This information can be obtained from the technical specification sheets of the selected components. Caution: the attenuation may be different depending on the wavelength of light used.

The calculation must be carried out at all wavelengths intended to be used in the link. As a minimum, test:

  • multimode fibers in wavelengths 850 nm and 1300 nm;
  • single-mode fibers in wavelengths 1310 nm and 1550 nm.

If the part numbers of the components are not yet known, use standard market values or values specified by national or international cabling standards.

Examples of standard attenuation values established by ISO/IEC 11801-1:2017:

  • Coupled connectors:                       0.75 dB
  • Splice:                                             0.3 dB
  • Multimode fiber OM1 thru OM4: 3.5 dB/km (850 nm) and 1.5 dB/km (1300 nm)
  • Multimode fiber OM5:                   3.0 dB/km (850 nm) and 1.5 dB/km (1300 nm)
  • Single-mode fiber OS1a:                 1.0 dB/km (1310 nm and 1550 nm)
  • Single-mode fiber OS2:                   0.4 dB/km (1310 nm and 1550 nm)

We also need to know the total length of the complete link, in kilometers. That is because the loss of the “fiber optic” component will be proportional to its length (so the loss is given in “dB/km” as seen above).

Based on this information, we add all the values for the link to obtain its loss budget, in decibels (dB).

Example 1: A 3,000 m link made of OS2 single-mode fiber, terminated in pigtails spliced at both ends inside optical trays, whose connectors will be coupled to the front panel adapters. There will be a splice in the middle of the link:

Optical fiber loss: 3 km X 0.4 dB/km = 1.2 dB

Connector loss: 2 X 0.75 dB = 1.5 dB

Splice loss: 3 X 0.3 dB = 0.9 dB

Loss budget (1310 nm and 1550 nm): 1.2 + 1.5 + 0.9 = 3.6 dB

Example 2: A 200 m link made of OM3 multimode fiber, terminated in field polished connectors at both ends, coupled to the front panel adapters. No splices used:

Optical fiber loss @ 850 nm: 0.2 km X 3.5 dB/km = 0.7 dB

Optical fiber loss @ 1300 nm: 0.2 km X 1.5 dB/km = 0.3 dB

Connector loss: 2 X 0.75 dB = 1.5 dB

Loss budget @ 850 nm: 0.7 + 1.5 = 2.2 dB

Loss budget @ 1300 nm: 0.3 + 1.5 = 1.8 dB

As already mentioned, the values obtained should be compared to the applications specifications and to the values measured during the certification of the installed link.

If the measured value is greater than the calculated loss budget, check the installed material, the fiber route, the cleaning of the connectors and the quality of the splices. If necessary, use an OTDR to find the locations that exhibit losses above the expected.

If you found this post useful, share it, forward it to someone who might also find it useful.

See you next time.

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design, Assessor CEEDA
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

About the author

Marcelo Barboza, Structured Cabling instructor since 2001, graduated in Mackenzie University, has more than 30 years of experience in IT, member of BICSI, member of the ABNT/COBEI Committee of Studies on Structured Cabling (Brazilian Standards organization), certified by BICSI (RCDD, DCDC and NTS), Uptime Institute (ATS), and DCProfessional (Data Center Specialist – Design). Authorized instructor for selected courses of DCProfessional, Fluke Networks and Clarity Treinamentos.

Optical Loss Budget – An Introduction

When designing a fiber optic link, how to ensure that there will be enough light for the application to work? Or, after installing the optical link, how to ensure that the material has of good quality and that the workforce used in the installation followed all the recommendations and good practices?

Each application (or physical network protocol, such as Ethernet, for example) for fiber optics establishes a maximum attenuation (or loss) in the channel for it to work without performance degradation. If the channel attenuation is higher than the expected, the bit error rate (BER) begins to increase, causing network slowdowns and eventually dropping the link.

Each optical component bought and installed must also have a maximum expected loss, defined in structured cabling standards. When acquiring and installing optical links, we should know what this loss is, so we can compare it to the measurements performed at the time of network certification. If the measured loss is greater than expected, whether the material acquired is not so good, or the manpower used in the installation did not follow the normative recommendations and the respective suppliers. In this case, the link may not be able to receive the extended warranty from the manufacturer.

It is precisely for this that there is such a thing as the “optical loss budget”, a calculation of how much loss an optical link should present, at maximum, to ensure the quality of the installation and the operation of the network.

See you next time!

Marcelo Barboza, RCDD, DCDC, NTS, ATS
Clarity Treinamentos

NEXT vs. FEXT

O “par trançado” é um dos meios físicos mais utilizados nas instalações de cabeamento estruturado. Popularmente conhecido como “UTP” (embora algumas vezes seja composto por cabos blindados, e UTP se refira apenas aos não blindados), hoje permite a transmissão de dados a velocidades de 10 gigabits por segundo ou mais em enlaces de até 100 metros.

Mas, nem tudo são flores. Se não forem utilizados produtos de boa qualidade, ou se o procedimento de instalação não for corretamente seguido, problemas podem ocorrer. É por isso que, após a instalação, são realizados testes de certificação. São diversos testes, mas neste artigo abordaremos dois deles, o NEXT e o FEXT. Vocês sabe o que são eles? Quais as semelhanças e as diferenças entre eles?

Ambos são parâmetros que medem a “diafonia” (“crosstalk”, em inglês, abreviado como “XT”), ou seja, a interferência eletromagnética que o sinal trafegado por um par de fios trançados provoca em outro par do cabo. Qual o problema da diafonia? Por que ela é indesejável?

Cada par de um cabo interliga um equipamento transmissor (TX, que está em uma extremidade do cabo) a um equipamento receptor (RX, na outra extremidade do cabo), ambos componentes de equipamentos de comunicações, como uma placa de rede ou porta de switch, por exemplo.

Só que em uma transmissão de rede, pelo menos dois dos pares do cabo são utilizados simultaneamente. Em uma transmissão Ethernet a 1 Gb/s (ou mais), são utilizados os quatro pares do cabo. Ou seja, dois ou mais TX transmitem simultaneamente para seus respectivos RX.

Só que cada RX está interessado apenas no sinal enviado pelo TX correspondente, que está do outro lado do par/cabo. Se o sinal transmitido por um TX, através de um par, “vaza” para outro par, acaba chegando em outro RX, que não era o destinatário original da mensagem. Pior, o RX acaba recebendo pelo menos dois sinais: o desejado, isto é, aquele enviado pelo TX correspondente, mais um, indesejado, enviado por outro TX (que é a diafonia/XT), e acaba somando e, portanto, confundindo ambos! Se a intensidade da diafonia for próxima à do sinal desejado, o RX não conseguirá distinguir dentre ambos e rejeitará o sinal por completo. Se isso ocorrer com frequência, a velocidade da transmissão cairá e, eventualmente, a conexão será interrompida.

Agora que já sabemos o que é diafonia e como ela pode afetar a transmissão, vamos perceber que há dois tipos de medições realizadas de diafonia: NEXT e FEXT.

O NEXT (near-end crosstalk) mede a diafonia que afeta o RX que está localizado na mesma extremidade do cabo (“extremidade próxima” ou “near end”) em relação ao TX que causou essa diafonia. Ou seja, o NEXT mede a interferência que um equipamento transmissor causa no cabo e acaba afetando a habilidade do próprio equipamento de entender sinais provenientes da outra extremidade do cabo.

Já o FEXT (far-end crosstalk) mede a diafonia que afeta o RX que está localizado na extremidade oposta do cabo (“extremidade distante” ou “far end”) em relação ao TX que causou essa diafonia. Ou seja, o FEXT mede a interferência que um equipamento transmissor causa no cabo e acaba afetando a habilidade do equipamento oposto de entender seus sinais.

Em português, o NEXT é chamado de “paradiafonia”, enquanto o FEXT é a “telediafonia”. Ambos medem as consequências do mesmo fenômeno, que é a diafonia.

Ambos os testes devem ser realizados bidirecionalmente, ou seja, enviando-se sinal a partir de ambas as extremidades do cabo. Isso ocorre porque o próprio sinal indesejado (resultado da diafonia) sofre atenuação ao longo do cabo até chegar em algum RX. Por exemplo: um dano ao cabo que aumente a diafonia causará um NEXT muito mais elevado quando este for medido a partir da extremidade do cabo que estiver mais próxima a esse dano.

As medições de NEXT e FEXT são reportadas em combinações de dois pares ou somadas para todos os pares do cabo (“powersum”). A unidade de medida utilizada é o decibel (dB), resultado da comparação na intensidade do sinal transmitido com a do sinal indesejado recebido. O FEXT usualmente é reportado apenas após a computação da Perda de Inserção, resultando no ACR-F, mas isso já é um assunto para outro artigo!

Para saber mais sobre os testes realizados em enlaces de par trançado, não perca o lançamento do curso SCE331. Aqui você poderá ver um trailer desse curso. E aqui você poderá realizar gratuitamente uma auto-avaliação sobre seus conhecimentos na área de testes de cabos de par trançado.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design, Assessor CEEDA
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Cálculo do balanço de perda óptica

Em 04/abr/2017, escrevi um artigo sobre o “balanço de perda óptica” (http://www.claritytreinamentos.com.br/2017/04/04/balanco-de-perda-optica/), onde conceituo o que ele é e para que serve. Neste artigo, vamos abordar a sua forma de cálculo.

Para recordar, o “balanço de perda óptica” é um cálculo realizado para estimar qual será a atenuação total de um enlace em fibra óptica antes mesmo de ser instalado. Dentre suas finalidades, podemos ressaltar duas:

  • Verificar se o enlace óptico sendo projetado atenderá aos requisitos das aplicações que nele rodarão. Se o cálculo do balanço for superior à margem de perda alocada para o cabeamento da aplicação pretendida (ex.: 10GBASE-SR), o link poderá apresentar perda de dados e até mesmo nem “subir”;
  • Estabelecer um limite que será utilizado durante os testes de aceitação do enlace instalado. Ao testar o link com um PMLS (power meter + light source), se a atenuação medida for superior ao balanço de perda do projeto, então saberemos que algo falhou na execução: o material e/ou a mão-de-obra envolvidos.

Mas, como calcular o balanço de perda óptica? Primeiramente, temos que saber exatamente quais os componentes ópticos que serão utilizados no enlace, de preferência com marca e modelo. Componentes usuais:

  • Fibra óptica
  • Conectores
  • Emendas
  • Splitters
  • Outros componentes passivos (como taps e atenuadores, por exemplo)

Em seguida, devemos determinar a perda (atenuação) que cada um desses componentes apresentará ao ser instalado no enlace. Essa informação pode ser obtida nos folhetos de especificações técnicas dos componentes escolhidos. Atenção: a atenuação poderá ser diferente dependendo do comprimento de onda de luz utilizado.

O cálculo deve ser realizado em todos os comprimentos de onda previstos a serem utilizados no enlace em questão. No mínimo, testar:

  • Fibras multimodo nos comprimentos de onda 850 nm e 1300 nm;
  • Fibras monomodo nos comprimentos de onda 1310 nm e 1550 nm.

Se as marcas e modelos dos componentes não forem ainda conhecidos, utilizar valores padrões de mercado e/ou especificados pelas normas nacionais/internacionais correspondentes.

Exemplos de valores de atenuação padrões estabelecidos pela norma ISO/IEC 11801-1:2017, e que possivelmente estarão na próxima revisão da norma nacional ABNT/NBR 14565:

  • Par de conectores acoplados: 0,75 dB
  • Emenda: 0,3 dB
  • Fibra MM, OM1 a OM4: 3,5 dB/km (850 nm) e 1,5 dB/km (1300 nm)
  • Fibra MM, OM5: 3,0 dB/km (850 nm) e 1,5 dB/km (1300 nm)
  • Fibra SM, OS1 e OS1a: 1,0 dB/km (1310 nm e 1550 nm)
  • Fibra SM, OS2: 0,4 dB/km (1310 nm e 1550 nm)

Precisamos saber também o comprimento total do enlace final, em quilômetros. Pois a perda do componente “fibra óptica” será proporcional ao seu comprimento (por isso a perda é dada em “dB/km”, como visto acima).

Com base nessas informações, somamos todos os valores para o enlace para a obtenção do balanço de perda, em decibéis (dB).

Exemplos:

1 – Enlace composto por 3.000 m de fibra monomodo OS2 terminada em ambas as extremidades dentro de distribuidores ópticos (DIO) através da fusão de pigtails, cujos conectores serão acoplados na parte interna dos adaptadores frontais do DIO; haverá uma fusão no meio da rota

Perda da fibra óptica: 3 km X 0,4 dB/km = 1,2 dB
Perda das conexões: 2 X 0,75 dB = 1,5 dB
Perda das emendas: 3 X 0,3 dB = 0,9 dB
Balanço da perda (1310 nm e 1550 nm): 1,2 + 1,5 + 0,9 = 3,6 dB

2 – Enlace composto por 200 m de fibra multimodo OM3 terminada em ambas as extremidades dentro de distribuidores ópticos (DIO) através da terminação direta em conectores (processo de cola e polimento), e eles serão acoplados na parte interna dos adaptadores frontais do DIO

Perda da fibra óptica a 850 nm: 0,2 km X 3,5 dB/km = 0,7 dB
Perda da fibra óptica a 1300 nm: 0,2 km X 1,5 dB/km = 0,3 dB
Perda das conexões: 2 X 0,75 dB = 1,5 dB
Balanço da perda a 850 nm: 0,7 + 1,5 = 2,2 dB
Balanço da perda a 1300 nm: 0,3 + 1,5 = 1,8 dB

Os valores obtidos, como já mencionado, deverão ser comparados às especificações das aplicações e aos valores medidos durante a certificação do enlace instalado.

Se o valor medido for superior ao balanço de perda calculado, verifique o material instalado, a rota da fibra, a limpeza das conexões e a qualidade das emendas. Se for o caso, utilize um OTDR para encontrar os locais que apresentam perdas acima do esperado.

Saiba mais sobre o balanço de perda óptica no curso rápido online SCE335, e sobre os testes com PMLS no curso rápido online SCE333. Ao final de cada curso, você poderá baixar materiais de referência, realizar avaliações e, se for bem nelas, ainda receberá certificados de conclusão!

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima! Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design, Assessor CEEDA
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

A medição do PUE de um data center

No artigo publicado em 16 de maio de 2018, em meu blog (http://www.claritytreinamentos.com.br/2018/05/16/pue-uma-metrica-de-eficiencia-do-data-center/), expliquei o conceito da métrica PUE, cobrindo sua definição, princípio de cálculo e principais finalidades. Aqui, vou elaborar mais sobre o tema, explorando detalhes sobre sua medição e cálculo.

Como vimos, o PUE mostra o overhead de energia gasto em relação aos sistemas de TI. Esse overhead representa a energia gasta nos sistemas que auxiliam na contínua operação dos sistemas críticos de TI, incluindo, mas não necessariamente se limitando a:

  • Energia gasta na refrigeração/ventilação dos equipamentos de TI e dos equipamentos necessários ao seu funcionamento, incluindo bombas, chillers, ventoinhas, torres de resfriamento, fancoils, evaporadoras e condensadoras
  • Perdas elétricas nos equipamentos, cabos e conexões da distribuição elétrica (ex.: UPS, quadros elétricos, transformadores, geradores etc.)
  • Alimentação elétrica de sistemas auxiliares necessários, como alarmes de incêndio, controle de acesso e automação
  • Iluminação das salas que compõem o data center

Ao computar a energia gasta pelos sistemas de TI, deve-se considerar, para além de servidores, armazenamento e comunicações (switches e roteadores), todo o equipamento de TI suplementar, como monitores, chaveadores KVM, estações de monitoramento etc., desde que necessários à operação dos serviços críticos.

Então, um data center com PUE 1,60 significa que 60% de toda a energia por ele consumida é gasta por esses sistemas acima listados como overhead. Obviamente, quanto mais perto de 1,00, mais eficiente esses sistemas serão ao atenderem as necessidades de TI.

Mas, onde medir o consumo de TI e qual a unidade utilizada? A primeira edição do PUE descrevia somente uma relação entre picos de demanda. Ou seja, durante um período de avaliação (por exemplo, durante um mês), é anotado o pico de demanda total do data center (DEM_TOT) e o pico de demanda dos equipamentos de TI (DEM_TI), ambos medidos em kW. O PUE seria então DEM_TOT/DEM_TI. Exemplo: pico de demanda do data center durante um ano = 500 kW, pico de demanda de TI durante esse ano = 300 kW; PUE = 500/300 = 1,67.

Posteriormente, foi lançada a segunda versão do PUE, em três níveis, 1, 2 e 3. Esse novo PUE (versão 2) prefere que o cálculo seja feito com dados de consumo, em kWh, e não de demanda, como anteriormente. Então, durante o período de avaliação, é medido o consumo elétrico total do data center (CONS_TOT) e o dos equipamentos de TI (CONS_TI). O PUE é agora CONS_TOT/CONS_TI. Exemplo: consumo elétrico total do data center durante um ano = 4.500.000 kWh, consumo elétrico de TI durante esse ano = 2.600.000 kWh; PUE = 4.500.000/2.600.000 = 1,73. Esta maneira é superior à anterior, pois utiliza o consumo total, que já contabiliza todos os picos, vales e sazonalidades ocorridas durante o período.

Os três níveis do PUE versão 2 se referem ao local onde deve ser medido o consumo de TI, bem como periodicidade mínima da medição (se usada a demanda pontual):

  • PUE1: nível 1; medição na saída do UPS; se medido como demanda (kW), a periodicidade deve ser mensal ou semanal
  • PUE2: nível 2; medição na saída do PDU; se medido como demanda (kW), a periodicidade deve ser diária ou horária
  • PUE3: nível 3; medição na tomada elétrica dos equipamentos de TI (nos racks); se medido como demanda (kW), a periodicidade deve ser de 15 minutos ou menos

Atualmente, o PUE também é definido na norma ISO/IEC 30134-2 – Power usage effectiveness (PUE).

A medição do consumo total deve ser sempre realizada na entrada do data center. Deve-se deduzir daí toda energia utilizada para outros sistemas não relacionados ao data center, se existirem.

Quanto mais perto da carga de TI for a medição, ou seja, quanto maior o nível do PUE, mais precisa será a métrica ao identificar as perdas decorrentes do overhead das instalações.

Quando a medição for realizada por consumo (kWh), é importante manter o cálculo do PUE trimestral de cada estação climática do ano, bem como o anual, de forma a ressaltar (trimestral) e a nivelar (anual) os efeitos da temperatura externa no PUE.

Como curiosidade, e a nível de ilustração, podemos consultar o PUE dos data centers da Google aqui: https://www.google.com/about/datacenters/efficiency/internal/. Ali podemos ver o gráfico dos cálculos anuais e trimestrais do PUE.

O PUE1 e o PUE2 até admitem ter suas medições de consumo realizadas de forma manual, em rondas periódicas. É relativamente fácil obter dados de consumo de TI para o PUE1, pois todos os UPS já vêm com recursos para informar os dados de fornecimento de energia. Para o PUE2, é necessária a instalação de medidores nos quadros principais de distribuição de energia ininterrupta para o data center (PDU).

O PUE3, por sua granularidade (medição em cada rack de TI), deve necessariamente ser medido de forma automática. Isso não deve ser um problema, pois para o PUE3 é necessária a utilização de “PDU inteligente de rack” em todos os racks, os quais já são naturalmente dotados de capacidade remota de monitoramento, via SNMP ou equivalente. Porém, isso torna a instalação mais cara, portanto não é uma solução viável para muitos data centers.

Se o data center adquirir outros recursos utilizados para alimentação elétrica ou refrigeração, como diesel ou gás (para geração local regular), ou água potável (para refrigeração), a energia embutida em tais insumos também deve ser contabilizada na energia total consumida pelo data center. A norma do PUE inclui fatores para a conversão dessa energia embutida em energia a ser contabilizada pelo PUE.

O PUE, em princípio, não deve ser utilizado para comparar instalações diferentes, a não ser que a metodologia de todos os locais seja compatibilizada. O PUE é bastante útil para servir de base para o próprio data center medir sua evolução com o tempo e após alterações significativas da instalação.

Mas, atenção, o PUE não mede a eficiência elétrica dos equipamentos de TI! O aumento da eficiência de TI (com o uso de técnicas de consolidação e virtualização, por exemplo) reduzirá o consumo elétrico do data center, mas, se não houver um correspondente ajuste no parque eletromecânico, o PUE poderá aumentar, mesmo que o consumo total da instalação tenha diminuído.

Por outro lado, aumentar muito a temperatura de fornecimento do ar condicionado, para a faixa “permitida” da ASHRAE, poderá proporcionar uma boa economia no gasto energético da refrigeração. Mas, dependendo da temperatura e nível de carga dos servidores, pode ser que suas ventoinhas sejam aceleradas ao máximo, para compensar esse aumento. Isso pode levar a um consumo extra que anula os ganhos com a redução da refrigeração, levando a um maior consumo do data center. Nesse caso, paradoxalmente, o PUE pode melhorar, pois o consumo das ventoinhas dos servidores é contabilizado como consumo de TI!

Ou seja, o PUE não deve ser o único recurso para acompanhar a eficiência elétrica do data center. Ele deve sempre ser acompanhado por outros indicadores, como o consumo elétrico total e índices de eficiência dos equipamentos de TI, como por exemplo o ITEU e o ITEE, também definidos na norma ISO/IEC 30134.

Seguem os links para os sites onde se pode adquirir os documentos aqui citados:

The Green Grid® – PUE: https://www.thegreengrid.org/en/resources/library-and-tools/20-PUE%3A-A-Comprehensive-Examination-of-the-Metric

Norma ISO/IEC 30134-2:2016: https://www.iso.org/standard/63451.html

A medição do PUE é apenas um dos itens avaliados para a obtenção do único selo de eficiência energética para data centers, o CEEDA. Mais informações, aqui: http://www.ceedacert.com/

O cálculo do PUE é abordado nos cursos DCDA e EnergyPro, do DCProfessional. Mais informações, aqui: https://www.br.dcpro.training/

 

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design, Assessor CEEDA
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Uma introdução ao PoE – Power over Ethernet

Há muito tempo o cabo de cobre balanceado, mais conhecido como “cabo de par trançado” ou simplesmente UTP, é utilizado para a transmissão simultânea de informações e energia ao dispositivo remoto. Um exemplo clássico é o velho sistema analógico de telefonia, conhecido na bem-humorada sigla em inglês por POTS (Plain Old Telephone Service, ou ‘velho e simples serviço de telefonia’), onde o aparelho telefônico recebe, junto com os sinais de voz, uma alimentação elétrica em corrente continua proveniente da central, tudo pelo mesmo par de fios de cobre.

Sistemas privados de telefonia analógica (os onipresentes sistemas de PABX) também utilizam essa técnica de energização de aparelhos. Alguns sistemas utilizam até um par adicional do cabo para realizar a alimentação de alguns aparelhos mais “potentes”, como os ramais digitais ou sistemas KS.

Mais recentemente, sistemas de CFTV também começaram a utilizar pares do cabo para alimentar as câmeras através dos cabos de sinal de vídeo. Outros dispositivos utilizados em sistemas de automação também costumam utilizar essa técnica.

E qual a vantagem de se prover a alimentação elétrica ao dispositivo final remotamente, através do cabo de comunicação? Podemos ressaltar algumas:

  • Evitar a necessidade de tomada elétrica ao lado de cada dispositivo e respectiva distribuição de cabos e sua proteção;
  • Evitar a instalação de fontes de energia individuais em cada dispositivo, o que representaria menor eficiência e mais pontos de falha em relação a ter uma fonte centralizada;
  • Possibilidade de dotar todos os dispositivos com energia de backup (UPS e/ou gerador) de maneira central;
  • A distribuição de energia em corrente contínua a tensões usualmente menores que 50 V é mais segura.

O problema é que historicamente nunca houve uma maneira padronizada de realizar essa alimentação elétrica pelos cabos de dados. Cada fabricante tinha sua própria solução, cada qual utilizando fios, tensões, correntes e proteções únicos, impossibilitando a interoperabilidade.

Com a universalização do protocolo Ethernet (para dados, sons, imagens e controles), tornou-se possível a padronização da alimentação elétrica remota por esse protocolo. Essa técnica de alimentação elétrica através de enlaces de comunicação Ethernet por cabos de par trançado ficou conhecida como PoE – Power over Ethernet. A primeira versão do PoE foi lançada em 2003, sob o padrão IEEE 802.3af. A versão seguinte veio em 2009, com o padrão IEEE 802.3at, ficando conhecido como PoE+ (PoE plus).

Algumas características básicas desses dois padrões de PoE:

  • Ambos utilizam dois pares do cabo para alimentação em corrente contínua;
  • O equipamento que energiza o cabo (geralmente um switch ou um injetor de potência) é chamado de Power Sourcing Equipment (PSE);
  • O equipamento energizado (telefone, câmera, ponto de acesso Wi-Fi etc.) é chamado de Powered Device (PD);
  • O enlace deve ter 100 m ou menos de cabo de par trançado, com componentes e topologia compatíveis com as normas de cabeamento estruturado (tais como ISO/IEC 11801, ABNT/NBR 14565 e ANSI/TIA-568);
  • O padrão PoE garante até 12,95 W no PD, enquanto o PoE+ garante até 25,50 W no PD;
  • A alimentação elétrica pode seguir em pares distintos dos de dados (Modo B, para injetores PoE ou PoE+ em velocidades de 10 ou 100 Mb/s) ou simultaneamente pelos mesmos pares (Modo A, para switches PoE ou velocidades iguais ou superiores a 1 Gb/s).

As figuras abaixo mostram os dois modos de energização PoE e PoE+, o Modo A (quando o switch já tem o recurso PoE, técnica chamada de “endspan”) e Modo B (quando é utilizado um injetor PoE entre o switch e o PD, técnica chamada de “midspan”):

Esquema de utilização dos pares para energia e dados

Endspan

Midspan

O PoE+ foi um avanço, pois muitos dispositivos que não conseguiam ser alimentados com menos de 13 W passaram a poder utilizar esse recurso, como câmeras motorizadas (PTZ) e telefones VoIP com grandes telas touchscreen. Mas alguns equipamentos ainda ficaram de fora por necessitarem mais energia, como luminárias LED, monitores de TV e estações de trabalho. Para resolver isso, está em fase final de elaboração o padrão IEEE 802.3bt, que utiliza os quatro pares do cabo para alimentação elétrica, simultaneamente aos dados em Ethernet. Esse novo padrão está sendo referenciado como PoE++ (PoE plus plus) ou 4PPoE (four pair PoE).

O padrão 4PPoE trará duas novas classes de alimentação elétrica:

  • Tipo 3: até 51 watts no PD
  • Tipo 4: até 71 watts no PD
  • Os tipos 1 e 2 são compatíveis com os níveis dos padrões PoE e PoE+, respectivamente

Com esse padrão, será possível dotar quase qualquer equipamento ou dispositivo de comunicação ou automação de um ambiente comercial ou residencial com rede Ethernet de até 10 Gb/s e alimentação elétrica, tudo através de um único cabo de rede, por meio de uma conexão padrão “RJ45”. O 4PPoE possibilitará a instalação de maneira simples, e alimentados unicamente por cabos de par trançado, dos mais diversos equipamentos comuns nos escritórios atuais, para além dos telefones, câmeras e antenas Wi-Fi, tais como:

  • Thin clients
  • Monitores de TV
  • Estações de reserva de salas de reunião
  • Pontos de autoatendimento
  • Luminárias LED inteligentes
  • Leitores de cartão, senha e biometria
  • Alto-falantes
  • Relógios
  • Repetidores internos de sinal de celular
  • Dispositivos DAS – Distributed Antenna System
  • Sensores (iluminação, presença, temperatura, umidade, movimentação, contaminantes etc.)
  • Controladores (controle de acesso, VAV, persianas automatizadas, registros e disjuntores motorizados etc.)
  • Carregadores de celular

Particularmente, as luminárias LED inteligentes (dotadas de sensores e controles) e os dispositivos IoT, tornados possíveis principalmente por causa do PoE, têm o potencial de expandirem enormemente a demanda por cabeamento estruturado nas corporações. Empresas como Cisco já lançaram switches PoE próprios para tais aplicações, aptos a serem instalados por sobre forros, para atenderem às aplicações distribuídas pelo teto. Veja este vídeo sobre o edifício The Edge, de Amsterdam, que utiliza um sistema inteligente de iluminação suportado por PoE.

Até aqui, alguns pontos a ressaltar:

  • O PoE (e suas novas versões) não é um sistema qualquer de energização por cabo de par trançado, mas sim uma técnica específica, padronizada pelo IEEE, para ser utilizada com equipamentos Ethernet em cabeamento estruturado;
  • O protocolo de sinalização do PoE somente injeta potência no cabo se o PSE detectar um PD compatível. Ou seja, você não tomará choque se segurar um cabo UTP decapado cuja outra extremidade esteja conectada a um switch/injetor PoE.

A tabela abaixo mostra um resumo das principais características do PoE (lembrando que até a data que este artigo foi escrito, o padrão 4PPoE ainda não havia sido publicado, a previsão era de até o final de 2018):

Padrão IEEE 802.3af

PoE

IEEE 802.3at

PoE+

IEEE 802.3bd

4PPoE

IEEE 802.3bd

4PPoE

Tipo 1 2 3 4
Pares energizados 2 2 4 4
Faixa de tensão no PSE (Vcc) 44 a 57 50 a 57 50 a 57 52 a 57
Corrente máx. por par (mA) 350 600 600 960
Potência máx. fornecida pelo PSE (W) 15,4 30,0 60,0 100
Potência mín. fornecida ao PD (W) 12,95 25,5 51,0 71,0

Note que há uma diferença entre a potência fornecida pelo PSE e a garantida ao PD, pois há uma queda de tensão no caminho provocada pelo cabeamento instalado. Para que a queda não seja superior a essa, instalar sempre o cabeamento conforme as normas correspondentes e técnicas recomendadas pelos respectivos fabricantes.

O PoE padronizado pelo IEEE não é o único padrão existente de alimentação elétrica sobre cabos de par trançados. Há três outros dignos de nota:

  • UPOE (Universal PoE), lançado pela Cisco em 2011, pode fornecer até 60 W sobre cabeamento de par trançado a partir de switches compatíveis, como as séries Catalyst 4500E Series e Catalyst 3850;
  • POH (Power over HDBaseT), suportado pela HDBaseT Alliance, é um padrão baseado no PoE+ que permite o fornecimento de até 100 W em quatro pares sobre comunicações de áudio e vídeo pelo padrão HDBaseT, que utiliza cabos de par trançado (mín. Cat.5e) para trafegar vídeo de alta resolução, Ethernet a 100 Mb/s e sinais de controle entre equipamentos e dispositivos de entretenimento (segundo a última especificação Energy Star, nenhuma TV de até 60 polegadas pode consumir mais do que 100W);
  • PoDL (Power over Data Line), será um padrão semelhante ao PoE, mas para energizar enlaces dos novos protocolos Ethernet sobre cabos de um par trançado, como o 100BASE-T1 e o 1000BASE-T1, trabalhando com tensões de até 60 V e potências de até 50 W no PD.

Existem alguns cuidados que devem ser tomados em projetos para utilização do PoE em larga escala, principalmente quando se tem em mente o 4PPoE. Agrupar os cabos de par trançado em feixes provocará um aumento de sua temperatura, proporcional à quantidade de cabos agrupados, corrente transferida (tipo de PoE) e capacidade de dissipação térmica do cabo e do caminho onde o feixe é instalado. Normas começam a surgir (como a ANSI-TIA-184) com orientações sobre projetos com PoE que limitem o aumento de temperatura para além de um limite, o que poderia afetar a capacidade de tráfego de dados dos cabos devido ao aumento de sua atenuação. De uma forma geral, cabos de par trançado com condutores mais grossos (p.ex. 23 AWG), como os usualmente encontrados em cabos de Categoria 6A, permitem maior capacidade de corrente, em feixes maiores, sem grandes aumentos de temperatura.

Outro cuidado é a utilização de conectores modulares (tomadas e plugues modulares “RJ45”) que suportem a desconexão sob carga. Ao forçar a desconexão, por exemplo de um patch cord, sem antes desligarmos o dispositivo alimentado por PoE, pode haver uma faísca que, em repetidas situações, pode danificar os contatos o que, ao longo do tempo, pode levar a problemas na comunicação de dados. Eles devem, portanto, ser testados pelo menos conforme a norma IEC 60512-99-001.

Para concluir, o PoE é uma tecnologia em franco crescimento, que oferece o potencial de alterar a maneira como os dispositivos são conectados e distribuídos nos edifícios comerciais, tornando as instalações mais simples, padronizadas, ágeis e seguras.

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Norma ANSI/TIA-568.2-D aprovada para publicação

A principal norma de cabeamento estruturado dos EUA, uma das primeiras do mundo a tratar do tema, é a ANSI/TIA-568. Ela é dividida em 5 partes, sendo elas:

  • Parte 0: estabelece as bases para um sistema genérico de cabeamento estruturado
  • Parte 1: cabeamento estruturado para edifícios comerciais
  • Parte 2: especifica os componentes de par trançado balanceado
  • Parte 3: especifica os componentes em fibra óptica
  • Parte 4: especifica os componentes em cabo coaxial

Periodicamente, a TIA-568 passa por revisões, assim como a maioria das normas, para se atualizar em relação à tecnologia, produtos e melhores práticas adotados. Uma letra ao final indica a revisão. A primeira revisão foi indicada com a letra “A”. A revisão seguinte recebeu a letra “B”, e assim por diante. Assim, o nome ANSI/TIA-568-C.2 indica a revisão “C” (3ª revisão) da parte 2 da referida norma.

Só que a quarta revisão (“D”) mudou a ordem desses dois indicadores, tornando o nome mais coerente com as demais normas. Os indicadores de parte e revisão se inverteram, de forma que a 4ª revisão da 2ª parte passou a se chamar ANSI/TIA-568.2-D. A revisão “D” das demais partes já haviam sido publicadas nesse formato. Agora os nomes são:

  • ANSI/TIA-568.0-D, Generic Telecommunications Cabling for Customer Premises, publicada em 15/dez/2015
  • ANSI/TIA-568.1-D, Commercial Building Telecommunications Cabling Standard, publicada em 9/set/2015
  • ANSI/TIA-568.2-D, Balanced Twisted-Pair Telecommunication Cabling and Components Standard, a ser publicada em breve
  • ANSI/TIA-568.3-D, Optical Fiber Cabling And Components Standard, publicada em 25/out/2016
  • ANSI/TIA-568.4-D, Broadband Coaxial Cabling and Components Standard, publicada em 27/jun/2017

O que mudou na ANSI/TIA-568.2-D em relação à revisão anterior? Em resumo, os principais pontos alterados foram:

  • A adição da configuração MPTL (Modular Plug Terminated Link)
  • Incorporação da Categoria 8 ao corpo da norma
  • O reconhecimento de patch cords com bitola de condutor 28 AWG
  • Considerações ao suporte ao PoE

A adição da configuração MPTL (Modular Plug Terminated Link)

O MPTL é um acréscimo aos outros dois modelos padrões de enlace que já existiam, o canal (CH) e o enlace permanente (PL). Resumidamente, o CH é a configuração que inclui todo o cabeamento horizontal, incluindo todos os patch cords, enquanto o PL é a configuração que inclui apenas a parte “permanente” ou “fixa” do cabeamento, desde a terminação no rack até a terminação na tomada, sem incluir os patch cords.

Esta nova configuração, o MPTL, atende aos anseios de muitos usuários e instaladores, que se sentiam “incomodados” ao instalar uma tomada de telecomunicações, mais um patch cord, para conectar equipamentos fixos, principalmente próximos ao forro, como pontos de acesso wireless (WAP) e câmeras de vigilância (CFTV). Nesta configuração, o cabo horizontal é terminado diretamente com um plugue RJ45 (macho), em campo, que será diretamente conectado ao dispositivo terminal. Os principais fabricantes de cabeamento já estão disponibilizando tais plugues, com garantia de desempenho, para confecção em campo, incluindo versões com desempenho de Categoria 6A e até mesmo Categoria 8.

A norma também dará provisionamento para a forma como um enlace MPTL deverá ser testado. O desempenho do plugue terminado em campo deverá ser incluso no teste. Isso é diferente dos requisitos de teste de um canal, que exclui o desempenho dos plugues das extremidades. Outra coisa a ser ressaltada é que a norma continua obrigando a utilização de tomadas e patch cords para a conexão de dispositivos de usuário nas áreas de trabalho, como desktops, notebooks, telefones e impressoras. Tais dispositivos podem mudar de lugar com frequência, por isso o requisito de utilizar patch cords em sua conexão.

Incorporação da Categoria 8 ao corpo da norma 

A Categoria 8 de cabeamento de par trançado era parte de um adendo à norma TIA-568-C.2. Agora, fará parte da nova revisão 2-D. Lembramos que essa categoria, testada até 2000 MHz, permite a utilização de Ethernet a 40 Gb/s sobre um canal Cat. 8 de até 30 metros, sendo um enlace permanente de 24 metros, mais dois patch cords de até 3 metros cada. Tal aplicação foi pensada para conexões entre equipamentos localizados na mesma fileira de racks de um data center, e permitirá a configuração MPTL para conexão direta ao servidor.

O reconhecimento de patch cords com bitola de condutor 28 AWG

Anteriormente, apenas condutores 22 a 26 AWG eram reconhecidos para utilização em patch cords. Mas em racks de alta densidade, abrigando a terminação de centenas de cabos, isso poderia tornar a organização dos patch cords uma tarefa quase impossível!  Grandes quantidades de patch cords grossos poderiam também causar restrições ao fluxo de ar para a refrigeração de equipamentos ativos, causando seu sobreaquecimento.

Mas patch cords com bitola reduzida, como 28 AWG, apresentam maior atenuação de sinal e maior resistência à corrente elétrica. Por esse motivo, a norma provê recomendações para restringir o tamanho de canais contendo patch cords 28 AWG. Patch cords 28 AWG deverão utilizar 1,95 como fator de correção. Por exemplo, um canal com 10 metros em patch cords 28 AWG poderá ter um máximo de 92,5 m, sendo 82,5 m para o enlace permanente, em vez dos tradicionais 90 m. Com o tempo, melhores práticas deverão ser desenvolvidas e aplicadas com tais patch cords para minimizar possíveis problemas com sua utilização em canais que utilizem PoE, especialmente acima de 30 W, que surgirão com sua nova versão, o four-pair PoE, ou 4PPoE.

Considerações ao suporte ao PoE

Com a chegada do 4PPoE, que permite alimentação de quase 100 W pelo switch, garantindo um mínimo de 71 W no dispositivo remoto, começa a aumentar a preocupação com os projetos e instalações de sistemas em par trançado de forma a evitar anomalias na alimentação elétrica, como quedas excessivas de tensão e aumento exagerado da temperatura no feixe de cabos.

Referências ao boletim técnico ANSI/TSB-184-A, Guidelines for Supporting Power Delivery Over Balanced Twisted-Pair Cabling, são feitas nessa nova revisão, assim como o requisito para um teste particularmente importante para o PoE, que é o desequilíbrio resistivo dentro dos pares e entre os pares do cabo.

 

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Como Analisar um Relatório de Certificação de Cabeamento UTP

Neste artigo, vamos falar sobre a aceitação de um relatório de teste de certificação de cabos de par trançado realizado com um DSX-5000 CableAnalyzer da série Versiv, da Fluke Networks. E não vamos falar do relatório inteiro, nem dos aspectos mais técnicos dos parâmetros de desempenho, como NEXT e Return Loss. Vamos nos ater apenas ao cabeçalho do relatório.

Você sabia que é possível aceitar ou rejeitar um teste apenas analisando o cabeçalho do relatório? Vamos analisar o cabeçalho do teste abaixo e tirar algumas conclusões. Mas, antes de continuar a ler o artigo, dê uma olhada e veja se consegue descobrir algumas “pegadinhas”.

 

Vemos que o teste foi realizado no enlace identificado como TO-001 no dia 25 de maio de 2018, pouco depois das 10 horas da manhã. Comece sua análise por aí. Esse dia e horário faz sentido para você, é um momento condizente com o andamento dos serviços contratados?

Mais abaixo, a “altura livre” nos mostra o quanto o teste superou (ou não, se for negativo) a norma escolhida como parâmetro para a certificação. No caso, superou a norma da ANSI/TIA em 4,1 dB, o que é bom, compatível com o “PASSA” no canto superior direito.

Mas logo a seguir vemos uma aparente inconsistência: a norma utilizada para o teste foi da TIA, tendo por base a Categoria 5e de componentes, no modelo “Permanent Link”, que testa a parte “permanente” da instalação, ou seja, entre o patch panel do rack e a tomada de telecomunicações da área de trabalho, o que está ok. Só que logo abaixo o cabo foi descrito como sendo “Cat 6”, ou seja, de uma categoria superior ao limite Cat. 5e da norma utilizada. Isto estará certo? Se os demais componentes do enlace também forem da Categoria 6, o correto seria ter escolhido a norma “TIA Cat 6 Perm. Link”. O teste realizado não conferiu todo o desempenho do cabo instalado. Isso seria justificado se o enlace mistura cabo Cat. 6 com componentes Cat. 5e, como tomadas e patch panels. É assim que está a instalação? Ou o instalador não fez o serviço corretamente e não consegue certificá-lo como Cat. 6 (que é mais exigente) e rebaixou o teste para Cat. 5e, tentando enganar o cliente? A verificar…

Agora, voltando à “altura livre” e ao “PASSA”, vemos que ele se aplica ao teste Categoria 5e, e não a um cabeamento Categoria 6… Será que se refizermos o teste em Cat. 6 ele passa? Apenas lembrando, um enlace Cat. 6 deve ser certificado a até 250 MHz, enquanto o Cat. 5e é testado até somente 100 MHz, bem abaixo da Cat. 6.

Ainda falando sobre o tipo informado de cabo, “Cat 6 U/UTP”: esse cabo não é blindado. Mas, será que o cabeamento instalado é esse mesmo? Se for blindado, sua blindagem deve ser verificada por continuidade. Como foi informado um cabo não blindado, o equipamento não testou a continuidade da blindagem. Verifique o tipo de cabo instalado. Um cabo blindado precisa ter sua blindagem contínua ao longo de todo o enlace de forma a garantir seu desempenho contra interferências eletromagnéticas. E essa continuidade não será verificada se o operador do equipamento não informar corretamente o tipo de cabo.

Agora, uma pegadinha! Vimos que esse teste recebeu um “PASSA”, mas se analisarmos mais abaixo no relatório, na parte de resultados detalhados, vemos que há um teste cujo valor aparece com um asterisco do lado direito: “NEXT (dB)     0,1*”. O que significa isso?

Isso significa que o pior resultado desse teste caiu dentro da margem de precisão do equipamento utilizado! O nome disso é “resultado marginal”. Como o teste passou, isso é um PASSA*. Se tivesse falhado, seria um FALHA*. Isso é grave? Não muito, mas um resultado marginal o torna muito perto do limite estabelecido pela norma utilizada. Se você espera um cabeamento “muito melhor que a norma”, então resultados marginais não são o ideal. Além disso, se você requisitar a garantia estendida do fabricante de cabeamento, pode ser que ele recuse.

Outra coisa: foi informado um cabo genérico, sem especificar fabricante e modelo. Isso garantiria o tipo da blindagem e o NVP declarado, no caso, 70%. Se o NVP não estiver correto, o comprimento medido pelo equipamento não será o real, podendo ser maior ou menor. Se essa informação for importante para você, peça para que o modelo de cabo correto seja informado (com blindagem e NVP corretos), e que os testes sejam refeitos!

O nome do operador informado é “Marcelo”. Será que foi ele quem realizou o teste? Esse campo é editável no software… O ideal é que o teste tenha sido realizado por um técnico certificado “Fluke CCTT – Certified Cabling Test Technician”, garantindo que todos os passos, desde a configuração do teste até a documentação dos resultados tenham sido realizados da melhor maneira possível, de acordo com as recomendações do fabricante do equipamento. Esse certificado tem validade de dois anos. Na dúvida, peça cópia do diploma do técnico que está operando o equipamento.

O software presente no equipamento de testes apresenta o firmware versão 5.3, enquanto a versão atual é 5.5. Isso não é crítico, mas convém estar com o equipamento sempre atualizado, de forma a realizar os testes mais correntes.

Outra informação crítica: a data de calibração dos módulos (28/out/2016) é mais de um ano anterior à data do teste (25/mai/2018). A Fluke recomenda calibração anual dos módulos para que eles continuem com a precisão garantida. É bom pedir que os equipamentos sejam calibrados na autorizada e depois que os testes sejam refeitos!

E temos ainda mais uma inconsistência: os adaptadores de link utilizados (“DSX-CHA004”) são apropriados para testes de “canal”, que incluem os patch cords em ambas as extremidades do enlace. E a norma utilizada foi a de “permanent link”, que não inclui os patch cords, sendo portanto mais exigente. O correto seria ter feito o teste com os adaptadores modelo DSX-PLA004.

Como vimos, em um simples cabeçalho de teste temos diversas informações importantes sobre a certificação. Saber analisar tais informações é crucial para termos a certeza de que nosso cabeamento foi corretamente testado, de acordo com nossa necessidade, com aquilo que contratamos, e com as recomendações de normas e fabricantes.

O tema abordado neste artigo é apenas um dos tópicos que fazem parte do curso Fluke CCTT – Certified Cabling Test Technician. Confira aqui a data e o local da próxima turma desse curso.

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Artigos sobre cabeamento estruturado em “O Setor Elétrico”

Aqui estão links para dois artigos sobre cabeamento estruturado que foram publicados na conceituada revista “O Setor Elétrico”.

Normas para cabeamento estruturado, artigo publicado na Edição 110, de Março de 2015.

Cabeamento estruturado, artigo publicado na Edição 102, de Julho de 2014.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

PUE: uma métrica de eficiência do data center

Como já vimos em outros artigos, disponibilidade é algo primordial para os data centers atuais, tendo sido criadas até classificações, conhecidas como tiers.

Mas hoje em dia há outra característica a ser valorizada, que é a eficiência energética do data center, que é a sua capacidade de operar com menor consumo de energia. Energia elétrica é um recurso caro, portanto desperdiçá-lo não é uma boa ideia. E para podermos reduzir seu consumo precisamos, antes de mais nada, saber medi-lo e, em seguida, utilizar métricas que possam nos informar com que grau de sucesso estamos atingindo nossos objetivos de melhoria da eficiência.

O assunto eficiência energética em data centers começou a preocupar em 2008, a partir de um relatório ao Congresso dos EUA, quando verificaram que os data centers norte-americanos seriam responsáveis pelo consumo de aproximadamente 1,5% de toda a energia elétrica produzida no país! A última estatística, de 2014, aponta para um aumento para 2%.

Mas, antes de falarmos sobre alguma métrica de eficiência, vamos analisar quais os principais sistemas consumidores de energia elétrica de um data center. Obviamente, o principal tipo de equipamento existente em um data center, e que precisa ser energizado, é o equipamento de TI, motivo último da existência do data center. Nessa categoria estão os servidores, os dispositivos de armazenamento (storage) e os equipamentos de comunicação (como switches e routers). Todos os demais equipamentos e dispositivos que consomem energia em um data center são auxiliares ao funcionamento dos sistemas de TI. Dentre os principais sistemas auxiliares, podemos citar os seguintes: geração alternativa de energia (geradores), energia ininterrupta (UPS ou no-breaks), climatização, segurança patrimonial e incêndio, iluminação, monitoramento e automação. Vamos denominá-los conjuntamente de “sistemas de infraestrutura”.

Resumindo, temos dois grandes sistemas consumidores de energia elétrica no data center: os sistema de TI e os sistemas de infraestrutura. Ambos somados correspondem ao consumo do data center como um todo. A proporção entre ambos e entre os diferentes sistemas componentes pode variar bastante a cada data center.

Neste artigo vamos abordar apenas a métrica que mede a proporção de consumo elétrico entre os sistemas de infraestrutura e o de TI, chamada de PUE – Power Utilization Effectiveness, ou efetividade da utilização da energia, criada pelo The Green Grid. Ela indica o quanto de tudo o que consumimos no data center é relativo aos sistemas de infraestrutura. E por quê isso é importante? Se pensarmos bem, os únicos sistemas que deveriam necessariamente consumir algo são os de TI. São eles que importam. Qualquer gasto com sistemas de infraestrutura deveria ser visto como um overhead, um gasto extra, embora inevitável. Se queremos um ambiente estável, controlado e seguro para os sistemas de TI, é natural que gastemos alguma energia extra com isso. A questão é: quanto de energia estou gastando para manter esse ambiente, para além daquilo que é estritamente consumido pelos equipamentos de computação, armazenamento e comunicação?

Se analisarmos uma certa quantidade de data centers, veremos que é comum que metade de todo o consumo elétrico seja devido aos sistemas de infraestrutura, ou seja, PUE de 2.0, pois o cálculo do PUE é simplesmente a divisão do consumo energético total do data center pelo consumo dos sistemas de TI, para um determinado período. Exemplo: o data center todo consome 4 GWh em um ano, sendo 2 GWh em TI e 2 GWh em sistemas de infraestrutura, portanto PUE = 4 / 2 = 2.0. Embora um PUE de 2.0 seja relativamente comum, esse valor é alto. Veja a interpretação de valores de PUE:

  • PUE 3.0: muito ineficiente
  • PUE 2.5: ineficiente
  • PUE 2.0: médio
  • PUE 1.5: eficiente
  • PUE 1.2: muito eficiente

Note que não foi colocado o valor PUE = 1.0, pois em tese nunca teremos um data center que direcione 100% da energia elétrica para os sistemas de TI. Sempre haverá algum consumo devido à infraestrutura, nem que sejam apenas as perdas da distribuição elétrica. Mas, quanto mais o valor do PUE se aproximar da unidade, mais eficiente será os seus sistemas de infraestrutura, ou seja, menos energia eles consumirão em relação àquilo que é consumido por TI.

Um dos sistemas de infraestrutura que mais consome energia no data center é a climatização. Para um data center onde TI consome metade de toda a energia (PUE = 2.0), é normal que os sistemas de climatização consumam por volta de 40% do total, os demais 10% ficando principalmente com as perdas elétricas e demais sistemas auxiliares. É bastante usual, portanto, que as tentativas de redução do PUE se deem principalmente pela melhoria da eficiência do sistema de climatização do data center.

Em data centers profissionais, que utilizam o estado da arte em eficiência energética, podemos ver valores de PUE iguais ou inferiores a 1.1! Para se ter uma ideia, a média de PUE de todos os data centers do Google, medida em período de 12 meses, é de apenas 1.12. Veja aqui.  Em termos práticos, PUE de 1.12 significa que a cada 1000 Wh consumidos pelos sistemas de TI, apenas 120 Wh são consumidos pelos sistemas de infraestrutura, incluindo a climatização e as perdas elétricas!

Se você analisar alguns gráficos de PUE medidos ao longo do tempo, verá que ele variará em ciclos. Isso se deve à variação de eficiência do sistema de climatização, que é altamente dependente das condições climáticas do ambiente externo ao data center. Dias mais quentes exigem mais dos sistemas de ar condicionado, piorando o PUE momentaneamente. Data centers que possuem PUE muito baixo somente são possíveis em locais onde o clima local é ameno ou é possível a utilização de recursos naturais (como ar ou água) naturalmente frios (free cooling), reduzindo o consumo dos sistemas de climatização.

É importante termos a consciência de que o PUE não é a única métrica a ser utilizada para medir a eficiência energética do data center. Como vimos, ele mede o overhead de energia gasto em relação aos sistemas de TI. Mas, e o gasto dos sistemas de TI em si? Será que não poderíamos ter os mesmos serviços de TI, mas com um consumo energético menor? Menos energia consumida por TI levaria a menor necessidade de gastos com os correspondentes sistemas de infraestrutura que o suportam.  Existem técnicas de melhoria de eficiência energética para cada sistema de infraestrutura de um data center. Estas técnicas, mais as técnicas de redução de consumo de TI, farão parte de um futuro artigo para este blog.

Existem, porém, algumas dificuldades para o cálculo do PUE. Como dito no início, a primeira etapa é a correta medição do consumo de TI e dos sistemas de infraestrutura. E aí já surgem as questões:

  • Onde devo medir o consumo de TI? Em algum quadro elétrico? Na saída de algum equipamento de distribuição elétrica? Na entrada do equipamento de TI? Tanto faz?
  • Quais gastos devem entrar na medição do consumo da energia total consumida pelo data center?
  • Se o data center compartilha um edifício com áreas de escritório ou produção, como medir corretamente o consumo do data center?
  • Se a central de água gelada fornece água para todos os sistemas de ar condicionado do edifício, incluindo o data center, como ratear isso?
  • Eu meço demanda ou consumo? Pico ou média?
  • Como definir os períodos de medição?

Como vemos, embora o cálculo do PUE em si seja simples, ele suscita diversas dúvidas, que devem ser endereçadas com precisão antes de implantarmos tal métrica em nosso data center. Voltaremos ao assunto PUE em futuros artigos para este blog.

O tema abordado neste artigo é apenas um dos tópicos que fazem parte do curso DC100 – Fundamentos de infraestrutura de data center. Confira aqui a data e o local da próxima turma desse curso.

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, NTS, ATS, DCS Design
Clarity Treinamentos
marcelo@claritytreinamentos.com.br