Melhores Práticas de Eficiência Energética para Data Centers: Um Guia Introdutório

Introdução ao Coração da Era Digital

Os data centers são verdadeiramente o coração pulsante da nossa era digital. Essas instalações complexas são responsáveis por armazenar, processar e proteger uma imensa quantidade de dados, essenciais para o funcionamento de empresas e serviços ao redor do mundo. Este guia tem como objetivo desmistificar algumas das práticas de alta prioridade, fundamentais para a eficiência e sustentabilidade dos data centers. Este artigo visa fornecer insights claros e compreensíveis sobre como otimizar as operações desses ambientes vitais.

Neste artigo, abordaremos uma série de recomendações cruciais para a otimização e eficiência dos data centers, cobrindo temas essenciais que vão desde a formação de um Grupo de Aprovação Multidisciplinar – essencial para uma tomada de decisão abrangente e informada -, até o conhecimento profundo de seu data center através de auditorias físicas e lógicas. Exploraremos também as melhores práticas para o descomissionamento e remoção de equipamentos inativos, visando não apenas a liberação de espaço valioso, mas também a redução de custos operacionais. A consolidação de serviços será destacada como uma estratégia poderosa para otimizar recursos e eficiência. Além disso, delinear-se-ão estratégias eficientes de gerenciamento térmico, fundamentais para manter a integridade e o desempenho dos equipamentos. Por fim, discutiremos como o aproveitamento do free cooling pode significar um avanço significativo na redução do consumo energético, alinhando-se às práticas de sustentabilidade e eficiência energética. Essas recomendações são projetadas para equipar os gestores de data centers com as ferramentas necessárias para operar de maneira mais eficiente, sustentável e econômica, garantindo a resiliência e a continuidade dos serviços críticos.

É imperativo destacar que todas as práticas recomendadas discutidas neste artigo são consideradas de alta prioridade e aplicáveis universalmente a todos os data centers, sejam eles novos ou em processo de expansão, abrangendo integralmente todos os seus equipamentos de TI, mecânicos e elétricos. Essa abordagem é endossada pela mais recente edição (2023) das “Diretrizes de Melhores Práticas para o Código de Conduta da UE sobre Eficiência Energética em Data Centers” (Best Practice Guidelines for the EU Code of Conduct on Data Centre Energy Efficiency), documento que serve como um marco regulatório e orientativo para a operação e design de data centers em busca de otimização energética e sustentabilidade. A aderência a estas diretrizes não apenas reforça o compromisso com a eficiência energética, mas também assegura que as operações dos data centers estejam alinhadas com as práticas mais avançadas e responsáveis do setor, garantindo uma infraestrutura tecnológica mais verde, eficiente e sustentável para o futuro.

Grupo de Aprovação Multidisciplinar

O conceito de um Grupo de Aprovação Multidisciplinar em data centers é fundamental para garantir que as decisões tomadas reflitam uma compreensão abrangente e integrada de todas as áreas impactadas pela operação dessas instalações críticas. Este grupo é essencialmente uma equipe formada por representantes de várias disciplinas dentro da organização, cada um trazendo sua expertise específica para o processo de tomada de decisão. Vamos explorar mais a fundo a importância, composição e funções desse grupo.

A Importância de um Grupo de Aprovação Multidisciplinar

A complexidade de um data center é tal que decisões tomadas em isolamento, sem considerar as interdependências entre diferentes áreas, podem levar a resultados subótimos ou até prejudiciais. Por exemplo, uma decisão sobre a aquisição de novo hardware de TI pode ter implicações significativas não apenas para o orçamento, mas também para a capacidade de refrigeração necessária, o consumo de energia, e a gestão do espaço físico. A formação de um Grupo de Aprovação Multidisciplinar assegura que todas essas considerações sejam avaliadas de forma holística.

Composição do Grupo

A composição desse grupo é deliberadamente diversificada para abranger todas as áreas-chave envolvidas na gestão de um data center. Tipicamente, inclui:

  • Gerência Sênior: Fornece uma visão estratégica e assegura que as decisões estejam alinhadas com os objetivos de negócios da organização.
  • TI (Tecnologia da Informação): Representa as necessidades e requisitos do núcleo tecnológico, incluindo hardware, software e rede.
  • Engenharia M&E (Mecânica e Elétrica): Especialistas em infraestrutura física, focados em alimentação elétrica, climatização e outras necessidades físicas do data center.
  • Software/Aplicações: Foca nas necessidades específicas das aplicações que serão hospedadas no data center, garantindo que o ambiente seja capaz de suportá-las adequadamente.
  • Aquisições: Responsável por avaliar fornecedores, negociar contratos e adquirir equipamentos e serviços dentro dos parâmetros de custo e qualidade.

Funções e Benefícios

O Grupo de Aprovação Multidisciplinar tem várias funções essenciais, incluindo:

  • Avaliação Holística: Garantir que todas as decisões sejam tomadas com uma compreensão completa de seus impactos em todas as áreas do data center.
  • Governança e Conformidade: Assegurar que as decisões estejam em conformidade com as normas e padrões aplicáveis, como ANSI/TIA-942, BICSI-002, e ISO/IEC 22237.
  • Otimização de Recursos: Promover a utilização eficiente dos recursos, identificando oportunidades para melhorar a eficiência energética, a gestão do espaço e a capacidade de refrigeração.
  • Inovação e Melhoria Contínua: Encorajar a adoção de novas tecnologias e práticas que possam melhorar a operação e sustentabilidade do data center.

A implementação de um Grupo de Aprovação Multidisciplinar é, portanto, um passo crítico para qualquer organização que busca otimizar suas operações de data center de maneira sustentável e eficiente, garantindo que todas as decisões sejam informadas, estratégicas e alinhadas com os objetivos globais da empresa.

Conhecendo Seu Data Center: Auditoria Física e Lógica

Para otimizar um data center de maneira eficaz, é fundamental ter um conhecimento aprofundado sobre os ativos e recursos disponíveis. A auditoria, tanto do estado físico quanto lógico dos componentes do data center, emerge como o passo inicial e crucial nesse processo. Essa abordagem meticulosa permite uma compreensão detalhada dos equipamentos em operação e dos serviços que estão sendo fornecidos.

Implementação de Ferramentas de Gestão Baseadas em ITIL

A adoção de um Banco de Dados de Gerenciamento de Configuração (CMDB, na sigla em inglês) e de um Catálogo de Serviços, ambos conceitos fundamentais da Information Technology Infrastructure Library (ITIL), é altamente recomendada. Essas ferramentas são essenciais para manter um registro organizado e atualizado dos ativos de TI e dos serviços oferecidos pelo data center.

Banco de Dados de Gerenciamento de Configuração (CMDB)

O CMDB é uma base de dados que armazena informações sobre os elementos de configuração (ECs) importantes dentro da infraestrutura de TI. No contexto de um data center, isso inclui:

  • Detalhes sobre hardware, como servidores, switches, e dispositivos de armazenamento.
  • Informações sobre software, incluindo sistemas operacionais, aplicativos e licenças.
  • Configurações de rede e relações entre os diferentes componentes de TI.

Ao manter essas informações atualizadas, o CMDB oferece uma visão holística do ambiente de TI, facilitando a identificação de dependências e o impacto de mudanças e falhas potenciais.

Catálogo de Serviços

O Catálogo de Serviços, por sua vez, é um documento ou sistema que lista todos os serviços de TI disponíveis, incluindo descrições detalhadas, usuários ou departamentos destinatários, e informações sobre como solicitar cada serviço. Ele serve como uma ponte entre a TI e seus usuários, esclarecendo o que está disponível e como acessar os serviços necessários.

Benefícios da Auditoria e da Implementação de ITIL

  • Visibilidade Aumentada: Ter visibilidade completa sobre os ativos físicos e lógicos permite que a equipe de TI gerencie melhor os recursos, antecipe necessidades de manutenção e planeje upgrades de forma proativa.
  • Otimização de Recursos: Identificar equipamentos subutilizados ou obsoletos e serviços redundantes pode levar a uma otimização significativa, reduzindo custos e melhorando a eficiência operacional.
  • Melhoria Contínua: Com um registro detalhado e organizado, torna-se mais fácil identificar áreas para melhorias contínuas, seja em termos de desempenho, segurança ou conformidade.
  • Gestão de Mudanças: Facilita a gestão de mudanças ao proporcionar um entendimento claro do ambiente atual e como as alterações propostas afetarão o sistema como um todo.

Em resumo, a realização de uma auditoria abrangente, tanto física quanto lógica, combinada com a implementação de práticas inspiradas na ITIL, como o CMDB e o Catálogo de Serviços, coloca o data center em uma posição de força para otimização e crescimento sustentável. Essa estratégia não apenas simplifica a gestão de recursos, mas também pavimenta o caminho para melhorias contínuas e uma operação mais eficiente

Descomissionamento e Remoção de Equipamentos Inativos

O descomissionamento e a remoção de equipamentos inativos constituem uma etapa crucial na gestão eficiente de um data center. Equipamentos que não estão mais em uso ou que não suportam serviços ativos, incluindo plataformas de teste e desenvolvimento que se tornaram obsoletas, representam um desperdício significativo de espaço e recursos valiosos. Essa prática não só é fundamental para otimizar o uso do espaço físico dentro do data center, mas também desempenha um papel importante na redução do consumo de energia, alinhando-se assim aos objetivos de sustentabilidade.

Processo de Descomissionamento e Remoção

Identificação de Equipamentos Inativos: O primeiro passo envolve a identificação cuidadosa de todos os equipamentos inativos ou obsoletos. Isso pode ser realizado através de auditorias regulares e revisões do inventário, utilizando ferramentas de gestão de ativos e dados de monitoramento para identificar hardware que não está mais servindo a propósitos produtivos.

Avaliação e Planejamento: Após a identificação, é essencial avaliar o impacto potencial do descomissionamento de cada peça de equipamento. Isso inclui verificar dependências, avaliar a possibilidade de reutilização em outros contextos dentro do data center ou em outras instalações, e planejar a remoção de forma que minimize a interrupção das operações.

Execução Segura e Responsável: O descomissionamento e a remoção devem ser executados de maneira segura e responsável. Isso envolve garantir que todos os dados contidos nos dispositivos sejam adequadamente apagados, seguindo padrões de segurança para a eliminação de dados. Além disso, é importante considerar as melhores práticas ambientais para o descarte ou reciclagem de hardware, seguindo regulamentações locais e internacionais pertinentes.

Benefícios do Descomissionamento e Remoção

Otimização do Espaço: A remoção de equipamentos inativos libera espaço valioso dentro do data center, que pode ser melhor utilizado para acomodar hardware mais moderno e eficiente, ou para outras necessidades operacionais.

Redução do Consumo de Energia: Equipamentos obsoletos ou inativos muitas vezes continuam consumindo energia, mesmo sem suportar serviços ativos. Sua remoção contribui para a redução do consumo de energia geral do data center, o que não apenas resulta em economia de custos, mas também minimiza a pegada de carbono da instalação.

Contribuição para a Sustentabilidade: Além de reduzir o consumo de energia, o processo de descomissionamento e remoção de equipamentos inativos alinha-se com práticas de sustentabilidade, ao promover o uso eficiente de recursos e incentivando a reciclagem e o descarte responsável de hardware.

Em suma, o descomissionamento e a remoção de equipamentos inativos são etapas essenciais para a manutenção da eficiência operacional e sustentabilidade de um data center. Esse processo não apenas maximiza o uso do espaço e recursos disponíveis, mas também reforça o compromisso com práticas ambientalmente responsáveis. Ao adotar uma abordagem sistemática e responsável para o descomissionamento, os data centers podem melhorar significativamente seu desempenho operacional e contribuir para um futuro mais sustentável.

Otimizando com a Consolidação de Serviços

A consolidação dos serviços existentes em um data center é um processo estratégico que visa otimizar o uso de recursos de hardware, que frequentemente são subutilizados, operando bem abaixo de sua capacidade total. Esta subutilização não só representa um desperdício de recursos valiosos, mas também contribui para custos operacionais e de energia desnecessariamente altos. Através da implementação de tecnologias de compartilhamento de recursos, como a virtualização, é possível realizar uma consolidação eficaz dos serviços, melhorando a utilização dos recursos físicos e, consequentemente, otimizando o desempenho geral do data center.

Implementação de Tecnologias de Compartilhamento de Recursos

Virtualização: A virtualização é a espinha dorsal da consolidação de serviços. Ela permite que múltiplas instâncias de sistemas operacionais e aplicações sejam executadas em um único servidor físico, compartilhando seus recursos. Isso não só aumenta a eficiência na utilização do hardware, mas também facilita a gestão e a escalabilidade dos serviços.

Containers: Os containers oferecem uma abordagem mais leve à virtualização, permitindo que aplicações sejam empacotadas com todas as suas dependências, o que facilita a movimentação entre diferentes ambientes de computação. Isso otimiza ainda mais o uso dos recursos de hardware, ao mesmo tempo em que proporciona uma gestão simplificada dos serviços.

Benefícios da Consolidação de Serviços

Otimização do Uso do Hardware: Ao consolidar serviços que utilizam apenas uma fração de sua capacidade de hardware, maximiza-se a utilização desses recursos. Isso significa que menos hardware é necessário para suportar a mesma quantidade de trabalho, o que pode levar a uma redução significativa no investimento em novos equipamentos.

Economia nos Custos Operacionais e de Energia: A consolidação de serviços reduz o número de servidores físicos necessários, o que, por sua vez, diminui o consumo de energia e os custos de refrigeração. Além disso, com menos hardware para gerenciar, os custos operacionais associados à manutenção e ao suporte técnico também são reduzidos.

Melhoria na Eficiência Operacional: A gestão de um ambiente consolidado é inerentemente mais eficiente. Com menos servidores físicos para monitorar e manter, as equipes de TI podem focar em melhorias operacionais e inovações, ao invés de se ocuparem com a manutenção de uma infraestrutura inchada e subutilizada.

Contribuição para a Sustentabilidade: A consolidação de serviços contribui diretamente para as iniciativas de sustentabilidade do data center, reduzindo o consumo de energia e a pegada de carbono. Menos hardware e um uso mais eficiente da energia alinham-se com objetivos ambientais mais amplos, reforçando o compromisso do data center com práticas sustentáveis.

Em resumo, a consolidação dos serviços existentes por meio de tecnologias de compartilhamento de recursos como a virtualização é uma estratégia essencial para otimizar o uso do hardware em data centers. Esta abordagem não só melhora significativamente a utilização dos recursos físicos, mas também oferece economias consideráveis nos custos operacionais e de energia, ao mesmo tempo em que contribui para a sustentabilidade e eficiência operacional. Implementar uma estratégia de consolidação bem planejada é, portanto, fundamental para qualquer data center que busca otimizar suas operações e seu impacto ambiental.

Estratégias Eficientes de Gerenciamento Térmico

O gerenciamento térmico eficiente é um pilar fundamental na operação de data centers, não apenas para garantir a confiabilidade e o desempenho ótimo dos dispositivos de TI, mas também para otimizar o consumo de energia e reduzir os custos operacionais. Uma das estratégias mais eficazes para alcançar uma gestão térmica adequada é o design de corredores quentes e frios, complementado pela contenção de ar. Esta abordagem não só melhora significativamente a eficiência do resfriamento, mas também se adapta de forma flexível às variações de carga térmica dos dispositivos de TI.

Design de Corredores Quentes e Frios

O design de corredores quentes e frios envolve a organização física dos racks de servidores de maneira que os exaustores de todos os equipamentos estejam voltados para o mesmo lado (corredor quente), enquanto as entradas de ar estão voltadas para o lado oposto (corredor frio). Essa configuração cria zonas distintas de ar frio e quente dentro do data center, permitindo uma separação clara entre o ar que está sendo resfriado para ser usado pelos equipamentos e o ar que já foi aquecido por eles.

Benefícios do Design de Corredores Quentes e Frios

Eficiência no Resfriamento: Ao separar claramente o ar frio do ar quente, evita-se a mistura de ar quente com ar frio, aumentando a eficiência do sistema de resfriamento.

Redução de Custos de Energia: A eficiência aprimorada na refrigeração resulta em menor consumo de energia, o que se traduz em economias significativas nos custos de energia.

Maior Confiabilidade dos Equipamentos: A manutenção de temperaturas operacionais ótimas aumenta a confiabilidade e a vida útil dos dispositivos de TI.

Contenção de Ar

A contenção de ar é uma prática que aprimora ainda mais a estratégia de corredores quentes e frios. Pode ser implementada de duas formas principais: contenção de corredor frio e contenção de corredor quente.

Contenção de Corredor Frio

Na contenção de corredor frio, os corredores onde o ar frio é introduzido são fechados, geralmente com portas nas extremidades e coberturas no topo. Isso assegura que o ar frio seja direcionado exclusivamente para a entrada dos equipamentos, aumentando a eficiência do resfriamento.

Contenção de Corredor Quente

Similarmente, na contenção de corredor quente, os corredores por onde o ar quente é exaurido são fechados. Isso facilita a remoção eficiente do ar quente do ambiente, permitindo que o sistema de resfriamento opere com maior eficiência.

Adaptação às Variações de Carga Térmica

Um dos aspectos mais valiosos da implementação de corredores quentes e frios, juntamente com a contenção de ar, é a capacidade de adaptar-se rapidamente às variações de carga térmica dos dispositivos de TI. À medida que a demanda de processamento varia, a geração de calor pelos equipamentos também muda. A estratégia de corredores quentes e frios, especialmente quando combinada com sistemas de contenção de ar, permite ajustes mais rápidos e precisos nos sistemas de climatização, garantindo que as condições ideais de operação sejam mantidas constantemente.

Em conclusão, a implementação cuidadosa do design de corredores quentes e frios, complementada pela contenção de ar, representa uma estratégia sofisticada e altamente eficaz para o gerenciamento térmico em data centers. Esta abordagem não só assegura uma operação eficiente e confiável dos dispositivos de TI, mas também promove uma significativa economia de energia, alinhando-se com os objetivos de sustentabilidade e eficiência operacional dos data centers modernos.

Aproveitando o Free Cooling

O free cooling representa uma abordagem inovadora e sustentável para o resfriamento de data centers, capitalizando sobre as condições ambientais externas para reduzir a dependência de sistemas de refrigeração mecânica, como ar-condicionado e chillers. Essa técnica não só promove uma operação mais verde e eficiente em termos energéticos, mas também pode resultar em economias substanciais de custos operacionais a longo prazo. No entanto, a implementação efetiva do free cooling em data centers, especialmente naqueles situados em zonas tropicais, requer uma análise cuidadosa e uma abordagem adaptada às condições climáticas específicas dessas regiões.

Desafios do Free Cooling em Zonas Tropicais

Zonas tropicais apresentam desafios únicos para a implementação de free cooling devido às suas condições climáticas características, que incluem temperaturas elevadas durante todo o ano e alta umidade. Esses fatores podem limitar a eficácia do free cooling, uma vez que o ar externo pode não estar suficientemente frio para ser usado diretamente no resfriamento do ambiente interno, ou pode requerer tratamento adicional para reduzir sua umidade a níveis aceitáveis para a operação segura dos equipamentos de TI.

Estratégias para Maximizar a Eficiência do Free Cooling em Zonas Tropicais

1. Análise Climática Detalhada:
Antes de implementar o free cooling, é crucial realizar uma análise climática detalhada da região onde o data center está localizado. Isso inclui não apenas a temperatura média, mas também a variação diurna e sazonal, bem como a umidade relativa. Essa análise ajudará a identificar períodos do ano ou do dia em que o free cooling seria mais eficaz.

2. Tecnologias de Tratamento do Ar:
Para lidar com a alta umidade, podem ser utilizadas tecnologias de tratamento do ar, como desumidificadores ou sistemas de resfriamento indireto, que permitem o uso do free cooling sem introduzir umidade excessiva no ambiente interno. Essas tecnologias podem ser combinadas com sistemas de controle inteligente para otimizar a operação com base nas condições ambientais em tempo real.

3. Sistemas Híbridos de Resfriamento:
Em zonas tropicais, o free cooling pode ser mais eficaz quando usado como parte de um sistema híbrido, complementando, em vez de substituir completamente, o resfriamento mecânico. Por exemplo, durante as horas mais frias do dia ou em estações mais amenas, o free cooling pode ser utilizado para reduzir a carga sobre os sistemas de refrigeração mecânica, maximizando a eficiência energética.

4. Isolamento e Vedação Eficientes:
Para maximizar os benefícios do free cooling, é essencial garantir que o data center esteja bem isolado e vedado, minimizando a troca de calor indesejada com o ambiente externo. Isso inclui a implementação de barreiras de vapor e isolamento térmico eficaz nas paredes, tetos e pisos.

5. Adaptação Arquitetônica:
A concepção arquitetônica do data center pode ser adaptada para facilitar o free cooling, como a orientação do edifício para aproveitar os ventos predominantes ou a inclusão de elementos arquitetônicos que promovam a ventilação natural.

A implementação de free cooling em data centers localizados em zonas tropicais demanda uma abordagem cuidadosa e personalizada, considerando as peculiaridades climáticas da região. Apesar dos desafios, com planejamento adequado e a utilização de tecnologias adaptadas, é possível maximizar a eficiência do free cooling, reduzindo significativamente a dependência de refrigeração mecânica, os custos operacionais e o impacto ambiental. Investigar a viabilidade do free cooling, especialmente em novas construções ou atualizações de sistemas existentes, é um passo fundamental para data centers que buscam operações mais sustentáveis e eficientes.

Conclusão: Rumo a Data Centers Mais Eficientes e Sustentáveis

As práticas abordadas neste guia são cruciais para a operação eficiente e sustentável de um data center. A adoção dessas recomendações não apenas melhora o desempenho operacional, mas também contribui significativamente para a redução do impacto ambiental. Encorajamos todos os profissionais de data center a integrar essas práticas em suas operações, buscando continuamente melhorias para manter seus ambientes de TI resilientes e eficientes.

Este artigo serve como um ponto de partida essencial para aqueles que estão começando a explorar o fascinante mundo dos data centers, oferecendo uma base sólida de práticas recomendadas que garantem a eficiência e a sustentabilidade dessas infraestruturas indispensáveis.

Implementando Novos Equipamentos de TI com Eficiência em Data Centers

Introdução

Na era digital contemporânea, os data centers emergem como os pilares fundamentais que sustentam o colossal volume de processamento de dados e serviços de infraestrutura de TI que impulsionam negócios e comunicações globais. A eficiência energética dessas instalações críticas transcende a mera redução de custos operacionais, posicionando-se como um componente vital para a sustentabilidade ambiental e a responsabilidade corporativa. Este artigo é um compêndio destinado a orientar gestores de TI, engenheiros de infraestrutura e técnicos sobre metodologias para a implementação de novos equipamentos de TI em data centers, com ênfase na maximização da eficiência energética e na promoção de práticas sustentáveis.

A Eficiência Energética como Pilar de Sustentabilidade em Data Centers

A Crucialidade da Eficiência Energética

A eficiência energética em data centers é uma questão multifacetada que abrange a economia de custos operacionais, a minimização do impacto ambiental e a otimização do desempenho do equipamento. A demanda por serviços de data center está em uma trajetória ascendente, impulsionada pela proliferação de dispositivos conectados, a expansão do armazenamento em nuvem e o crescimento exponencial do big data. A eficiência energética torna-se, portanto, um elemento crítico para a sustentabilidade, permitindo que os data centers atendam a essa demanda crescente de maneira responsável e econômica.

Normas e Padrões que Moldam a Eficiência Energética

A aderência a normas e padrões internacionais é imperativa para assegurar a eficiência energética em data centers. Normas como as da American Society of Heating, Refrigerating and Air-Conditioning Engineers (ASHRAE), especificamente as diretrizes ASHRAE Class A2, fornecem um conjunto de parâmetros para a operação e design de data centers eficientes. Da mesma forma, a ISO/IEC e a legislação da União Europeia estabelecem critérios rigorosos para a eficiência energética de equipamentos de TI, promovendo práticas que reduzem o consumo de energia e as emissões de gases de efeito estufa. Confira nosso artigo sobre normas para data centers.

Estratégias para a Seleção de Equipamentos de TI Eficientes

Priorizando a Eficiência Energética na Escolha do Hardware

A seleção de novos equipamentos de TI deve ser guiada por uma avaliação criteriosa da eficiência energética. A performance energética de um dispositivo deve ser um fator decisivo no processo de aquisição, influenciando a escolha de hardware de TI. Métricas como as fornecidas pelo Standard Performance Evaluation Corporation (SPEC) através de ferramentas como SERT (System Energy Efficiency Ratio Test) e SPECPower servem como benchmarks confiáveis para avaliar e comparar a eficiência energética de dispositivos de hardware.

Considerações sobre Temperatura e Umidade na Operação de Equipamentos

Os equipamentos de TI devem ser selecionados com base em sua capacidade de operar eficientemente em uma gama de temperaturas e umidades, conforme estabelecido pelas diretrizes ambientais da ASHRAE. A escolha de dispositivos que funcionam dentro dos parâmetros da Classe A2 da ASHRAE garante que eles operem de maneira eficiente sob uma variedade de condições ambientais, mantendo a integridade da garantia e prolongando a vida útil do equipamento.

Avaliando o Consumo de Energia em Função da Temperatura

O consumo de energia dos equipamentos de TI pode variar significativamente com a temperatura do ambiente em que estão operando. Ao selecionar novos dispositivos, é crucial exigir dos fornecedores informações detalhadas sobre o consumo total de energia em uma gama de temperaturas, abrangendo toda a faixa de temperatura admissível para o equipamento. Isso é particularmente importante para data centers que operam em ambientes com temperaturas variáveis, pois permite uma avaliação precisa do impacto térmico sobre o consumo de energia.

Operação Eficiente dos Equipamentos de TI

O Papel do Gerenciamento de Energia na Implantação de Equipamentos

A ativação de recursos de gerenciamento de energia é um passo crítico durante a implantação de novos equipamentos. Configurações de BIOS, sistemas operacionais e drivers devem ser otimizados para promover a eficiência energética. Essas configurações ajudam a reduzir o consumo de energia desnecessário e a melhorar a eficiência operacional dos dispositivos recém-instalados.

Virtualização: Otimizando o Uso de Hardware

A virtualização é uma técnica que permite a consolidação de múltiplos serviços em uma única plataforma de hardware, otimizando o uso de recursos e reduzindo a necessidade de equipamentos dedicados. A implementação de uma política que exige a aprovação de negócios sênior para a aquisição de hardware dedicado incentiva a consideração da virtualização como uma alternativa viável, promovendo a eficiência energética e a utilização de recursos.

Melhorando a Eficiência do Fluxo de Ar em Data Centers

Implementando o Conceito de Corredores Quentes e Frios

O design de corredores quentes e frios é uma estratégia efetiva para gerenciar o fluxo de ar e melhorar a eficiência do resfriamento em data centers. Este conceito envolve a criação de corredores dedicados para o ar frio e quente, minimizando a mistura de ar e otimizando o uso de energia para resfriamento. A implementação correta dessa estratégia pode resultar em economias significativas de energia e melhorar a eficiência operacional do data center.

Alinhando a Direção do Fluxo de Ar com o Design do Data Center

A eficiência do resfriamento em data centers é fortemente influenciada pela direção do fluxo de ar dos equipamentos de TI. Ao integrar novos dispositivos, é essencial garantir que a direção do fluxo de ar esteja alinhada com o design do data center. Equipamentos que desviam do fluxo de ar padrão devem ser adaptados com mecanismos corretivos, como dutos ou gabinetes especiais, para assegurar que o ar seja direcionado de forma eficiente, mantendo a integridade do sistema de resfriamento.

Conclusão

A implementação de novos equipamentos de TI em data centers oferece uma oportunidade única para melhorar a eficiência energética e operacional. Adotando as práticas recomendadas e seguindo as diretrizes estabelecidas por organizações respeitadas, como ASHRAE, ISO/IEC e a União Europeia, os gestores de data centers podem garantir que seus equipamentos sejam não apenas poderosos e confiáveis, mas também sustentáveis e econômicos. A eficiência energética deve ser uma prioridade em todas as etapas do processo, desde a seleção de hardware até o design da infraestrutura e a implementação de estratégias de virtualização.

Referências

Para uma compreensão mais profunda das normas e padrões mencionados neste artigo, os leitores são encorajados a consultar diretamente as fontes, incluindo as diretrizes da ASHRAE, as normas ISO/IEC, a legislação da União Europeia, bem como as diretrizes específicas do Uptime Institute e The Green Grid para práticas de eficiência em data centers. Consulte também nosso artigo sobre o selo CEEDA de eficiência energética para data centers.

Este artigo é um convite para que profissionais da área de data centers reflitam sobre suas práticas atuais e busquem continuamente a inovação e a eficiência na gestão de seus equipamentos de TI, com o objetivo de alcançar a excelência operacional e a sustentabilidade ambiental.

O Programa CEEDA de Certificação de Data Centers em Eficiência Energética

O Certified Energy Efficient Datacenter Award (CEEDA) é um programa de certificação global, avaliado de forma independente, projetado para reconhecer a aplicação das melhores práticas de eficiência energética em data centers. Gerenciar um data center requer várias disciplinas especializadas, e o CEEDA foi criado para fornecer um processo de avaliação no qual os padrões dessas disciplinas são combinados para fornecer uma avaliação otimizada e holística das práticas de eficiência energética em condições do mundo real.

Estrutura do CEEDA

A estrutura do CEEDA é baseada em uma combinação de padrões, incluindo ASHRAE, Energy Star, ETSI, ISO, bem como o Código Europeu de Conduta e métricas Green Grid. Essa combinação fornece uma avaliação da eficiência energética e também das principais práticas de sustentabilidade com foco em energia, materiais, economia circular e o impacto de 8 dos 17 dos Objetivos de Desenvolvimento Sustentável da ONU.

Interface gráfica do usuário

Descrição gerada automaticamente com confiança baixa

Níveis de Certificação

A avaliação compreende uma estrutura graduada cumulativa desses critérios práticos. Para instalações em conformidade, a certificação resultante pode ser concedida nos níveis crescentes de Bronze, Prata e Ouro. A avaliação é um processo cumulativo – para ganhar Prata, o data center deve atender suficientemente ao nível Bronze. Para atingir o nível Gold, o data center deve atender suficientemente aos níveis Bronze e Silver.

Benefícios do CEEDA

O CEEDA oferece vários benefícios para as organizações. Ele permite que as organizações demonstrem publicamente sua liderança em Responsabilidade Social Corporativa (CSR). Além disso, o processo de avaliação auditada verifica de forma independente as principais métricas de desempenho, como Eficiência no Uso de Energia (PUE), métricas avançadas, como CUE/WUE, e o mix específico de energia do local. As instalações certificadas se beneficiam de um aumento médio de 5% a 15% na eficiência energética, bem como uma análise das lacunas operacionais em relação às melhores práticas mundialmente reconhecidas, proporcionando maior potencial para minimizar o impacto do carbono.

CEEDA no Brasil

No Brasil, a certificação CEEDA já está consolidada. Uma das empresas que conquistou a certificação no país foi a Embratel/Claro. Após receber, em 2016, a certificação “CEEDA in Progress” para o Data Center Lapa, a Embratel atingiu o nível Prata, após avaliação de um conjunto de critérios diferenciados, com base nas melhores práticas.

Por sua vez, a Dataprev, Empresa de Tecnologia e Informações da Previdência, investiu mais de R$ 200 milhões na modernização de seus Data Centers e buscou certificações para suportar e atender as necessidades das políticas públicas do Brasil. Em 2018, tornou-se a primeira empresa pública da América Latina a receber o selo CEEDA, que atesta as melhores práticas de eficiência energética de seus três Data Centers e confirma que a gestão e operação dos ambientes estão alinhadas com a estratégia de sustentabilidade operacional da empresa. Em resumo, o CEEDA é uma ferramenta valiosa para as organizações que buscam melhorar a eficiência energética de seus data centers. Ele fornece um quadro para avaliar o desempenho atual, identificar áreas de melhoria e demonstrar compromisso com a sustentabilidade. Para mais informações, visite o site oficial do CEEDA.

Confinamento de Corredores em Data Centers: Uma Análise Um Pouco Mais Detalhada

O confinamento de corredores em data centers é uma estratégia que tem ganhado popularidade devido à sua capacidade de melhorar a eficiência dos sistemas de refrigeração. Este artigo explora o conceito de confinamento de corredores, seus benefícios, desafios e diferentes abordagens. Para uma introdução ao confinamento de corredores, leia meu artigo anterior sobre o assunto.

O que é Confinamento de Corredores?

O confinamento de corredores é a separação do ar frio de fornecimento do ar quente de exaustão dos equipamentos de TI. Isso permite uma temperatura de fornecimento uniforme e estável para a entrada dos equipamentos de TI e um retorno de ar mais quente e seco para a infraestrutura de refrigeração. Essa estratégia pode reduzir os custos operacionais, otimizar a eficácia do uso de energia e aumentar a capacidade de refrigeração.

Benefícios do Confinamento de Corredores

O confinamento de corredores pode proporcionar uma série de benefícios, incluindo a redução do consumo de energia, aumento da capacidade de refrigeração, estabilização da temperatura de fornecimento para a entrada de TI, disponibilização de mais capacidade de energia para equipamentos de TI, aumento do tempo de atividade e prolongamento do ciclo de vida dos ativos de TI.

Tipos de Confinamento de Corredores

Existem principalmente dois tipos de confinamento de corredores em data centers: confinamento de corredor quente e confinamento de corredor frio.

Confinamento de Corredor Quente

O confinamento de corredor quente envolve o fechamento do corredor quente, permitindo que o ar frio inunde o restante do espaço do data center. Isso pode ser alcançado através de estratégias como piso elevado, dutos suspensos ou simplesmente inundando o data center com ar frio. Uma vantagem única do confinamento de corredor quente é sua capacidade de oferecer um acúmulo térmico, permitindo que o data center mantenha a estabilidade durante curtos períodos de falhas no sistema de refrigeração.

Confinamento de Corredor Frio

No confinamento de corredor frio, o ar frio é confinado no corredor, permitindo que o restante do data center se torne um grande plenum de retorno de ar quente. Esse confinamento envolve uma barreira física que permite que o ar de fornecimento flua para dentro do corredor frio.

Tipos de Abordagens

Existem várias abordagens para o confinamento de corredores em data centers, além do confinamento de corredor quente e frio. Seguem alguns exemplos:

  1. Sistema de Cortina/Contenção Suave: Este sistema usa cortinas de plástico flexíveis para separar o ar quente do ar frio. É uma solução de baixo custo e fácil de instalar, mas pode não ser tão eficaz quanto outras abordagens.
  2. Sistemas Modulares: Estes são sistemas de contenção pré-fabricados que podem ser facilmente instalados em um data center existente. Eles são mais caros do que os sistemas de cortina, mas oferecem melhor controle sobre o fluxo de ar.
  3. Painéis de Contenção: Estes são painéis rígidos que são instalados no final dos corredores para conter o ar. Eles são mais eficazes do que as cortinas, mas também são mais caros e podem ser mais difíceis de instalar.
  4. Sistemas de Teto de Contenção: Estes são sistemas que usam um teto falso para conter o ar. Eles são muito eficazes, mas também são os mais caros e podem exigir modificações significativas no data center.
Sistema de cortina

Desafios do Confinamento de Corredores

Embora o confinamento de corredores ofereça vários benefícios, também apresenta alguns desafios. Por exemplo, o confinamento de corredor quente geralmente é mais caro, pois requer um caminho contido para o fluxo de ar do corredor quente até as unidades de refrigeração. Além disso, o confinamento de corredor quente normalmente se junta ao teto onde a supressão de incêndio é instalada, o que pode afetar a operação normal de um sistema de supressão de incêndio de grade padrão se o espaço não for bem projetado.


O curso DC100 (Fundamentos em Infraestrutura de data centers) pré-gravado introduz o aluno ao mundo dos data centers, apresentando os fundamentos dos principais elementos e disciplinas de engenharia que compõe a infraestrutura desses ambientes críticos de processamento e armazenamento de dados – os data centers. Clique aqui e se matricule agora!


O confinamento de corredor frio tem se tornado cada vez mais popular e eficaz como solução de resfriamento para data centers. Isso ocorre porque o confinamento de corredor frio é frequentemente usado em ambientes onde o ar frio é gerado fora da área de contenção e trazido por meio de um piso elevado. A maioria dos data centers existentes emprega esse tipo de sistema de resfriamento, que pode ser adaptado para o confinamento de corredor frio com impacto mínimo nas operações.

No entanto, a escolha do tipo de confinamento mais adequado pode variar dependendo das necessidades específicas de cada data center. Portanto, não há uma abordagem única que seja a mais eficaz para todos os data centers. É recomendável consultar um especialista em data center para determinar a melhor abordagem para um data center específico.

Conclusão

O confinamento de corredores em data centers é uma estratégia eficaz para otimizar as operações do data center, reduzindo a mistura de ar frio e quente. Ele oferece vários benefícios, incluindo redução do consumo de energia, aumento da capacidade de resfriamento e prolongamento do ciclo de vida dos ativos de TI. No entanto, também apresenta desafios que devem ser considerados. Com as crescentes demandas de energia e a necessidade de reduzir o impacto ambiental, o confinamento de corredores se tornará cada vez mais importante na gestão de data centers.

Refrigeração Líquida em Data Centers

A refrigeração líquida está se tornando cada vez mais relevante no cenário de data centers devido ao aumento da densidade de energia e à necessidade de soluções de resfriamento mais eficientes. Neste artigo expomos alguns pontos chaves sobre a refrigeração líquida em data centers.

Aumento da Densidade de Energia

Com o rápido crescimento da inteligência artificial (IA) e do aprendizado de máquina, a densidade de energia nos data centers está aumentando Unidades de processamento gráfico (GPUs), que são comumente usadas para acelerar essas aplicações, são extremamente poderosas e geram muito calor. Isso está levando a um aumento na demanda por soluções de refrigeração mais eficientes.

Refrigeração Líquida X Refrigeração a Ar

Tradicionalmente, a refrigeração a ar tem sido a principal forma de resfriamento em data centers. No entanto, à medida em que a densidade de energia aumenta, a refrigeração a ar está se tornando menos eficiente. A refrigeração líquida, por outro lado, é capaz de absorver e transportar calor mais eficientemente do que o ar.

A refrigeração líquida é geralmente mais eficiente do que a refrigeração a ar em termos de eficiência energética. Isso se deve a várias razões, tais como:

Menor resistência térmica: A água tem uma resistência térmica muito menor do que o ar, o que significa que ela pode absorver e transportar calor mais eficientemente.

Maior densidade de energia: A refrigeração líquida pode suportar uma maior densidade de energia, o que é particularmente útil para aplicações de alto desempenho, como IA e aprendizado de máquina.

Exemplo de refrigeração líquida disponível no Brasil – visite o site do representante da solução

Inovações na Refrigeração Líquida

Várias empresas estão inovando no espaço de refrigeração líquida. Por exemplo, a CoolIT Systems garantiu novos fundos para expandir sua capacidade de produção de equipamentos de refrigeração líquida. Além disso, a Lenovo está investindo no desenvolvimento de vários designs de refrigeração líquida, esperando que mais clientes os utilizem.

Grandes empresas como Google e Lenovo já estão adotando a refrigeração líquida em seus data centers. O Google introduziu a refrigeração líquida em seus data centers para resfriar seus mais recentes processadores que sustentam as capacidades de IA. A Lenovo também está mirando novos designs de refrigeração líquida em data centers convencionais.


O curso DC100 (Fundamentos em Infraestrutura de data centers) pré-gravado introduz o aluno ao mundo dos data centers, apresentando os fundamentos dos principais elementos e disciplinas de engenharia que compõe a infraestrutura desses ambientes críticos de processamento e armazenamento de dados – os data centers. Clique aqui e se matricule agora!


Custos da Refrigeração Líquida

A refrigeração líquida pode representar um custo inicial mais alto em comparação com a refrigeração a ar devido à complexidade do sistema e à necessidade de componentes adicionais. No entanto, a longo prazo, a refrigeração líquida pode ser mais econômica.

De acordo com a ASHRAE, a refrigeração líquida em data centers pode melhorar o custo total de propriedade por meio de maior densidade, maior uso de resfriamento gratuito e melhor desempenho por watt. Isso significa que, embora o custo inicial possa ser maior, a eficiência energética melhorada e a capacidade de suportar cargas de trabalho de maior densidade podem resultar em economias significativas ao longo do tempo.

Além disso, estima-se que aproximadamente 40% da energia consumida em um centro de dados seja destinada aos sistemas de refrigeração. Portanto, qualquer melhoria na eficiência da refrigeração pode ter um impacto significativo nos custos operacionais de um data center.

No entanto, o custo exato pode variar dependendo de vários fatores, incluindo o design específico do data center, a localização geográfica, os preços locais de energia e a eficiência do equipamento de refrigeração. Portanto, é importante realizar uma análise de custo-benefício detalhada antes de decidir entre a refrigeração a ar e a refrigeração líquida.

Vantagens e Desvantagens da Refrigeração Líquida

Vantagens:

  • Maior eficiência energética: A refrigeração líquida é capaz de absorver e transportar calor mais eficientemente do que o ar, o que pode resultar em economias significativas de energia a longo prazo.
  • Capacidade de suportar maior densidade de energia: A refrigeração líquida é capaz de suportar cargas de trabalho de maior densidade, como aquelas que envolvem o uso intensivo de GPUs.

Desvantagens:

  • Custo inicial mais alto: A refrigeração líquida pode ter um custo inicial mais alto devido à complexidade do sistema e à necessidade de componentes adicionais.
  • Necessidade de equipamentos específicos: Para que a refrigeração líquida seja eficaz, é necessário que os dispositivos de TI sejam compatíveis com essa tecnologia.

É importante notar que a escolha entre refrigeração a ar e refrigeração líquida depende de vários fatores, incluindo o design específico do data center, a localização geográfica, os preços locais de energia e a eficiência do equipamento de refrigeração. Portanto, é recomendável realizar uma análise de custo-benefício detalhada antes de decidir entre essas duas opções.


HD SSD Kingston SA400S37 480GB

Capacidade: 480 GB
Conectividade: SATA
Fator de forma: 2,5 Polegadas
Dispositivos compatíveis: Notebook
Velocidade de leitura: 500 MB/s
Peso do produto: 60 g
Avaliação 4,8 – Escolha da Amazon para SSD


O Futuro da Refrigeração Líquida

A refrigeração líquida está preparada para se tornar mais comum em data centers no futuro. Com o aumento da densidade de energia e a necessidade de soluções de resfriamento mais eficientes, a refrigeração líquida provavelmente se tornará uma parte integral dos data centers.

Em resumo, a refrigeração líquida está se tornando uma parte cada vez mais importante do cenário de data centers. Com o aumento da densidade de energia e a necessidade de soluções de resfriamento mais eficientes, é provável que vejamos um aumento na adoção da refrigeração líquida nos próximos anos. A previsão é que o mercado de refrigeração líquida alcance os US$ 8 bilhões até 2028, crescendo a um ritmo de mais de 24% ao ano.

Até a próxima!

Marcelo Barboza, RCDD, DCDC, ATS, DCS Design, Assessor CEEDA
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Sobre o autor
Marcelo Barboza, instrutor da área de cabeamento estruturado desde 2001, formado pelo Mackenzie, possui mais de 30 anos de experiência em TI, membro das comissões de estudos sobre cabeamento estruturado e de infraestrutura de data centers da ABNT, certificado pela BICSI (RCDD e DCDC), Uptime Institute (ATS) e DCPro (Data Center Specialist – Design). Instrutor autorizado para cursos selecionados da DCD Academy, Fluke Networks, Panduit e Clarity Treinamentos. Assessor para o selo de eficiência para data centers – CEEDA.

Confinamento de Corredores em Data Centers

Introdução ao confinamento

Em meu artigo anterior, mostrei a importância de uma boa gestão do fluxo de ar na refrigeração dos computadores de um data center. É uma boa ideia ler aquele artigo antes deste, pois lá explico os três principais problemas na gestão do fluxo de ar: ar frio desviado, recirculação do ar quente e pressão negativa. Neste artigo, vamos rever esses problemas e apresentar as soluções de confinamento de corredores, que complementam as práticas mostradas no artigo citado. Depois, leia meu artigo mais recente sobre o assunto.

Vamos recordar esses principais problemas com a seguinte figura:

Problemas na gestão do fluxo de ar em data centers

É necessário evitarmos esses problemas com medidas tais como:

  • Fechar as posições de rack não utilizadas com tampas cegas
  • Não deixar espaços entre os racks da fileira
  • Selar as passagens de dutos e cabos que atravessam o pleno de fornecimento de ar frio (geralmente, o piso elevado)
  • Não colocar saídas de ar frio em locais que não sejam os corredores frios

Mesmo com todas essas medidas, ainda há locais por onde o ar frio ou o ar quente consegue escapar de seu corredor e acaba ocorrendo a mistura indesejada do ar quente com o frio: pelo topo e pelo final dos corredores, onde indicado pelas setas amarelas na figura abaixo.

É aí que entra a solução do “confinamento de corredores”, visando fechar esses dois locais (topo e final de corredores), evitando a mistura do ar quente com o frio. Podemos confinar o corredor quente ou o frio, usando anteparos sobre os racks e portas ao final dos corredores.

Confinamento do corredor frio

Ao confinar o corredor frio, evitamos que o ar resfriado fornecido pelo CRAC se desvie por qualquer outro lugar. A única maneira de ele retornar ao CRAC é passando através dos computadores instalados nos racks. É claro que precisamos fechar quaisquer outros potenciais “buracos” por onde o ar poderia sair.

Confinamento do corredor frio

Principais características dessa solução:

  • Menos volume de ar frio
  • O resto da sala é quente, o que poderia ser um problema para a instalação de equipamentos “stand alone” (fora de rack ou “de piso”), pois poderiam sobreaquecer
  • Maior uniformidade na temperatura do corredor frio
  • É mais fácil de ser aplicada quando os racks são padronizados

Cuidado para não pressurizar demais o corredor frio, senão o ar acaba se “desviando” por dentro dos computadores, ou seja, passa através deles mesmo não havendo muita necessidade.

Confinamento do corredor quente

Nesta solução, evitamos que o ar quente retorne aos computadores criando um “duto” entre o corredor quente e o retorno do CRAC. Esse retorno pode ser dutado ou através do plenum formado pelo forro. Na figura abaixo, o suprimento de ar frio não precisaria ser feito por sob o piso elevado, poderia também ser feito pelo ambiente.

Confinamento do corredor quente

Principais características dessa solução:

  • Maior volume de ar frio (o restante da sala)
  • O resto da sala é fria, permitindo a instalação de equipamentos “stand alone” sem problema de superaquecimento
  • O corredor quente fica muito quente, potencialmente levando a problemas de saúde ocupacional se alguém precisasse ficar muito tempo ali, pois esse corredor pode facilmente passar dos 40 °C
  • É mais fácil de ser aplicada quando os racks são padronizados

Rack chaminé

Esta é uma outra forma de confinamento do corredor quente, só que sem a criação do corredor quente em si. Cada rack confina seu próprio ar quente, possuindo portas traseiras seladas e uma chaminé que permite o retorno do ar quente ao CRAC através de dutos ou do plenum superior.

Rack chaminé

Principais características dessa solução:

  • Não tem corredor quente, evitando problemas de salubridade para quem precisar ficar atrás dos racks por muito tempo
  • O resto da sala é fria
  • Layout mais flexível, não necessitando a criação de corredores paralelos
  • Exige racks apropriados para tal solução, mas não precisam ser todos iguais

Conclusão

Existem diversas alternativas para a implementação do confinamento de corredores. Cada uma delas tem suas características, vantagens e desvantagens. De qualquer forma, implantar o confinamento é melhor do que não fazê-lo, qualquer que seja a solução adotada. Só não podemos descuidar dos demais pontos de atenção com relação à gestão do fluxo de ar, como detalhados no artigo citado no início deste.

Para saber mais, assista meu vídeo sobre confinamento de corredores:

Se achou este post útil, compartilhe, encaminhe a alguém que também possa achá-lo útil. Não deixe de se inscrever em meu canal do YouTube! Participe de meu grupo do Whatsapp e receba as novidades sobre meus artigos, vídeos e cursos. E curta minha página no Facebook!

Até a próxima!

Marcelo Barboza, RCDD, DCDC, ATS, DCS Design, Assessor CEEDA
Clarity Treinamentos
marcelo@claritytreinamentos.com.br

Sobre o autor
Marcelo Barboza, instrutor da área de cabeamento estruturado desde 2001, formado pelo Mackenzie, possui mais de 30 anos de experiência em TI, membro da BICSI e da comissão de estudos sobre cabeamento estruturado da ABNT/COBEI, certificado pela BICSI (RCDD e DCDC), Uptime Institute (ATS) e DCPro (Data Center Specialist – Design). Instrutor autorizado para cursos selecionados da DCProfessional, Fluke Networks, Panduit e Clarity Treinamentos. Assessor para o selo de eficiência para data centers – CEEDA.