Implementando AIM Conforme a Norma ABNT NBR 16869-4 em Data Centers

Introdução

No mundo contemporâneo, onde a tecnologia da informação (TI) desempenha um papel central nas operações empresariais, a eficiência e a confiabilidade das infraestruturas de telecomunicações tornaram-se fundamentais. A norma ABNT NBR 16869-4 (Cabeamento estruturado – Parte 4: Sistema automatizado de gerenciamento da infraestrutura de telecomunicações, redes e TI) surge como um marco no gerenciamento automatizado de infraestrutura (AIM), especificando requisitos para sistemas que monitoram e gerenciam a conectividade física em redes de telecomunicações e TI. Este artigo visa elucidar a importância e a aplicabilidade dessa norma, especialmente em data centers, onde a gestão eficaz do cabeamento é crucial.

Destinado a profissionais de cabeamento estruturado e gestores de data centers, este artigo busca fornecer um entendimento abrangente da norma ABNT NBR 16869-4, abordando desde seus requisitos fundamentais até as práticas recomendadas para sua implementação e gestão.

Visão Geral da Norma ABNT NBR 16869-4

A norma ABNT NBR 16869-4 define o escopo para sistemas AIM, abrangendo desde a detecção automática de dispositivos até a gestão de mudanças na infraestrutura de telecomunicações. Sua aplicabilidade estende-se a todos os ambientes que requerem gerenciamento de conectividade física, com ênfase em data centers.

O sistema AIM é composto por hardware e software que trabalham conjuntamente para monitorar, gerenciar e documentar a infraestrutura de telecomunicações. Entre suas funcionalidades, destacam-se a detecção automática de dispositivos e a capacidade de mapear graficamente a conectividade física.

Implementar um sistema AIM em data centers oferece múltiplos benefícios, incluindo maior eficiência operacional, redução de erros humanos e otimização da gestão de recursos.

Fonte: Siemon

Principais Pontos e Requisitos da Norma

Requisitos de Implementação e Conformidade

A implementação do sistema AIM envolve várias fases, desde a concepção e especificação até o comissionamento e a operação. Cada fase requer atenção aos detalhes para garantir a conformidade com a norma.

A norma detalha requisitos específicos para a implementação do sistema AIM, incluindo especificações técnicas para hardware e software, além de diretrizes para a integração com sistemas externos.

Fonte: Panduit

Por sua vez, a norma ABNT NBR16869-1 (Cabeamento estruturado – Parte 1: Requisitos para planejamento) define que data centers, do ponto de vista do gerenciamento, possuem nível de complexidade operacional 2 ou 3, em função da quantidade de portas de cabeamento gerenciadas (patch panels e distribuidores ópticos), sendo nível 3 já a partir de 101 portas gerenciadas. E no nível 3 de complexidade operacional, tanto o gerenciamento das conexões dos patch cords quanto as ordens de serviço devem ter seu gerenciamento automatizado com sistemas AIM.

Fonte: CommScope

Elementos Funcionais do Sistema AIM

O sistema AIM é composto por uma variedade de componentes de hardware e software, incluindo sensores, módulos de interface e plataformas de gerenciamento. A capacidade de integrar o sistema AIM com outras aplicações, como sistemas de helpdesk, é crucial para uma gestão eficaz da infraestrutura de telecomunicações.

Fonte: ABNT NBR 16869-4

Requisitos Operacionais e Especificações Técnicas

Requisitos Operacionais do Sistema

O sistema AIM deve ser capaz de detectar automaticamente dispositivos conectados e gerenciar a conectividade física entre eles. E um dos requisitos operacionais chave do sistema AIM é a capacidade de apresentar graficamente a localização e a conectividade dos elementos de rede.

Fonte: CommScope

Especificações Técnicas e de Desempenho

A norma especifica os requisitos mínimos de hardware e software necessários para a implementação eficaz de um sistema AIM. A norma também aborda a importância da integração e interoperabilidade do sistema AIM com sistemas externos, garantindo uma gestão de infraestrutura abrangente.

Implementação e Gestão do Sistema AIM

Fases de Implementação Detalhadas

A fase inicial envolve a definição clara dos objetivos do sistema AIM e a especificação dos requisitos técnicos e operacionais. Nas fases de projeto executivo e instalação, o projeto é detalhado e a instalação dos componentes do sistema AIM é realizada, seguindo as melhores práticas e os requisitos da norma. Após a instalação, o sistema é comissionado e entra em operação, com monitoramento contínuo para garantir seu desempenho conforme especificado.

Gestão e Manutenção do Sistema AIM

A gestão eficaz do sistema AIM envolve o monitoramento contínuo e a análise de desempenho para identificar e corrigir quaisquer problemas. Para manter a eficácia do sistema AIM, é essencial realizar atualizações e upgrades regulares, conforme a evolução das tecnologias e das necessidades de negócios.

Integração do AIM com Normas de Cabeamento Estruturado

A integração do sistema AIM com as práticas de cabeamento estruturado, conforme especificado na ABNT NBR 14565 e demais normas nacionais relacionadas (consulte a relação completa de normas neste artigo), potencializa a eficiência e a confiabilidade da infraestrutura de telecomunicações.

A combinação dos sistemas AIM e de cabeamento estruturado oferece benefícios significativos, incluindo melhor gestão de ativos, otimização de recursos e redução de custos operacionais.

Conclusão

A implementação do sistema AIM, conforme a norma ABNT NBR 16869-4, é fundamental para o futuro dos data centers, garantindo a eficiência operacional e a confiabilidade da infraestrutura de telecomunicações.

Encorajamos profissionais de cabeamento estruturado e gestores de data centers a adotarem a norma ABNT NBR 16869-4 em seus projetos, visando otimizar a gestão da infraestrutura de telecomunicações e alcançar excelência operacional.

Este artigo serve como um guia didático para a compreensão e aplicação da norma ABNT NBR 16869-4, com o objetivo de promover práticas de gestão de infraestrutura de telecomunicações alinhadas com os mais altos padrões de qualidade e eficiência.

Melhores Práticas de Eficiência Energética para Data Centers: Um Guia Introdutório

Introdução ao Coração da Era Digital

Os data centers são verdadeiramente o coração pulsante da nossa era digital. Essas instalações complexas são responsáveis por armazenar, processar e proteger uma imensa quantidade de dados, essenciais para o funcionamento de empresas e serviços ao redor do mundo. Este guia tem como objetivo desmistificar algumas das práticas de alta prioridade, fundamentais para a eficiência e sustentabilidade dos data centers. Este artigo visa fornecer insights claros e compreensíveis sobre como otimizar as operações desses ambientes vitais.

Neste artigo, abordaremos uma série de recomendações cruciais para a otimização e eficiência dos data centers, cobrindo temas essenciais que vão desde a formação de um Grupo de Aprovação Multidisciplinar – essencial para uma tomada de decisão abrangente e informada -, até o conhecimento profundo de seu data center através de auditorias físicas e lógicas. Exploraremos também as melhores práticas para o descomissionamento e remoção de equipamentos inativos, visando não apenas a liberação de espaço valioso, mas também a redução de custos operacionais. A consolidação de serviços será destacada como uma estratégia poderosa para otimizar recursos e eficiência. Além disso, delinear-se-ão estratégias eficientes de gerenciamento térmico, fundamentais para manter a integridade e o desempenho dos equipamentos. Por fim, discutiremos como o aproveitamento do free cooling pode significar um avanço significativo na redução do consumo energético, alinhando-se às práticas de sustentabilidade e eficiência energética. Essas recomendações são projetadas para equipar os gestores de data centers com as ferramentas necessárias para operar de maneira mais eficiente, sustentável e econômica, garantindo a resiliência e a continuidade dos serviços críticos.

É imperativo destacar que todas as práticas recomendadas discutidas neste artigo são consideradas de alta prioridade e aplicáveis universalmente a todos os data centers, sejam eles novos ou em processo de expansão, abrangendo integralmente todos os seus equipamentos de TI, mecânicos e elétricos. Essa abordagem é endossada pela mais recente edição (2023) das “Diretrizes de Melhores Práticas para o Código de Conduta da UE sobre Eficiência Energética em Data Centers” (Best Practice Guidelines for the EU Code of Conduct on Data Centre Energy Efficiency), documento que serve como um marco regulatório e orientativo para a operação e design de data centers em busca de otimização energética e sustentabilidade. A aderência a estas diretrizes não apenas reforça o compromisso com a eficiência energética, mas também assegura que as operações dos data centers estejam alinhadas com as práticas mais avançadas e responsáveis do setor, garantindo uma infraestrutura tecnológica mais verde, eficiente e sustentável para o futuro.

Grupo de Aprovação Multidisciplinar

O conceito de um Grupo de Aprovação Multidisciplinar em data centers é fundamental para garantir que as decisões tomadas reflitam uma compreensão abrangente e integrada de todas as áreas impactadas pela operação dessas instalações críticas. Este grupo é essencialmente uma equipe formada por representantes de várias disciplinas dentro da organização, cada um trazendo sua expertise específica para o processo de tomada de decisão. Vamos explorar mais a fundo a importância, composição e funções desse grupo.

A Importância de um Grupo de Aprovação Multidisciplinar

A complexidade de um data center é tal que decisões tomadas em isolamento, sem considerar as interdependências entre diferentes áreas, podem levar a resultados subótimos ou até prejudiciais. Por exemplo, uma decisão sobre a aquisição de novo hardware de TI pode ter implicações significativas não apenas para o orçamento, mas também para a capacidade de refrigeração necessária, o consumo de energia, e a gestão do espaço físico. A formação de um Grupo de Aprovação Multidisciplinar assegura que todas essas considerações sejam avaliadas de forma holística.

Composição do Grupo

A composição desse grupo é deliberadamente diversificada para abranger todas as áreas-chave envolvidas na gestão de um data center. Tipicamente, inclui:

  • Gerência Sênior: Fornece uma visão estratégica e assegura que as decisões estejam alinhadas com os objetivos de negócios da organização.
  • TI (Tecnologia da Informação): Representa as necessidades e requisitos do núcleo tecnológico, incluindo hardware, software e rede.
  • Engenharia M&E (Mecânica e Elétrica): Especialistas em infraestrutura física, focados em alimentação elétrica, climatização e outras necessidades físicas do data center.
  • Software/Aplicações: Foca nas necessidades específicas das aplicações que serão hospedadas no data center, garantindo que o ambiente seja capaz de suportá-las adequadamente.
  • Aquisições: Responsável por avaliar fornecedores, negociar contratos e adquirir equipamentos e serviços dentro dos parâmetros de custo e qualidade.

Funções e Benefícios

O Grupo de Aprovação Multidisciplinar tem várias funções essenciais, incluindo:

  • Avaliação Holística: Garantir que todas as decisões sejam tomadas com uma compreensão completa de seus impactos em todas as áreas do data center.
  • Governança e Conformidade: Assegurar que as decisões estejam em conformidade com as normas e padrões aplicáveis, como ANSI/TIA-942, BICSI-002, e ISO/IEC 22237.
  • Otimização de Recursos: Promover a utilização eficiente dos recursos, identificando oportunidades para melhorar a eficiência energética, a gestão do espaço e a capacidade de refrigeração.
  • Inovação e Melhoria Contínua: Encorajar a adoção de novas tecnologias e práticas que possam melhorar a operação e sustentabilidade do data center.

A implementação de um Grupo de Aprovação Multidisciplinar é, portanto, um passo crítico para qualquer organização que busca otimizar suas operações de data center de maneira sustentável e eficiente, garantindo que todas as decisões sejam informadas, estratégicas e alinhadas com os objetivos globais da empresa.

Conhecendo Seu Data Center: Auditoria Física e Lógica

Para otimizar um data center de maneira eficaz, é fundamental ter um conhecimento aprofundado sobre os ativos e recursos disponíveis. A auditoria, tanto do estado físico quanto lógico dos componentes do data center, emerge como o passo inicial e crucial nesse processo. Essa abordagem meticulosa permite uma compreensão detalhada dos equipamentos em operação e dos serviços que estão sendo fornecidos.

Implementação de Ferramentas de Gestão Baseadas em ITIL

A adoção de um Banco de Dados de Gerenciamento de Configuração (CMDB, na sigla em inglês) e de um Catálogo de Serviços, ambos conceitos fundamentais da Information Technology Infrastructure Library (ITIL), é altamente recomendada. Essas ferramentas são essenciais para manter um registro organizado e atualizado dos ativos de TI e dos serviços oferecidos pelo data center.

Banco de Dados de Gerenciamento de Configuração (CMDB)

O CMDB é uma base de dados que armazena informações sobre os elementos de configuração (ECs) importantes dentro da infraestrutura de TI. No contexto de um data center, isso inclui:

  • Detalhes sobre hardware, como servidores, switches, e dispositivos de armazenamento.
  • Informações sobre software, incluindo sistemas operacionais, aplicativos e licenças.
  • Configurações de rede e relações entre os diferentes componentes de TI.

Ao manter essas informações atualizadas, o CMDB oferece uma visão holística do ambiente de TI, facilitando a identificação de dependências e o impacto de mudanças e falhas potenciais.

Catálogo de Serviços

O Catálogo de Serviços, por sua vez, é um documento ou sistema que lista todos os serviços de TI disponíveis, incluindo descrições detalhadas, usuários ou departamentos destinatários, e informações sobre como solicitar cada serviço. Ele serve como uma ponte entre a TI e seus usuários, esclarecendo o que está disponível e como acessar os serviços necessários.

Benefícios da Auditoria e da Implementação de ITIL

  • Visibilidade Aumentada: Ter visibilidade completa sobre os ativos físicos e lógicos permite que a equipe de TI gerencie melhor os recursos, antecipe necessidades de manutenção e planeje upgrades de forma proativa.
  • Otimização de Recursos: Identificar equipamentos subutilizados ou obsoletos e serviços redundantes pode levar a uma otimização significativa, reduzindo custos e melhorando a eficiência operacional.
  • Melhoria Contínua: Com um registro detalhado e organizado, torna-se mais fácil identificar áreas para melhorias contínuas, seja em termos de desempenho, segurança ou conformidade.
  • Gestão de Mudanças: Facilita a gestão de mudanças ao proporcionar um entendimento claro do ambiente atual e como as alterações propostas afetarão o sistema como um todo.

Em resumo, a realização de uma auditoria abrangente, tanto física quanto lógica, combinada com a implementação de práticas inspiradas na ITIL, como o CMDB e o Catálogo de Serviços, coloca o data center em uma posição de força para otimização e crescimento sustentável. Essa estratégia não apenas simplifica a gestão de recursos, mas também pavimenta o caminho para melhorias contínuas e uma operação mais eficiente

Descomissionamento e Remoção de Equipamentos Inativos

O descomissionamento e a remoção de equipamentos inativos constituem uma etapa crucial na gestão eficiente de um data center. Equipamentos que não estão mais em uso ou que não suportam serviços ativos, incluindo plataformas de teste e desenvolvimento que se tornaram obsoletas, representam um desperdício significativo de espaço e recursos valiosos. Essa prática não só é fundamental para otimizar o uso do espaço físico dentro do data center, mas também desempenha um papel importante na redução do consumo de energia, alinhando-se assim aos objetivos de sustentabilidade.

Processo de Descomissionamento e Remoção

Identificação de Equipamentos Inativos: O primeiro passo envolve a identificação cuidadosa de todos os equipamentos inativos ou obsoletos. Isso pode ser realizado através de auditorias regulares e revisões do inventário, utilizando ferramentas de gestão de ativos e dados de monitoramento para identificar hardware que não está mais servindo a propósitos produtivos.

Avaliação e Planejamento: Após a identificação, é essencial avaliar o impacto potencial do descomissionamento de cada peça de equipamento. Isso inclui verificar dependências, avaliar a possibilidade de reutilização em outros contextos dentro do data center ou em outras instalações, e planejar a remoção de forma que minimize a interrupção das operações.

Execução Segura e Responsável: O descomissionamento e a remoção devem ser executados de maneira segura e responsável. Isso envolve garantir que todos os dados contidos nos dispositivos sejam adequadamente apagados, seguindo padrões de segurança para a eliminação de dados. Além disso, é importante considerar as melhores práticas ambientais para o descarte ou reciclagem de hardware, seguindo regulamentações locais e internacionais pertinentes.

Benefícios do Descomissionamento e Remoção

Otimização do Espaço: A remoção de equipamentos inativos libera espaço valioso dentro do data center, que pode ser melhor utilizado para acomodar hardware mais moderno e eficiente, ou para outras necessidades operacionais.

Redução do Consumo de Energia: Equipamentos obsoletos ou inativos muitas vezes continuam consumindo energia, mesmo sem suportar serviços ativos. Sua remoção contribui para a redução do consumo de energia geral do data center, o que não apenas resulta em economia de custos, mas também minimiza a pegada de carbono da instalação.

Contribuição para a Sustentabilidade: Além de reduzir o consumo de energia, o processo de descomissionamento e remoção de equipamentos inativos alinha-se com práticas de sustentabilidade, ao promover o uso eficiente de recursos e incentivando a reciclagem e o descarte responsável de hardware.

Em suma, o descomissionamento e a remoção de equipamentos inativos são etapas essenciais para a manutenção da eficiência operacional e sustentabilidade de um data center. Esse processo não apenas maximiza o uso do espaço e recursos disponíveis, mas também reforça o compromisso com práticas ambientalmente responsáveis. Ao adotar uma abordagem sistemática e responsável para o descomissionamento, os data centers podem melhorar significativamente seu desempenho operacional e contribuir para um futuro mais sustentável.

Otimizando com a Consolidação de Serviços

A consolidação dos serviços existentes em um data center é um processo estratégico que visa otimizar o uso de recursos de hardware, que frequentemente são subutilizados, operando bem abaixo de sua capacidade total. Esta subutilização não só representa um desperdício de recursos valiosos, mas também contribui para custos operacionais e de energia desnecessariamente altos. Através da implementação de tecnologias de compartilhamento de recursos, como a virtualização, é possível realizar uma consolidação eficaz dos serviços, melhorando a utilização dos recursos físicos e, consequentemente, otimizando o desempenho geral do data center.

Implementação de Tecnologias de Compartilhamento de Recursos

Virtualização: A virtualização é a espinha dorsal da consolidação de serviços. Ela permite que múltiplas instâncias de sistemas operacionais e aplicações sejam executadas em um único servidor físico, compartilhando seus recursos. Isso não só aumenta a eficiência na utilização do hardware, mas também facilita a gestão e a escalabilidade dos serviços.

Containers: Os containers oferecem uma abordagem mais leve à virtualização, permitindo que aplicações sejam empacotadas com todas as suas dependências, o que facilita a movimentação entre diferentes ambientes de computação. Isso otimiza ainda mais o uso dos recursos de hardware, ao mesmo tempo em que proporciona uma gestão simplificada dos serviços.

Benefícios da Consolidação de Serviços

Otimização do Uso do Hardware: Ao consolidar serviços que utilizam apenas uma fração de sua capacidade de hardware, maximiza-se a utilização desses recursos. Isso significa que menos hardware é necessário para suportar a mesma quantidade de trabalho, o que pode levar a uma redução significativa no investimento em novos equipamentos.

Economia nos Custos Operacionais e de Energia: A consolidação de serviços reduz o número de servidores físicos necessários, o que, por sua vez, diminui o consumo de energia e os custos de refrigeração. Além disso, com menos hardware para gerenciar, os custos operacionais associados à manutenção e ao suporte técnico também são reduzidos.

Melhoria na Eficiência Operacional: A gestão de um ambiente consolidado é inerentemente mais eficiente. Com menos servidores físicos para monitorar e manter, as equipes de TI podem focar em melhorias operacionais e inovações, ao invés de se ocuparem com a manutenção de uma infraestrutura inchada e subutilizada.

Contribuição para a Sustentabilidade: A consolidação de serviços contribui diretamente para as iniciativas de sustentabilidade do data center, reduzindo o consumo de energia e a pegada de carbono. Menos hardware e um uso mais eficiente da energia alinham-se com objetivos ambientais mais amplos, reforçando o compromisso do data center com práticas sustentáveis.

Em resumo, a consolidação dos serviços existentes por meio de tecnologias de compartilhamento de recursos como a virtualização é uma estratégia essencial para otimizar o uso do hardware em data centers. Esta abordagem não só melhora significativamente a utilização dos recursos físicos, mas também oferece economias consideráveis nos custos operacionais e de energia, ao mesmo tempo em que contribui para a sustentabilidade e eficiência operacional. Implementar uma estratégia de consolidação bem planejada é, portanto, fundamental para qualquer data center que busca otimizar suas operações e seu impacto ambiental.

Estratégias Eficientes de Gerenciamento Térmico

O gerenciamento térmico eficiente é um pilar fundamental na operação de data centers, não apenas para garantir a confiabilidade e o desempenho ótimo dos dispositivos de TI, mas também para otimizar o consumo de energia e reduzir os custos operacionais. Uma das estratégias mais eficazes para alcançar uma gestão térmica adequada é o design de corredores quentes e frios, complementado pela contenção de ar. Esta abordagem não só melhora significativamente a eficiência do resfriamento, mas também se adapta de forma flexível às variações de carga térmica dos dispositivos de TI.

Design de Corredores Quentes e Frios

O design de corredores quentes e frios envolve a organização física dos racks de servidores de maneira que os exaustores de todos os equipamentos estejam voltados para o mesmo lado (corredor quente), enquanto as entradas de ar estão voltadas para o lado oposto (corredor frio). Essa configuração cria zonas distintas de ar frio e quente dentro do data center, permitindo uma separação clara entre o ar que está sendo resfriado para ser usado pelos equipamentos e o ar que já foi aquecido por eles.

Benefícios do Design de Corredores Quentes e Frios

Eficiência no Resfriamento: Ao separar claramente o ar frio do ar quente, evita-se a mistura de ar quente com ar frio, aumentando a eficiência do sistema de resfriamento.

Redução de Custos de Energia: A eficiência aprimorada na refrigeração resulta em menor consumo de energia, o que se traduz em economias significativas nos custos de energia.

Maior Confiabilidade dos Equipamentos: A manutenção de temperaturas operacionais ótimas aumenta a confiabilidade e a vida útil dos dispositivos de TI.

Contenção de Ar

A contenção de ar é uma prática que aprimora ainda mais a estratégia de corredores quentes e frios. Pode ser implementada de duas formas principais: contenção de corredor frio e contenção de corredor quente.

Contenção de Corredor Frio

Na contenção de corredor frio, os corredores onde o ar frio é introduzido são fechados, geralmente com portas nas extremidades e coberturas no topo. Isso assegura que o ar frio seja direcionado exclusivamente para a entrada dos equipamentos, aumentando a eficiência do resfriamento.

Contenção de Corredor Quente

Similarmente, na contenção de corredor quente, os corredores por onde o ar quente é exaurido são fechados. Isso facilita a remoção eficiente do ar quente do ambiente, permitindo que o sistema de resfriamento opere com maior eficiência.

Adaptação às Variações de Carga Térmica

Um dos aspectos mais valiosos da implementação de corredores quentes e frios, juntamente com a contenção de ar, é a capacidade de adaptar-se rapidamente às variações de carga térmica dos dispositivos de TI. À medida que a demanda de processamento varia, a geração de calor pelos equipamentos também muda. A estratégia de corredores quentes e frios, especialmente quando combinada com sistemas de contenção de ar, permite ajustes mais rápidos e precisos nos sistemas de climatização, garantindo que as condições ideais de operação sejam mantidas constantemente.

Em conclusão, a implementação cuidadosa do design de corredores quentes e frios, complementada pela contenção de ar, representa uma estratégia sofisticada e altamente eficaz para o gerenciamento térmico em data centers. Esta abordagem não só assegura uma operação eficiente e confiável dos dispositivos de TI, mas também promove uma significativa economia de energia, alinhando-se com os objetivos de sustentabilidade e eficiência operacional dos data centers modernos.

Aproveitando o Free Cooling

O free cooling representa uma abordagem inovadora e sustentável para o resfriamento de data centers, capitalizando sobre as condições ambientais externas para reduzir a dependência de sistemas de refrigeração mecânica, como ar-condicionado e chillers. Essa técnica não só promove uma operação mais verde e eficiente em termos energéticos, mas também pode resultar em economias substanciais de custos operacionais a longo prazo. No entanto, a implementação efetiva do free cooling em data centers, especialmente naqueles situados em zonas tropicais, requer uma análise cuidadosa e uma abordagem adaptada às condições climáticas específicas dessas regiões.

Desafios do Free Cooling em Zonas Tropicais

Zonas tropicais apresentam desafios únicos para a implementação de free cooling devido às suas condições climáticas características, que incluem temperaturas elevadas durante todo o ano e alta umidade. Esses fatores podem limitar a eficácia do free cooling, uma vez que o ar externo pode não estar suficientemente frio para ser usado diretamente no resfriamento do ambiente interno, ou pode requerer tratamento adicional para reduzir sua umidade a níveis aceitáveis para a operação segura dos equipamentos de TI.

Estratégias para Maximizar a Eficiência do Free Cooling em Zonas Tropicais

1. Análise Climática Detalhada:
Antes de implementar o free cooling, é crucial realizar uma análise climática detalhada da região onde o data center está localizado. Isso inclui não apenas a temperatura média, mas também a variação diurna e sazonal, bem como a umidade relativa. Essa análise ajudará a identificar períodos do ano ou do dia em que o free cooling seria mais eficaz.

2. Tecnologias de Tratamento do Ar:
Para lidar com a alta umidade, podem ser utilizadas tecnologias de tratamento do ar, como desumidificadores ou sistemas de resfriamento indireto, que permitem o uso do free cooling sem introduzir umidade excessiva no ambiente interno. Essas tecnologias podem ser combinadas com sistemas de controle inteligente para otimizar a operação com base nas condições ambientais em tempo real.

3. Sistemas Híbridos de Resfriamento:
Em zonas tropicais, o free cooling pode ser mais eficaz quando usado como parte de um sistema híbrido, complementando, em vez de substituir completamente, o resfriamento mecânico. Por exemplo, durante as horas mais frias do dia ou em estações mais amenas, o free cooling pode ser utilizado para reduzir a carga sobre os sistemas de refrigeração mecânica, maximizando a eficiência energética.

4. Isolamento e Vedação Eficientes:
Para maximizar os benefícios do free cooling, é essencial garantir que o data center esteja bem isolado e vedado, minimizando a troca de calor indesejada com o ambiente externo. Isso inclui a implementação de barreiras de vapor e isolamento térmico eficaz nas paredes, tetos e pisos.

5. Adaptação Arquitetônica:
A concepção arquitetônica do data center pode ser adaptada para facilitar o free cooling, como a orientação do edifício para aproveitar os ventos predominantes ou a inclusão de elementos arquitetônicos que promovam a ventilação natural.

A implementação de free cooling em data centers localizados em zonas tropicais demanda uma abordagem cuidadosa e personalizada, considerando as peculiaridades climáticas da região. Apesar dos desafios, com planejamento adequado e a utilização de tecnologias adaptadas, é possível maximizar a eficiência do free cooling, reduzindo significativamente a dependência de refrigeração mecânica, os custos operacionais e o impacto ambiental. Investigar a viabilidade do free cooling, especialmente em novas construções ou atualizações de sistemas existentes, é um passo fundamental para data centers que buscam operações mais sustentáveis e eficientes.

Conclusão: Rumo a Data Centers Mais Eficientes e Sustentáveis

As práticas abordadas neste guia são cruciais para a operação eficiente e sustentável de um data center. A adoção dessas recomendações não apenas melhora o desempenho operacional, mas também contribui significativamente para a redução do impacto ambiental. Encorajamos todos os profissionais de data center a integrar essas práticas em suas operações, buscando continuamente melhorias para manter seus ambientes de TI resilientes e eficientes.

Este artigo serve como um ponto de partida essencial para aqueles que estão começando a explorar o fascinante mundo dos data centers, oferecendo uma base sólida de práticas recomendadas que garantem a eficiência e a sustentabilidade dessas infraestruturas indispensáveis.

Normas Para Data Centers

Este artigo tem o objetivo de relacionar todas as normas diretamente relacionadas ao mundo de Infraestrutura de Data Centers. Aqui estão relacionadas normas nacionais (ABNT), internacionais (ISO) e norte-americanas (ANSI). Estas listas são periodicamente revisadas, mas se você constatar que tem alguma norma desatualizada, por favor envie um e-mail para o autor para que ele possa atualizar esta lista (marcelo@claritytreinamentos.com.br)

Normas brasileiras

  • ABNT NBR 16665:2019 – Cabeamento estruturado para data centers (baseada na ISO/IEC 11801-5)
  • ABNT NBR 17040:2022 – Equipotencialização da infraestrutura de cabeamento para telecomunicações e cabeamento estruturado em edifícios e outras estruturas (baseada na ISO/IEC 30129)
  • ABNT NBR ISO/IEC 22237-1:2023 – Tecnologia da informação – Instalações e Infraestruturas de data center – Parte 1: Conceitos gerais
  • ABNT NBR ISO/IEC 22237-2 – Tecnologia da informação – Instalações e Infraestruturas de data center – Parte 2: Construção do edifício (em desenvolvimento)
  • ABNT NBR ISO/IEC 22237-3:2023 – Tecnologia da informação – Instalações e Infraestruturas de data center – Parte 3: Distribuição de energia
  • ABNT NBR ISO/IEC 22237-4:2023 – Tecnologia da informação – Instalações e Infraestruturas de data center – Parte 4: Controle ambiental
  • ABNT NBR ISO/IEC 22237-5 – Tecnologia da informação – Instalações e Infraestruturas de data center – Parte 5: Infraestrutura de cabeamento de telecomunicações (em desenvolvimento)
  • ABNT NBR ISO/IEC 22237-6 – Tecnologia da informação – Instalações e Infraestruturas de data center – Parte 6: Sistemas de segurança (em desenvolvimento)
  • ABNT NBR ISO/IEC 22237-7 – Tecnologia da informação – Instalações e Infraestruturas de data center – Parte 7: Informações operacionais e de gerenciamento (em desenvolvimento)

O curso DC100 (Fundamentos em Infraestrutura de data centers) pré-gravado introduz o aluno ao mundo dos data centers, apresentando os fundamentos dos principais elementos e disciplinas de engenharia que compõe a infraestrutura desses ambientes críticos de processamento e armazenamento de dados – os data centers. Clique aqui e se matricule agora!


Normas internacionais

  • ISO/IEC TR 20913:2016 – Information technology – Data centres – Guidelines on holistic investigation methodology for data centre key performance indicators
  • ISO/IEC 21836:2020 – Information technology – Data centres – Server energy effectiveness metric
  • ISO/IEC TR 21897:2022 – Information technology – Data centres – Impact of the ISO 52000 series on energy performance of buildings
  • ISO/IEC 22237-1:2021 – Information technology – Data centre facilities and infrastructures – Part 1: General concepts
  • ISO/IEC 22237-2:2024 – Information technology – Data centre facilities and infrastructures – Part 2: Building construction
  • ISO/IEC 22237-3:2021 – Information technology – Data centre facilities and infrastructures – Part 3: Power distribution
  • ISO/IEC 22237-4:2021 – Information technology – Data centre facilities and infrastructures – Part 4: Environmental control
  • ISO/IEC TS 22237-5:2018 – Information technology – Data centre facilities and infrastructures – Part 5: Telecommunications cabling infrastructure
  • ISO/IEC 22237-6:2024 –Information technology – Data centre facilities and infrastructures – Part 6: Security systems
  • ISO/IEC TS 22237-7:2018 – Information technology – Data centre facilities and infrastructures – Part 7: Management and operational information
  • ISO/IEC TS 22237-30:2022 – Information technology – Data centre facilities and infrastructures – Part 30: Earthquake risk and impact analysis
  • ISO/IEC TS 22237-31:2023 – Information technology – Data centre facilities and infrastructures – Part 31: Key performance indicators for resilience
  • ISO/IEC TR 23050:2019 – Information technology – Data centres – Impact on data centre resource metrics of electrical energy storage and export
  • ISO/IEC 23544:2021 – Information Technology – Data centres – Application Platform Energy Effectiveness (APEE)
  • ISO/IEC TR 30133:2023 – Information technology – Data centres – Practices for resource-efficient data centres
  • ISO/IEC 30134-1:2016 – Information technology – Data centres – Key performance indicators – Part 1: Overview and general requirements
  • ISO/IEC 30134-2:2016 – Information technology – Data centres – Key performance indicators – Part 2: Power usage effectiveness (PUE)
  • ISO/IEC 30134-3:2016 – Information technology – Data centres – Key performance indicators – Part 3: Renewable energy factor (REF)
  • ISO/IEC 30134-4:2017 – Information technology – Data centres – Key performance indicators – Part 4: IT Equipment Energy Efficiency for servers (ITEEsv)
  • ISO/IEC 30134-5:2017 – Information technology – Data centres – Key performance indicators – Part 5: IT Equipment Utilization for servers (ITEUsv)
  • ISO/IEC 30134-6:2021 – Information technology – Data centres key performance indicators – Part 6: Energy Reuse Factor (ERF)
  • ISO/IEC 30134-7:2023 – Information technology – Data centres key performance indicators – Part 7: Cooling efficiency ratio (CER)
  • ISO/IEC 30134-8:2022 – Information technology – Data centres key performance indicators – Part 8: Carbon usage effectiveness (CUE)
  • ISO/IEC 30134-9:2022 – Information technology – Data centres key performance indicators – Part 9: Water usage effectiveness (WUE)

Normas norte-americanas

  • ANSI/TIA-942-B-2017: Telecommunications Infrastructure Standard for Data Centers
  • ANSI/BICSI-002-2014: Data Center Design and Implementation Best Practices
  • ANSI/BICSI-009-2019: Data Center Operations and Maintenance Best Practices

Cabos Submarinos de Fibra Óptica

Os cabos submarinos de fibra óptica são uma parte crucial da infraestrutura global de comunicações, permitindo a transmissão rápida e eficiente de dados através dos oceanos. Este artigo explora a história, a tecnologia e a importância crescente desses cabos.

O que são Cabos Submarinos de Fibra Óptica?

Um cabo submarino de fibra óptica é um cabo que é colocado no leito do mar entre estações terrestres para transportar sinais de telecomunicações através de trechos de oceano e mar. Os modernos cabos submarinos usam tecnologia de fibra óptica para transportar dados digitais, que incluem tráfego telefônico, Internet e dados privados.

História dos Cabos Submarinos

Os primeiros cabos submarinos de comunicações foram instalados a partir da década de 1850 e transportavam tráfego de telégrafo, estabelecendo as primeiras ligações de telecomunicações instantâneas entre continentes. Com o surgimento da tecnologia óptica na década de 1980, a comunicação de dados via cabos submarinos também migrou para a nova tecnologia, em 1988. Atualmente (início de 2024), há 574 cabos submarinos, dentre os ativos e os planejados, totalizando aproximadamente 1,4 milhões de quilômetros.

Como Funcionam os Cabos Submarinos de Fibra Óptica?

Os modernos cabos submarinos usam tecnologia de fibra óptica. Lasers em uma extremidade disparam a taxas extremamente rápidas por finas fibras de vidro para receptores na outra extremidade do cabo. Essas fibras de vidro são envolvidas em camadas de plástico (e às vezes fio de aço) para proteção.

Os cabos submarinos de fibra óptica são projetados para resistir a pressões de água de até 8.000m de profundidade e têm uma estrutura de altíssima confiabilidade. Em geral, a vida útil dos cabos submarinos de fibra óptica é de cerca de 25 anos. No entanto, eles geralmente são substituídos mais cedo porque os cabos mais novos podem fornecer mais capacidade a um custo comparável e se tornam caros para serem mantidos. Vale ressaltar que a vida útil pode variar dependendo de vários fatores, incluindo as condições do ambiente marinho e a manutenção do cabo.

Qual a Sua Composição?

Os cabos submarinos de fibra óptica são compostos por várias camadas para proteger as fibras de vidro, que são responsáveis pela transmissão dos dados. Aqui está uma descrição detalhada de sua composição:

Fonte: https://gizmodo.uol.com.br/google-cabo-submarino-brasil-2/
  1. Fibras de Vidro: São as responsáveis pela transmissão dos dados.
  2. Camadas de Proteção: As fibras de vidro são envoltas em diversas camadas de plástico e metais para sobreviver ao fundo do mar. Essas camadas incluem:
    • Vaselina: Usada para proteger o cabo contra a água do mar.
    • Cobre: Usado para fornecer energia aos repetidores ao longo do cabo.
    • Policarbonato: Oferece uma camada adicional de proteção.
    • Aço: Usado para dar força ao cabo.
    • Polietileno: Usado como a última camada de proteção.

Os cabos submarinos de fibra óptica são projetados para serem resistentes e duráveis, capazes de suportar as condições extremas do fundo do mar.

Quais os Desafios Enfrentados Pelos Cabos Submarinos de Fibra Óptica?

Os cabos submarinos de fibra óptica enfrentam vários desafios e problemas, incluindo:

  1. Danos Físicos: A atividade humana, principalmente a pesca e a ancoragem, é a maior causa de danos aos cabos submarinos. Barcos de pesca e navios arrastando âncoras enormes são responsáveis por dois terços dos problemas.
  2. Desastres Naturais: Terremotos, ciclones e até mesmo picadas de tubarão podem interferir nas operações dos cabos.
  3. Riscos de Segurança: A perspectiva de danos intencionais e maliciosos é grande, pois a quantidade de dados que atravessa os cabos transoceânicos continua a crescer e a dependência do armazenamento em nuvem aumenta.
  4. Riscos Cibernéticos: Com o aumento do risco geral de segurança cibernética, você pode ter cidadãos, empresas ou serviços públicos que podem ser vítimas de crimes cibernéticos, resgates ou roubo de dados.

Esses desafios destacam a importância de manter e proteger esses cabos, dada a sua importância para a infraestrutura global de comunicações.

Como é o Reparo dos Cabos Submarinos de Fibra Óptica?

O custo do reparo de um cabo submarino de fibra óptica danificado pode variar dependendo de vários fatores, incluindo a extensão do dano, a localização do cabo e as condições do mar. No entanto, é importante notar que o reparo de um cabo submarino é uma tarefa cara e complexa.

O processo de reparo envolve a remoção do cabo submarino do leito do mar, a identificação do local danificado, a substituição da seção danificada e a emenda do restante do cabo. Navios especiais equipados com equipamentos e equipes de reparo são necessários para realizar essas operações.

Fonte: https://bein.no/en/cable-repair-save-engineering-costs/

A maioria das empresas responsáveis por cabos submarinos somente faz manutenções do tipo quando é necessário, ou seja, quando algum problema grave é detectado. O motivo para isso é bastante simples: o custo envolvido nas operações faz com que elas precisem ser certeiras.

O tempo necessário para o reparo também pode variar. Pode levar até duas semanas para consertar o cabo, dependendo das condições climáticas e outros fatores.

Portanto, embora não seja possível fornecer um custo exato sem informações específicas, é seguro dizer que o reparo de um cabo submarino de fibra óptica danificado é uma operação cara e demorada.

A Importância dos Cabos Submarinos de Fibra Óptica

Os cabos submarinos de fibra óptica são responsáveis por mais de 99% da transmissão de dados entre os países e continentes. Eles são essenciais para as telecomunicações, sendo utilizados por diversas empresas de serviços em nuvem e companhias de streaming.

A capacidade dos cabos submarinos de fibra óptica pode variar dependendo do design e da tecnologia utilizada. No entanto, eles são capazes de transmitir volumes substanciais de dados de forma ágil e eficiente entre diferentes pontos. Por exemplo, o cabo submarino que liga o Brasil aos Estados Unidos, com uma extensão de mais de 18 mil quilômetros, tem uma capacidade de 160 Tbps, a maior para interconexão das Américas. Vale ressaltar que a capacidade pode ser afetada por vários fatores, incluindo a qualidade do sinal, a distância entre os amplificadores e a tecnologia de transmissão utilizada.

Crescimento da Utilização dos Cabos Submarinos de Fibra Óptica

A utilização de cabos submarinos de fibra óptica tem crescido significativamente ao longo dos anos. Em 1995, a distribuição entre a transmissão de dados de comunicações via cabos submarinos e satélite era de 50% para cada. Atualmente, essa relação é de 99% via cabos submarinos e 1% via satélites. A estimativa é que os investimentos no setor de cabos submarinos chegue a US$ 10 bilhões (mais de R$ 50 bilhões, no câmbio atual) entre 2022 e 2024.

As empresas que mais investem em cabos submarinos de fibra óptica incluem:

  1. Google: A gigante da tecnologia tem investido pesadamente em cabos submarinos para melhorar a infraestrutura da internet global.
  2. Facebook (agora Meta): A empresa tem feito investimentos significativos em cabos submarinos, incluindo o projeto 2Africa.
  3. Microsoft: A Microsoft é outra grande investidora em cabos submarinos, buscando melhorar a conectividade global.
  4. Amazon: A Amazon também tem investido em cabos submarinos para suportar suas operações globais.

Além dessas empresas, muitas operadoras de telecomunicações tradicionais, como AT&T, Telecom Italia Sparkle, Embratel, entre outras, também investem em cabos submarinos. Essas empresas geralmente formam consórcios para compartilhar os custos e os benefícios do uso dos cabos. Vale ressaltar que o cenário está em constante mudança, com novos participantes entrando no mercado e os existentes aumentando ou diminuindo seus investimentos.

Você pode consultar o mapa dos cabos submarinos acessando o site https://www.submarinecablemap.com/.

Quais os Mais Recentes Cabos Submarinos de Fibra Óptica Que Aportaram no Brasil?

Os cabos submarinos de fibra óptica mais recentes que aportaram no Brasil incluem:

  1. Malbec: Este cabo faz ligação entre duas cidades do sudeste brasileiro (Rio de Janeiro e Praia Grande) e Las Toninas, que fica cerca de 330 km ao sul da capital argentina de Buenos Aires. O sistema foi inaugurado em 2021, e é gerido em um modelo de coparticipação entre a operadora telefônica GlobeNet e o Meta (Facebook).
  2. Junior: Este é um cabo construído pelo Google, no ano de 2018. Além de Santos, o Junior também chega ao Rio de Janeiro.
  3. Firmina: Este é o mais recente cabo a ser construído, conectando o Brasil aos Estados Unidos. Seu nome é uma homenagem à Maria Firmina dos Reis, considerada a primeira romancista brasileira. A previsão é que esteja pronto para serviço em 2024.
  4. EllaLink: Este cabo conecta a Europa (Portugal) ao Brasil. Foi ativado em junho de 2021.

Qual o Mais Longo Cabo Submarino de Fibra Óptica?

Atualmente, o cabo óptico submarino de maior extensão é o SeaMeWe-3, inaugurado em 1999. Ele se estende por aproximadamente 39.000 quilômetros, partindo do sudeste asiático, passando pelo Oriente Médio e chegando até a Europa, conectando 32 países. Esse cabo desempenha um papel crucial na interconexão global, permitindo a transmissão de dados em larga escala através dos oceanos.

O cabo submarino com uma das maiores quantidades de fibras ópticas é o EllaLink, que liga o Brasil à Europa, conectando a cidade de Fortaleza (CE) à cidade portuguesa de Sines. Este cabo tem uma extensão de 6.200 quilômetros., e estima-se que o EllaLink tenha uma capacidade inicial de transmissão de dados de até 400 gigabits por segundo. O projeto do EllaLink envolve um investimento total superior a 1 bilhão de reais.

Conclusão

Os cabos submarinos de fibra óptica desempenham um papel crucial na infraestrutura global de comunicações. Eles permitem a transmissão rápida e eficiente de dados através dos oceanos, conectando continentes e permitindo a comunicação global. Com o aumento da demanda por dados e a crescente dependência da internet, a importância dos cabos submarinos de fibra óptica só continuará a crescer.