Evolução dos data center e o caminho para o resfriamento líquido

Instalações que buscam implantar racks de densidade extremamente alta e adotar IA em grande escala e outros aplicativos para sua transformação terão pouca escolha se usarão ou não refrigeração

Mesmo que a tecnologia avance em um ritmo surpreendente, é fundamental entender como os componentes da eficiência do data center evoluíram. Nesse sentido, vamos nos concentrar no resfriamento do data center e no gerenciamento do fluxo de ar. Acredite ou não, só recentemente é que as melhores práticas reais de fluxo de ar se estabeleceram. O gerenciamento do fluxo de ar do data center tornou-se um ponto de discussão pela primeira vez em meados da década de 1990, quando a futilidade do método então comum de organizar salas de computadores com todos os racks voltados para a frente. Os engenheiros do data center implementaram a primeira organização "intencional" de corredor quente e frio de racks de servidores. Tendo estabelecido o valor de separar corredores frios de corredores quentes, uma ciência das melhores práticas surgiu rapidamente para otimizar os benefícios dessa separação.

 

Em 2005, a Oracle e a Intel relataram projetos de estudo de caso em que implantaram gabinetes de servidor com dutos de exaustão verticais (ou chaminés) ligando os gabinetes a um caminho de ar de retorno suspenso no teto, separando totalmente o ar de retorno do resto dos dados Centro. Embora ambos os estudos relatassem a eficácia do resfriamento e a oportunidade de maior densidade de rack, o que foi mais notável foi que ambos citaram evidências medidas de custos reduzidos de energia de resfriamento.

 

Pouco depois disso, Lawrence Berkeley National Labs relatou um estudo de junho de 2006 no National Energy Research Scientific Computing Center em Oakland, Califórnia. Este estudo incluiu um experimento de contenção de corredor frio resultando em economia mensurável na energia do ventilador da unidade de resfriamento, energia da planta do resfriador em um ponto de ajuste mais alto e aumento de horas do economizador. Desse ponto em diante, a conversa sobre o gerenciamento do fluxo de ar do data center mudou de um foco principal na eficácia para um foco na eficiência.

 

Então, em 2010, ASHRAE 90.1, Padrão de energia para edifícios exceto para residenciais de baixo crescimento, eliminou a isenção de processo para data centers e adicionou prescrições para economia, fluxo variável em ventiladores e restrições sobre gerenciamento de umidade como um reflexo da evolução das melhores práticas para dados gerenciamento do fluxo de ar do centro. Conforme o gerenciamento do fluxo de ar do data center alcançou o status de mainstream nos últimos anos, a evolução desse campo se concentrou no ajuste fino de todos os desenvolvimentos da década anterior.

 

O que mudou? Durante os anos 90 e meados dos anos 2000, designers e operadores preocuparam-se com a capacidade das tecnologias de resfriamento a ar de resfriar servidores que consomem cada vez mais energia. Com densidades de projeto se aproximando ou excedendo 5 quilowatts (kW) por gabinete, alguns acreditavam que os operadores teriam que recorrer a trocadores de calor da porta traseira e outros mecanismos de resfriamento em linha para acompanhar as densidades crescentes.

 

Ainda assim, por décadas, salas de computadores e data centers utilizaram sistemas de piso elevado para fornecer ar frio aos servidores. O ar frio de um condicionador de ar da sala de computador (CRAC) ou do manipulador de ar da sala de computador (CRAH) pressurizou o espaço abaixo do piso elevado. Ladrilhos perfurados forneciam um meio para o ar frio sair do plenum e entrar no espaço principal - idealmente na frente das entradas do servidor. Após passar pelo servidor, o ar aquecido retornava ao CRAC / CRAH resfriado, geralmente após se misturar com o ar frio. Novos tipos de cargas de trabalho simplesmente exigem uma nova maneira de resfriar os servidores nos quais operam.

 

Este sistema foi o design mais comum por muitos anos, centros de dados e design de resfriamento de servidor. Ainda é empregado hoje. Mas quão eficaz é para cargas de trabalho de próxima geração e designs de servidor? Esses sistemas podem suportar coisas como HPC e supercomputação?

 

A necessidade de um melhor resfriamento de data center e design de servidor

 

Quando se trata de resfriamento de servidor, o conceito é direto. O calor deve ser removido do servidor e dos componentes elétricos do equipamento de TI para evitar o superaquecimento dos componentes. Simplificando, se um servidor ficar muito quente, a lógica integrada o desligará para evitar danos ao servidor.

 

Mas não é apenas com o calor que você se preocupa. Alguns servidores de big data e analíticos são altamente sensíveis e podem ser afetados pela contaminação por partículas. Ainda assim, além das ameaças representadas pela contaminação por partículas físicas, existem ameaças relacionadas à contaminação gasosa. Certos gases podem ser corrosivos para componentes eletrônicos.

Esses tipos de sistemas de resfriamento tradicionais certamente ainda terão seu lugar no data center. No entanto, novos tipos de cargas de trabalho simplesmente exigem uma nova maneira de resfriar os servidores nos quais operam.

 

Novos casos de uso que estão aumentando a adoção do resfriamento a líquido

 

No passado, o resfriamento a líquido era visto como uma peça do quebra-cabeça que costumava adicionar complexidade ao data center. Com novas considerações de design e arquiteturas de data center, o resfriamento a líquido assumiu uma forma inteiramente nova, tornando a solução muito mais consumível do que nunca. Discutiremos a arquitetura moderna de resfriamento a líquido na próxima seção. Mas é importante observar que os líderes agora estão trabalhando com sistemas de refrigeração líquida projetados para fornecer aos clientes e provedores de soluções pacotes completos e holísticos prontos para uso. Esses projetos consistem em plataformas, componentes e software de resfriamento a líquido especialmente desenvolvidos. Os administradores estão aproveitando uma arquitetura plug-and-play de refrigeração líquida que se adapta perfeitamente às arquiteturas de data center modernas.

 

É aqui que esses designs estão sendo usados:

 

Aprendizado de máquina e inteligência artificial. À medida que os computadores inteligentes ficam mais inteligentes, as demandas por ambientes de computação de alta densidade desenvolvidos especificamente para atender às necessidades de densidade e energia desses sistemas continuam a aumentar. Novas soluções integradas e convergentes de resfriamento líquido fornecem densidades de equipamentos até então inimagináveis, permitindo clusters mais poderosos do que o que pode ser alcançado com o uso de tecnologias convencionais de resfriamento e interconexão.

 

Edge e Smart City. A evolução da IoE (Internet of Everything) continua a acelerar. Essas plataformas exigem os mais altos níveis de flexibilidade em termos de locais de implantação e arquitetura geral. As soluções integradas de refrigeração líquida permitem que essas plataformas forneçam os mais altos níveis de serviço, confiabilidade e valor para suas populações.

 

Gás de petróleo. Explorar as profundezas dos recursos exploráveis ​​é um desafio altamente exigente. Em um mundo onde cada segundo é importante, as novas plataformas de refrigeração líquida permitem que as organizações implantem os recursos de computação de que precisam nos locais onde são mais úteis, maximizando a lucratividade da organização.

 

VDI, HPC, entrega de aplicativos. Com a computação em nuvem e a repatriação de cargas de trabalho, as linhas entre VDI, HPC e novos requisitos de entrega de aplicativos estão se tornando confusas. Além disso, os eventos de 2020 colocaram em movimento necessidades exclusivas em torno de desktops virtuais, ambientes de computação e entrega de aplicativos. Plataformas de refrigeração líquida totalmente integradas permitem que as organizações repensem como implementam esses recursos empresariais críticos para fornecer o máximo retorno sobre o investimento e os mais altos níveis de experiência do usuário final. Dito isso, é importante observar o que realmente significa “resfriamento integrado a líquido”.

 

Novas soluções virão na medida em que projetos totalmente embalados integrem toda a pilha de TI, ao mesmo tempo em que oferecem suporte ao resfriamento por líquido. Você verá a rede, o armazenamento, a computação e a energia trabalhando em conjunto com as soluções de refrigeração líquida neste projeto. Avançar, esses designs integrados consideram o desempenho e vêm com GPUs Nvidia incorporadas. Portanto, além de desktops simples, os líderes de tecnologia aproveitam um sistema multifuncional de alta velocidade e alta capacidade com GPU, conectividade, armazenamento e computação integrados.

 

Serviços financeiros. Quando o sucesso depende de microssegundos, não há nada mais importante do que garantir que seus sistemas possam oferecer uma forte vantagem competitiva. As densidades, simplicidade e recursos das novas plataformas de refrigeração líquida permitem que as organizações de serviços financeiros repensem como implementam sua infraestrutura mais crítica.

 

Pesquisa e educação. O desenvolvimento da próxima geração de curas, materiais e processos requer a próxima geração de infraestrutura de computação de alto desempenho. As soluções integradas de refrigeração líquida permitem que as organizações resolvam problemas e desenvolvam soluções de maneira mais rápida, eficiente e menos complexa.

 

CAD, Modelagem e Renderização. Transformar o vídeo bruto em uma bela experiência do usuário pode ser um processo complexo e caro. Pode ser desafiador garantir que o material de origem corresponda à mídia de exibição final sem esforços hercúleos. Ao empregar a arquitetura de refrigeração líquida integrada, as organizações podem renderizar com mais rapidez e em locais nunca antes possíveis. Outro ponto crítico gira em torno do nível de integração entre o resfriamento a líquido e a infraestrutura do servidor. Como um sistema tudo-em-um, a nova arquitetura de refrigeração líquida pode vir equipada com designs de lâmina capazes de suportar 16 GPUs NVidia V100 com 32 GB de RAM. Essas GPUs são interconectadas em dois clusters NVLink de oito nós para comunicações rápidas de GPU para GPU. Lembre-se de que essas não são soluções autônomas de resfriamento a líquido que precisam ser integradas aos sistemas de armazenamento e computação. Em vez de, eles vêm construídos especificamente com componentes-chave já projetados para trabalhar com refrigeração líquida. Além disso, eles são integrados com muito mais facilidade como pods na infraestrutura de data center moderna.

 

Jogos. E-sports, e-gaming e e-entertainment são alguns dos setores de crescimento mais rápido no mundo hoje. Como em qualquer novo setor, eles podem encontrar soluções de tecnologia para enfrentar desafios nunca antes vistos. As soluções integradas de resfriamento a líquido foram projetadas desde o início para atender às necessidades das indústrias que se beneficiarão com a próxima geração de soluções de computação de alta densidade criadas especificamente para esse fim.

 

Considerações sobre o projeto dos novos data center

 

O resfriamento de ar tem sido o método preferido em data centers. E para a maior parte, o resfriamento de ar ainda é uma opção viável. Para a maior parte, dadas as baixas densidades eletrônicas e preços de energia acessíveis, soprar ar frio em todos os aparelhos eletrônicos geralmente funciona. No entanto, as soluções de data center e computação tornaram-se mais compactas. Além disso, altas densidades de equipamentos são mais comuns, tornando imperativa a necessidade de melhores métodos de resfriamento. Observando o design do data center e a integração com novos sistemas, o ar condicionado tradicional da sala de computadores não é mais suficiente em alguns novos casos de uso. Adicionar os custos crescentes de energia e os casos de uso avançados de suporte (mencionados acima) podem se tornar bastante caros.

 

Ao trabalhar com soluções integradas de resfriamento a líquido, é importante observar que os líquidos são mais condutores de calor. Isso significa que mesmo um líquido em temperatura ambiente pode resfriar com mais eficácia do que o ar frio. Simplificando, como os líquidos de resfriamento especializados têm entre 50 e 1.000 vezes a capacidade de remover calor do que o ar, existe a opção de passar para o resfriamento a líquido para dar suporte a casos de uso emergentes.

 

Como o líquido pode remover o calor com mais eficiência do que o ar, operar em temperaturas mais baixas em velocidades de clock mais altas permitirá sistemas com melhor desempenho.

 

Compreendendo os desafios em cargas de trabalho específicas de resfriamento a ar

 

Embora não haja nada de errado com as soluções resfriadas a ar, é mais importante do que nunca entender as cargas de trabalho e os casos de uso que aproveitam um tipo específico de resfriamento. No que se refere aos designs refrigerados a ar, um desafio significativo no suporte a casos de uso emergentes gira em torno de cinco fatores principais.

 

Densidade e capacidade. No nível do data center, as melhorias em sistemas individuais envolvem a implementação de processadores aceleradores. Mais especificamente, unidades de processamento gráfico (GPUs), circuitos integrados específicos de aplicativos (ASICs) e matrizes de portas programáveis ​​em campo (FPGAS). Os aceleradores de hardware costumam ser usados ​​no aprendizado de máquina, mas as tendências do setor sugerem que eles serão usados ​​com mais frequência em serviços de TI, como análise, mineração de dados, simulação de engenharia e até mesmo detecção de fraude. Esses novos sistemas são altamente densos. Dependendo do projeto, as soluções tradicionais resfriadas a ar podem simplesmente não ser capazes de lidar com a quantidade de densidade de que você precisa. Isso pode exigir que você distribua a carga de trabalho e utilize mais espaço físico do data center.

 

Escala. Trabalhar com aceleradores ajuda a reduzir problemas como densidade de rack em data centers, que contribuem para as necessidades de resfriamento. Uma GPU emparelhada com um processador Intel pode fornecer mais saída com menos densidade do que uma configuração estritamente de CPU para muitas cargas de trabalho, o que também ajuda a evitar o consumo excessivo de energia e calor. O desafio surge quando você tenta dimensionar esses sistemas. Em um sistema totalmente integrado, o resfriamento a líquido é um método eficaz ao usar aceleradores como GPUs. Por exemplo, os sistemas integrados de resfriamento a líquido permitirão que você adicione lâminas projetadas desde o início para habilitar a próxima geração de aplicativos acelerados por GPU para praticamente todos os casos de uso. Esses sistemas integrados à GPU vêm com resfriamento, rack, rede e gerenciamento, todos agrupados.

 

Eficiência. O desafio da eficiência é economizar energia e não perder a potência de resfriamento; todo mundo quer ser o mais eficiente possível em termos de energia. Hoje, há uma demanda por chips mais potentes, resultando em novos requisitos de resfriamento e eficiência. Durante a evolução do resfriamento a líquido, vimos soluções de resfriamento direto ao chip. Hoje, as soluções de resfriamento por imersão bifásica modulares de alta densidade vêm com todos os componentes de computação, rede e armazenamento de que você precisa. Conforme mencionado anteriormente, os líquidos são muito mais eficientes na remoção de calor do que o resfriamento a ar. Para casos de uso específicos em que a eficiência é crítica, projetos de resfriamento a líquido específicos precisam ser considerados.

 

Atuação. Como o líquido pode remover o calor com mais eficiência do que o ar, operar em temperaturas mais baixas em velocidades de clock mais altas permitirá sistemas com melhor desempenho. Soluções de resfriamento a líquido totalmente integradas podem ser implantadas com sistemas integrados de lâmina e chassi, proporcionando desempenho de nível superior. Novamente, você não precisa adicionar refrigeração líquida em seu gabinete. Em vez disso, o sistema vem com 12 soquetes, capaz de suportar 288 núcleos de potência bruta da CPU, 3 TB de memória, juntamente com suporte para Ethernet 10G e Ethernet 100G, bem como InfiniBand 100G. Tudo isso tem refrigeração líquida embutida no design.

 

Custo. Um estudo recente indicou que o aumento sem precedentes no consumo de energia dos data centers aumentou os custos operacionais e de energia. Tornou-se um desafio para os usuários finais gerenciar e conservar energia nos data centers. Com isso em mente, o preço pode variar substancialmente dependendo dos recursos que você está priorizando. De modo geral, porém, os sistemas de refrigeração a ar custam menos devido à sua operação mais direta; no entanto, conforme aumenta a densidade do rack, a conversa sobre custo e eficiência de resfriamento muda. Em um estudo recentepela Schneider Electric, vemos que para densidades semelhantes (10kW / rack), o custo do data center de um data center refrigerado a ar e líquido é aproximadamente igual. No entanto, o resfriamento a líquido também permite a compactação de TI e, com a compactação, há uma oportunidade de economia de CapEx. Em comparação com o data center tradicional a 10 kW / rack, uma compactação 2x (20 kW / rack) resulta em uma economia de custo inicial de 10%. Quando a compactação 4x é assumida (40 kW / rack), a economia sobe para 14%.

 

 

 

O Avance Network é uma comunidade fácil de usar que fornece segurança de primeira e não requer muito conhecimento técnico. Com uma conta, você pode proteger sua comunicação e seus dispositivos. O Avance Network não mantém registros de seus dados; portanto, você pode ter certeza de que tudo o que sai do seu dispositivo chega ao outro lado sem inspeção.


Strong

5178 بلاگ پوسٹس

تبصرے