O futuro do data center para IA, veículos autônomos e criptografia

O hiperscaling e a colocation de varejo estão se unindo por razões que vão além do crescimento simples e constante dos negócios.

A capacidade de trazer capacidade adicional online em resposta a picos nas cargas de trabalho devido ao aumento da demanda por serviços, seja sazonalmente, como em e-commerce ou periodicamente para distribuição de software / atualização e distribuição de livros, músicas e vídeos na mídia. Novas tecnologias, como AI / ML, e aplicativos que consomem muitos recursos, como criptomoedas, estão alimentando os gastos e o crescimento fora do data center tradicional e dos modelos de nuvem.

 

AI / ML

 

Os aplicativos de inteligência artificial e aprendizado de máquina estão crescendo à medida que as empresas aplicam essas ferramentas a tarefas complexas e grandes volumes de dados. O assistente de voz digital Alexa da Amazon usa várias tarefas para processar voz, incluindo reconhecimento de fala e processamento de linguagem natural com aprendizado de máquina ocorrendo para melhorar continuamente a taxa de reconhecimento de Alexa e as habilidades de conversação, além de permitir que ela se adapte e aprenda novos conceitos.

 

AI / ML é vital para o uso crescente da análise de imagens estáticas e vídeo, tanto em tempo real para tarefas de segurança, como detecção de movimento e reconhecimento facial, quanto para analisar catálogos de imagens ao longo do tempo em busca de alterações. A indústria de imagens de satélite comercial cataloga toda a superfície da Terra diariamente, permitindo que empresas como BlackSky, Capella Space e Planet Labs ofereçam serviços de “máquina do tempo”, identificando mudanças em áreas de interesse e indicadores econômicos. Usando essa combinação de IA e Big Data, as seguradoras podem avaliar rapidamente os danos de furacões e outros desastres naturais, as financeiras podem rastrear o armazenamento de petróleo em todo o mundo e o fluxo de mercadorias em todo o mundo por meio do monitoramento de navios e contêineres, e a indústria do petróleo pode verificar os oleodutos para vazamentos e furtos, apenas para citar alguns exemplos.

 

A combinação de Big Data, com petabytes de imagem sendo coletados diariamente, e ferramentas de análise de IA requer armazenamento massivo e servidores baseados em GPU e FPGA, fornecendo petaflops de capacidade de computação excedendo facilmente a capacidade de energia e computação de um data center tradicional ou serviço em nuvem. A colocation high-end se torna a solução lógica para aplicativos empresariais de AI / ML.

 

Anything-as-a-Service

 

Provedores de software como serviço (SaaS) como PayPay, Salesforce e SAP precisam de instalações com capacidade de hiperescala que podem fornecer 2 a 5 megawatts por vez com a capacidade de expandir em mais espaço à medida que aumentam sua base de clientes, com o precisa ser capaz de implantar em uma base local e regional para reduzir a latência e distribuir cargas para fins de redundância / resiliência.

 

Veículos autônomos

 

A busca por um carro autônomo seguro continua, com empresas como a Uber e a Tesla explorando recursos de hiperscaling e de computação em nível de supercomputador para digerir grandes conjuntos de dados de milhares de veículos operacionais nas estradas e rodovias e alimentar os grandes conjuntos de dados em modelos de aprendizado de máquina para treinar e melhorar o software subjacente.

 

O supercomputador Dojo da Tesla, utilizando silício customizado desenvolvido internamente, foi projetado especificamente para treinar o software de IA autônomo da empresa. Um único chip D1, projetado especificamente para aprendizado de máquina, é capaz de até 363 teraflops e inclui 4 Tbps de largura de banda fora do chip. A máquina Dojo inteira incluirá 3.000 chips D1 para 1.1 exaflops de computador AI. O Dojo adicionará seus recursos de HPC existentes, que incluem 10.000 GPUs espalhados por três clusters de HPC.

 

O Uber usa uma combinação de servidores de computador, armazenamento e GPU altamente otimizados para treinar modelos de veículos autônomos, executar simulações e testar novos lançamentos de software. A empresa forçou o refinamento de sua pilha de software para garantir que seu aprendizado profundo de distribuição possa ser executado em um ambiente de computador de alto desempenho.

 

Criptomoeda

 

Os mineiros de criptomoeda estão na vanguarda da compra de GPUs e outros hardwares especializados e agora estão entrando em uma fase em que, por razões de custo e ambientais, precisam mudar de métodos existentes de uso intensivo de energia para métodos mais eficientes, que geram mais moeda por megawatt.

 

As operações de mineração de criptomoeda dedicadas hoje são construídas em torno de hardware dedicado e denso de computação, consumindo grandes quantidades de eletricidade. No ano passado, estimou-se que o Bitcoin consumiu 67 Terawatts-hora (TWh) de eletricidade e está prestes a consumir 91 TWh até o final de 2021, no mesmo bairro de consumo de energia das Filipinas.

 

Finança

 

O banco de consumidor está sob pressão da Apple Amazon, Facebook e Google, bem como de players não tradicionais de FinTech, como Intuit, PayPal e Square. O banco de varejo teve que adotar o comércio eletrônico e os serviços online para sobreviver, construindo instalações de hiperescala para dar suporte aos clientes existentes e evitar migrações em grande escala para o Cash App e Venmo a longo prazo.

 

O Bank of America gastou mais de $ 25 bilhões desde 2010 para rearquitetar os principais sistemas, incluindo a construção de uma nuvem interna e a construção rápida de software. Sua decisão de manter sua infraestrutura interna parece perspicaz, dada a violação de dados da Capital One em 2019 nos serviços da Amazon Web Service, expondo 106 milhões de informações pessoais de clientes.

 

Análise em tempo real

 

A análise em tempo real fornece às empresas percepções rápidas sobre os fluxos do processo. Por exemplo, uma empresa de varejo pode querer analisar dados de ponto de venda para detecção de fraude, escaneando grandes quantidades de informações que fluem para detectar anomalias no comportamento de compra com precisão suficiente que não afeta as compras de consumo normais e acaba gerando mais trabalho para um call center humano.

 

Para uma implementação bem-sucedida, a análise em tempo real precisa ter baixa latência nas transações de processamento, análise rápida para detectar comportamento anômalo e inteligência suficiente para detectar padrões e tendências em um corpo maior de informações.

 

NVIDIA introduziu silício projetado especificamente para computação de data center, construído em torno de uma CPU multi-core padronizada, uma interface de rede de alto desempenho para transferir dados em taxas de linha para GPUs e CPUs conforme necessário e um grupo de mecanismos de aceleração flexíveis e programáveis ​​para aprovar desempenho de aplicativos em vários campos


Strong

5178 Blog des postes

commentaires