A divisão DeepMind da Alphabet reporta em seu blog que aprimorou a eficiência do uso geral de energia (PUE) dos data centers do Google em 15% após a instalação de um programa de inteligência artificial (IA) semelhante ao que foi “ensinado” a jogar Atari, e que ficará responsável pelo gerenciamento dos sistemas de controle dos data centers.
Engenheiros do DeepMind e dos data centers reportaram melhoria nos sistemas de refrigeração PUE de forma consistente em até 40% e que o programa tinha atingido o menor PUE já medido nos data centers da empresa.
Demis Hassabis, especialista em machine learning, notou que a economia veio não só em custos, mas também na redução do impacto ambiental dos data centers. O Google usou 4.402.836 MWh de eletricidade em 2014, ou o equivalente a 366,903 casas de família (norte-americanas) de acordo com o Google Green. Eles forneceram uma estimativa de pegada de carbono para servir a um usuário Google ativo, definido da seguinte forma:
“Alguém que faz 25 buscas e assiste a 60 minutos de YouTube por dia, tem uma conta do Gmail e usa nossos outros serviços, para os quais o Google emite cerca de 8 gramas de CO2 por dia para se manter em funcionamento. Em outras palavras, servir a um usuário do Google por um mês é como dirigir um carro por 1,60 km.”
De acordo com um relatório inicial, a estimativa de economia de custos poderia ser de centenas de milhões de dólares ao longo de vários anos e pagarão em parte, se não completamente, a aquisição da DeepMind, avaliada em mais de US$ 600 milhões. A economia também fará reduzir a pegada de carbono por usuário dos data centers do Google. Sobre a forma como o programa alcançou os ganhos de eficiência, Rich Evans, engenheiro de pesquisa do DeepMind, e o engenheiro de data center do Google, Jim Gao, declararam que:
“O objetivo foi alcançado ao tomarmos os dados históricos que já haviam sido coletados por milhares de sensores dentro do data center, dados como: temperatura, potência, velocidade da bomba, setpoints, etc e usá-los para treinar um conjunto de redes neurais profundas… em seguida, treinamos as redes neurais para a média futura de PUE, que é definida pela razão do consumo total de energia pelo uso de energia de TI. Então treinamos dois conjuntos adicionais de redes neurais profundas para prever a temperatura futura e pressão do data center durante a hora seguinte. O propósito dessas previsões é simular as ações recomendadas a partir do modelo PUE, para garantir que não iremos além de quaisquer restrições operacionais”.
Características individuais do data center, como clima e tempo, arquitetura específica de cada centro local, e a interação entre sistemas diferentes ao longo do dia já havia tornado impossível a otimização PUE anteriormente com a partir de uma equação universal. Com o deep learning, a abordagem de rede neural convolutional de uma equação única não é necessária porque o programa pode aprender a “jogar”, da mesma forma que um videogame, a partir dos inputs que alimentam os sensores e a referência de saída ideal para os melhores resultados. Os engenheiros demonstraram como o PUE foi afetado quando o programa foi ligado e desligado. Hassabis afirma ter aprendido onde são encontrados os gaps na captura de dados do data center e quais sensores adicionais seriam implementados para aumentar ainda mais a eficiência.
De acordo com o blog DeepMind, a mesma tecnologia poderia ser usada para melhorar a eficiência de conversão da usina de energia, reduzindo a fabricação de semicondutores e uso de água, ou ajudar no aumento do rendimento das instalações de fabris.
Fonte: InfoQ
Gostou do conteúdo? Tem alguma dúvida? Entre em contato com nossos Especialistas Mandic Cloud, ficamos felizes em ajudá-lo.