quarta-feira, 28 de maio de 2014

Artesanato Google rede neural para vigiar seus centros de dados


Maximizando sua infra-estrutura através da virtualização


Google colocou sua tecnologia de rede neural para trabalhar no problema maçante, mas digno de minimizar o consumo de energia de seus centros de dados gigantescos.


Ao fazer isso, a empresa diz que criou um pouco de software que permite que ele prever com 99,6 por cento de precisão o grau de eficiência dos seus centros de dados consomem eletricidade, permitindo-lhe fazer ajustes sutis para reduzir o consumo.







A empresa deu detalhes sobre sua rede neural na quarta-feira. O projeto começou como um dos do Google alardeada "20 por projetos cent" pelo engenheiro Jim Gao, que decidiu aplicar a aprendizagem de máquina para o problema de prever como a eficácia o uso de energia dos centros de dados do Google iria mudar em resposta a ajustes uma das 19 entradas diferentes .


Power Usage Effectiveness (PUE), reflete a proporção de energia que vai para o material de apoio os seus computadores contra o poder que faz com que seja para os servidores e caixas de armazenamento e de rede em racks. Uma relação PUE de 1.1 é muito bom e significa que para cada watt slurped baixo por alguns equipamentos de TI, 0,1 watts são bebeu apoiando infra-estrutura como sistemas de refrigeração ou de outras infra-estruturas facilidade.


Para o Google, diminuindo sua PUE é uma forma crucial para a empresa para diminuir suas contas de energia elétrica volumosos. Abordagem de aprendizagem de máquina de Gao ajudou a fazer isso e foi eficaz o suficiente para o Google para usar em produção.


"Por exemplo, um par de meses atrás, tivemos de tomar algumas servidores offline por alguns dias - o que normalmente fazem esse centro de dados menos eficientes em termos energéticos", a empresa explicou em um post de blog . "Mas nós fomos capazes de usar modelos de Jim para mudar a nossa configuração de resfriamento temporariamente -. Reduzir o impacto da mudança em nosso PUE para esse período de tempo pequenos ajustes como esse, em uma base contínua, adicione-se em poupanças significativas de energia e dinheiro . "


A rede neural utilizada para essas previsões de data center utilizado 19 entradas, cada um que vem com cerca de 180 mil pontos de dados que tinham sido recolhidas ao longo de dois anos. Os dados de entrada incluía coisas como o servidor total de carga de TI em quilowatts, o número total de bombas de água de condensação que funcionam, a média de temperatura de calor abordagem de câmbio, a velocidade do vento ao ar livre em milhas por hora, e assim por diante. *


Ligando esses insumos até a rede neural, o Google é capaz de não só prever como eficácia o uso de energia vai mudar ao longo do tempo, mas também pode usá-lo para simular a mudança de uma das entradas e ver o efeito que terá sobre PUE. Isto dá as capacidades da empresa que são de outra maneira difícil de conseguir, como para descobrir como as 19 entradas interagir é semelhante a jogar xadrez tridimensional em sua cabeça enquanto roller para trás, nós contamos.


GooglePUEPrediction

PUE sistema de previsão do Google é preciso o suficiente para uso em produção, a empresa diz



"O teste real do Google DCs [centros de dados] indicam que a aprendizagem de máquina é um método eficaz de usar os dados dos sensores existentes para modelar DC eficiência energética, e pode render uma economia significativa. Aplicações dos modelos incluem simulação DC para avaliar novas configurações da planta, avaliando a eficiência energética desempenho e identificação de oportunidades de otimização ", escreveu Gao em um artigo descrevendo a abordagem.


Embora o Google está provavelmente esperando uma recepção arrebatamento-of-the-nerds a esta notícia, é importante ressaltar que esta não é uma nova abordagem, nem é o Google o primeiro a aplicá-lo para o monitoramento do centro de dados. As redes neurais têm sido em torno de uma forma ou de outra, desde a década de 1960 e muitos dos sistemas do Google dependem de um refinamento dos anos 1980 chamado de máquina de Boltzmann. Além disso, a AI pioneiro Jeff Hawkins desenvolveu um sistema mais sofisticado que é usado para alimentar um produto comercial chamado Grok, que já faz o monitoramento e previsão de carga do servidor usando um cérebro-como AI teoricamente mais rigorosa.


No entanto, a coisa surpreendente sobre esta notícia é a implicação de que as redes neurais são agora tão bem entendido que a administração do centro de dados pode gin-se um modelo baseado em alguns insumos (massagens), treiná-lo e criar um sistema que possa prever com exatidão surpreendente como um amontoado de insumos combinar e levar a uma única saída específica. E isso é maravilhoso. ®


Bootnote:


* "Dados pré-processamento, tais como arquivo de I / O, filtragem de dados e cálculo de meta-variáveis ​​foi realizada utilizando Python 2.7 em conjunto com o Scipy 0.12.0 e 1.7.0 Numpy módulos. Matlab R2010a foi usado para treinamento do modelo e pós -processamento. alternativas de código aberto que oferece funcionalidade semelhante ao Matlab R2010a incluem Octave, bem como os módulos Scipy / NumPy em Python ", explicou Gao em um artigo mais detalhado descrevendo a abordagem.



Nenhum comentário:

Postar um comentário