Com informações de Flávia Cayres, da Assessoria de Comunicação do NAP-SoL
Pesquisadores criaram uma metodologia em software livre que planeja os recursos e computadores necessários e os possíveis impactos determinantes pra manter a qualidade no sistema de um Data Center. O projeto foi desenvolvido por pesquisadores do laboratório de Sistemas Distribuídos e Programação Concorrente (LaSDPC) do Departamento de Sistemas de Computação (SSC) do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP, em São Carlos, e também do Instituto Federal de Ciência e Tecnologia de São Paulo (IFSP), no campus de Araraquara.
Uma rede de computadores que reúne documentos do usuário na internet é o ambiente virtual denominado computação em nuvem ou, no inglês, cloud computing. A “nuvem” permite que programas sejam executadas e os dados do usuário mantenham-se na Internet, não mais no computador do usuário. O usuário, nesse espaço, pode armazenar fotos, por exemplo, utilizando serviços como Google Drive e Facebook.
Para que esses serviços sejam suportados por um grande número de usuários, ou seja, para que não tenha problemas de tráfego de navegação, desempenho e confiabilidade, por exemplo, é preciso planejar a capacidade de um Data Center, instalação — de hardware e software — na qual computadores conectados em rede são utilizados para prover serviços como armazenamento de dados e processamento de informações. Neste ponto, os Data Center são a base para criar ambientes de computação em nuvem.
Segundo o diretor do CCSL e pesquisador do projeto, Francisco José Monaco, um Data Center pode suportar cem, mil ou dez mil usuários; contudo, se esse número aumenta rapidamente de mil para dez mil, o dispositivo pode não conseguir aumentar os recursos em tempo suficiente. O objetivo da pesquisa é fornecer informações para auxiliar no cálculo da capacidade dinâmica das ferramentas tradicionais, as quais ajudam a calcular a capacidade estática de um Data Center.
Conforme explica Monaco, a metodologia foi criada para identificar características dinâmicas de sistemas de grande escala. “Com ela é possível planejar quantos recursos e computadores são necessários para manter a navegação de uma hospedagem de aplicação em nuvem. Os sistemas distribuídos de escala muito grandes podem apresentar um comportamento dinâmico como uma variação de desempenho rápida ou lenta na carga de trabalho de um sistema ou uma variação de instabilidade do sistema”, explica Mônaco.
Custos
O custo de implantação de um Data Center, segundo Monaco, é bastante variável. Como, em geral, o objetivo do dispositivo é hospedar um ambiente de cloud computing para um grande número de usuários ou aplicações, então é necessário hardware —computadores, rede — de certo desempenho. “O custo de montar um grande Data Center é de milhões de reais. Um Data Center pequeno pode custar menos”, completa
O custo de implantação de um Data Center, segundo Monaco, é bastante variável. Como, em geral, o objetivo do dispositivo é hospedar um ambiente de cloud computing para um grande número de usuários ou aplicações, então é necessário hardware —computadores, rede — de certo desempenho. “O custo de montar um grande Data Center é de milhões de reais. Um Data Center pequeno pode custar menos”, completa
Para o desenvolvimento do método, os pesquisadores produziram um novo software. Esse software é livre, ou “open source”, o que significa que ele pode ser utilizado, modificado e distribuído livremente. Logo, o custo para adquirir o software é zero, mas Monaco salienta que o custo para implantar um sistema desta medida depende principalmente da mão de obra contratada para isso.
Testes
Inicialmente, o software desenvolvido para o pesquisa foi testado com simuladores de computadores. Em seguida, os resultados obtidos com esses experimentos foram comparados com os resultados de outros experimentos, dessa vez feitos em computadores reais. Para isso, foi utilizado um pequeno protótipo de Data Center no LaSDPC.
Inicialmente, o software desenvolvido para o pesquisa foi testado com simuladores de computadores. Em seguida, os resultados obtidos com esses experimentos foram comparados com os resultados de outros experimentos, dessa vez feitos em computadores reais. Para isso, foi utilizado um pequeno protótipo de Data Center no LaSDPC.
A pesquisa foi apresentada no High Performance Computing & Simulation (HPCS), que ocorreu de 20 a 24 de julho em Amsterdam, na Holanda. O artigo sob o título de Non-stationary simulation of computer systems and dynamic performance evaluation: a concern-based approach and case study on cloud computing foi produzido por Lourenço Alves Pereira Júnior, Edwin Luis Choquehuanca Mamani, Marcos José Santana, Regina Helena Carlucci Santana, Pedro Northon Nobile e Francisco José Monaco. O trabalho tem o apoio do Núcleo de Apoio á Pesquisa em Software Livre (NAP-SoL) junto ao Centro de Competência em Software Livre (CCSL), ambos sediados no ICMC
Foto: Pedro Bolle / USP Imagens
Mais informações: email flaviacayres@gmail.com
Nenhum comentário:
Postar um comentário