Pages

Subscribe:

terça-feira, 18 de outubro de 2011

Virtualização para facilitar o gerenciamento

O atual desafio enfrentado pela indústria de tecnologia da informação (TI) é o de continuar produzindo sistemas menores, mais leves e mais rápidos e, ao mesmo tempo, encontrar melhores meios de gerenciar as complexidades das tecnologias computacionais. A indústria direciona um grande esforço à segurança e ao gerenciamento de informações e de dispositivos para a produção de sistemas mais flexíveis, de modo a torná-los disponíveis aos usuários a qualquer tempo, em qualquer lugar. O conceito de Virtualização de plataforma abre espaço para futuros dispositivos poderosos, autônomos e confiáveis.

 

A Virtualização de plataformas pode ser definida como a criação de um sistema computacional logicamente segmentado, que funciona em uma base real. As plataformas virtuais são vistas pelo usuário e funcionam como se fossem computadores físicos. Uma vez que são abstratas e divididas, a partir de bases ocultas e delas mesmas, as plataformas virtuais são facilmente transportáveis e robustas para simplificar a complexidade e, dessa forma, aumentam a segurança.

 

A Virtualização é uma forma de criar sistemas menos complexos, que dividem os subconjuntos de sistemas em dispositivos mais gerenciáveis. Além disso, essa medida pode proporcionar mais segurança ao sistema, à rede e aos aplicativos, pois isola subsistemas potencialmente vulneráveis de sistemas subjacentes e de outras plataformas virtuais.

 

O conceito de Virtualização inclui todas as camadas da plataforma – desde aplicativos e sistemas operacionais a componentes, processadores e interconexões da plataforma. Porém, vamos nos ater aos dispositivos de armazenamento e aos servidores, pois é nesse ambiente em que o mercado de Virtualização atua.

 

Conceito de Storage

Todas as empresas precisam armazenar informações e para isso utilizam um dispositivo ou um suporte que pode retê-lo durante tempo prolongado, para ser recuperado no momento necessário. Esse dispositivo é chamado de storage.

 

O armazenamento em rede permite a conectividade entre quaisquer servidores e dispositivos de armazenamento, e também aumenta a capacidade das organizações no sentido de migrar seus dados. O armazenamento em rede pode diminuir os custos do processamento de informações, com o aumento do compartilhamento de dispositivos e de capacidade, assim como por meio de comunicações mais eficientes.

 

Dessa forma, é criado o ambiente para a verdadeira computação global – a capacidade de processar as mesmas informações em qualquer momento, a partir de qualquer central de dados no mundo, com os dados e a execução de aplicativos primários migrando para locais ideais, conforme a necessidade.

 

As configurações mais comuns são as já mencionadas redes SAN, dedicadas de armazenamento, tipicamente construídas em torno de tecnologia de fiber channel, que conectam os dispositivos de storage a um conjunto heterogêneo de servidores, sobre uma base múltipla. Uma configuração SAN abriga, além de subsistemas de disco, switches, hubs e bridges.

 

Já as redes NAS (Networked Attached Storage) configuram-se com um local de armazenamento, em que os dados são transferidos usando protocolos como TCP/IP. Uma NAS une os servidores aos subsistemas de storage. Com ela, os sistemas de arquivos, em lugar dos volumes de informação sem processar (raw), estão disponíveis na rede. O administrador de arquivos (file system) maneja e administra a colocação real dos dados.

 

A maior utilização: STORAGE

A Virtualização do armazenamento é o processo de consolidar vários dispositivos físicos de diversos fabricantes e reorganizá-los em agrupamentos virtuais e lógicos, ou em unidades de armazenamento. Essas unidades são apresentadas ao sistema operacional para utilização pelos aplicativos e usuários finais adequados.

 

Apesar do recente aumento de interesse, a Virtualização do armazenamento não é novidade, tanto no conceito quanto na prática. Definida há quase 20 anos na computação em mainframes, a tecnologia está descobrindo uma nova oportunidade e importância com a emergência das redes SANs (Storage Area Networks).

 

Com toda a empolgação em torno da virtualização da SAN, é fácil perder de vista os benefícios imediatos desse processo, que podem ser obtidos também na predominante arquitetura de armazenamento de dispositivos conectados diretamente – DAS (Direct Attached Storage).

 

Seja em mainframe, seja em ambientes de sistema aberto, as tecnologias de Virtualização são utilizadas para simplificar e centralizar o gerenciamento e para fornecer a flexibilidade no atendimento à demanda dos atuais requisitos de dados.

 

A Virtualização elimina as restrições físicas, ao criar uma camada de abstração acima do armazenamento físico em si, que é acessível como um agrupamento lógico de storage e que pode ser alocado quando e onde for necessário. Essa camada oferece a capacidade de combinar dispositivos físicos heterogêneos em entidades virtuais projetadas para atender os requisitos individuais dos aplicativos.

 

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica, enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na medida em que o novo hardware se torna disponível ou que as características do aplicativo se modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos dados no dispositivo lógico.

 

Necessidade recente

É uma realidade nas empresas o crescente volume de informações geradas por novas aplicações, que exigem maior capacidade para suportar diferentes naturezas – dados, voz e imagem. Esse fato, associado aos sistemas legados, passa a ser um problema na maior parte das organizações.

 

A série de mainframes da IBM teve grande sucesso justamente por oferecer um caminho contínuo de evolução, sem obrigar ninguém a abandonar legados de hardware ou de software. Porém, o alto custo de hardware dos mainframes encorajou a migração para os microcomputadores. Essa foi a chance de começar tudo do zero, eliminando o legado de programas em COBOL, PL/1 e outros específicos do mundo do mainframe.

 

Porém, poucos contavam que a microinformática acabaria formando também seu legado, muito maior e bem mais heterogêneo do que o dos mainframes. E isso reuniu equipamentos de diferentes fabricantes, com variadas aplicações, dificilmente integrados. O legado é ruim, pois atrasa a evolução tecnológica, demandando recursos que poderiam ser aplicados em uma arquitetura mais moderna. Além disso, tende a manter o uso de tecnologias obsoletas, inclusive hardware.

 

Para minimizar o problema, surgiu a ferramenta de Virtualização, que auxilia no tratamento dos legados. Geralmente, a Virtualização é assistida por hardware. Embora esse recurso exista desde os mainframes, não é útil apenas para legados, mas auxilia bastante no teste de novas tecnologias. O simples fato de o Microsoft Windows rodar programas MS-DOS não deixa de ser uma espécie de Virtualização, pois cada sessão DOS é um processador de 16 bits virtual.

 

Orçamento apertado

Com os orçamentos reduzidos, levando as empresas a analisar cuidadosamente seus padrões de gastos, é especialmente importante usar todos os recursos tecnológicos em sua total capacidade. Segundo o Gartner Group, cada dólar investido em storage exige US$ 5 de recursos de TI para administrá-lo. Na medida em que os ambientes continuam a evoluir e tornam-se cada vez mais complexos, aumenta a necessidade de minimizar os crescentes custos de administrar quantidades de dados cada vez maiores.

 

As tecnologias implementadas no ambiente de TI devem garantir uma estratégia de gerenciamento simplificada e centralizada, com o objetivo de aumentar a eficiência dos profissionais e reduzir custos. Geralmente, os usuários finais não estão interessados nos aspectos físicos dos recursos de armazenamento de seus aplicativos e sim em tempo de resposta, resultados, capacidade suficiente para armazenamento de dados na medida em que a quantidade aumenta e ocorre redução ou eliminação do tempo de desativação. Em resumo, os usuários se preocupam com a disponibilidade e o acesso aos seus dados, e não com os aspectos físicos do armazenamento. A Virtualização proporciona vários meios de acessar, gerenciar e utilizar os recursos de storage existentes.

 

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica, enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na medida em que o novo hardware se torna disponível ou que as características do aplicativo se modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos dados no dispositivo lógico. Existem muitas tecnologias de Virtualização de armazenamento que têm evoluído, incluindo soluções de banda interna e externa (in-band e out-band), com base em armazenamento e em hospedagem.

 

As soluções baseadas em hospedagem permitem que os discos sejam representados como um agrupamento virtual para um único servidor host. Isso possibilita que o pessoal de TI tenha mais flexibilidade em habilitá-los para torná-los completamente independentes dos fabricantes de soluções de armazenamento. Embora os dados estejam concentrados para acesso apenas por meio de um único servidor, esse pode tornar-se altamente disponível, garantindo que os dados sejam utilizados. A desvantagem em potencial dessa solução surge quando vários servidores exigem o acesso compartilhado aos mesmos dados. Nesse caso, a duplicação dos dados ou outros métodos de Virtualização de armazenamento podem ser considerados.

 

Emulação e Virtualização

Emulação é a recriação de um ambiente de trabalho sem qualquer relação necessária com o ambiente-anfitrião e sem auxílio de hardware, enquanto a Virtualização permite criar diversas máquinas virtuais. Uma utilidade menos óbvia da Virtualização e da emulação é o desenvolvimento de software. Os jogos de 8 bits eram desenvolvidos em computadores robustos, pois isso tornava fácil acompanhar o funcionamento, instrução por instrução. Desenvolver diretamente na plataforma desejada era quase impossível.

 

Mas isso é passado. Há muito tempo, os microcomputadores representam uma plataforma auto-suficiente e de baixo custo para desenvolvimento. E agora chegamos ao ponto em que um micro pode simular a si mesmo com velocidade suficiente para uso normal. Hoje, as ferramentas de desenvolvimento podem subir mais um degrau de qualidade e complexidade.

 

Uma empresa do Vale do Silício alega ter alcançado um dos objetivos mais perseguidos da indústria da tecnologia: um emulador quase universal que permite rodar softwares desenvolvidos para uma determinada plataforma, em qualquer outra, praticamente sem quedas no desempenho. Isso inclui Macs, PCs e diversos tipos de mainframes e servidores.

 

Segundo executivos da empresa, um emulador universal de computadores está para a informática como a transformação de metais em ouro estava para a alquimia. Muitos tentaram, todos falharam. Eles explicam que, embora vários esquemas limitados de emulação tenham sido bem-sucedidos – a transição da Apple para a plataforma PowerPC, ou a “transmutação de código” da arquitetura x86 feita pela Transmeta –, ninguém jamais havia desenvolvido um emulador para processadores e sistemas operacionais múltiplos.

 

O software foi desenvolvido inicialmente na Universidade Manchester (Reino Unido) pelo professor de ciência da computação Alasdair Rawsthorne. Uma das mais importantes inovações é a “representação intermediária”, uma espécie de linguagem comum que dá ao software a flexibilidade para fazer a tradução de uma plataforma para outra.

0 comentários:

Postar um comentário