Pages

Subscribe:

quinta-feira, 20 de outubro de 2011

Segurança da Informação: Gestor da Segurança da Informação

Todas as mudanças importantes ocorridas em Segurança da Informação demandavam um novo profissional. O gestor de tecnologia não tinha condições, e muito menos tempo, para assumir toda essa área que se constituía com velocidade estonteante. A resposta foi a criação de uma nova função dentro da companhia que organizasse e coordenasse as iniciativas em Segurança da Informação em busca da eficiência e eficácia no tema.

Apenas alguém com grande conhecimento tanto em negócios quanto em segurança pode desenhar a estratégia de Segurança da Informação de maneira competente, implementando políticas e escolhendo as medidas apropriadas para as necessidades de negócios, sem impactar na produtividade. Ainda que a contratação de gestores de segurança esteja sendo uma constante no mercado de grandes companhias, não se chegou a um consenso sobre a natureza do seu cargo.

 

quarta-feira, 19 de outubro de 2011

Virtualização: Construir um Lab de máquinas virtuais para TI

Você tem uma demanda de testes de hardware para suporte de novos projetos e atualizações? Um laboratório de testes virtual poderia vir a calhar.

Todo mundo fala sobre a virtualização para data centers, mas que sobre a virtualização de laboratórios de TI e ambientes de desenvolvimento? A virtualização oferece um grau significativo de economia, flexibilidade, eficiência e custo. Também reduz o atrito entre os profissionais de TI e líderes de unidade de negócios quando o assunto é financiamento adicional para laboratório dedicado e infra-estrutura de desenvolvimento.

Anteriormente, a equipe de TI tinha apenas um par de opções para lidar com essas tarefas. Eles poderiam usar seus desktops ou laptops próprio trabalho, ou alocar dinheiro do orçamento para comprar hardware para suportar seus testes e necessidades de desenvolvimento. Ambos os métodos são ineficientes em termos de utilização do orçamento e do tempo.

 

Segurança da Informação: Tecnologias

O maior desafio da indústria mundial de software de segurança é prover soluções no espaço de tempo mais curto possível, a partir da descoberta de determinada ameaça ou problema. Mas foi-se o tempo em que tudo se resumia a encontrar um antivírus eficaz, que fosse capaz de deter um determinado vírus. Hoje em dia, os vírus de computador não são mais os únicos vilões do crime digital.

 

Não se trata mais de apenas proteger a estação de trabalho do funcionário. A companhia deve garantir que o correio eletrônico enviado desse mesmo computador passará pelo servidor da empresa, seguirá pela Internet (ou, em certos casos, por uma rede privada virtual), chegará a um outro servidor, que transmitirá a mensagem ao destinatário com a garantia de que se trata de um conteúdo totalmente protegido, sem carregar qualquer truque ou surpresa inesperada.

 

Mas essa ainda é apenas a ponta do iceberg. A Segurança da Informação deve estar atrelada a um amplo Programa de Segurança da Informação, que se constitui de pelo menos três fases principais:

  1. O primeiro passo consiste em realizar o levantamento e a classificação dos ativos da empresa.
  2. Concluída essa fase, é preciso avaliar o grau de risco e de vulnerabilidade desses ativos, testar suas falhas e definir o que pode ser feito para aperfeiçoar a sua segurança.
  3. A infraestrutura de tecnologias é a terceira fase desse planejamento, envolvendo desde aquisição de ferramentas, até configuração e instalação de soluções, criação de projetos específicos e recomendações de uso.

Infraestrutura

Apresentar um organograma consolidado das ferramentas e soluções que compreendem a segurança de uma rede corporativa é algo, em certo sentido, até arriscado, considerando a velocidade com que se criam novos produtos e com que se descobrem novos tipos de ameaças. No entanto, algumas aplicações já fazem parte da rotina e do amadurecimento tecnológico de muitas organizações que, pela natureza de seus negócios, compreenderam quão críticas são suas operações.

 

Algumas dessas aplicações são:

  • Antivírus: Faz a varredura de arquivos maliciosos disseminados pela Internet ou correio eletrônico. – Balanceamento de carga: Ferramentas relacionadas à capacidade de operar de cada servidor da empresa. Vale lembrar que um dos papéis da segurança corporativa é garantir a disponibilidade da informação, algo que pode ser comprometido se não houver acompanhamento preciso da capacidade de processamento da empresa.
  • Firewall: Atua como uma barreira e cumpre a função de controlar os acessos. Basicamente, o firewall é um software, mas também pode incorporar um hardware especializado. – Sistema Detector de Intrusão (IDS, da sigla em inglês): Como complemento do firewall, o IDS se baseia em dados dinâmicos para realizar sua varredura, como por exemplo, pacotes de dados com comportamento suspeito, códigos de ataque etc.
  • Varredura de vulnerabilidades: Produtos que permitem à corporação realizar verificações regulares em determinados componentes de sua rede como, por exemplo, servidores e roteadores.
  • Rede Virtual Privada (VPN, da sigla em inglês): Uma das alternativas mais adotadas pelas empresas na atualidade, as VPNs são canais em forma de túnel, fechados, utilizados para o tráfego de dados criptografados entre divisões de uma mesma companhia, parceiros de negócios.
  • Criptografia: Utilizada para garantir a confidencialidade das informações.
  • Autenticação: Processo de identificação de pessoas, para disponibilizar acesso. Baseia-se em algo que o indivíduo saiba (uma senha, por exemplo), com algo que ele tenha (dispositivos como tokens, cartões inteligentes, certificados digitais); e em algo que ele seja (leitura de íris, linhas das mãos). – Integradores: Permitem centralizar o gerenciamento de diferentes tecnologias que protegem as operações da companhia. Mais que uma solução, trata-se de um conceito.
  • Sistemas antispam: eliminam a maioria dos e-mails não solicitados. – Software de backup: São programas para realizar cópias dos dados para que, em alguma situação de perda, quebra de equipamentos ou incidentes inusitados, a empresa possa recuperá-los.

Pela complexidade de cada uma das etapas compreendidas em um projeto de segurança, especialistas recomendam que a empresa desenvolva a implementação baseando-se em projetos independentes.

 

A Falsa sensação de segurança

O maior perigo para uma empresa, em relação à proteção de seus dados, é a falsa sensação de segurança. Pois, pior do que não ter nenhum controle sobre ameaças, invasões e ataques é confiar cegamente em uma estrutura que não seja capaz de impedir o surgimento de problemas.

 

Por isso, os especialistas não confiam apenas em uma solução baseada em software. Quando se fala em tecnologia, é necessário considerar três pilares do mesmo tamanho, apoiados uns nos outros para suportar um peso muito maior. Esses três pilares são as tecnologias, os processos e as pessoas. Não adianta fortalecer um deles, sem que todos os três não estejam equilibrados.

 

Ao se analisar a questão da Segurança da Informação, no entanto, além da importância relativa de cada um desses pilares, é preciso levar em conta um outro patamar de relevância, pois estará sendo envolvida uma gama muito grande de soluções de inúmeros fornecedores.

 

Por isso, a Segurança da Informação precisa envolver Tecnologias, Processos e Pessoas em um trabalho que deve ser cíclico, contínuo e persistente, com a consciência de que os resultados estarão consolidados em médio prazo.

Uma metáfora comum entre os especialistas dá a dimensão exata de como esses três pilares são importantes e complementares para uma atuação segura: uma casa. Sua proteção é baseada em grades e trancas, para representar as tecnologias, que depende dos seus moradores para que seja feita a rotina diária de cuidar do fechamento das janelas e dos cadeados, ou seja, processos. Simploriamente, a analogia dá conta da interdependência entre as bases da atuação da segurança e de como cada parte é fundamental para o bom desempenho da proteção na corporação.

 

Recursos de proteção

A primeira parte trata do aspecto mais óbvio: as tecnologias. Não há como criar uma estrutura de Segurança da Informação, com política e normas definidas, sem soluções moderníssimas que cuidem da enormidade de pragas que infestam os computadores e a Internet hoje em dia.

 

Os appliances de rede, com soluções de segurança integradas, também precisam ser adotados. Dispositivos para o controle de spam, vetor de muitas pragas da Internet e destacado entrave para a produtividade, também podem ser alocados para dentro do chapéu da Segurança da Informação. Programas para controlar o acesso de funcionários, bloqueando as visitas a páginas suspeitas e que evitem sites com conteúdo malicioso, também são destaques. Mas antes da implementação da tecnologia, é necessária a realização de uma consultoria que diagnostique as soluções importantes.

 

Essas inúmeras ferramentas, no entanto, geram outro problema: como gerenciar toda essa estrutura dentro de uma rotina corporativa que demanda urgência e dificilmente está completamente dedicada à segurança? A melhor resposta está no gerenciamento unificado. A adoção de novas ferramentas, como sistema operacional, ERP ou CRM, precisa de análise dos pré-requisitos em segurança.

 

Outro ponto do tripé são os processos, que exigem revisão constante. O grande combate realizado no dia-a-dia do gestor de segurança, em parceria com o CIO, é equilibrar a flexibilidade dos processos de forma que eles não tornem a companhia frágil, mas que, por outro lado, não endureça demais a produtividade, em busca do maior nível possível de segurança.

 

A visão da companhia como um emaranhado de processos causou grande revolução ao ir de encontro com os conceitos de gestão clássicos, focados na estrutura. Nesse novo enfoque, a adição de segurança segue a mesma linha turbulenta. Como no novo modelo, todos os processos estão integrados, um impacto causado pela segurança pode não apenas causar prejuízos para a rotina da empresa, mas também criar certo mal-estar entre as áreas. Tomar atitudes cautelosas e estudadas, mas sem receio de atritos, precisa ser a prática do gestor.


Pessoas: desafio constante

A última parte da trinca é a mais fácil de explicar. Não é preciso raciocinar muito para chegar à conclusão de que as pessoas são pedras fundamentais dentro do ambiente corporativo, sobretudo em Segurança da Informação.

 

Cerca de 70% dos incidentes de segurança contam com o apoio, intencional ou não, do inimigo interno. As pessoas estão em toda a parte da empresa e enxergam como ponto fundamental apenas a proteção da máquina. Os cuidados básicos com as atitudes das pessoas, muitas vezes são esquecidos ou ignorados. Encontrar senhas escritas e coladas no monitor, bem como a troca de informações sigilosas em ambientes sem confidencialidade, como táxi e reuniões informais são situações muito comuns. Assim, contar com a colaboração das pessoas é simplesmente fundamental numa atividade crítica para a empresa e que não tem final em vista. Mas o ponto principal da preocupação com as pessoas é que os fraudadores irão à busca delas para perpetrar seus crimes.

 

Uma exigência cada vez mais importante para o CSO é ser também um gestor de pessoas, uma vez que elas podem causar muitos estragos e provocar sérios prejuízos. Mas ao se analisar o contexto de formação dos gerentes de segurança, talvez seja esse o ponto mais fraco. Investimento em formação profissional nesse sentido é uma iniciativa muito válida, assim como intercâmbio de informações entre áreas como Recursos Humanos e Marketing para aumentar o alcance e a eficácia das recomendações. O fato de envolver um dilema cultural também é outro complicador. Segurança da Informação representa um desafio de inédita magnitude para os profissionais do setor e, também, para a companhia como um todo.

Segurança da Informação: Suas principais propriedades

As principais propriedades que orientam a análise, o planejamento e a implementação de uma política de segurança são confidencialidade, integridade e disponibilidade. Na medida em que se desenvolve o uso de transações comerciais em todo o mundo, por intermédio de redes eletrônicas públicas ou privadas, outras propriedades são acrescentadas às primeiras, como legitimidade e autenticidade.

 

Confidencialidade - Propriedade que limita o acesso à informação tão somente às entidades legítimas, ou seja, àquelas autorizadas pelo proprietário da informação.

 

Integridade - Propriedade que garante que a informação manipulada mantenha todas as características originais estabelecidas pelo proprietário da informação, incluindo controle de mudanças e garantia do seu ciclo de vida (nascimento, manutenção e destruição).

 

Disponibilidade - Propriedade que garante que a informação esteja sempre disponível para o uso legítimo, ou seja, por aqueles usuários autorizados pelo proprietário da informação. Em todas as fases da evolução corporativa, é fato que as transações de toda a cadeia de produção – passando pelos fornecedores, fabricantes, distribuidores e consumidores – sempre tiveram a informação como uma base fundamental de relacionamento e coexistência.

 

O fato é que hoje, quer seja como princípio para troca de mercadorias, segredos estratégicos, regras de mercado, dados operacionais, quer seja simplesmente resultado de pesquisas, a informação, aliada à crescente complexidade do mercado, à forte concorrência e à velocidade imposta pela modernização das relações corporativas, elevou seu posto na pirâmide estratégica, tornando-se fator vital para seu sucesso ou fracasso.

 

Proteção da informação

Entre as inúmeras tendências que explodiram em tecnologia, poucas assumiram o status de imprescindível. Ao fazer uma comparação, ainda que os sistemas de ERP e CRM sejam de vital importância para a rotina corporativa, ou que soluções de Business Intelligence e Balanced Scorecard permitam aos negócios atingir patamares invejáveis de lucratividade, a Segurança da Informação é a única que não pode faltar em nenhuma hipótese. É ela que protege o bem maior das companhias, ou seja, a informação estratégica.

 

Para entender a importância da proteção das informações, basta pensar no prejuízo que causaria para os negócios a posse desses dados pela concorrência ou por alguém mal-intencionado. Atualmente, o período é de revisão de processos e de avaliação de soluções que protejam cada vez mais as informações corporativas, sem impactar fortemente na produtividade. Fato é que hoje a segurança é considerada estratégica e já encabeça a lista de preocupações de grandes empresas.

 

A Segurança deixou de ser submetida aos domínios da TI, para se tornar uma nova área que responde ao vice-presidente ou ao gestor de operações, ganhando orçamento próprio, salas específicas e, claro, prazos e demandas a serem atendidas. Um dos maiores dilemas da Segurança da Informação está relacionado com a proteção dos ativos e a compreensão da amplitude desse conceito dentro da empresa. A idéia de ativo corporativo envolve também uma questão de difícil medição: a marca da companhia e a percepção que ela desperta no mercado. Um grande escândalo, uma falha latente ou uma brecha negligenciada podem sepultar uma companhia para sempre, ainda que ela tenha tido muito sucesso até então. Outra questão relacionada com a Segurança da Informação, que também causa preocupação, é que se trata de um investimento sem fim. Pois à medida que ela vai se fortalecendo, os ataques cada vez mais vão se sofisticando também.

 

Um caminho sem volta

Não há como voltar atrás. Qualquer companhia, desde a pequena empresa com dois ou três PCs, até uma complexa organização com atuação em diversos países, sabe que em maior ou menor grau a tecnologia é essencial para seu negócio. E é justamente por ser vital, que esse bem não palpável traz consigo uma necessidade básica: segurança.

 

O desafio não é tão simples. Pela própria natureza, embora muitas empresas de TI estejam se esforçando para mudar essa realidade, a segurança da informação é reativa. Isso significa que, tradicionalmente, primeiro verifica-se a existência de um problema, como vírus, fraude, invasão, para depois encontrar sua solução, vacina, investigação, correção de vulnerabilidade.

 

Para muitos, esse cenário pode causar pânico. Afinal, primeiro eleva-se a informação ao patamar mais crítico da empresa, tornando-a peça principal do jogo. Em seguida, vê-se que esse dado, pela forma e processo com que é disponibilizado, corre o risco de ser corrompido, alterado ou roubado por um garoto de 16 anos, que resolveu testar programas hackers disponibilizados na própria Internet ou, em casos piores, usurpado por funcionários e passado para a concorrência ou ainda simplesmente causando danos financeiros à empresa.

 

Mas já existem práticas e soluções tecnológicas suficientemente eficientes para comprovar que a digitalização das transações corporativas não transformou os negócios em uma "terra de ninguém". Embora reconheçam que afirmar ser 100% seguro é algo precipitado e arriscado, especialistas de segurança apontam que educação profissional, processos e tecnologia formam um tripé resistente no combate ao crime eletrônico. Pesquisas mostram que aumentam os investimentos na proteção dos dados. A segurança é o maior desafio das soluções em TI para o sistema financeiro.

terça-feira, 18 de outubro de 2011

Virtualização para facilitar o gerenciamento

O atual desafio enfrentado pela indústria de tecnologia da informação (TI) é o de continuar produzindo sistemas menores, mais leves e mais rápidos e, ao mesmo tempo, encontrar melhores meios de gerenciar as complexidades das tecnologias computacionais. A indústria direciona um grande esforço à segurança e ao gerenciamento de informações e de dispositivos para a produção de sistemas mais flexíveis, de modo a torná-los disponíveis aos usuários a qualquer tempo, em qualquer lugar. O conceito de Virtualização de plataforma abre espaço para futuros dispositivos poderosos, autônomos e confiáveis.

 

A Virtualização de plataformas pode ser definida como a criação de um sistema computacional logicamente segmentado, que funciona em uma base real. As plataformas virtuais são vistas pelo usuário e funcionam como se fossem computadores físicos. Uma vez que são abstratas e divididas, a partir de bases ocultas e delas mesmas, as plataformas virtuais são facilmente transportáveis e robustas para simplificar a complexidade e, dessa forma, aumentam a segurança.

 

A Virtualização é uma forma de criar sistemas menos complexos, que dividem os subconjuntos de sistemas em dispositivos mais gerenciáveis. Além disso, essa medida pode proporcionar mais segurança ao sistema, à rede e aos aplicativos, pois isola subsistemas potencialmente vulneráveis de sistemas subjacentes e de outras plataformas virtuais.

 

O conceito de Virtualização inclui todas as camadas da plataforma – desde aplicativos e sistemas operacionais a componentes, processadores e interconexões da plataforma. Porém, vamos nos ater aos dispositivos de armazenamento e aos servidores, pois é nesse ambiente em que o mercado de Virtualização atua.

 

Conceito de Storage

Todas as empresas precisam armazenar informações e para isso utilizam um dispositivo ou um suporte que pode retê-lo durante tempo prolongado, para ser recuperado no momento necessário. Esse dispositivo é chamado de storage.

 

O armazenamento em rede permite a conectividade entre quaisquer servidores e dispositivos de armazenamento, e também aumenta a capacidade das organizações no sentido de migrar seus dados. O armazenamento em rede pode diminuir os custos do processamento de informações, com o aumento do compartilhamento de dispositivos e de capacidade, assim como por meio de comunicações mais eficientes.

 

Dessa forma, é criado o ambiente para a verdadeira computação global – a capacidade de processar as mesmas informações em qualquer momento, a partir de qualquer central de dados no mundo, com os dados e a execução de aplicativos primários migrando para locais ideais, conforme a necessidade.

 

As configurações mais comuns são as já mencionadas redes SAN, dedicadas de armazenamento, tipicamente construídas em torno de tecnologia de fiber channel, que conectam os dispositivos de storage a um conjunto heterogêneo de servidores, sobre uma base múltipla. Uma configuração SAN abriga, além de subsistemas de disco, switches, hubs e bridges.

 

Já as redes NAS (Networked Attached Storage) configuram-se com um local de armazenamento, em que os dados são transferidos usando protocolos como TCP/IP. Uma NAS une os servidores aos subsistemas de storage. Com ela, os sistemas de arquivos, em lugar dos volumes de informação sem processar (raw), estão disponíveis na rede. O administrador de arquivos (file system) maneja e administra a colocação real dos dados.

 

A maior utilização: STORAGE

A Virtualização do armazenamento é o processo de consolidar vários dispositivos físicos de diversos fabricantes e reorganizá-los em agrupamentos virtuais e lógicos, ou em unidades de armazenamento. Essas unidades são apresentadas ao sistema operacional para utilização pelos aplicativos e usuários finais adequados.

 

Apesar do recente aumento de interesse, a Virtualização do armazenamento não é novidade, tanto no conceito quanto na prática. Definida há quase 20 anos na computação em mainframes, a tecnologia está descobrindo uma nova oportunidade e importância com a emergência das redes SANs (Storage Area Networks).

 

Com toda a empolgação em torno da virtualização da SAN, é fácil perder de vista os benefícios imediatos desse processo, que podem ser obtidos também na predominante arquitetura de armazenamento de dispositivos conectados diretamente – DAS (Direct Attached Storage).

 

Seja em mainframe, seja em ambientes de sistema aberto, as tecnologias de Virtualização são utilizadas para simplificar e centralizar o gerenciamento e para fornecer a flexibilidade no atendimento à demanda dos atuais requisitos de dados.

 

A Virtualização elimina as restrições físicas, ao criar uma camada de abstração acima do armazenamento físico em si, que é acessível como um agrupamento lógico de storage e que pode ser alocado quando e onde for necessário. Essa camada oferece a capacidade de combinar dispositivos físicos heterogêneos em entidades virtuais projetadas para atender os requisitos individuais dos aplicativos.

 

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica, enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na medida em que o novo hardware se torna disponível ou que as características do aplicativo se modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos dados no dispositivo lógico.

 

Necessidade recente

É uma realidade nas empresas o crescente volume de informações geradas por novas aplicações, que exigem maior capacidade para suportar diferentes naturezas – dados, voz e imagem. Esse fato, associado aos sistemas legados, passa a ser um problema na maior parte das organizações.

 

A série de mainframes da IBM teve grande sucesso justamente por oferecer um caminho contínuo de evolução, sem obrigar ninguém a abandonar legados de hardware ou de software. Porém, o alto custo de hardware dos mainframes encorajou a migração para os microcomputadores. Essa foi a chance de começar tudo do zero, eliminando o legado de programas em COBOL, PL/1 e outros específicos do mundo do mainframe.

 

Porém, poucos contavam que a microinformática acabaria formando também seu legado, muito maior e bem mais heterogêneo do que o dos mainframes. E isso reuniu equipamentos de diferentes fabricantes, com variadas aplicações, dificilmente integrados. O legado é ruim, pois atrasa a evolução tecnológica, demandando recursos que poderiam ser aplicados em uma arquitetura mais moderna. Além disso, tende a manter o uso de tecnologias obsoletas, inclusive hardware.

 

Para minimizar o problema, surgiu a ferramenta de Virtualização, que auxilia no tratamento dos legados. Geralmente, a Virtualização é assistida por hardware. Embora esse recurso exista desde os mainframes, não é útil apenas para legados, mas auxilia bastante no teste de novas tecnologias. O simples fato de o Microsoft Windows rodar programas MS-DOS não deixa de ser uma espécie de Virtualização, pois cada sessão DOS é um processador de 16 bits virtual.

 

Orçamento apertado

Com os orçamentos reduzidos, levando as empresas a analisar cuidadosamente seus padrões de gastos, é especialmente importante usar todos os recursos tecnológicos em sua total capacidade. Segundo o Gartner Group, cada dólar investido em storage exige US$ 5 de recursos de TI para administrá-lo. Na medida em que os ambientes continuam a evoluir e tornam-se cada vez mais complexos, aumenta a necessidade de minimizar os crescentes custos de administrar quantidades de dados cada vez maiores.

 

As tecnologias implementadas no ambiente de TI devem garantir uma estratégia de gerenciamento simplificada e centralizada, com o objetivo de aumentar a eficiência dos profissionais e reduzir custos. Geralmente, os usuários finais não estão interessados nos aspectos físicos dos recursos de armazenamento de seus aplicativos e sim em tempo de resposta, resultados, capacidade suficiente para armazenamento de dados na medida em que a quantidade aumenta e ocorre redução ou eliminação do tempo de desativação. Em resumo, os usuários se preocupam com a disponibilidade e o acesso aos seus dados, e não com os aspectos físicos do armazenamento. A Virtualização proporciona vários meios de acessar, gerenciar e utilizar os recursos de storage existentes.

 

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica, enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na medida em que o novo hardware se torna disponível ou que as características do aplicativo se modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos dados no dispositivo lógico. Existem muitas tecnologias de Virtualização de armazenamento que têm evoluído, incluindo soluções de banda interna e externa (in-band e out-band), com base em armazenamento e em hospedagem.

 

As soluções baseadas em hospedagem permitem que os discos sejam representados como um agrupamento virtual para um único servidor host. Isso possibilita que o pessoal de TI tenha mais flexibilidade em habilitá-los para torná-los completamente independentes dos fabricantes de soluções de armazenamento. Embora os dados estejam concentrados para acesso apenas por meio de um único servidor, esse pode tornar-se altamente disponível, garantindo que os dados sejam utilizados. A desvantagem em potencial dessa solução surge quando vários servidores exigem o acesso compartilhado aos mesmos dados. Nesse caso, a duplicação dos dados ou outros métodos de Virtualização de armazenamento podem ser considerados.

 

Emulação e Virtualização

Emulação é a recriação de um ambiente de trabalho sem qualquer relação necessária com o ambiente-anfitrião e sem auxílio de hardware, enquanto a Virtualização permite criar diversas máquinas virtuais. Uma utilidade menos óbvia da Virtualização e da emulação é o desenvolvimento de software. Os jogos de 8 bits eram desenvolvidos em computadores robustos, pois isso tornava fácil acompanhar o funcionamento, instrução por instrução. Desenvolver diretamente na plataforma desejada era quase impossível.

 

Mas isso é passado. Há muito tempo, os microcomputadores representam uma plataforma auto-suficiente e de baixo custo para desenvolvimento. E agora chegamos ao ponto em que um micro pode simular a si mesmo com velocidade suficiente para uso normal. Hoje, as ferramentas de desenvolvimento podem subir mais um degrau de qualidade e complexidade.

 

Uma empresa do Vale do Silício alega ter alcançado um dos objetivos mais perseguidos da indústria da tecnologia: um emulador quase universal que permite rodar softwares desenvolvidos para uma determinada plataforma, em qualquer outra, praticamente sem quedas no desempenho. Isso inclui Macs, PCs e diversos tipos de mainframes e servidores.

 

Segundo executivos da empresa, um emulador universal de computadores está para a informática como a transformação de metais em ouro estava para a alquimia. Muitos tentaram, todos falharam. Eles explicam que, embora vários esquemas limitados de emulação tenham sido bem-sucedidos – a transição da Apple para a plataforma PowerPC, ou a “transmutação de código” da arquitetura x86 feita pela Transmeta –, ninguém jamais havia desenvolvido um emulador para processadores e sistemas operacionais múltiplos.

 

O software foi desenvolvido inicialmente na Universidade Manchester (Reino Unido) pelo professor de ciência da computação Alasdair Rawsthorne. Uma das mais importantes inovações é a “representação intermediária”, uma espécie de linguagem comum que dá ao software a flexibilidade para fazer a tradução de uma plataforma para outra.

segunda-feira, 17 de outubro de 2011

Microsoft conclui compra do Skype por US$ 8,5 bilhões

Skype passa a ser uma nova divisão da Microsoft e continuará a oferecer os mesmos serviços

20111014060125

 

A Microsoft concluiu nesta sexta-feira (14/10) a compra do Skype, serviço de chamadas de voz e vídeo pela internet, por US$ 8,5 bilhões. A companhia obteve há uma semana a autorização da Comissão Europeia para fechar o negócio, anunciado em maio deste ano. A conclusão da aquisição também marca a introdução oficial do Skype como uma nova divisão de negócios da Microsoft.
Segundo o comunicado postado no site Microsoft Insiders Brasil, o Skype continuará a oferecer seus serviços normalmente, mas, ao longo do tempo, eles serão integrados ao portfólio da Microsoft. Tony Bates continuará no cargo de presidente-executivo do Skype e vai se reportar diretamente a Steve Ballmer, presidente-executivo da Microsoft.
Desde seu lançamento, em 2003, o Skype se tornou o serviço mais popular de videoconferência do mundo. Porém, seus investidores sempre encontraram dificuldades em manter o negócio lucrativo. Atualmente, as ligações efetuadas pelo software são gratuitas e as pagas possuem preços baixos em relação às tarifas de operadoras convencionais.
Em 2005, a empresa foi adquirada pelo eBay e, quatro anos mais tarde, um grupo de investidores liderados pela Silver Lake negociou a venda da companhia para a Microsoft.