Pages

Subscribe:

terça-feira, 22 de novembro de 2011

Virtualização: A evolução

O que há em software e hardware para a simplificação da infraestrutura das empresas?

Existem muitas tecnologias de Virtualização de armazenamento que têm evoluído, incluindo soluções de banda interna e externa (in-band e out-band), com base em armazenamento e em hospedagem. As primeiras tecnologias de Virtualização que surgiram foram soluções com base em armazenamento. Elas permitem que vários servidores compartilhem o acesso a dados em um único array, variável que armazena um conjunto de valores do mesmo tipo. O lado negativo, no entanto, é que esses servidores não podem acessar os dados além de seu próprio array.

Além disso, os usuários estão arriscados a ficar limitados a soluções que dependam dos fabricantes, com base nas restrições de compatibilidade de hardware do array mais amplo ou dos servidores diretamente conectados. A Virtualização com base no armazenamento pode então ser mais dispendiosa do que outras alternativas de menor prioridade.

segunda-feira, 21 de novembro de 2011

As vantagens das Tecnologias de Virtualização

As vantagens

A aposta nas soluções de Virtualização deriva da necessidade dos gestores de Tecnologias de Informação em dar resposta eficaz ao aumento e à diversificação dos ambientes computacionais dentro das organizações. Além disso, a adequada gestão do custo total de propriedade é cada vez mais relevante, bem como a capacidade de solucionar as crescentes dificuldades de manutenção e de gestão desses mesmos ambientes.

A Virtualização de infra-estruturas proporciona abstração entre os diferentes meios de computação como processamento, armazenamento de dados, rede e software. Ao implementar esse conceito, são eliminadas todas as restrições físicas e todos os meios ficam acessíveis como “agrupamentos lógicos”, que podem ser utilizados em qualquer hora e local. Além de muitas outras vantagens, as soluções de Virtualização garantem maior capacidade de adaptação às constantes mudanças dos ambientes empresariais, mais eficiência e flexibilidade aos recursos de TI e redução dos custos associados.

As vantagens das Tecnologias de Virtualização


As vantagens

A aposta nas soluções de Virtualização deriva da necessidade dos gestores de Tecnologias de Informação em dar resposta eficaz ao aumento e à diversificação dos ambientes computacionais dentro das organizações. Além disso, a adequada gestão do custo total de propriedade é cada vez mais relevante, bem como a capacidade de solucionar as crescentes dificuldades de manutenção e de gestão desses mesmos ambientes.

A Virtualização de infra-estruturas proporciona abstração entre os diferentes meios de computação como processamento, armazenamento de dados, rede e software. Ao implementar esse conceito, são eliminadas todas as restrições físicas e todos os meios ficam acessíveis como “agrupamentos lógicos”, que podem ser utilizados em qualquer hora e local. Além de muitas outras vantagens, as soluções de Virtualização garantem maior capacidade de adaptação às constantes mudanças dos ambientes empresariais, mais eficiência e flexibilidade aos recursos de TI e redução dos custos associados.

O mercado atual de virtualização e as perspectivas para os próximos anos

Uma das conseqüências dos incidentes terroristas de 11 de setembro de 2001, em Nova York (EUA), foi a mudança de visão por parte das empresas sobre suas estratégias de proteção de dados. As companhias estavam desprevenidas e não contavam com a perda de valiosas informações de negócios e com a ameaça contra sua própria sobrevivência. E como ninguém deseja correr riscos, o tema continuidade de negócios passou a merecer atenção especial dos gestores de tecnologia.

Manter um Business Continuity Plan passou a ser algo fundamental, de fato. Algumas empresas optam por uma estratégia definida por áreas para garantir recuperação total de seus dados estratégicos diante de qualquer contratempo. Para algumas organizações, a continuidade de negócios é vista como um organismo. O gerenciamento de riscos e os processos apontam o que é preciso para o prosseguimento das operações e isso é feito gerando avaliações e revisões que atualizam o plano de continuidade conforme as necessidades atuais do negócio, que podem mudar de ano para ano.

 

quinta-feira, 20 de outubro de 2011

Segurança da Informação: Gestor da Segurança da Informação

Todas as mudanças importantes ocorridas em Segurança da Informação demandavam um novo profissional. O gestor de tecnologia não tinha condições, e muito menos tempo, para assumir toda essa área que se constituía com velocidade estonteante. A resposta foi a criação de uma nova função dentro da companhia que organizasse e coordenasse as iniciativas em Segurança da Informação em busca da eficiência e eficácia no tema.

Apenas alguém com grande conhecimento tanto em negócios quanto em segurança pode desenhar a estratégia de Segurança da Informação de maneira competente, implementando políticas e escolhendo as medidas apropriadas para as necessidades de negócios, sem impactar na produtividade. Ainda que a contratação de gestores de segurança esteja sendo uma constante no mercado de grandes companhias, não se chegou a um consenso sobre a natureza do seu cargo.

 

quarta-feira, 19 de outubro de 2011

Virtualização: Construir um Lab de máquinas virtuais para TI

Você tem uma demanda de testes de hardware para suporte de novos projetos e atualizações? Um laboratório de testes virtual poderia vir a calhar.

Todo mundo fala sobre a virtualização para data centers, mas que sobre a virtualização de laboratórios de TI e ambientes de desenvolvimento? A virtualização oferece um grau significativo de economia, flexibilidade, eficiência e custo. Também reduz o atrito entre os profissionais de TI e líderes de unidade de negócios quando o assunto é financiamento adicional para laboratório dedicado e infra-estrutura de desenvolvimento.

Anteriormente, a equipe de TI tinha apenas um par de opções para lidar com essas tarefas. Eles poderiam usar seus desktops ou laptops próprio trabalho, ou alocar dinheiro do orçamento para comprar hardware para suportar seus testes e necessidades de desenvolvimento. Ambos os métodos são ineficientes em termos de utilização do orçamento e do tempo.

 

Segurança da Informação: Tecnologias

O maior desafio da indústria mundial de software de segurança é prover soluções no espaço de tempo mais curto possível, a partir da descoberta de determinada ameaça ou problema. Mas foi-se o tempo em que tudo se resumia a encontrar um antivírus eficaz, que fosse capaz de deter um determinado vírus. Hoje em dia, os vírus de computador não são mais os únicos vilões do crime digital.

 

Não se trata mais de apenas proteger a estação de trabalho do funcionário. A companhia deve garantir que o correio eletrônico enviado desse mesmo computador passará pelo servidor da empresa, seguirá pela Internet (ou, em certos casos, por uma rede privada virtual), chegará a um outro servidor, que transmitirá a mensagem ao destinatário com a garantia de que se trata de um conteúdo totalmente protegido, sem carregar qualquer truque ou surpresa inesperada.

 

Mas essa ainda é apenas a ponta do iceberg. A Segurança da Informação deve estar atrelada a um amplo Programa de Segurança da Informação, que se constitui de pelo menos três fases principais:

  1. O primeiro passo consiste em realizar o levantamento e a classificação dos ativos da empresa.
  2. Concluída essa fase, é preciso avaliar o grau de risco e de vulnerabilidade desses ativos, testar suas falhas e definir o que pode ser feito para aperfeiçoar a sua segurança.
  3. A infraestrutura de tecnologias é a terceira fase desse planejamento, envolvendo desde aquisição de ferramentas, até configuração e instalação de soluções, criação de projetos específicos e recomendações de uso.

Infraestrutura

Apresentar um organograma consolidado das ferramentas e soluções que compreendem a segurança de uma rede corporativa é algo, em certo sentido, até arriscado, considerando a velocidade com que se criam novos produtos e com que se descobrem novos tipos de ameaças. No entanto, algumas aplicações já fazem parte da rotina e do amadurecimento tecnológico de muitas organizações que, pela natureza de seus negócios, compreenderam quão críticas são suas operações.

 

Algumas dessas aplicações são:

  • Antivírus: Faz a varredura de arquivos maliciosos disseminados pela Internet ou correio eletrônico. – Balanceamento de carga: Ferramentas relacionadas à capacidade de operar de cada servidor da empresa. Vale lembrar que um dos papéis da segurança corporativa é garantir a disponibilidade da informação, algo que pode ser comprometido se não houver acompanhamento preciso da capacidade de processamento da empresa.
  • Firewall: Atua como uma barreira e cumpre a função de controlar os acessos. Basicamente, o firewall é um software, mas também pode incorporar um hardware especializado. – Sistema Detector de Intrusão (IDS, da sigla em inglês): Como complemento do firewall, o IDS se baseia em dados dinâmicos para realizar sua varredura, como por exemplo, pacotes de dados com comportamento suspeito, códigos de ataque etc.
  • Varredura de vulnerabilidades: Produtos que permitem à corporação realizar verificações regulares em determinados componentes de sua rede como, por exemplo, servidores e roteadores.
  • Rede Virtual Privada (VPN, da sigla em inglês): Uma das alternativas mais adotadas pelas empresas na atualidade, as VPNs são canais em forma de túnel, fechados, utilizados para o tráfego de dados criptografados entre divisões de uma mesma companhia, parceiros de negócios.
  • Criptografia: Utilizada para garantir a confidencialidade das informações.
  • Autenticação: Processo de identificação de pessoas, para disponibilizar acesso. Baseia-se em algo que o indivíduo saiba (uma senha, por exemplo), com algo que ele tenha (dispositivos como tokens, cartões inteligentes, certificados digitais); e em algo que ele seja (leitura de íris, linhas das mãos). – Integradores: Permitem centralizar o gerenciamento de diferentes tecnologias que protegem as operações da companhia. Mais que uma solução, trata-se de um conceito.
  • Sistemas antispam: eliminam a maioria dos e-mails não solicitados. – Software de backup: São programas para realizar cópias dos dados para que, em alguma situação de perda, quebra de equipamentos ou incidentes inusitados, a empresa possa recuperá-los.

Pela complexidade de cada uma das etapas compreendidas em um projeto de segurança, especialistas recomendam que a empresa desenvolva a implementação baseando-se em projetos independentes.

 

A Falsa sensação de segurança

O maior perigo para uma empresa, em relação à proteção de seus dados, é a falsa sensação de segurança. Pois, pior do que não ter nenhum controle sobre ameaças, invasões e ataques é confiar cegamente em uma estrutura que não seja capaz de impedir o surgimento de problemas.

 

Por isso, os especialistas não confiam apenas em uma solução baseada em software. Quando se fala em tecnologia, é necessário considerar três pilares do mesmo tamanho, apoiados uns nos outros para suportar um peso muito maior. Esses três pilares são as tecnologias, os processos e as pessoas. Não adianta fortalecer um deles, sem que todos os três não estejam equilibrados.

 

Ao se analisar a questão da Segurança da Informação, no entanto, além da importância relativa de cada um desses pilares, é preciso levar em conta um outro patamar de relevância, pois estará sendo envolvida uma gama muito grande de soluções de inúmeros fornecedores.

 

Por isso, a Segurança da Informação precisa envolver Tecnologias, Processos e Pessoas em um trabalho que deve ser cíclico, contínuo e persistente, com a consciência de que os resultados estarão consolidados em médio prazo.

Uma metáfora comum entre os especialistas dá a dimensão exata de como esses três pilares são importantes e complementares para uma atuação segura: uma casa. Sua proteção é baseada em grades e trancas, para representar as tecnologias, que depende dos seus moradores para que seja feita a rotina diária de cuidar do fechamento das janelas e dos cadeados, ou seja, processos. Simploriamente, a analogia dá conta da interdependência entre as bases da atuação da segurança e de como cada parte é fundamental para o bom desempenho da proteção na corporação.

 

Recursos de proteção

A primeira parte trata do aspecto mais óbvio: as tecnologias. Não há como criar uma estrutura de Segurança da Informação, com política e normas definidas, sem soluções moderníssimas que cuidem da enormidade de pragas que infestam os computadores e a Internet hoje em dia.

 

Os appliances de rede, com soluções de segurança integradas, também precisam ser adotados. Dispositivos para o controle de spam, vetor de muitas pragas da Internet e destacado entrave para a produtividade, também podem ser alocados para dentro do chapéu da Segurança da Informação. Programas para controlar o acesso de funcionários, bloqueando as visitas a páginas suspeitas e que evitem sites com conteúdo malicioso, também são destaques. Mas antes da implementação da tecnologia, é necessária a realização de uma consultoria que diagnostique as soluções importantes.

 

Essas inúmeras ferramentas, no entanto, geram outro problema: como gerenciar toda essa estrutura dentro de uma rotina corporativa que demanda urgência e dificilmente está completamente dedicada à segurança? A melhor resposta está no gerenciamento unificado. A adoção de novas ferramentas, como sistema operacional, ERP ou CRM, precisa de análise dos pré-requisitos em segurança.

 

Outro ponto do tripé são os processos, que exigem revisão constante. O grande combate realizado no dia-a-dia do gestor de segurança, em parceria com o CIO, é equilibrar a flexibilidade dos processos de forma que eles não tornem a companhia frágil, mas que, por outro lado, não endureça demais a produtividade, em busca do maior nível possível de segurança.

 

A visão da companhia como um emaranhado de processos causou grande revolução ao ir de encontro com os conceitos de gestão clássicos, focados na estrutura. Nesse novo enfoque, a adição de segurança segue a mesma linha turbulenta. Como no novo modelo, todos os processos estão integrados, um impacto causado pela segurança pode não apenas causar prejuízos para a rotina da empresa, mas também criar certo mal-estar entre as áreas. Tomar atitudes cautelosas e estudadas, mas sem receio de atritos, precisa ser a prática do gestor.


Pessoas: desafio constante

A última parte da trinca é a mais fácil de explicar. Não é preciso raciocinar muito para chegar à conclusão de que as pessoas são pedras fundamentais dentro do ambiente corporativo, sobretudo em Segurança da Informação.

 

Cerca de 70% dos incidentes de segurança contam com o apoio, intencional ou não, do inimigo interno. As pessoas estão em toda a parte da empresa e enxergam como ponto fundamental apenas a proteção da máquina. Os cuidados básicos com as atitudes das pessoas, muitas vezes são esquecidos ou ignorados. Encontrar senhas escritas e coladas no monitor, bem como a troca de informações sigilosas em ambientes sem confidencialidade, como táxi e reuniões informais são situações muito comuns. Assim, contar com a colaboração das pessoas é simplesmente fundamental numa atividade crítica para a empresa e que não tem final em vista. Mas o ponto principal da preocupação com as pessoas é que os fraudadores irão à busca delas para perpetrar seus crimes.

 

Uma exigência cada vez mais importante para o CSO é ser também um gestor de pessoas, uma vez que elas podem causar muitos estragos e provocar sérios prejuízos. Mas ao se analisar o contexto de formação dos gerentes de segurança, talvez seja esse o ponto mais fraco. Investimento em formação profissional nesse sentido é uma iniciativa muito válida, assim como intercâmbio de informações entre áreas como Recursos Humanos e Marketing para aumentar o alcance e a eficácia das recomendações. O fato de envolver um dilema cultural também é outro complicador. Segurança da Informação representa um desafio de inédita magnitude para os profissionais do setor e, também, para a companhia como um todo.

Segurança da Informação: Suas principais propriedades

As principais propriedades que orientam a análise, o planejamento e a implementação de uma política de segurança são confidencialidade, integridade e disponibilidade. Na medida em que se desenvolve o uso de transações comerciais em todo o mundo, por intermédio de redes eletrônicas públicas ou privadas, outras propriedades são acrescentadas às primeiras, como legitimidade e autenticidade.

 

Confidencialidade - Propriedade que limita o acesso à informação tão somente às entidades legítimas, ou seja, àquelas autorizadas pelo proprietário da informação.

 

Integridade - Propriedade que garante que a informação manipulada mantenha todas as características originais estabelecidas pelo proprietário da informação, incluindo controle de mudanças e garantia do seu ciclo de vida (nascimento, manutenção e destruição).

 

Disponibilidade - Propriedade que garante que a informação esteja sempre disponível para o uso legítimo, ou seja, por aqueles usuários autorizados pelo proprietário da informação. Em todas as fases da evolução corporativa, é fato que as transações de toda a cadeia de produção – passando pelos fornecedores, fabricantes, distribuidores e consumidores – sempre tiveram a informação como uma base fundamental de relacionamento e coexistência.

 

O fato é que hoje, quer seja como princípio para troca de mercadorias, segredos estratégicos, regras de mercado, dados operacionais, quer seja simplesmente resultado de pesquisas, a informação, aliada à crescente complexidade do mercado, à forte concorrência e à velocidade imposta pela modernização das relações corporativas, elevou seu posto na pirâmide estratégica, tornando-se fator vital para seu sucesso ou fracasso.

 

Proteção da informação

Entre as inúmeras tendências que explodiram em tecnologia, poucas assumiram o status de imprescindível. Ao fazer uma comparação, ainda que os sistemas de ERP e CRM sejam de vital importância para a rotina corporativa, ou que soluções de Business Intelligence e Balanced Scorecard permitam aos negócios atingir patamares invejáveis de lucratividade, a Segurança da Informação é a única que não pode faltar em nenhuma hipótese. É ela que protege o bem maior das companhias, ou seja, a informação estratégica.

 

Para entender a importância da proteção das informações, basta pensar no prejuízo que causaria para os negócios a posse desses dados pela concorrência ou por alguém mal-intencionado. Atualmente, o período é de revisão de processos e de avaliação de soluções que protejam cada vez mais as informações corporativas, sem impactar fortemente na produtividade. Fato é que hoje a segurança é considerada estratégica e já encabeça a lista de preocupações de grandes empresas.

 

A Segurança deixou de ser submetida aos domínios da TI, para se tornar uma nova área que responde ao vice-presidente ou ao gestor de operações, ganhando orçamento próprio, salas específicas e, claro, prazos e demandas a serem atendidas. Um dos maiores dilemas da Segurança da Informação está relacionado com a proteção dos ativos e a compreensão da amplitude desse conceito dentro da empresa. A idéia de ativo corporativo envolve também uma questão de difícil medição: a marca da companhia e a percepção que ela desperta no mercado. Um grande escândalo, uma falha latente ou uma brecha negligenciada podem sepultar uma companhia para sempre, ainda que ela tenha tido muito sucesso até então. Outra questão relacionada com a Segurança da Informação, que também causa preocupação, é que se trata de um investimento sem fim. Pois à medida que ela vai se fortalecendo, os ataques cada vez mais vão se sofisticando também.

 

Um caminho sem volta

Não há como voltar atrás. Qualquer companhia, desde a pequena empresa com dois ou três PCs, até uma complexa organização com atuação em diversos países, sabe que em maior ou menor grau a tecnologia é essencial para seu negócio. E é justamente por ser vital, que esse bem não palpável traz consigo uma necessidade básica: segurança.

 

O desafio não é tão simples. Pela própria natureza, embora muitas empresas de TI estejam se esforçando para mudar essa realidade, a segurança da informação é reativa. Isso significa que, tradicionalmente, primeiro verifica-se a existência de um problema, como vírus, fraude, invasão, para depois encontrar sua solução, vacina, investigação, correção de vulnerabilidade.

 

Para muitos, esse cenário pode causar pânico. Afinal, primeiro eleva-se a informação ao patamar mais crítico da empresa, tornando-a peça principal do jogo. Em seguida, vê-se que esse dado, pela forma e processo com que é disponibilizado, corre o risco de ser corrompido, alterado ou roubado por um garoto de 16 anos, que resolveu testar programas hackers disponibilizados na própria Internet ou, em casos piores, usurpado por funcionários e passado para a concorrência ou ainda simplesmente causando danos financeiros à empresa.

 

Mas já existem práticas e soluções tecnológicas suficientemente eficientes para comprovar que a digitalização das transações corporativas não transformou os negócios em uma "terra de ninguém". Embora reconheçam que afirmar ser 100% seguro é algo precipitado e arriscado, especialistas de segurança apontam que educação profissional, processos e tecnologia formam um tripé resistente no combate ao crime eletrônico. Pesquisas mostram que aumentam os investimentos na proteção dos dados. A segurança é o maior desafio das soluções em TI para o sistema financeiro.

terça-feira, 18 de outubro de 2011

Virtualização para facilitar o gerenciamento

O atual desafio enfrentado pela indústria de tecnologia da informação (TI) é o de continuar produzindo sistemas menores, mais leves e mais rápidos e, ao mesmo tempo, encontrar melhores meios de gerenciar as complexidades das tecnologias computacionais. A indústria direciona um grande esforço à segurança e ao gerenciamento de informações e de dispositivos para a produção de sistemas mais flexíveis, de modo a torná-los disponíveis aos usuários a qualquer tempo, em qualquer lugar. O conceito de Virtualização de plataforma abre espaço para futuros dispositivos poderosos, autônomos e confiáveis.

 

A Virtualização de plataformas pode ser definida como a criação de um sistema computacional logicamente segmentado, que funciona em uma base real. As plataformas virtuais são vistas pelo usuário e funcionam como se fossem computadores físicos. Uma vez que são abstratas e divididas, a partir de bases ocultas e delas mesmas, as plataformas virtuais são facilmente transportáveis e robustas para simplificar a complexidade e, dessa forma, aumentam a segurança.

 

A Virtualização é uma forma de criar sistemas menos complexos, que dividem os subconjuntos de sistemas em dispositivos mais gerenciáveis. Além disso, essa medida pode proporcionar mais segurança ao sistema, à rede e aos aplicativos, pois isola subsistemas potencialmente vulneráveis de sistemas subjacentes e de outras plataformas virtuais.

 

O conceito de Virtualização inclui todas as camadas da plataforma – desde aplicativos e sistemas operacionais a componentes, processadores e interconexões da plataforma. Porém, vamos nos ater aos dispositivos de armazenamento e aos servidores, pois é nesse ambiente em que o mercado de Virtualização atua.

 

Conceito de Storage

Todas as empresas precisam armazenar informações e para isso utilizam um dispositivo ou um suporte que pode retê-lo durante tempo prolongado, para ser recuperado no momento necessário. Esse dispositivo é chamado de storage.

 

O armazenamento em rede permite a conectividade entre quaisquer servidores e dispositivos de armazenamento, e também aumenta a capacidade das organizações no sentido de migrar seus dados. O armazenamento em rede pode diminuir os custos do processamento de informações, com o aumento do compartilhamento de dispositivos e de capacidade, assim como por meio de comunicações mais eficientes.

 

Dessa forma, é criado o ambiente para a verdadeira computação global – a capacidade de processar as mesmas informações em qualquer momento, a partir de qualquer central de dados no mundo, com os dados e a execução de aplicativos primários migrando para locais ideais, conforme a necessidade.

 

As configurações mais comuns são as já mencionadas redes SAN, dedicadas de armazenamento, tipicamente construídas em torno de tecnologia de fiber channel, que conectam os dispositivos de storage a um conjunto heterogêneo de servidores, sobre uma base múltipla. Uma configuração SAN abriga, além de subsistemas de disco, switches, hubs e bridges.

 

Já as redes NAS (Networked Attached Storage) configuram-se com um local de armazenamento, em que os dados são transferidos usando protocolos como TCP/IP. Uma NAS une os servidores aos subsistemas de storage. Com ela, os sistemas de arquivos, em lugar dos volumes de informação sem processar (raw), estão disponíveis na rede. O administrador de arquivos (file system) maneja e administra a colocação real dos dados.

 

A maior utilização: STORAGE

A Virtualização do armazenamento é o processo de consolidar vários dispositivos físicos de diversos fabricantes e reorganizá-los em agrupamentos virtuais e lógicos, ou em unidades de armazenamento. Essas unidades são apresentadas ao sistema operacional para utilização pelos aplicativos e usuários finais adequados.

 

Apesar do recente aumento de interesse, a Virtualização do armazenamento não é novidade, tanto no conceito quanto na prática. Definida há quase 20 anos na computação em mainframes, a tecnologia está descobrindo uma nova oportunidade e importância com a emergência das redes SANs (Storage Area Networks).

 

Com toda a empolgação em torno da virtualização da SAN, é fácil perder de vista os benefícios imediatos desse processo, que podem ser obtidos também na predominante arquitetura de armazenamento de dispositivos conectados diretamente – DAS (Direct Attached Storage).

 

Seja em mainframe, seja em ambientes de sistema aberto, as tecnologias de Virtualização são utilizadas para simplificar e centralizar o gerenciamento e para fornecer a flexibilidade no atendimento à demanda dos atuais requisitos de dados.

 

A Virtualização elimina as restrições físicas, ao criar uma camada de abstração acima do armazenamento físico em si, que é acessível como um agrupamento lógico de storage e que pode ser alocado quando e onde for necessário. Essa camada oferece a capacidade de combinar dispositivos físicos heterogêneos em entidades virtuais projetadas para atender os requisitos individuais dos aplicativos.

 

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica, enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na medida em que o novo hardware se torna disponível ou que as características do aplicativo se modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos dados no dispositivo lógico.

 

Necessidade recente

É uma realidade nas empresas o crescente volume de informações geradas por novas aplicações, que exigem maior capacidade para suportar diferentes naturezas – dados, voz e imagem. Esse fato, associado aos sistemas legados, passa a ser um problema na maior parte das organizações.

 

A série de mainframes da IBM teve grande sucesso justamente por oferecer um caminho contínuo de evolução, sem obrigar ninguém a abandonar legados de hardware ou de software. Porém, o alto custo de hardware dos mainframes encorajou a migração para os microcomputadores. Essa foi a chance de começar tudo do zero, eliminando o legado de programas em COBOL, PL/1 e outros específicos do mundo do mainframe.

 

Porém, poucos contavam que a microinformática acabaria formando também seu legado, muito maior e bem mais heterogêneo do que o dos mainframes. E isso reuniu equipamentos de diferentes fabricantes, com variadas aplicações, dificilmente integrados. O legado é ruim, pois atrasa a evolução tecnológica, demandando recursos que poderiam ser aplicados em uma arquitetura mais moderna. Além disso, tende a manter o uso de tecnologias obsoletas, inclusive hardware.

 

Para minimizar o problema, surgiu a ferramenta de Virtualização, que auxilia no tratamento dos legados. Geralmente, a Virtualização é assistida por hardware. Embora esse recurso exista desde os mainframes, não é útil apenas para legados, mas auxilia bastante no teste de novas tecnologias. O simples fato de o Microsoft Windows rodar programas MS-DOS não deixa de ser uma espécie de Virtualização, pois cada sessão DOS é um processador de 16 bits virtual.

 

Orçamento apertado

Com os orçamentos reduzidos, levando as empresas a analisar cuidadosamente seus padrões de gastos, é especialmente importante usar todos os recursos tecnológicos em sua total capacidade. Segundo o Gartner Group, cada dólar investido em storage exige US$ 5 de recursos de TI para administrá-lo. Na medida em que os ambientes continuam a evoluir e tornam-se cada vez mais complexos, aumenta a necessidade de minimizar os crescentes custos de administrar quantidades de dados cada vez maiores.

 

As tecnologias implementadas no ambiente de TI devem garantir uma estratégia de gerenciamento simplificada e centralizada, com o objetivo de aumentar a eficiência dos profissionais e reduzir custos. Geralmente, os usuários finais não estão interessados nos aspectos físicos dos recursos de armazenamento de seus aplicativos e sim em tempo de resposta, resultados, capacidade suficiente para armazenamento de dados na medida em que a quantidade aumenta e ocorre redução ou eliminação do tempo de desativação. Em resumo, os usuários se preocupam com a disponibilidade e o acesso aos seus dados, e não com os aspectos físicos do armazenamento. A Virtualização proporciona vários meios de acessar, gerenciar e utilizar os recursos de storage existentes.

 

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-se os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica, enquanto protege o usuário e o aplicativo dos detalhes da implementação de hardware. Então, na medida em que o novo hardware se torna disponível ou que as características do aplicativo se modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos dados no dispositivo lógico. Existem muitas tecnologias de Virtualização de armazenamento que têm evoluído, incluindo soluções de banda interna e externa (in-band e out-band), com base em armazenamento e em hospedagem.

 

As soluções baseadas em hospedagem permitem que os discos sejam representados como um agrupamento virtual para um único servidor host. Isso possibilita que o pessoal de TI tenha mais flexibilidade em habilitá-los para torná-los completamente independentes dos fabricantes de soluções de armazenamento. Embora os dados estejam concentrados para acesso apenas por meio de um único servidor, esse pode tornar-se altamente disponível, garantindo que os dados sejam utilizados. A desvantagem em potencial dessa solução surge quando vários servidores exigem o acesso compartilhado aos mesmos dados. Nesse caso, a duplicação dos dados ou outros métodos de Virtualização de armazenamento podem ser considerados.

 

Emulação e Virtualização

Emulação é a recriação de um ambiente de trabalho sem qualquer relação necessária com o ambiente-anfitrião e sem auxílio de hardware, enquanto a Virtualização permite criar diversas máquinas virtuais. Uma utilidade menos óbvia da Virtualização e da emulação é o desenvolvimento de software. Os jogos de 8 bits eram desenvolvidos em computadores robustos, pois isso tornava fácil acompanhar o funcionamento, instrução por instrução. Desenvolver diretamente na plataforma desejada era quase impossível.

 

Mas isso é passado. Há muito tempo, os microcomputadores representam uma plataforma auto-suficiente e de baixo custo para desenvolvimento. E agora chegamos ao ponto em que um micro pode simular a si mesmo com velocidade suficiente para uso normal. Hoje, as ferramentas de desenvolvimento podem subir mais um degrau de qualidade e complexidade.

 

Uma empresa do Vale do Silício alega ter alcançado um dos objetivos mais perseguidos da indústria da tecnologia: um emulador quase universal que permite rodar softwares desenvolvidos para uma determinada plataforma, em qualquer outra, praticamente sem quedas no desempenho. Isso inclui Macs, PCs e diversos tipos de mainframes e servidores.

 

Segundo executivos da empresa, um emulador universal de computadores está para a informática como a transformação de metais em ouro estava para a alquimia. Muitos tentaram, todos falharam. Eles explicam que, embora vários esquemas limitados de emulação tenham sido bem-sucedidos – a transição da Apple para a plataforma PowerPC, ou a “transmutação de código” da arquitetura x86 feita pela Transmeta –, ninguém jamais havia desenvolvido um emulador para processadores e sistemas operacionais múltiplos.

 

O software foi desenvolvido inicialmente na Universidade Manchester (Reino Unido) pelo professor de ciência da computação Alasdair Rawsthorne. Uma das mais importantes inovações é a “representação intermediária”, uma espécie de linguagem comum que dá ao software a flexibilidade para fazer a tradução de uma plataforma para outra.

segunda-feira, 17 de outubro de 2011

Microsoft conclui compra do Skype por US$ 8,5 bilhões

Skype passa a ser uma nova divisão da Microsoft e continuará a oferecer os mesmos serviços

20111014060125

 

A Microsoft concluiu nesta sexta-feira (14/10) a compra do Skype, serviço de chamadas de voz e vídeo pela internet, por US$ 8,5 bilhões. A companhia obteve há uma semana a autorização da Comissão Europeia para fechar o negócio, anunciado em maio deste ano. A conclusão da aquisição também marca a introdução oficial do Skype como uma nova divisão de negócios da Microsoft.
Segundo o comunicado postado no site Microsoft Insiders Brasil, o Skype continuará a oferecer seus serviços normalmente, mas, ao longo do tempo, eles serão integrados ao portfólio da Microsoft. Tony Bates continuará no cargo de presidente-executivo do Skype e vai se reportar diretamente a Steve Ballmer, presidente-executivo da Microsoft.
Desde seu lançamento, em 2003, o Skype se tornou o serviço mais popular de videoconferência do mundo. Porém, seus investidores sempre encontraram dificuldades em manter o negócio lucrativo. Atualmente, as ligações efetuadas pelo software são gratuitas e as pagas possuem preços baixos em relação às tarifas de operadoras convencionais.
Em 2005, a empresa foi adquirada pelo eBay e, quatro anos mais tarde, um grupo de investidores liderados pela Silver Lake negociou a venda da companhia para a Microsoft.

terça-feira, 13 de setembro de 2011

Microsoft revela Windows 8, o sistema para qualquer tipo aparelho

Por Baixaki

Confira as novidades reveladas durante a conferência da Microsoft na D9 a respeito do Windows 8, sistema operacional com destaque para a interface touch e a promessa de um sistema para qualquer tipo de aparelho.

Campus Party 2012: inscrições já estão abertas

Interessados têm até o dia 2 de outubro para comprar o ingresso promocional, por R$ 150,00. Após a data, o valor sobe para R$ 300,00

A Campus Party anuncia a abertura das inscrições para que o público em geral participe do evento, programado para os dias 6 e 12 de fevereiro de 2012, em São Paulo. Até o dia 2 de outubro, os ingressos serão vendidos a R$ 150,00, enquanto que, a partir dessa data, o valor dobrará (para R$ 300,00). Além disso, os organizadores divulgaram que, durante o período promocional, o valor para quem pretende acampar é de R$ 30,00, para todos os dias do evento. O custo não inclui a parte de alimentação.


Trata-se da quinta edição da Campus Party, a qual pretende reunir cerca de 7 mil pessoas, no Centro de Exposições do Anhembi. Uma das atrações programadas é o campeonato do jogo StarCraft II.


Entre os palestrantes já confirmados da Campus Party 2012 estão Rafinha Bastos, Maurício Sid (Não Salvo), Rosana Herrmann e Rodrigo Fernandes (Jacaré Banguela), que falarão sobre suas trajetórias na internet. Além disso, o evento contará com Sebastián Alegría Klocker, o jovem chileno que criou um sistema de alerta contra terremotos via Twitter, Andreu Vea, presidente da Internet Society, Julien Fourgeaud, desenvolvedor de negócios e de produtos da Rovio - responsável pelo Angry Birds - e Alex Bellos, um inglês que falará sobre Pelé, jeitinho brasileiro, fórmulas e teoremas.


Acesse o site e confira todos os detalhes do evento.

Fatores influenciadores da adoção de novas tecnologias e sistemas em TI

Por Markus Christen IT Architect - Microsoft Brasil

A adoção da Tecnologia e Sistemas da Informação é estudada há vários anos e mesmo assim existe uma percepção distorcida e questionável sobre o valor da área de TI. Considerando os aspectos doo valor de TI nos Arquitetos Corporativos (EA) precisamos conhecer modelos que ajudam analisar o papel da área de TI dentro da organização. Só assim, na minha percepção, podemos entregar serviços que atendam a capacidade de absorver mudanças.

Como mencionei no último post sobre os modelos de maturidade, existem na vida real e na área de TI, vários níveis de maturidade dentro de um só mercado. Uma das primeiras tarefas durante um projeto de Arquitetura Corporativa é analisar os fatores que poderiam influenciar a adoção de novas tecnologias. Quais são as preocupações e atividades da área de TI? Quais são as forças que direcionam e definem as prioridades? Qual é a visão da organização sobre a área de TI?

Durantes os primeiros anos do estudo da evolução da área da computação, todo foco era em gerenciar as atividades de operação, programação, coleta de dados e etc. Com a aceitação geral da área da computação pelos usuários, as necessidades de aplicações com novas funções verticais foram criadas e implementadas sem que houvesse uma estratégia, governança e controle centralizado.

Padecendo do impacto causado pelo ambiente caótico gerado pelas implementações sem governança, áreas especializadas foram criadas em grande parte das empresas com o intuito de planejar recursos e tecnologia, com a visão de longo prazo. . Dessa forma, podemos verificar que duas grandes áreas definiram a Tecnologia da Informação nas empresas até hoje:

  • Technology Driven – Área de TI definiu a estratégia de TI (Transacional)
  • User Driven – Áreas funcionais definiram a estratégia de TI (Funcional)

Com o envolvimento dos usuários no processo de decisões de TI (departamentos funcionais), as métricas de sucesso foram definidas com base no prazo de entrega de novos sistemas, e a percepção da simplicidade de uso para os usuários. Claro que nem todas as áreas absorveram as possibilidades da computação na mesma velocidade.

Analisando esta evolução, ou talvez, movimentação, nós podemos perceber que até este momento toda visão era determinada por esses dois grandes influenciadores, sem considerar a geração de valor para o negocio, no âmbito da organização. Muita redundância e ilhas isoladas foram criadas sem integração e sinergia. Simplesmente todo mundo era dono da própria ilha.

Um modelo que garanta retorno mensurável e uma estratégia “top down” para os projetos de TI é uma necessidade que foi se tornando cada vez mais essencial. . Assim começou ser aplicado o modelo conhecido por “Information System Management”, que até hoje é considerado um pilar elementar. A criação de uma visão unificada do papel de TI dentro da organização, com atividades e recursos e considerando aspectos externos e internos, é o objetivo principal da visão do Information System Management dentro da organização.

Qual nível de maturidade tem a área de TI dentro da sua organização? Quais são os aspectos que influenciam a definição da estratégia de TI? Analisando este modelo, sua empresa esta pronta para absorver uma mudança com a visão de Information System Management ?

Pesquisas feitas por Albert Otto Hirschman mostra um modelo de três estágios para avaliar a situação organizacional.

Vamos analisar este modelo:

1) Delivery (Climb - Internal)

Sistemas de Informação tratem na maior, assuntos internos (TI), aumentar a eficiência na habilidade de entregar e suportar sistemas e tecnologia. O objetivo fundamental é estabelecer uma alta credibilidade em respeito da percepção da gerencia, como uma função de valor. A consequência desta visão é que a melhoraria na eficiência da entrega, não providencia, na maioria dos casos, os serviços que os usuários realmente precisam.

2) Reorientation (Climb - Internal)

Estabelecer um relacionamento constante com as áreas de negócios, suportar as demandas da área de negocio com provisionamento de novas capacidades de TI. O objetivo fundamental é de providenciar serviços de valor para toda gerência organizacionais. As diferentes áreas se beneficiam de outras maneiras, sem considerar a importância da organização.

3) Reorganization (Top-Down)

O nível elevado de consciência criado nas áreas de negócio e na alta gerência, cria a possibilidade e necessidade de iniciar uma reorganização de responsabilidades. Faz-se necessária a criação de uma nova estrutura e visão que atenda a integração entre investimentos em sistemas de informação, estratégia e funções da área de negócio. O objetivo fundamental é estabelecer e definir uma estratégia que esteja de acordo com as diferentes requisições das áreas de negócio, através de coalizão de responsabilidades de gerenciar sistemas de informação.

sábado, 10 de setembro de 2011

Facebook cria ferramenta que separa contatos por listas

A funcionalidade é bastante parecida com o Circles, do Google+, mas realiza a divisão de forma automática

Desde que o Google+ foi lançado, o Facebook tem anunciado uma série de funcionalidades. A mais recente delas, ainda em fase de testes para um grupo pequeno de pessoas, são as chamadas Smart Lists. A exemplo do Circles (do Google+), essa ferramenta permite que o usuário separe seus contatos em listas diferentes.
A principal diferença entre o Circles e o Smart Lists, do Facebook, é que esse último faz a divisão dos contatos de forma automática. De acordo com o site TechCrunch, a rede social separa em três listas diferentes, baseadas nas informações postadas: pessoas do trabalho, pessoas com quem estudou e pessoas que moram a cerca de 80 km.
O recurso lembra um pouco as playlists do iTunes, que geram listas a partir de informações das músicas da biblioteca do usuário. Porém, as Smart Lists do Facebook, no momento, não podem ser personalizadas, ficando restritas às três divisões definidas pela rede social.

Samsung deve mostrar tablet com Windows 8 no dia 13/09/2011


Segundo jornal coreano, empresa vai exibir aparelho em conferência da Microsoft nos EUA; modelo com Android é alvo de vários processos na Justiça.
Por Matt Hamblen

A Samsung deverá mostrar um novo tablet equipado com Windows 8 na próxima semana, durante a conferência Build, da Microsoft, na Califórnia (EUA).

A Samsung não quis comentar o lançamento, noticiado inicialmente pelo jornal Korea Economic Daily, que citou fontes anônimas. Informes semelhantes foram publicados pela agência de notícias AFP e pelo Wall Street Journal. A conferência Build começa na terça-feira (13/9).

Não foi possível contatar um porta-voz da Microsoft para comentar o anúncio.

Ter o Windows 8 em um tablet seria conveniente para a Samsung, que tem enfrentado impedimentos legais para a venda de equipamentos Galaxy Tab. Seria o primeiro tablet da Samsung a rodar Windows.

Nesta sexta-feira (9/9), uma corte da Alemanha determinou que a Samsung não poderá vender seu Galaxy Tab 10.1 na Alemanha porque seu design é muito parecido com o do iPad 2, da Apple.

A Apple tem aberto vários processos em diversos países contra a Samsung e outros fabricantes de smartphones e tablets Android. A Samsung também processa a Apple por questões de propriedade intelectual ligadas a tecnologias sem fio usadas em tablets e smartphones.

Especialistas contaram pelo menos 19 processos em nove países em que Apple e Samsung se enfrentam, incluindo um aberto pela Apple em abril, na Califórnia, e que terá uma audiência em outubro.

Em relação à decisão de hoje, a Samsung disse que entrará com recurso. Contudo, a utilização de outro sistema operacional, como o Windows 8, poderá dar à Samsung uma alternativa mais rápida para vender seus tablets.

Apps da Microsoft rodarão no Symbian!

Por Monica Campi, de INFO Online.
A Nokia anunciou que aplicativos da Microsoft voltados à produtividade serão disponibilizados para celulares com sistema Symbian.
Os aparelhos Nokia com sistema Symbian Belle (os que utilizam a versão Anna recebem os apps ao atualizar o aparelho para o Belle) poderão utilizar aplicativos da Microsoft desenvolvidos para smartphones, como PowerPoint e Lync, já neste ano. E para 2012 estão programadas mais atualizações.
“A Nokia e a Microsoft anunciam que irão entregar atualizações de software para o Symbian, chamadas de Microsoft Apps. Estes updates irão trazer muitas ferramentas de produtividade para todos aqueles com dispositivos Symbian Belle e mesmo aqueles que visam fazer o update do Symbian Anna para o Belle”, afirmou a empresa em comunicado.
Segundo a Nokia, a intenção também é mostrar que a empresa não está abandonando seu sistema operacional e que manterá o suporte ao Symbian até pelo menos 2016.

Sete novidades do Windows 8!

Por Carlos Machado é editor sênior da INFO e está há quase 20 anos no jornalismo de tecnologia. Nas horas vagas, ataca em outra área, aparentemente muito distante, a literatura.

 

Na próxima terça-feira, 13/09, começa a conferência BUILD, para desenvolvedores, na qual espera-se que a Microsoft mostre uma versão preliminar do Windows 8. Até agora, sete funções foram confirmadas.
Conforme as especulações, na conferência BUILD a Microsoft deverá mostrar – e talvez distribuir – o Windows 8 numa versão para desenvolvedores. Fala-se inclusive na possibilidade de os participantes serem brindados com um tablet da Samsung rodando o Windows 8. A idéia, aqui, seria ressaltar este ponto: a nova versão das janelas é para funcionar em tablets, assim como em desktops e notebooks.

As notícias mais consistentes sobre novas funções do sistema foram mostradas em vídeos no blog Criando o Windows 8, na maioria dos casos assinadas pelo próprio Steven Sinofsky, o responsável pelo desenvolvimento do Windows.

Como um conta-gotas, desde 15 de agosto o blog comandado por Sinofsky vem pingando informações sobre a próxima versão do sistema operacional da Microsoft. Até o momento, sabe-se que o Windows 8 deverá ter:

1.  Suporte a USB 3.0 – O sistema trará embutido o suporte à conexão USB 3.0, que é 10 vezes mais rápida que o USB 2.0, padrão atual.

2.  Interface desktop e Metro combinadas – No Windows 8, a interface tradicional, de desktop, como no Windows 7, coexistirá com a nova interface, Metro – um mosaico de tijolos deslocáveis –, concebida para as telas sensíveis ao toque dos tablets. Segundo Sinofsky, o usuário poderá escolher entre as duas interfaces. “E, caso o usuário deseje permanecer no mundo do estilo Metro, ele nunca verá a área de trabalho — ela nem será carregada”, garante ele.

3. Windows Explorer revisado – Melhorias nas funções de gerenciamento de arquivos, especialmente em Copiar, Mover, Renomear e Excluir.

4. Faixa de opções – Outra novidade do Windows Explorer será a adoção da faixa de opções, no mesmo padrão do Office 2007/2010. No Windows 7, o Paint foi um aplicativo que recebeu a faixa de opções.

5. Suporte a arquivos ISO e VHD – O sistema lerá diretamente o conteúdo de arquivos ISO (espelhos de CD-ROM e DVD), criando uma unidade de CD/DVD virtual. Antes, para ler um arquivo era necessário queimar um disco. Os arquivos VHD, usados pelos virtualizadores Hyper-V e Virtual PC, também serão lidos como uma unidade virtual de disco rígido.

6. Virtualização com Hyper-V – O Windows 8 vai incorporar a virtualização Hyper-V, da Microsoft. É uma boa notícia para técnicos e usuários avançados, que poderão rodar diferentes sistemas virtuais em suas máquinas Windows.

7. Boot rápido – Segundo a Microsoft, o Windows 8 dará partida em 10 segundos. Isso porque a base do sistema não será desligada, porém mantida em hibernação.

Há ainda a confirmação de que o tocador Media Center continuará a existir no Windows 8, embora não deva aparecer nas primeiras versões de teste.

sexta-feira, 9 de setembro de 2011

Microsoft vai inserir virtualização no Windows 8

Por Joab Jackson, IDG News Service

Usuários serão capazes de executar máquinas virtuais diretamente de seus desktops, afirma a companhia.  

A próxima versão do sistema operacional (OS) da Microsoft para desktop, batizado de Windows 8, vai incluir a capacidade de executar outros sistemas operacionais virtualizados, anunciou a companhia em seu blog.

Anteriormente, o software de hospedagem virtual da Microsoft, chamado Hyper-V, só podia ser instalado em máquinas que rodam Windows Server. Usuários que precisavam executar máquinas virtuais em seus computadores com Windows 7 tinham de recorrer à software de terceiros, como o Virtual Box, da Oracle, ou o VMware Workstation, da VMware.


"Na construção do Windows 8 trabalhamos para ativar o Hyper-V para que ele funcione no sistema operacional cliente também", escreveu John Mathew, gerente do programa Microsoft da equipe Hyper-V. "Em breve, o Hyper-V permitirá que executar mais de um sistema operacional de 32 bits ou 64-bit x86, ao mesmo tempo no mesmo computador. Em vez de trabalhar diretamente com o hardware do desktop, os sistemas operacionais são executados dentro de uma máquina virtual (VM)”, afirmou.

A Microsoft enxerga essa nova funcionalidade como benéfica, inicialmente, para os desenvolvedores e administradores. Os desenvolvedores podem testar programas dentro de um ambiente virtual sem se preocupar com eliminar os próprios sistemas operacionais atuais. Os administradores, por sua vez, podem padronizar a infraestrutura de máquinas virtuais no Hyper-V, sugere a Microsoft.

O recurso de virtualização, aponta a companhia, só funciona em máquinas x86 e vai exigir hardware rodando processadores de 64 bits, embora o software de hospedagem seja capaz de executar aplicativos de 32 bits e sistemas operacionais. Uma máquina com 4GB de memória RAM, por exemplo, pode hospedar até quatro máquinas virtuais, e rodar cinco ou mais máquinas virtuais vai exigir mais memória.

A fabricante aponta ainda que o Hyper-V vai oferecer aos usuários de desktop muitos benefícios há muito tempo vivenciados pelo servidor. É possível mover uma máquina virtual em execução de uma unidade de disco para outro, sem interrupção. Elas utilizam o Connection do Windows Remote Desktop (RDC) para tarefas avançadas, como a exibição de uma máquina virtual em várias telas. Os usuários também podem tirar fotos de uma máquina virtual em execução, para capturar o ambiente para arquivamento ou análise.

Por outro lado, avisa John, alguns recursos do Windows não vão funcionar no ambiente virtualizado. O BitLocker, que realiza a criptografia de dados, por exemplo, não funcionará corretamente, pois se baseia em conexão direta com Trusted Platform Module (TPM) da máquina. Aplicações que utilizam o sistema Graphics Processing Unit (GPU) para processar os dados podem não funcionar no ambiente virtualizado.

O anúncio da funcionalidade é o último de uma série de previews técnicos que a Microsoft postou no blog da companhia sobre a próxima geração de sistema operacional para desktops. O Windows 8 ainda está em desenvolvimento e deverá ser lançado em 2012. O OS terá interface sensível a toque para tablets e já vem com a loja de aplicativos da Apple, a App Store.

A companhia promete anunciar mais recursos do sistema operacional em seu relatório anual, o Build Professional Developers Conference (PDC), que será divulgado na próxima semana em Anaheim, Califórnia.

Apple vence novamente nos tribunais e mantém Samsung Galaxy Tab 10.1 banido

Por Eduardo Moreira

A Samsung sofreu mais um duro e importante golpe na sua batalha de patentes contra a Apple. Nesta sexta-feira (09), o Tribunal Regional de Dusseldorf (Alemanha) confirmou e manteve a liminar que proíbe as vendas do Samsung Galaxy Tab 10.1 naquele país.


A decisão é informada pelo site FOSS Patents, e confirmada por grandes veículos de notícias internacionais. A liminar foi concedida no mês passado pelo próprio tribunal alemão, que considerou os tablets da Samsung muito semelhantes no seu design ao iPad 2, da Apple.

Inicialmente a decisão proibia a venda do tablet em quase toda a Europa, porém, um tribunal da Holanda considerou a decisão ilegal, com o argumento que "uma decisão judicial na Alemanha não pode afetar os demais países da comunidade europeia".

Florian Mueller, do FOSS Patents, observa que, com a decisão do tribunal, a Samsung não poderá mais lutar pela sua causa no Tribunal Regional de Dusseldorf, mas pode apelar o caso em um processo acelerado no Superior Tribunal Regional. Com isso, a liminar poderia ser cancelada em alguns meses.

Além disso, a ação principal da Apple contra a Samsung continua no Tribunal Regional. Nesse caso, o processo será mais demorado, podendo levar até um ano para a causa ser julgada, e com a possibilidade da Samsung poder recorrer da decisão final do Tribunal Regional.

Se a Apple vencer o processo principal contra a Samsung, a liminar se tornará permanente. Se o tribunal der ganho de causa para a Samsung, a Apple se responsabilizará pelas perdas e danos da empresa coreana.

Por enquanto a Samsung não pode vender o Galaxy Tab 10.1 na Alemanha, e sua filial alemã não pode vender o tablet para outros países da União Europeia. Segundo Mueller, na prática, isso não quer dizer absolutamente nada, pois a Europa recebe os tablets de outros locais do planeta. A Samsung também foi obrigada a remover o Galaxy Tab 7.7 da IFA 2011, também por força de uma liminar.

Um detalhe que chama a atenção é falta de consistência do texto da sentença do juiz do tribunal de Dusseldorf. Hipoteticamente, se a Samsung lançar qualquer outro Galaxy Tab no país, as liminares cedidas podem proibir o produto de ser comercializado na Alemanha.

Bomgar - Virtualize seu Time de Suporte Remoto

  • De forma segura, conecte-se através de firewalls a usuários e sistemas sem a presença dos usuários
  • Reduza custos relacionados a suporte
  • Aumente a eficiência dos especialistas de suporte
  • Diminua a necessidade de visitas locais
  • Substitua ferramentas inefetivas com Bomgar

 

Suporte um ambiente descentralizado

  • Elimine entraves geográficos
  • Responda eficientemente a picos de demanda
  • Resolva mais problemas no nível básico de suporte
  • Dê suporte a qualquer usuário final
  • Trabalhe de qualquer plataforma

 

Bomgar fornece a sua solução para virtualização de suporte em um equipamento – O Equipamento Bomgar! Este equipamento integra-se facilmente ao seu ambiente e fortalece a segurança do suporte da sua organização, já que traz um rápido retorno de investimento. Com o equipamento da Bomgar, seus clientes têm assegurados a qualidade e segurança de cada interação com suporte.

 

 

Microsoft apresenta quão rápido está o boot do Windows 8

Por André Fogaça

A Microsoft continua lançando uma série de vídeos sobre como está o desenvolvimento da próxima versão do Windows, o Windows 8. Hoje a novidade fica por conta de quão rápido o sistema é capaz de se iniciar.

Um dos maiores problemas do Windows, com o tempo de uso, é que ele se torna extremamente lento para iniciar, ou seja, carregar todos os drivers e operar o sistema que estava totalmente desligado e não em modo de hibernação. Uma pesquisa da Microsof mostrou que a hibernação não é uma escolha majoritária entre os usuários de desktops nem de notebooks, o que faria o boot muito mais rápido.

Segundo o resultado da pesquisa, 57% dos usuários de desktops e 45% das pessoas que utilizam notebooks desligam totalmente o computador após o uso, deixando de lado a opção em que o início do sistema é mais veloz. O principal argumento para esta opção é a economia de energia que o sistema desligado apresenta.
A magia para apresentar uma velocidade tão grande para ligar o sistema se deve a uma espécie de modo híbrido entre desligar e hibernar que a Microsoft desenvolveu para o Windows 8.

Ela é semelhante ao existente na atual versão do Windows, ou seja, o sistema operacional vai liberar as informações do usuário que estavam carregadas, mas vai escrever dados do kernel no disco rígido, agilizando o processo de retomada de todo o sistema e evitando que o Windows seja obrigado a construir o sistema do zero. O resultado: o Windows 8 inicia em 8 segundos.

Xperia Play ganha versão com 4G nos Estados Unidos

Por Eduardo Moreira.

A Sony Ericsson anunciou a atualização do seu smartphone dedicado aos games, o Xperia Play, que segue a mudança natural das redes de telefonia dos Estados Unidos, contando agora com a conectividade 4G.

Sony Ericsson Xperia Play 4G (Foto: Divulgação)


A versão norte-americana do Xperia Play agora passa a ser compatível com a rede HSPA+, o que causa uma certa frustração entre os adeptos das redes LTE. Essa mudança marca a chegada do smartphone com certificação PlayStation na AT&T, que oferece o aparelho por apenas US$ 49,99 com um contrato de permanência de 2 anos. O valor é um pouco mais barato do que a versão lançada pela operadora Verizon no país.

Sobre suas especificações, o Xperia Play 4G usa o sistema operacional Android 2.3.3, processador de 1 GHz, placa gráfica Adreno 205, tela de 4 polegadas, com resolução de 854 x 480, e vem com um acabamento exclusivo em tom azul. Os clientes da AT&T também recebem, na compra do smartphone, de forma gratuita, um dock multimídia DK300 e um cabo MC100, além de jogos pré-carregados.

No Brasil, o Xperia Play 3G foi lançado no final de agosto, com preços variando entre R$ 1.800,00 e R$ 2.000,00 (sem planos de assinatura com as operadoras), e com jogos no valor médio de R$ 4,50. Esse valor foi considerado pelos executivos da Sony Ericsson "uma vitória" mediante todos os entraves da política brasileira na distribuição de jogos. Aqui, o Xperia Play pode ser encontrado nas principais operadoras, com planos de consumo de dados que podem até reduzir o preço final do produto.

Nos Estados Unidos, o Xperia Play 4G começa a ser distribuído na AT&T a partir do dia 18 de setembro. Não há previsão de lançamento dessa versão no Brasil, por enquanto, até porque ainda nem temos 4G.

Falha impede que milhões acessem contas de serviços da Microsoft

Usuários do Hotmail e outros serviços do Windows Live não conseguiram acessar suas contas na madrugada desta sexta-feira (9) devido a uma falha técnica no sistema nas nuvens da empresa. De acordo com a BBC, milhões de pessoas foram afetadas.

Além do Hotmal, a interrupção também atingiu o Office 365, serviço de software na nuvem, e o Skydrive, plataforma de armazenamento on-line da Microsoft.

Em um blog oficial, a Microsoft disse que a causa parece estar relacionada ao "Domain Name System", a rede de computadores que garante que os endereços se conectem aos sites.

O problema começou por volta da meia-noite desta sexta-feira (9) (no horário de Brasília) e teria sido resolvido em duas hora. No entanto, como usuários de todo o mundo foram afetados, alguns ficaram sem acesso aos serviços por mais tempo.

“Nós completamos a propagação das alterações de configuração do DNS em todo o mundo e restauramos o serviço para a maioria dos clientes. Dependendo da sua localização, você ainda pode enfrentar problemas”, afirmou Chris Jones, executivo da Microsoft.

O Hotmail, serviço de e-mail da Microsoft, tem mais de 360 milhões de usuários no mundo.



Apple quer proibir GalaxyTab no Japão

Por Reuters
 
Tóquio  - A Apple quer proibir as vendas de alguns dos aparelhos da Samsung Electronics no Japão, acusando a rival de violar patentes relativas ao iPhone e iPad, na mais recente batalha da guerra de patentes entre as duas companhias.
A Apple abriu um processo no tribunal distrital de Tóquio solicitando a suspensão das vendas dos celulares inteligentes Galaxy S e SII, e do tablet Galaxy Tab 7 no Japão, de acordo com fontes com conhecimento da situação. A primeira audiência ocorreu na quarta-feira, de acordo com uma dessas fontes.

A Samsung está envolvida desde abril em uma disputa com a Apple quanto a patentes de tablets e smartphones. Os aparelhos da linha Galaxy são vistos como os principais rivais dos dispositivos móveis da Apple, que conquistaram imenso sucesso.
Em uma batalha mundial de propriedade intelectual, a Apple anunciou que a linha Galaxy de celulares inteligentes e tablets copiava "descaradamente" o iPhone e o iPad, e abriu processos contra o grupo sul-coreano nos Estados Unidos, Austrália, Coreia do Sul e Europa.
A Samsung, cujos tablets usam o sistema operacional Android, do Google, também abriu processos contra a Apple.


A Samsung abriu processo contra a Apple no Japão em abril, e a Apple reagiu com processo contra a rival em 23 de agosto, segundo a Samsung. A Apple solicitou indenização de 100 milhões de ienes (1,3 milhão de dólares), além da proibição de vendas, de acordo com a agência de notícias Kyodo, a primeira a divulgar o caso.
O Samsung Galaxy S vendeu mais que o Apple iPhone no Japão entre janeiro e março, de acordo com o grupo de pesquisa de mercado Strategy Analytics.
Um porta-voz do tribunal distrital de Tóquio disse que não está autorizado a comentar sobre processos em andamento.

No mês passado, a Samsung anunciou que adiaria o lançamento de novos modelos Galaxy na Austrália para depois de uma decisão judicial aguardada para o final de setembro. Na semana passada, um tribunal alemão proibiu a venda do Galaxy Tab 7.7.

Na quinta-feira, a NTT Docomo, maior operadora japonesa de telefonia móvel, lançou o Samsung Galaxy Tab 10.1 em sua rede LTE de alta velocidade.

"A Samsung nos informou e tudo está bem", disse Ryuji Yamada, presidente da NTT Docomo, a jornalistas, durante o lançamento, quando perguntado sobre a disputa. "Não acreditamos que isso prejudique nossas vendas, a essa altura".

 

Xbox 360 deve custar a partir de R$ 699 no Brasil, diz site

Redação do IDG Now!

Segundo UOL Jogos, distribuidora confirmou informação, mas Microsoft não confirma; queda faria aparelho custar metade do rival PS3.

O console Xbox 360 terá seu preço reduzido para impressionantes 699 reais no mercado nacional, de acordo com reportagem do UOL Jogos, que cita a distribuidora oficial do console no País, a Incomp, como fonte da informação.
Segundo o site, o pacote do modelo mais simples do aparelho, de memória interna de 4GB, terá seu preço reduzido de 999 reais para 699 reais, enquanto a versão de 250 GB cai de 1.599 para 999 reais – os novos preços passariam a valer ainda neste mês, apesar de não ter sido confirmada uma data específica. 
A razão para o preço menor é que o Xbox 360 passaria a ser fabricado no Brasil. No entanto, a redação do IDG Now! entrou em contato com uma vendedora da Incomp, que não confirmou a informação da redução de preço do aparelho no País.
Além disso, a assessoria da Microsoft disse que não tem detalhes para compartilhar sobre esse assunto, dizendo apenas que confirma a “produção local dos jogos do Xbox 360”, já noticiada, e que o Brasil “é um mercado muito importante”.



RivalCom essa possível redução, o Xbox 360 custaria exatamente a metade do preço do seu principal concorrente, o PlayStation 3 da Sony, que sai por 1.399 reais no mercado brasileiro (até o mês de outubro).

quinta-feira, 8 de setembro de 2011

Certificações: Novo em TI?

Encontre a direção certa para impulsionar sua carreira de profissional de TI com o ICT Curriculum Roadmap.

Qual o caminho que você seguiria para fazer uma carreira em tecnologia da Microsoft?

PES 2012 ganha capa exclusiva com Neymar no Brasil e tem preço revelado!


A NC Games e a Konami anunciaram hoje (08), que Neymar da Silva Santos Junior, atacante titular do Santos, se junta a Cristiano Ronaldo como o segundo jogador na capa de Pro Evolution Soccer 2012, que estará à venda no Brasil a partir do dia 4 de outubro. Ambos os jogadores representam as diversas melhorias que o jogo tem para oferecer este ano. Esta capa é exclusiva para a América, e será distribuída somente nos Estados Unidos e países da América Latina.

Neymar foi um jogador decisivo para a equipe do Santos durante a Copa Santander Libertadores, da qual saíram campeões ao vencerem a partida contra o Peñarol (Uruguay). A Konami decidiu colocar o Neymar na capa do novo título, por ser um dos jogadores mais dinâmicos e respeitados do Brasil, além de contar com sua presença e popularidade no Pro Evolution Soccer 2012.

Pro Evolution Soccer 2012 chegará as lojas com versões para PlayStation 3, Xbox, 360 eWii (R$ 179,90), PlayStation 2 e PSP(R$99,90) e PC (R$69,90) e é distribuído com exclusividade pela NC Games.

Fonte: TechTudo