terça-feira, 11 de agosto de 2009

Como instalar vários sistemas operacionais no mesmo micro

Ola Bacansa vamos aprender como instalar mais de um sistema Operacional no mesmo micro.

windows-vista-wallpapersuse11
Em primeiro lugar, é preciso entender alguns fundamentos sobre a inicialização do micro. Depois que o PC é ligado e o BIOS realiza todos os testes necessários, o próximo passo será carregar o sistema operacional. Para isto o BIOS lê a trilha MBR do HD, onde estão armazenados os detalhes sobre o sistema operacional instalado e quais arquivos devem sem carregados para inicializa-no.
A trilha MBR é apenas uma, e ainda por cima tem apenas 512 bytes, o suficiente para apenas uma gravação. Para manter vários sistemas operacionais instalados no mesmo HD será preciso instalar um programa gerenciador de boot, que permitirá escolher qual sistema operacional deseja usar cada vez que ligar o micro. Este é o Boot Manager.
O Linux vem com o Lilo, que pode ser configurado para inicializar a maioria dos sistemas operacionais, mas nem todos.
O Partition Magic da powerquest.com.br vem com um gerenciador de boot bem mais avançado, veremos como utiliza-lo mais para a frente.

Dividindo o espaço

A primeira coisa que você deverá decidir, será o quanto de espaço deseja reservar para cada sistema. Lembre-se que existe o problema dos sistemas de arquivos, por isso nem sempre um sistema poderá ler dados gravados na partição do outro.
O Windows Vista/2003/XP/2008 por sua vez suporta tanto a Fat 16, quanto a 32, tendo também o NTFS, que é o seu sistema de arquivos preferencial. Uma versão atual do Linux pode ler partições formatadas nos três sistemas anteriores, mas seu sistema de arquivos é o EXT2.

Caso você tenha um HD de 120 GB, eu recomendaria uma partição de 50 GB para o Windows Vista, uma de 40 GB para o Windows 2008, e duas para o Linux, uma de 30 GB para o sistema e uma de 1 GB para Swap. Claro que esta é apenas uma idéia, você pode mudar estes valores de acordo com o que pretender fazer em cada sistema.


Deixe para ir criando as partições conforme for instalando os sistemas (não se esqueça de definir a partição como ativa), e crie as partições do Windows 2008 e Linux durante a instalação de ambos.

Windows 2008 + Windows Vista

Esta é a solução mais fácil. Instale primeiro o Windows Vista; depois de configurar tudo coloque o CD do Windows 2008 na bandeja e abra o programa de instalação. Quando perguntado se deseja atualizar a versão atual do Windows responda que não, que deseja fazer uma instalação limpa do sistema.
Durante o processo de instalação você deverá escolher em qual partição deseja instalar o Windows 2008. Você pode até instala-lo na mesma partição do Windows Vista, mas o ideal é usar uma partição separada.
Será instalado o boot manager do Windows 2008, que lhe perguntará qual sistema deseja carregar cada vez que ligar o micro.

Windows Vista + Linux

O procedimento é o seguinte. Depois de ter reparticionado o disco rígido, deixando espaço para a partição do Linux, coloque o CD do Linux na bandeja e reset seu micro.
No caso do Linux da Novell o SUSE a instalação é bem simples, qualquer dúvida basta consultar o manual.
Para deixar o Windows e Linux em dual boot, você deve instalar primeiro o Windows e em seguida o Linux. Durante a instalação do Linux será instalado o Lilo que é o gerenciador de Boot do Linux. Quando perguntado, responda que deseja instalar o Lilo na trilha MBR do HD. Em seguida ele mostrará uma tabela com as partições de disco pelas quais o micro poderá ser inicializado. Na lista aparecerão: a partição do Linux e a partição do Windows. Selecione a partição Windows e nas propriedades digite um apelido para ela, "WinVista" por exemplo, qualquer coisa que você ache fácil de digitar.
Você acabou de configurar o Lilo para deixar o Windows e Linux em Dual Boot. Logo que ligar o micro aparecerá uma mensagem e selecionar o sistema que deseja carregar e pronto.
Se quiser alterar a configuração depois, basta editar o arquivo /etc/lilo.conf após salvar o arquivo, digite o comando "lilo" no prompt para ativar as alterações.

 

Usando o Boot do Partition Magic

O boot do Partition Magic é a solução ideal para manter os trio Windows Vista/2008 + Linux ou mesmo instalar um quarto sistema operacional.
Siga os passos dos exemplos anteriores para instalar os sistemas operacionais que desejar. Tome o cuidado de deixar uns 10 ou 20 MB não particionados no final do disco, onde será instalado o Boot Manager
Depois de terminada a instalação de todos, inicialize o micro pelo Windows Vista, instale o Partition Magic e abra-o. Logo na janela principal abra a aba "boot manager", e "instalar boot manager".
Na janela que surgirá diga que deseja instalá-lo no início do espaço livre, dê OK e ele será instalado.
Falta agora configurá-lo para que ele inicialize todos os sistemas que estão instalados no HD, para isso volte ao menu principal do Partition Magic. Selecione a partição que deseja adicionar, abra o menu "boot manager" e escolha "Adicionar ao menu do boot manager". Dê um nome qualquer para a partição e de OK. Repita isto com todas as outras partições que contém sistemas operacionais.
Terminando feche o Partition e reinicialize o micro. O boot manager surgirá perguntando qual sistema deseja inicializar. Missão cumprida.

Abs

quinta-feira, 6 de agosto de 2009

Especial SO Chrome: por que os CIOs não devem desprezá-lo

 

Ola Bacanas pelo o tenho lido esse sistema operacional vai dar muito trabalho a microsoft.

por Andrew Conry-Murray | Informachrome tionWeek EUA 06/08/2009

Uma análise sobre os impactos para o mercado e para a TI corporativa trazidos pelo lançamento do sistema operacional do Google

Apenas duas semanas após o Google anunciar o sistema operacional (SO) Chrome, ele já foi saudado como o aniquilador do Windows e desprezado como um fracasso garantido - grandes apostas para um software que nem sequer está finalizado. No entanto, se você é um executivo de TI, não importa muito se o Google poderá, ou não, destronar o Windows no uso de netbooks. 

Mais além do entusiasmo sobre o anúncio do Google encontra-se uma questão delicada que vem preocupando os CIOs há algum tempo: quão dramática será a mudança na forma como softwares e aplicativos serão entregues aos usuários finais usando computação centrada na web?
O Google diz que a web será a plataforma para quase todos os aplicativos, usando o navegador para acessá-los. Dada a crescente popularidade no uso de software como serviço (SaaS, na sigla em inglês), tanto entre consumidores quanto em empresas, a oferta do Google é cativante. 
Porém, existem dois problemas com essa ideia. A primeira é que os CIOs tem um grande número de aplicativos essenciais baseados em Windows que não podem ser migrados para a web devido a gastos com desenvolvimento, problemas técnicos ou cuidados com segurança e privacidade, descartando, assim, a possibilidade de usar apenas a web para grande parte dos funcionários.
Steve Ballmer, CEO da Microsoft, afirma que os usuários de computador passam boa parte do tempo sem usar o navegador. Mas isso não descarta um sistema operacional leve e baseado em web, que seria mais apropriado para um pequeno grupo de funcionários ou se rodasse junto com o Windows, e não em seu lugar. 
Além disso, é fato que a internet muda a forma como os aplicativos são entregues e usados nas empresas e algumas delas - as mais tradicionais no mercado de software, como a Microsoft, a Oracle e a SAP - estão se adaptando para esta realidade, assim como os CIOs que têm aceitado SaaS como opção para mais aplicativos e para grande parte de suas infraestruturas de TI.
No entanto, o Google parece estar se igualando ao poder da web ao transformar aplicativos com a necessidade de um sistema operacional como o Chrome, mas os executivos de TI não estão convencidos.
Enquanto o SO Chrome chega aos netbooks, com produtos prometidos para o próximo ano, o Google trabalha em sua ampliação para PCs. Isso é típico do Google e a história prova que, se o Chrome obtiver sucesso com os consumidores (como, por exemplo, os serviços de e-mail, documentos online e ferramenta de busca), ele também irá tentar o mercado empresarial.
Um executivo sênior de TI de uma empresa listada na Fortune 50 disse que o SO Chrome "desperta interesse". Mas logo afirma que a empresa possui muitos aplicativos que não são baseados em navegador, portanto "ele seria usado, inicialmente, em um nicho de usuários determinado."
O problema dos aplicativos legados
O Pacific Northwest National Laboratory usa um mix de Windows, Linux e Mac. Seu CIO, Jerry Johnson, declarou que gostaria de diminuir o número de sistemas operacionais usados no laboratório, e não aumentar. Johnson, cuja empresa é administrada pelo Departamento de Energia dos EUA e conduz pesquisas científicas publicas e privadas, não está tão impressionado com a promessa de uma melhor experiência em web. 
Dos 4,2 mil funcionários do laboratório, "apenas 20% poderiam passar a maior parte do tempo em SaaS", disse ele referindo-se a aplicativos usados pelo departamento administrativo e RH. O laboratório tem um grande número de aplicativos para pesquisas e negócios que gastariam muito para serem transformados em Web ou seriam barrados devido a controles de segurança.
Os funcionários da empresa sem fins lucrativos Nature Conservancy parecem ser os candidatos ideais para os netbooks do Google. Eles dependem dos aplicativos web da Salesforce.com e da WebEx e passam a maior parte do tempo em trabalho de campo, tornando essencial o uso de um computador leve e portátil. 
Mas a empresa também trabalha com aplicativos críticos para os negócios, como programas de gráficos pesados que precisam de software cliente. Israel Sushman, gerente de operações de sistemas e tecnologia da Nature Conservancy, disse que não consegue imaginar a possibilidade da empresa recriar esses aplicativos para um novo sistema operacional ou transferi-los para web. 
Esse é um dos obstáculos que o Google ou qualquer outro desenvolvedor de SO que queira desbancar a Microsoft no mundo empresarial, terá de enfrentar. "Aplicativos legados duram para sempre, portanto, mesmo que as empresas usem aplicativos neutros, a grande maioria ainda vai precisar do Windows", disse Michael Silver, analista da Gartner.

terça-feira, 4 de agosto de 2009

Computação distribuída: modelo que combina com tempos atuais

Ola Bacanas, li este artigo e resolvi compartilhar com vcs.

 

por Eric Bruno | InformationWeek EUA

04/08/2009

As empresas enfrentam a pressão para encontrar novas formas para expandir a computação distribuída

Considerando o histórico da computação distribuída, os CIOs devem focar em como as empresas sabiam que este era o momento certo para fazer uma grande aposta de arquitetura na próxima onda tecnológica. Esta experiência poderia ajudar aos CIOs que devem considerar um movimento similar nos dias de hoje.

Voltando no tempo, nos anos 70, por exemplo, a Reuters apresentou o Monitor, por meio do qual os jornalistas introduziam informações via terminais burro e um computador mainframe enviava as informações para os leitores.  No começo dos anos 90, quando entrei na Reuters como desenvolvedor, o assunto era ir mais fundo no conceito de computação distribuída a fim de construir um pioneiro sistema eletrônico para trading, denominado Globex, para a Chicago Mercantile Exchange (CME), desenhado em um mainframe e PCs com base em Windows.

À medida que os custos do Globex cresciam, a CME mudou sua arquitetura para um modelo ainda mais distribuído: um par de computadores de classe mainframe junto com 1,5 mil servidores Linux e Solaris em classe estação de trabalho. Eis que agora surge uma nova questão para a CME: Qual o papel que a cloud computing exerce na Globex e outras plataformas?

Os líderes de TI enfrentam pressões reais na economia de hoje para aumentar os limites das tecnologias como a virtualização e cloud, que expandem modelos de computação distribuída.

As decisões que a CME e Reuters enfrentaram na escolha de qual modelo distribuído adotar - e quando - são muito parecidas com as que as empresas enfrentam hoje. Uma diferença, entretanto, é que as pressões econômicas estão forçando  as companhias a considerar as tecnologias de computação distribuída geralmente emergentes e imaturas. 

O que há de novo

A computação distribuída se refere largamente aos aplicativos que se aderem ao modelo cliente-servidor (client-server), um cluster, uma arquitetura n-tier ou alguma combinação deles. Enquanto há variações nestes modelos de base, o que eles têm em comum é que dividem a computação por meio de múltiplos computadores para alcançar mais disponibilidade e escala de aplicativo.

Grandes websites como eBay utilizam uma combinação desses modelos, com banco de dados e cluster de servidores de aplicativos dentro de cada tier do desenho. Com o aumento do uso do Ajax no nível de browser, muitos sites agregaram um elemento cliente-servidor ao conjunto. Como resultado, aplicativos de larga escala como o Google e Yahoo impulsionam os três modelos de computação.

Os serviços de web levam o modelo distribuído um passo à frente, compartilhando a carga de processamento de dados. Uma vez que os web services estão com base em HTTP, é o caminho direto para a utilização de um serviço único para servidores múltiplos compartilharem  a carga. Este design permite que os desenvolvedores distribuam até mesmo componentes únicos de aplicação, resultando em uma maior escalabilidade, com mais reutilização de código e redução de custos. Graças aos padrões abertos e web services, formatos e protocolos podem ser definidos em XML, C++ ou Java, facilmente implantados em outras plataformas, reduzindo os custos. 

Mas a grande mudança recente para o modelo de computação distribuída é a virtualização, permitindo que a tecnologia da informação divida um servidor físico em múltiplos servidores virtuais. Além dos softwares citados, energia e economia de espaço e utilizar a virtualização para dividir um físico em virtuais ajudam a resolver o problema de se conseguir o máximo de valor dos computadores multicore.

Por exemplo, mesmo os componentes individuais de software ainda não foram escritos para levar vantagem em arquiteturas multicore, os desenvolvedores deveriam ainda considerar a utilização de virtualização para rodar múltiplos componentes de software em um computador físico uma vez que eles estão rodando em computadores separados.  Mantendo a segurança e a robustez do software, enquanto se extrai o máximo de valor dos computadores de capacidade multicore 

Como resultado, componentes de aplicação individual podem executar em servidores múltiplos virtuais, todos rodando em um único servidor físico. Um método é equilibrar aplicativos que se comunicam o quanto possível, eliminando assim latência induzida de rede que pode estar presente se estes aplicativos estiverem separados.

Combinar a virtualização com os outros modelos de computação distribuída pode resultar em uma arquitetura escalável e custo-benefício. Mas efetivamente monitorar a virtualização requer uma visão de administrador, um processo que consome tempo que as empresas deveriam tentar reduzir utilizando a gestão de configuração e outras ferramentas de life-cycle.

Ao invés de construir as configurações manualmente, por exemplo, os administradores fazem o link de templates múltiplos contendo o sistema operacional, e construir scripts  e aplicativos para um novo volume de máquina virtual. As empresas que precisam dar uma acelerada no processo também deveriam oferecer aos desenvolvedores as facilidades self-service para submeter e atuar em requerimentos de recursos virtuais, ao invés de processos formais e das demoras naturais. Enquanto a virtualização é o aqui e agora da computação distribuída, a cloud computing é o futuro.

Embora seu impacto total ainda precise ser percebido, está se tornando cada vez mais claro que a computação em nuvem será a opção de entrega de serviço de escolha para os aplicativos distribuídos, graças, em parte, ao CPU, à memória e capacidades de banda. Assim que os fabricantes puderem combinar um alto nível de controle de desenvolvedor, um modelo de custo flexível e razoável, a cloud computing vai mudar a cara da computação distribuída.

Mas quando isto acontecerá com os sistemas empresariais? Alguns dos mais importantes fatores para se notar são decisões do desenho da segurança, proteção de dados, diretrizes de recuperação e arquiteturas de aplicativos. Um exemplo, os desenvolvedores que trabalham com cloud computing precisam entrar na peleja não somente com problemas de segurança dedicados familiares como firewalls e detecção de intrusão, mas com segurança em um ambiente de cloud compartilhado também.

O pesado dessas áreas está sendo feito por grupos como o Cloud Security Alliance, que lançou seu guia de segurança para as áreas críticas com foco em computação em nuvem (do original em inglês: Cloud Computing "Security Guidance for Critical Areas of Focus in Cloud Computing), um documento de melhores práticas que oferece diretrizes para cloud computing em empresas.

Talvez o mais importante, como com outros modelos de computação distribuída, a cloud computing não é uma proposta radical de sim ou nada. Modelos híbridos de implantações de recursos cloud/dedicados pode ser o caso para aplicativos com padrões de utilização com gargalo (bursty).

Estudos de casos

Com o Globex, quando a Chicago Mercantile Exchange (CME) distribuiu a arquitetura a partir de um mainframe central para um par de computadores mainframes junto com servidores de estação de trabalho Linux e Solaris, ela era capaz de lidar com mais de 2 milhões de pedidos de transações diariamente, com tempo de resposta reduzido a 150 milissegundos ou menos. Para manter uma vantagem em termos de custo, o tempo de resposta do consumidor e a confiabilidade geral, a CME se baseia intensamente em software de código aberto e de baixo custo, com poderosos servidores x86.

A CME também utiliza o software de gestão de configuração ZENworks da Novell para gerenciamento de aplicativo distribuído e um passo em direção a apresentação da virtualização dentro da arquitetura. 

O que vem a seguir? Como um monte de empresas, a CME tem um olho na cloud computing, mas não tem um plano detalhado que esteja pronto para compartilhar uma vez que, como em um monte de empresas, está dando passos pequenos enquanto espera que os padrões de cloud amadureçam.

Outro projeto de computação distribuída que vale a pena examinar é do eBay. Embora os usuários vendam milhões de dólares de bens por meio do sistema diariamente, o produto eBay é um website que deve ser mantido com a melhor arquitetura de software possível. Esta arquitetura cresceu para se tornar um desenho three-tier com lógica de negócios, código de apresentação e código de banco de dados separados em diferentes tiers físicos.

Com o passar do tempo, os servidores têm sido continuamente adicionados a cada tier, incluindo o banco de dados, que foi particionado e distribuído entre muitos servidores em múltiplas locações geográficas.

O tier de aplicativo foi reescrito em Java para capacitar ainda mais a computação distribuída. Conjunto inteiro de características - pesquisa, índice, gestão de gerenciamento, billing e detecção de fraudes - foram retirados do aplicativo central e estão em pools de servidores separados.

A arquitetura mudou para o nível de distribuição de forma que o eBay possa manter o crescimento no número de usuários e leilões ativos. Como a CME, o eBay não disse como vai utilizar os recursos de cloud, mas é membro fundador do Cloud Security Alliance.

Enquanto as empresas consideram mudar de cloud distribuída para recursos de cloud, Ted Schadler, da Forrester Research, avisa que vai lançar os projetos pilotos que são marcos para a mensuração de uso, renegociação de preços e aumento de treinamento de empregados.

Design e Construção

A computação em nuvem é a promessa de amanhã, mas a maior ganho atual vem dos aumentos de níveis de velocidade e paralelo de servidores de baixo custo que permitem a redução de custos e atender aumento de demanda. Não há mágica nisto; maiores demandas têm acontecido nas tecnologias de comunicação e de redes. Estas demandas estão sendo atendidas com os avanços de software na forma de buses (barramentos) de serviço empresarial, web services e ferramentas de virtualização para construir aplicativos altamente escaláveis com base nas metodologias de desenho de computação distribuída disponíveis, muitos como código aberto. 

Mas o código aberto não é uma panacéia quando o assunto é construção de sistemas distribuídos. Enquanto livremente disponível, o software de código aberto pode cortar custos de licenciamento, pode também direcionar custos de staff por causa das habilidades especiais e conhecimento adquirido para trabalhar em um ambiente onde suporte técnico formal pode não estar disponível. Um exemplo de como os desenvolvedores podem utilizar o código aberto para expandir a computação distribuída está detalhado a seguir.

Os servidores de aplicativos de código aberto como o GlassFish da Sun e o Sun Cloud Computer Service permitem que usuários escrevam e integrem os componentes em Java, Python e Ruby. A Sun - pelo menos antes de sua aquisição pela Oracle - disse que seu Sun Cloud poderia ser um cloud público para desenvolvedores. Para maior atratividade dos desenvolvedores, a Sun também está promovendo um conjunto com base em API aberto REST, publicado sob licença da Creative Commons license, permitindo que qualquer pessoa possa usá-lo sem qualquer custo. Os desenvolvedores podem utilizar os aplicativos imediatamente para o Sun Cloud, impulsionando as imagens da maquina virtual do software de código aberto da Sun.

Digamos que seu desenvolvedor queira construir um aplicativo utilizando um set de web services feitos em Ruby, lógica de aplicativo em Java e PHP, lógica de apresentação em Paginas JavaServer e rodar em OpenSolaris (ou Linux). Para agregar tanto o desktop quanto o suporte de dispositivo móvel, eles escrevem um aplicativo em JavaFX como camada de apresentação alternativa. Com uma combinação de XML e um enterprise service bus, eles podem, com confiança, juntar todos esses componentes em uma aplicação escalável que rode em servidores x86.

Para ilustrar, a seguinte amostra de aplicação - um portal de pesquisa de uma empresa para bancos investidores - combina HTML, um Web Service XML, Ajax/JavaScript e JavaFX (código fonte que implementa este aplicativo está disponível na informationweek.com1231/ddj/code.htm.)

A aplicação consiste em três web services:

- Stock quotes, um serviço de base em rest que retorna os dados em xml.

- Data Requestor, um componente que utiliza um broker de mensagem ou ESB para requerer e distribuir dados financeiros críticos.

- Stock Viewer, um aplicativo JavaFX que utiliza os outros componentes para mostrar os últimos dados para uma dado símbolo de estoque. A chave para esta arquitetura é que não somente ela é distribuída pelo desenho, mas também baseada tanto nos padrões quanto nos códigos abertos. Graças, em parte, ao XML e ao http, o resultado é independência de plataforma e linguagem para cada componente em cada tier. 

Se as empresas estão implementando serviços de missão crítica com base em aplicativos que vão para servidores virtuais no mundo todo ou fazendo o protótipo de um simples aplicativo com base em web services e widgets como esse, a tecnologia por trás é fundamentalmente a mesma. É claro, a escala e complexidade são diferentes. Mas com os avanços na CPU, memória e capacidades de banda, a promessa da computação distribuída está no caminho de se tornar realidade.

abs.