A Evolução da Computação: Cloud Computing


O modelo de cloud computing surgiu mais recentemente como um novo paradigma para o alojamento de dados e fornecimento de serviços na Internet. É um modelo especialmente atractivo para os donos de empresas que não se sentem pressionados com planeamento futuro e permite que, mesmo as mais pequenas empresas, comecem a usufruir de um vasto leque de serviços sem investimento inicial. Ou seja, as empresas podem começar por contratar pequenos serviços e ir expandindo à medida das suas necessidades. Assim, cloud computing é, antes de mais, um conceito de gestão de recursos distribuídos. O seu objectivo é fornecer um sistema de acesso final conveniente sem adquirir software, hardware ou infra-estruturas físicas, subcontratando tudo a fornecedores de serviço. Embora este modelo seja competitivo e flexível, traz consigo um grande número de desafios, nomeadamente a nível de segurança e privacidade.

Neste modelo, as aplicações, o poder computacional e o alojamento de dados, estão algures na rede, ou na "nuvem". Os utilizadores não têm que se preocupar com a localização física e podem rapidamente aceder aos recursos necessários à satisfação das suas necessidades, muitas vezes pagando pela sua utilização tal como se faz com a água ou electricidade domésticas. A nuvem é actualmente constituída por um vasto conjunto de datacenters isolados mas a ideia de criar uma plataforma unificada, à semelhança da Internet, já foi proposta e estudada.
  Cloud Computing

Neste ambiente de computação, o tradicional papel do fornecedor de serviço pode ser dividido em duas partes distintas: os fornecedores da infra-estrutura que gerem as plataformas e alugam recursos em função da sua utilização, e os fornecedores de serviços que alugam esses serviços, de um ou vários fornecedores de infra-estrutura, e os disponibilizam aos utilizadores finais. É nesta conjuntura que surgem diversas ofertas e modelos que fazem hoje parte da nomenclatura do cloud computing: software como um serviço, infra-estrutura como um serviço, plataforma como um serviço, desktop como um serviço e backend como um serviço.

O modelo backend as a service, também conhecido como mobile backend as a service, é o mais recente desenvolvimento do cloud computing tendo as primeiras ofertas surgindo em 2011. Este modelo tem por finalidade permitir que os criadores de aplicações web e móveis liguem as suas criações ao alojamento de dados na cloud, neste caso conhecido como backend cloud storage. Simultaneamente, este modelo garante também serviços como gestão de utilizadores e integração com serviços das redes sociais, sendo estes serviços disponibilizados através da utilização dos interfaces de programação e dos kits de desenvolvimento de software dos diversos ambientes para os quais as aplicações são desenvolvidas. É um modelo que tem a sua expansão garantida pela crescente adesão aos smartphones e as projecções para o mercado global deste segmento apontam para que se alcancem em breve os milhares de milhões de dólares.
    Cloud_Computing

O modelo de cloud computing está ainda em evolução mas, de forma geral, todas as companhias que disponibilizam este serviço possuem os seus próprios datacenters e estão a construir outros, cada vez maiores, todos possuindo arquitecturas de rede flexíveis, escaláveis, com baixos custos de operação e alta disponibilidade. O cloud computing na Internet é vulgarmente conhecido como public cloud computing e quando utilizado no interior do datacenter é chamado private cloud computing. A grande diferença reside em quem mantém o controlo e responsabilidade dos servidores, do alojamento, da infra-estrutura de rede e garante que os níveis de serviço são garantidos. Na "nuvem pública", quase todos os aspectos da operação e gestão são garantidos, como um serviço, por uma entidade externa. Estas companhias fornecedoras de serviços de "nuvem pública" assentam o seu negócio em datacenters cuja concepção inclui a virtualização de processamento, alojamento e equipamento de rede, sendo esta na realidade a base do seu investimento.

Artigo Anterior – Próximo Artigo

A Evolução da Computação: A Virtualização


Nos anos 80, a proliferação de PCs nas organizações aniquilou completamente a necessidade da virtualização como solução de multitarefa. Nessa altura, a virtualização foi abandonada até que, no final dos anos 90, a indústria sentiu novamente necessidade e lhe deu uma nova utilização. No início do novo século, a incrível expansão do negócio dos computadores baratos e a indústria dos datacenters começam a acusar sinais de desgaste, em grande medida devido aos elevados custos energéticos implicados neste modelo de computação. Em 2002, os datacenters já consumiam cerca de 1,5 % da energia dos EUA e estimava-se um crescimento anual da ordem dos 10%, com cerca de 5 milhões de servidores a ser instalados todos os anos. À medida que os especialistas lançam alertas acerca do excessivo consumo, os fabricantes de hardware procuram soluções que requeiram menos arrefecimento e a indústria das TI procura alternativas que lhe permitam continuar a responder à sempre crescente demanda por mais e melhores serviços.

  Suporte do Datacenter 

A esmagadora maioria da computação nesta altura é baseada na ineficiente arquitectura x86, criada originalmente pela Intel em 1978. Com o advento do hardware barato, a indústria das TI tinha caído no erro de sobre dimensionar toda a infra-estrutura e subaproveitar todos os recursos. Como já vimos, a cada nova aplicação correspondiam vários servidores e estes estavam invariavelmente muitíssimo subutilizados embora consumissem energia e requeressem arrefecimento.

  Virtualização de Servidores  
 
Em 1998, a VMware resolve o problema da virtualização da arquitectura x86 abrindo caminho a um processo de consolidação de servidores como forma de reduzir o imenso desperdício de recursos nas organizações, independentemente da sua dimensão. Nesta altura torna-se evidente que era financeiramente vantajoso adquirir menos servidores de maior capacidade capazes de suportar as tarefas até então distribuídas por dezenas de outras máquinas. Reduziam-se assim também os custos operacionais ao gastar menos energia na alimentação e arrefecimento de servidores e respectivo equipamento de apoio. Por outro lado, a virtualização permitiu o aparecimento de uma plataforma simplificada para disponibilidade e recuperação de dados o que, consequentemente, criou uma infraestrutura de TI mais sustentável e fiável.
 
Artigo AnteriorPróximo Artigo

A Evolução da Computação: O Internet Datacenter


Em meados da década de 90 a Internet torna-se verdadeiramente um fenómeno de massas e, no final da década, dá-se a expansão especulativa da sua exploração comercial. As empresas iniciaram um processo de posicionamento permanente na Internet como forma de alargar a sua estratégia de mercado num ambiente em que o ciberespaço se afirmava como a nova fronteira a explorar. Rapidamente, um número incontável de empresas sentiu a necessidade de ter operações contínuas e ligações rápidas que lhe permitissem instalar sistemas e garantir uma presença na Internet.
   Data Center

À medida que a bolha especulativa crescia, as empresas exigiam cada vez mais e mais velocidade nas ligações e espaço permanente de armazenamento que lhes permitissem garantir o funcionamento dos seus negócios a qualquer hora do dia, em qualquer fuso horário. Assim, a visibilidade ciberespacial e a ligação à rede tornaram-se grandes negócios, o que levou ao surgimento de um novo modelo de computação que coexistiu com o confuso ambiente de computação distribuída.
   Datacenter

Não tardou para que estes novos requisitos resultassem na construção de grandes infra-estruturas de alojamento e gestão de dados, responsáveis pela operação dos sistemas de computadores dentro da empresa e pela instalação de novos sistemas. Todavia, a construção, instalação e alojamento de um datacenter não eram uma opção viável para as empresas mais pequenas devido à exigência de espaço físico, equipamento e técnicos especializados. Para responder a esta procura, muitas empresas construíram grandes instalações, os Internet Datacenters, que continham centenas, ou mesmo milhares, de servidores e forneciam a negócios de todas as dimensões uma vasta panóplia de soluções e serviços.

Artigo AnteriorPróximo Artigo


 

A Evolução da Computação: Computação Distribuída


Depois dos microcomputadores, foi a vez dos sistemas de computação distribuída. Uma das mais importantes características deste ambiente de computação era o facto de todos os mais importantes sistemas operativos estarem instalados em servidores pequenos e baratos. Isto significava que era fácil para todos os grupos dentro das organizações instalar servidores fora do controlo do tradicional modelo de computação centralizada. Como resultado desta tendência, diversas aplicações surgiram sem que fossem seguidas as normas de desenvolvimento estabelecidas porque os engenheiros e programadores as desenvolviam nos seus postos de trabalho. Mais tarde, como eram partilhados por muita gente no departamento, esses postos de trabalho tornavam-se servidores e as aplicações passavam a desempenhar tarefas críticas dentro da organização.

Confusão de Servidores

Neste ambiente, era também vulgar seguir um modelo de desenvolvimento em que cada aplicação tinha o seu servidor. Muitas vezes, o financiamento para o desenvolvimento de uma nova aplicação era atribuído por unidades de negócio que insistiam em ter as suas próprias aplicações nos seus próprios servidores o que fazia com o número de servidores fosse crescendo à medida que as novas aplicações iam surgindo e entrando em produção. Na realidade o problema era muito mais grave porque cada aplicação requeria, no mínimo, três novos servidores: de desenvolvimento, de teste e de treino. Posteriormente seriam certamente adicionados os de produção e os de apoio e recuperação de desastres.
    Servidores Amontoados
Ou seja, nas grandes organizações era comum adquirir entre 8 a 10 novos servidores para cada nova aplicação. É o prelúdio de uma tremenda bolha especulativa que levaria ao colapso de imensas empresas que viram no ciberespaço uma ilusão de lucro fácil e ilimitado.
 
Artigo AnteriorPróximo Artigo

A Evolução da Computação: Computação Pessoal

Durante a década de 1980, a indústria informática atravessou uma época de crescimento explosivo com a chegada da era do microcomputador. Acompanhando a onda de excitação, estes computadores foram instalados em toda a parte e, em muitos casos, sem que fosse dada a mais pequena atenção aos requisitos específicos para o funcionamento adequado das máquinas. A partir desta altura, a computação que anteriormente era feita em terminais “estúpidos” que apenas serviam para interagir com o mainframe, passa a ser feita em microcomputadores, ou seja, máquinas que têm os seus próprios recursos. É a partir deste novo modelo de computação que surge o embrião do moderno ciberespaço com todos os serviços que hoje conhecemos.

Inicialmente, as empresas desenvolveram aplicações em microcomputadores porque estes lhes davam mais liberdade que aquela que tinham no ambiente mainframe com as suas rígidas regras e processos. Em muitos aspectos, o microcomputador foi o primeiro passo para a libertação da computação em ambiente mainframe. No entanto, cada computador era agora gerido da maneira que o proprietário escolheu, sem normas padronizadas nem procedimentos normalizados o que levou ao surgimento de uma situação algo caótica. Além disso, como cada fornecedor de microcomputadores tinha seu próprio sistema operativo proprietário, os programas escritos para um ambiente eram muito dificilmente migrados para outro.
  IBM PC 5150