A evolução da computação distribuída para Big Data

Por trás de todas as tendências importantes ao longo da última década, incluindo a orientação a serviços, computação em nuvem, virtualização e big data, é uma tecnologia fundamental chamada computação distribuída.

Em termos simples, sem a computação distribuída, nenhum desses avanços seria possível.

A computação distribuída é uma técnica que permite que os computadores individuais a serem ligados em rede em todas as áreas geográficas, como se fossem um único ambiente. Você encontra muitas implementações diferentes de computação distribuída. Em algumas topologias, entidades de computação individuais simplesmente passar mensagens uns aos outros.

Em outras situações, um ambiente de computação distribuída pode partilhar recursos que variam de memória para redes e armazenamento. Todos os modelos de computação distribuída tem um atributo comum: Eles são um grupo de computadores em rede que funcionam em conjunto para executar uma carga de trabalho ou processo.

DARPA e Big Data

O modelo de computação distribuída mais conhecida, a Internet, é a base para tudo, desde e-commerce para a computação em nuvem para gerenciamento de serviços e virtualização. A Internet foi concebida como um projeto de pesquisa financiado pela DARPA EUA.

Ele foi projetado para criar um sistema de rede de interligação que apoiaria não comercial, colaborar pesquisa entre cientistas. Nos primeiros dias da Internet, esses computadores eram frequentemente ligados por linhas de telefone! A menos que você experimentou a frustração, você só pode imaginar como lentos e frágeis essas conexões eram.

image0.jpg

Como a tecnologia amadureceu ao longo da próxima década, protocolos comuns, como Transmission Control Protocol (TCP) ajudaram a proliferar a tecnologia ea rede. Quando o IP (Internet Protocol) foi adicionado, o projeto passou de uma rede fechada para uma coleção de cientistas para uma plataforma potencialmente comerciais para transferir e-mail em todo o mundo.

Ao longo da década de 1980, novos serviços baseados na Internet começaram a surgir no mercado como uma alternativa comercial para a rede DARPA. Em 1992, o Congresso dos EUA aprovou a Lei Científica e de tecnologia avançada que, pela primeira vez, permitiu o uso comercial desta tecnologia de rede poderosa. Com seu crescimento explosivo continuou, a Internet é verdadeiramente uma rede distribuída global e continua a ser o melhor exemplo do poder da computação distribuída.

O valor de um modelo de dados consistente grande

Que diferença fez esse esforço levou-DARPA fazer no movimento para a computação distribuída? Antes da comercialização da Internet, havia centenas de empresas e organizações criando uma infra-estrutura de software destinado a fornecer uma plataforma comum para suportar um ambiente de computação altamente distribuída.

No entanto, cada fornecedor ou padrões de organização veio com os seus próprios procedimentos chamadas remotas (RPC) que todos os clientes, desenvolvedores de software comerciais e parceiros teriam de adotar e apoio. RPC é um mecanismo primitivo usado para enviar o trabalho para um computador remoto e, geralmente, requer esperando para o trabalho remoto para concluir antes de outro trabalho pode continuar.

Com fornecedores execução RPCs proprietários, tornou-se impraticável para imaginar que qualquer empresa seria capaz de criar um padrão universal para computação distribuída. Em meados da década de 1990, os protocolos de Internet substituiu estas abordagens primitivos e se tornou a base para o que é a computação distribuída hoje. Após este foi resolvido, os usos desta abordagem para a computação em rede começou a florescer.

image1.jpg

menu