Dimensionando o cluster Hadoop

Dimensionamento qualquer sistema de processamento de dados é tanto uma ciência como é uma arte. Com Hadoop, você considera a mesma informação que você faria com um banco de dados relacional, por exemplo. Mais significativamente, você precisa saber a quantidade de dados que você tem, estimar as suas taxas de crescimento esperadas, e estabelecer uma política de retenção (por quanto tempo manter os dados).

As respostas a essas perguntas servem como ponto de partida, que é independente de quaisquer exigências relacionadas com a tecnologia.

Depois de determinar a quantidade de dados que você precisa para armazenar, você pode começar a factoring em considerações específicas do Hadoop. Suponha que você tem uma empresa de telecomunicações e que você estabeleceu que você precisa de 750 terabytes (TB) de espaço de armazenamento para o seu apelo Detail Record (CDR) arquivos de log.

Você mantém esses registros para obedecer a regulamentos governamentais, mas também é possível analisá-las a ver padrões churn e saúde da rede monitor, por exemplo. Para determinar a quantidade de espaço de armazenamento que você precisa e, como resultado, o número de racks e nós escravos que você precisa, você realizar seus cálculos com esses fatores em mente:

  • Replicação: O fator de replicação padrão para dados em HDFS é 3. As 500 terabytes de dados CDR para a empresa de telecomunicações no exemplo, em seguida, transforma-se em 1500 terabytes.

  • O espaço de troca: Qualquer análise ou processamento dos dados por MapReduce precisa de um 25 por cento adicional de espaço para armazenar todos os conjuntos de resultados intercalares e finais. (A empresa de telecomunicações precisa agora de 1875 terabytes de espaço de armazenamento.)

  • Compressão: A empresa de telecomunicações armazena os CDRs em uma forma comprimida, onde se espera que a taxa de compressão média para ser de 3: 1. agora você precisa de 625 terabytes.

  • Número de nós escravos: Assumindo que cada nó escravo tem doze discos de 3 TB dedicados a HDFS, cada nó escravo tem 36 terabytes de armazenamento HDFS cru disponíveis, por isso a empresa precisa de 18 nós escravos.

  • Número de racks: Como cada nó escravo usa 2RU ea empresa no exemplo precisa de três nós mestre (1RU cada) e dois interruptores ToR (1RU cada), você precisa de um total de 41RU. É 1RU menos do que a capacidade total de um rack padrão, de modo que um único rack é suficiente para essa implantação.

    Independentemente disso, há espaço para o crescimento permanece neste cluster, por isso é prudente para comprar uma segunda cremalheira (e dois interruptores ToR adicionais) e dividir os nós escravos entre os dois racks.

  • Teste: A manutenção de um cluster de teste que é uma representação menor escala do cluster de produção é uma prática padrão. Ele não tem que ser enorme, mas você quer, pelo menos, cinco nós de dados para que você obtenha uma representação precisa do comportamento do Hadoop. Tal como acontece com qualquer ambiente de teste, deve ser isolado de uma rede diferente do cluster de produção.

  • Backup e recuperação de desastres: Como qualquer sistema de produção, a empresa de telecomunicações também terá de considerar requisitos de backup e recuperação de desastres. Esta empresa poderia ir tão longe a ponto de criar um cluster de espelho para garantir que eles tenham um modo de espera quente para todo o seu sistema. Esta é, obviamente, a opção mais cara, mas é adequado para ambientes onde o tempo de atividade constante é crítica.

    No final menos caro do espectro (além de não fazer backup dos dados em todos), a empresa de telecomunicações poderia regularmente backup de todos os dados (incluindo os dados em si, aplicações, arquivos de configuração e metadados) sendo armazenado em seu cluster de produção para a fita. Com a fita, os dados não está imediatamente acessível, mas vai permitir um esforço de recuperação de desastres no caso em que todo o cluster Hadoop de produção falhar.

Tal como acontece com o seu próprio computador pessoal, quando a unidade de disco rígido principal enche de espaço, o sistema diminui consideravelmente. Hadoop não é excepção. Além disso, uma unidade de disco rígido tem melhor desempenho quando é inferior a 85 a 90 por cento completo. Com esta informação em mente, se o desempenho for importante para você, você deve bater o fator de swap de espaço 25-33 por cento.

menu