Dimensionando nuestro cluster III: Nodos Master

En Hadoop se asume que los nodos salves fallen en algún momento, de modo que:

· NameNode automáticamente vuelve a replicar bloques que estaban en los nodos que han fallado a otros nodos manteniendo el índice de replicación de x3

· JobTracker automáticamente reasigna tareas que se estaban corriendo en nodos con errores

Los Nodos Master en Hadoop son Single Points of Failure (SPF) ya que:

· Si el NameNode se cae el cluster se queda inaccessible

· Si el JobTracker se cae el cluser no puede correr más Jobs y todos los Jobs corriendo fallarán.

Por tanto como norma podríamos decir Gasta más dinero en los Nodos Master que en los Slaves.

Las recomendaciones sobre estos nodos serían:

· Uso Hardware Carrier y no Commodity

· Fuentes Dual-Power

· Tarjetas Ethernet duales

· Discos RAID

· Al menos 32 Gb de RAM

Deja un comentario