Cómo instalar Hadoop en Ubuntu 18.04 Bionic Beaver Linux

Cómo instalar Hadoop en Ubuntu 18.04 Bionic Beaver Linux

Apache Hadoop es un marco de código abierto utilizado para el almacenamiento distribuido, así como el procesamiento distribuido de grandes datos en grupos de computadoras que se ejecutan en productos hardwares de productos básicos. Hadoop almacena datos en Hadoop Distributed File System (HDFS) y el procesamiento de estos datos se realiza utilizando MapReduce. Yarn proporciona API para solicitar y asignar recursos en el clúster Hadoop.

El marco Apache Hadoop está compuesto por los siguientes módulos:

  • Hadoop común
  • Sistema de archivos distribuido Hadoop (HDFS)
  • HILO
  • Mapa reducido

Este artículo explica cómo instalar Hadoop versión 2 en Ubuntu 18.04. Instalaremos HDFS (NameNode y Datanode), hilo, MapReduce en el clúster de nodo único en el modo Pseudo distribuido que se distribuye en una sola máquina. Cada demonio de Hadoop, como HDFS, hilo, MapReduce, etc. se ejecutará como un proceso Java separado/individual.

En este tutorial aprenderás:

  • Cómo agregar usuarios para el entorno Hadoop
  • Cómo instalar y configurar el Oracle JDK
  • Cómo configurar SSH sin contraseña
  • Cómo instalar Hadoop y configurar los archivos XML relacionados necesarios
  • Cómo comenzar el clúster de Hadoop
  • Cómo acceder a la interfaz de usuario web de NameNode y ResourceManager
Interfaz de usuario web de NameNode.

Requisitos y convenciones de software utilizados

Requisitos de software y convenciones de línea de comandos de Linux
Categoría Requisitos, convenciones o versión de software utilizada
Sistema Ubuntu 18.04
Software Hadoop 2.8.5, Oracle JDK 1.8
Otro Acceso privilegiado a su sistema Linux como root o a través del sudo dominio.
Convenciones # - requiere que los comandos de Linux dados se ejecuten con privilegios raíz directamente como un usuario raíz o mediante el uso de sudo dominio
ps - Requiere que los comandos de Linux dados se ejecuten como un usuario regular no privilegiado

Otras versiones de este tutorial

Ubuntu 20.04 (fosa focal)

Agregar usuarios para el entorno Hadoop



Cree el nuevo usuario y el grupo usando el comando:

# agregar usuario 

Agregue un nuevo usuario para Hadoop.

Instale y configure el Oracle JDK

Descargue y extraiga el archivo Java bajo el /optar directorio.

# CD /OPT # TAR -XZVF JDK-8U192-LINUX-X64.alquitrán.GZ 

o

$ TAR -XZVF JDK-8U192-LINUX-X64.alquitrán.GZ -C /OPT 

Para establecer el JDK 1.8 Actualización 192 Como JVM predeterminado, usaremos los siguientes comandos:

# Update-Alternatives --install/usr/bin/java java/opt/jdk1.8.0_192/bin/java 100 # # update-alternativo --install/usr/bin/javac javac/opt/jdk1.8.0_192/bin/javac 100 

Después de la instalación para verificar que el Java se haya configurado correctamente, ejecute los siguientes comandos:

# Update-Alternatives-Dislay Java # Update-Alternatives--Dislay Javac 
OracleJDK Instalación y configuración.

Configurar ssh sin contraseña



Instale el servidor SSH abierto y abra el cliente SSH con el comando:

# sudo apt-get install openssh-server openSsh-client 

Genere pares de claves públicas y privadas con el siguiente comando. El terminal solicitará ingresar el nombre del archivo. Prensa INGRESAR y continuar. Después de eso, copie el formulario de claves públicas ID_RSA.pub a autorizado_keys.

$ ssh -keygen -t rsa $ cat ~/.ssh/id_rsa.Pub >> ~/.ssh/autorized_keys 

Configuración SSH sin contraseña.

Verifique la configuración SSH sin contraseña con el comando:

$ ssh localhost 

Cheque ssh sin contraseña.

Instalar hadoop y configurar archivos XML relacionados

Descargar y extraer Hadoop 2.8.5 del sitio web oficial de Apache.

# tar -xzvf hadoop -2.8.5.alquitrán.GZ 

Configuración de las variables de entorno



Editar el bashrc Para el usuario de Hadoop a través de la configuración de las siguientes variables de entorno Hadoop:

Exportar hadoop_home =/home/hadoop/hadoop-2.8.5 Export hadoop_install = $ hadoop_home hadoop_mapred_home = $ hadoop_home exportp_common_home = $ hadoop_home exportp_hdfs_home = $ hadoop_home yarn_home = $ hadoop_home exportoop_common_lib_native_dir = $ hadoop_home/lib/bath: hadoop sath: hadoop ° $ hadoop_ = hadoop_ment: hadoop_mat: hadoop_hom/hadoop_home Exportar hadoop_opts = "-djava.biblioteca.ruta = $ hadoop_home/lib/nativo " 
Copiar

Fuente el .bashrc En la sesión de inicio de sesión actual.

$ fuente ~/.bashrc

Editar el hadoop-env.mierda archivo que está en /etc/hadoop Dentro del directorio de instalación de Hadoop y realice los siguientes cambios y verifique si desea cambiar cualquier otra configuración.

Exportar java_home =/opt/jdk1.8.0_192 Exportar hadoop_conf_dir = $ hadoop_conf_dir:-"/home/hadoop/hadoop-2.8.5/etc/hadoop " 
Copiar Cambios en Hadoop-env.Archivo SH.

Cambios de configuración en el sitio de núcleo.archivo XML

Editar el sitio de núcleo.xml con vim o puede usar cualquiera de los editores. El archivo está debajo /etc/hadoop adentro hadoop directorio de inicio y agregar entradas siguientes.

  FS.defaultfs hdfs: // localhost: 9000   hadoop.TMP.prostituta /home/hadoop/hadooptmpdata   
Copiar

Además, cree el directorio en hadoop carpeta de inicio.

$ mkdir hadooptmpdata 
Configuración para el sitio de núcleo.archivo XML.

Cambios de configuración en el sitio HDFS.archivo XML



Editar el sitio HDFS.xml que está presente en la misma ubicación yo.mi /etc/hadoop adentro hadoop directorio de instalación y crear el Namenode/dataNode directorios bajo hadoop directorio de inicio del usuario.

$ mkdir -p hdfs/namenode $ mkdir -p hdfs/datanode 
  DFS.replicación 1 DFS.nombre.prostituta Archivo: /// home/hadoop/hdfs/namenode DFS.datos.prostituta archivo: /// home/hadoop/hdfs/datanode   
Copiar Configuración para el sitio HDFS.archivo XML.

Cambios de configuración en el sitio de Mapred.archivo XML

Copia el sitio de mapred.xml de sitio de mapred.xml.plantilla usando CP comandar y luego editar el sitio de mapred.xml colocado en /etc/hadoop bajo hadoop Directorio de instilación con los siguientes cambios.

$ cp Mapred-site.xml.plantilla mapred-site.xml 
Creando el nuevo sitio de mapred.archivo XML.
  Mapa reducido.estructura.nombre hilo   
Copiar Configuración para el sitio de Mapred.archivo XML.

Cambios de configuración en el sitio de hilo.archivo XML



Editar hilo.xml con las siguientes entradas.

  mapreduceyarn.nodo.Aux-Servicios mapreduce_shuffle   
Copiar Configuración para el sitio de hilo.archivo XML.

Comenzando el clúster Hadoop

Formatear el NameNode antes de usarlo por primera vez. A medida que el usuario de HDFS ejecuta el siguiente comando a continuación para formatear el NameNode.

$ hdfs namenode -format 

Formatear el Namenode.



Una vez que el NameNode se haya formateado, comience el HDFS usando el inicio-DFS.mierda guion.

Iniciar el script de inicio de DFS para iniciar HDFS.

Para iniciar los servicios de hilo, necesita ejecutar el script de inicio del hilo.mi. start-yarn.mierda

Iniciar el script de inicio del hilo para comenzar el hilo.

Para verificar todos los servicios/demonios de Hadoop se inicia con éxito, puede usar el JPS dominio.

/opt/jdk1.8.0_192/bin/jps 20035 Secondarynamenode 19782 Datanode 21671 JPS 20343 Nodemanager 19625 Namenode 20187 ResourceManager 
Copiar

Salida de Hadoop Daemons del comando JPS.

Ahora podemos verificar la versión actual de Hadoop que puede usar el siguiente comando:

Versión de $ Hadoop 

o

Versión de $ HDFS 

Revise la versión de Hadoop.

Interfaz de línea de comandos HDFS



Para acceder a los HDF y crear algunos directorios en la parte superior de DFS, puede usar HDFS CLI.

$ hdfs dfs -mkdir /test $ hdfs dfs -mkdir /hadooponubuntu $ hdfs dfs -ls / 

Creación de directorio HDFS usando HDFS CLI.

Acceda al NameNode y al hilo desde el navegador

Puede acceder a la interfaz de usuario web para el administrador de recursos de Namenode y el hilo a través de cualquiera de los navegadores como Google Chrome/Mozilla Firefox.

Ui web namenode - http: //: 50070

Interfaz de usuario web de NameNode. Detalles de HDFS desde la interfaz de usuario web de NameNode.

Navegación del directorio HDFS a través de la interfaz de usuario web de NameNode.

La interfaz web de Yarn Resource Manager (RM) mostrará todos los trabajos en ejecución en el clúster Hadoop actual.

Ui web administrador de recursos - http: //: 8088

Interfaz de usuario web administrador de recursos.

Conclusión

El mundo está cambiando la forma en que está operando actualmente y los grandes datos están jugando un papel importante en esta fase. Hadoop es un marco que hace que nuestra vida sea fácil mientras trabaja en grandes conjuntos de datos. Hay mejoras en todos los frentes. El futuro es emocionante.

Tutoriales de Linux relacionados:

  • Ubuntu 20.04 Hadoop
  • Cosas para instalar en Ubuntu 20.04
  • Cómo crear un clúster de Kubernetes
  • Cómo instalar Kubernetes en Ubuntu 20.04 fossa focal Linux
  • Cosas que hacer después de instalar Ubuntu 20.04 fossa focal Linux
  • Cómo instalar Kubernetes en Ubuntu 22.04 Jellyfish de Jammy ..
  • Cosas para instalar en Ubuntu 22.04
  • Cómo trabajar con la API REST de WooCommerce con Python
  • Cómo administrar los grupos de Kubernetes con Kubectl
  • Una introducción a la automatización, herramientas y técnicas de Linux