Cómo instalar Hadoop en Ubuntu 18.04 Bionic Beaver Linux
- 3848
- 1251
- Alejandro Duran
Apache Hadoop es un marco de código abierto utilizado para el almacenamiento distribuido, así como el procesamiento distribuido de grandes datos en grupos de computadoras que se ejecutan en productos hardwares de productos básicos. Hadoop almacena datos en Hadoop Distributed File System (HDFS) y el procesamiento de estos datos se realiza utilizando MapReduce. Yarn proporciona API para solicitar y asignar recursos en el clúster Hadoop.
El marco Apache Hadoop está compuesto por los siguientes módulos:
- Hadoop común
- Sistema de archivos distribuido Hadoop (HDFS)
- HILO
- Mapa reducido
Este artículo explica cómo instalar Hadoop versión 2 en Ubuntu 18.04. Instalaremos HDFS (NameNode y Datanode), hilo, MapReduce en el clúster de nodo único en el modo Pseudo distribuido que se distribuye en una sola máquina. Cada demonio de Hadoop, como HDFS, hilo, MapReduce, etc. se ejecutará como un proceso Java separado/individual.
En este tutorial aprenderás:
- Cómo agregar usuarios para el entorno Hadoop
- Cómo instalar y configurar el Oracle JDK
- Cómo configurar SSH sin contraseña
- Cómo instalar Hadoop y configurar los archivos XML relacionados necesarios
- Cómo comenzar el clúster de Hadoop
- Cómo acceder a la interfaz de usuario web de NameNode y ResourceManager
Requisitos y convenciones de software utilizados
Categoría | Requisitos, convenciones o versión de software utilizada |
---|---|
Sistema | Ubuntu 18.04 |
Software | Hadoop 2.8.5, Oracle JDK 1.8 |
Otro | Acceso privilegiado a su sistema Linux como root o a través del sudo dominio. |
Convenciones | # - requiere que los comandos de Linux dados se ejecuten con privilegios raíz directamente como un usuario raíz o mediante el uso de sudo dominiops - Requiere que los comandos de Linux dados se ejecuten como un usuario regular no privilegiado |
Otras versiones de este tutorial
Ubuntu 20.04 (fosa focal)
Agregar usuarios para el entorno Hadoop
Cree el nuevo usuario y el grupo usando el comando:
# agregar usuario
Agregue un nuevo usuario para Hadoop.
Instale y configure el Oracle JDK
Descargue y extraiga el archivo Java bajo el /optar
directorio.
# CD /OPT # TAR -XZVF JDK-8U192-LINUX-X64.alquitrán.GZ
o
$ TAR -XZVF JDK-8U192-LINUX-X64.alquitrán.GZ -C /OPT
Para establecer el JDK 1.8 Actualización 192 Como JVM predeterminado, usaremos los siguientes comandos:
# Update-Alternatives --install/usr/bin/java java/opt/jdk1.8.0_192/bin/java 100 # # update-alternativo --install/usr/bin/javac javac/opt/jdk1.8.0_192/bin/javac 100
Después de la instalación para verificar que el Java se haya configurado correctamente, ejecute los siguientes comandos:
# Update-Alternatives-Dislay Java # Update-Alternatives--Dislay JavacOracleJDK Instalación y configuración.
Configurar ssh sin contraseña
Instale el servidor SSH abierto y abra el cliente SSH con el comando:
# sudo apt-get install openssh-server openSsh-client
Genere pares de claves públicas y privadas con el siguiente comando. El terminal solicitará ingresar el nombre del archivo. Prensa INGRESAR
y continuar. Después de eso, copie el formulario de claves públicas ID_RSA.pub
a autorizado_keys
.
$ ssh -keygen -t rsa $ cat ~/.ssh/id_rsa.Pub >> ~/.ssh/autorized_keys
Configuración SSH sin contraseña.
Verifique la configuración SSH sin contraseña con el comando:
$ ssh localhost
Cheque ssh sin contraseña.
Instalar hadoop y configurar archivos XML relacionados
Descargar y extraer Hadoop 2.8.5 del sitio web oficial de Apache.
# tar -xzvf hadoop -2.8.5.alquitrán.GZ
Configuración de las variables de entorno
Editar el bashrc
Para el usuario de Hadoop a través de la configuración de las siguientes variables de entorno Hadoop:
Exportar hadoop_home =/home/hadoop/hadoop-2.8.5 Export hadoop_install = $ hadoop_home hadoop_mapred_home = $ hadoop_home exportp_common_home = $ hadoop_home exportp_hdfs_home = $ hadoop_home yarn_home = $ hadoop_home exportoop_common_lib_native_dir = $ hadoop_home/lib/bath: hadoop sath: hadoop ° $ hadoop_ = hadoop_ment: hadoop_mat: hadoop_hom/hadoop_home Exportar hadoop_opts = "-djava.biblioteca.ruta = $ hadoop_home/lib/nativo "
Copiar Fuente el .bashrc
En la sesión de inicio de sesión actual.
$ fuente ~/.bashrc
Editar el hadoop-env.mierda
archivo que está en /etc/hadoop
Dentro del directorio de instalación de Hadoop y realice los siguientes cambios y verifique si desea cambiar cualquier otra configuración.
Exportar java_home =/opt/jdk1.8.0_192 Exportar hadoop_conf_dir = $ hadoop_conf_dir:-"/home/hadoop/hadoop-2.8.5/etc/hadoop "
Copiar Cambios en Hadoop-env.Archivo SH. Cambios de configuración en el sitio de núcleo.archivo XML
Editar el sitio de núcleo.xml
con vim o puede usar cualquiera de los editores. El archivo está debajo /etc/hadoop
adentro hadoop
directorio de inicio y agregar entradas siguientes.
FS.defaultfs hdfs: // localhost: 9000 hadoop.TMP.prostituta /home/hadoop/hadooptmpdata
Copiar Además, cree el directorio en hadoop
carpeta de inicio.
$ mkdir hadooptmpdataConfiguración para el sitio de núcleo.archivo XML.
Cambios de configuración en el sitio HDFS.archivo XML
Editar el sitio HDFS.xml
que está presente en la misma ubicación yo.mi /etc/hadoop
adentro hadoop
directorio de instalación y crear el Namenode/dataNode
directorios bajo hadoop
directorio de inicio del usuario.
$ mkdir -p hdfs/namenode $ mkdir -p hdfs/datanode
DFS.replicación 1 DFS.nombre.prostituta Archivo: /// home/hadoop/hdfs/namenode DFS.datos.prostituta archivo: /// home/hadoop/hdfs/datanode
Copiar Configuración para el sitio HDFS.archivo XML. Cambios de configuración en el sitio de Mapred.archivo XML
Copia el sitio de mapred.xml
de sitio de mapred.xml.plantilla
usando CP
comandar y luego editar el sitio de mapred.xml
colocado en /etc/hadoop
bajo hadoop
Directorio de instilación con los siguientes cambios.
$ cp Mapred-site.xml.plantilla mapred-site.xmlCreando el nuevo sitio de mapred.archivo XML.
Mapa reducido.estructura.nombre hilo
Copiar Configuración para el sitio de Mapred.archivo XML. Cambios de configuración en el sitio de hilo.archivo XML
Editar hilo.xml
con las siguientes entradas.
mapreduceyarn.nodo.Aux-Servicios mapreduce_shuffle
Copiar Configuración para el sitio de hilo.archivo XML. Comenzando el clúster Hadoop
Formatear el NameNode antes de usarlo por primera vez. A medida que el usuario de HDFS ejecuta el siguiente comando a continuación para formatear el NameNode.
$ hdfs namenode -format
Formatear el Namenode.
Una vez que el NameNode se haya formateado, comience el HDFS usando el inicio-DFS.mierda
guion.
Iniciar el script de inicio de DFS para iniciar HDFS.
Para iniciar los servicios de hilo, necesita ejecutar el script de inicio del hilo.mi. start-yarn.mierda
Para verificar todos los servicios/demonios de Hadoop se inicia con éxito, puede usar el JPS
dominio.
/opt/jdk1.8.0_192/bin/jps 20035 Secondarynamenode 19782 Datanode 21671 JPS 20343 Nodemanager 19625 Namenode 20187 ResourceManager
Copiar Salida de Hadoop Daemons del comando JPS.
Ahora podemos verificar la versión actual de Hadoop que puede usar el siguiente comando:
Versión de $ Hadoop
o
Versión de $ HDFS
Revise la versión de Hadoop.
Interfaz de línea de comandos HDFS
Para acceder a los HDF y crear algunos directorios en la parte superior de DFS, puede usar HDFS CLI.
$ hdfs dfs -mkdir /test $ hdfs dfs -mkdir /hadooponubuntu $ hdfs dfs -ls /
Creación de directorio HDFS usando HDFS CLI.
Acceda al NameNode y al hilo desde el navegador
Puede acceder a la interfaz de usuario web para el administrador de recursos de Namenode y el hilo a través de cualquiera de los navegadores como Google Chrome/Mozilla Firefox.
Ui web namenode - http: //: 50070
Navegación del directorio HDFS a través de la interfaz de usuario web de NameNode.
La interfaz web de Yarn Resource Manager (RM) mostrará todos los trabajos en ejecución en el clúster Hadoop actual.
Ui web administrador de recursos - http: //: 8088
Conclusión
El mundo está cambiando la forma en que está operando actualmente y los grandes datos están jugando un papel importante en esta fase. Hadoop es un marco que hace que nuestra vida sea fácil mientras trabaja en grandes conjuntos de datos. Hay mejoras en todos los frentes. El futuro es emocionante.
Tutoriales de Linux relacionados:
- Ubuntu 20.04 Hadoop
- Cosas para instalar en Ubuntu 20.04
- Cómo crear un clúster de Kubernetes
- Cómo instalar Kubernetes en Ubuntu 20.04 fossa focal Linux
- Cosas que hacer después de instalar Ubuntu 20.04 fossa focal Linux
- Cómo instalar Kubernetes en Ubuntu 22.04 Jellyfish de Jammy ..
- Cosas para instalar en Ubuntu 22.04
- Cómo trabajar con la API REST de WooCommerce con Python
- Cómo administrar los grupos de Kubernetes con Kubectl
- Una introducción a la automatización, herramientas y técnicas de Linux
- « Cómo instalar Android Studio en Manjaro 18 Linux
- Cómo instalar Google Chrome en Manjaro 18 Linux »