Apache Hadoop Installation On Ubuntu (Multi-Node Cluster) .
Apache Hadoop Installation On Ubuntu (Multi-Node Cluster) .
Apache Hadoop Installation On Ubuntu (Multi-Node Cluster) .
nœuds).
Voici les étapes de l'installation d'Apache Hadoop sur un serveur Linux Ubuntu, vous pouvez
créer 4 machines virtuelles en utilisant Oracle Virtual Box et installer Ubuntu sur ces VM.
Apache Hadoop est un cadre open-source de stockage et de traitement distribué qui est
utilisé pour exécuter de grands ensembles de données sur du matériel de commodité ;
Hadoop fonctionne nativement sur le système d'exploitation Linux, dans ce TP est
l'explication étape par étape la version d'installation d'Apache Hadoop (Hadoop 3.1.1) sur un
cluster multi-nœuds sur Ubuntu (un nœud de nom et 3 nœuds de données).
Voici les 4 noeuds et leurs adresses IP auxquels je vais me référer dans cet article
Installation d'Apache Hadoop sur Linux Ubuntu. et, utilisateur de connexion est
ubuntu.
Le nœud de nom utilisera une connexion ssh pour se connecter aux autres
nœuds du cluster avec une authentification par paire de clés, afin de gérer le
cluster. Par conséquent, générons la paire de clés à l'aide de ssh-keygen.
sudo vi /etc/hosts
192.168.1.100 namenode.socal.rr.com
192.168.1.141 datanode1.socal.rr.com
192.168.1.113 datanode2.socal.rr.com
192.168.1.118 datanode3.socal.rr.com
Apache hadoop est construit sur Java, il a donc besoin de Java pour fonctionner.
Installez openJDK Java comme ci-dessous. Si vous souhaitez utiliser d'autres JDK,
veuillez le faire en fonction de vos besoins.
In this section, you will download Apache Hadoop and install on all nodes in a
cluster (1 name node and 3 data nodes).
Add Hadoop environment variables to .bashrc file. Open .bashrc file in vi editor and
add below variables.
vi ~/.bashrc
export HADOOP_HOME=/home/ubuntu/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export YARN_HOME=${HADOOP_HOME}
Now re-load the environment variables to the opened session or close and
open the shell.
source ~/.bashrc
3. Configure Apache Hadoop Cluster
Une fois l'installation d'Apache Hadoop terminée, vous devez le configurer en
modifiant certains fichiers de configuration. Effectuez les configurations ci-dessous
sur le nœud de nom et copiez ces configurations sur les 3 nœuds de données d'un
cluster.
vi ~/hadoop/etc/hadoop/hadoop-env.sh
vi ~/hadoop/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
vi ~/hadoop/etc/hadoop/core-site.xml
3.3 Update hdfs-site.xml
vi ~/hadoop/etc/hadoop/hdfs-site.xml
vi ~/hadoop/etc/hadoop/mapred-site.xml
[Note: This configuration required only on name node however, it will not
harm if you configure it on datanodes]
create a data folder and change its permissions to the login user. I’ve logged in as
ubuntu user, so you see with ubuntu
192.168.1.100
192.168.1.141
192.168.1.113
192.168.1.118
L'écriture et la lecture sur HDFS se font avec la commande hdfs dfs. Tout d'abord,
créez manuellement votre répertoire personnel. Toutes les autres commandes
utiliseront un chemin relatif à ce répertoire personnel par défaut : (notez que
ubuntu est mon utilisateur connecté. Si vous vous connectez avec un utilisateur
différent, veuillez utiliser votre identifiant au lieu de ubuntu)
wget -O alice.txt
https://www.gutenberg.org/files/11/11-0.txt