Hadoop相关的Linux基础操作

解压并配置环境变量

创建新文件夹
mkdir opt/modules
删除文件夹
rm -rf filename
解压文件到指定文件夹
tar -zxvf hadoop.tar.gz -C opt/modules/
获取文件的路径
pwd hadoop
添加环境变量
vim /etc/profile

HADOOP_HOME=/opt/modules/hadoop-3.2.1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
刷新环境变量设置
source /etc/profile

Hadoop目录介绍

[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# ls
bin  etc  include  lib  libexec  LICENSE.txt  NOTICE.txt  README.txt  sbin  share
sbin : 存放hadoop启动和停止的命令(重点)
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# cd sbin
[root@izbp11cvux96riz6fo5klaz sbin]# ls
distribute-exclude.sh    start-all.sh         stop-balancer.sh
FederationStateStore     start-balancer.sh    stop-dfs.cmd
hadoop-daemon.sh         start-dfs.cmd        stop-dfs.sh
hadoop-daemons.sh        start-dfs.sh         stop-secure-dns.sh
httpfs.sh                start-secure-dns.sh  stop-yarn.cmd
kms.sh                   start-yarn.cmd       stop-yarn.sh
mr-jobhistory-daemon.sh  start-yarn.sh        workers.sh
refresh-namenodes.sh     stop-all.cmd         yarn-daemon.sh
start-all.cmd            stop-all.sh          yarn-daemons.sh
bin
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# cd bin
[root@izbp11cvux96riz6fo5klaz bin]# ls
container-executor  hadoop  hadoop.cmd  hdfs  hdfs.cmd  mapred  mapred.cmd  oom-listener  test-container-executor  yarn  yarn.cmd

#介绍
dhfs :
hadoop : 管理hadoop集群
yarn : 管理资源调度
etc : 配置文件
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# cd etc
[root@izbp11cvux96riz6fo5klaz etc]# ls
hadoop
[root@izbp11cvux96riz6fo5klaz etc]# cd hadoop
[root@izbp11cvux96riz6fo5klaz hadoop]# ls
capacity-scheduler.xml            kms-log4j.properties
configuration.xsl                 kms-site.xml
container-executor.cfg            log4j.properties
core-site.xml                     mapred-env.cmd
hadoop-env.cmd                    mapred-env.sh
hadoop-env.sh                     mapred-queues.xml.template
hadoop-metrics2.properties        mapred-site.xml
hadoop-policy.xml                 shellprofile.d
hadoop-user-functions.sh.example  ssl-client.xml.example
hdfs-site.xml                     ssl-server.xml.example
httpfs-env.sh                     user_ec_policies.xml.template
httpfs-log4j.properties           workers
httpfs-signature.secret           yarn-env.cmd
httpfs-site.xml                   yarn-env.sh
kms-acls.xml                      yarnservice-log4j.properties
kms-env.sh                        yarn-site.xml
lib : 本地库
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# cd lib
[root@izbp11cvux96riz6fo5klaz lib]# ls
native
[root@izbp11cvux96riz6fo5klaz lib]# cd native
[root@izbp11cvux96riz6fo5klaz native]# ls
examples          libhadoop.so        libhdfs.a         libnativetask.a
libhadoop.a       libhadoop.so.1.0.0  libhdfs.so        libnativetask.so
libhadooppipes.a  libhadooputils.a    libhdfs.so.0.0.0  libnativetask.so.1.0.0
share : 官方提供的案例和说明文档

Hadoop正式开始使用

#首先进入hadoop安装目录 cd opt/modules/hadoop-3.2.1
#在该目录下创建一个input文件夹
#将etc/hadoop/*.xml的文件移动到input文件夹中(正则表达式)
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# mkdir input
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# cp etc/hadoop/*.xml input
配置ssh免密登录
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
经典案例
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar grep input/ output 'dfs[a-z.]+'
#输出符合指定正则表达式的结果,保存到output文件夹中,并且outpue文件事先不能存在
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# mkdir wcinput
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# cd wcinput
[root@izbp11cvux96riz6fo5klaz wcinput]# touch wc.input
[root@izbp11cvux96riz6fo5klaz wcinput]# vim wc.input
[root@izbp11cvux96riz6fo5klaz wcinput]# cd ..
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount wcinput wcoutput
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# cat wcoutput/part-r-00000 

#输出结果(取决于自己在vim编辑的时候输入的内容)
hadoop    2
mapreduce    1
yarn    1
伪分布配置步骤
#java环境变量配置
vim /etc/profile
JAVA_HOME=/usr/java/jdk1.8.0_121
JRE_HOME=${JAVA_HOME}/jre
CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

#另一个需要配置java的文件
vim ~/.bashrc
#在这个文件的最上面添上
export JAVA_HOME=/usr/java/jdk1.8.0_121
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

#相当于刷新,让刚才的配置生效
source /etc/profile
source ~/.bashrc

#初始化命令
[root@izbp11cvux96riz6fo5klaz bin]# hdfs namenode -format

#dfs.sh文件在文件顶部添加上这个
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

#yarn.sh
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

#执行如下命令
[root@izbp11cvux96riz6fo5klaz sbin]# start-dfs.sh

#检测是否成功启动
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# jps
10896 SecondaryNameNode
11041 Jps
10549 NameNode
17493 
10678 DataNode

#在远程服务器上创建一个目录/opt/modules/hadoop-3.2.1/
[root@izbp11cvux96riz6fo5klaz hadoop-3.2.1]# ./bin/hdfs dfs -mkdir -p /opt/modules/hadoop-3.2.1/

   转载规则


《》 熊水斌 采用 知识共享署名 4.0 国际许可协议 进行许可。
 上一篇
mysql内核 sql优化 mysql服务器优化 各个参数常量设定 查询语句优化 主从复制 软硬件升级 容灾备份 sql编程 MySQL在Linux下的安装rpm安装方式 进入mysql的下载地址https://downloads.mysq
2023-02-04
下一篇 
优点 控制反转IOC 面向切面编程AOP 轻量级, 非入侵 IOC理论推导 UserDao接口 UserDaoImpl实现类 UserService业务接口 UserServiceImpl业务实现类 原来的业务中,用户的需求可能会影响原
2023-02-04
  目录