Linux下Hadoop源码的编译

1.前期准备

1.1CentOS联网

1.2采用root角色编译,减少文件夹权限出现问题

1.3jar包准备(hadoop源码、JDK8、maven、ant 、protobuf)

(1)hadoop-2.7.2-src.tar.gz
(2)jdk-8u144-linux-x64.tar.gz
(3)apache-ant-1.9.9-bin.tar.gz(build工具,打包用的)
(4)apache-maven-3.0.5-bin.tar.gz
(5)protobuf-2.5.0.tar.gz(序列化的框架)

在这里我要推荐下我自己建的大数据学习交流扣扣裙: 961523330, 裙 里有博主的jar包下载。

1.4linux工具安装

查看:https://blog.csdn.net/qq_39657909/article/details/84975864

2.编译源码

1.解压源码到/opt/目录:[root@hadoop101 software]# tar -zxvf hadoop-2.7.2-src.tar.gz -C /opt/
2.进入到hadoop源码主目录:[root@hadoop101 hadoop-2.7.2-src]# pwd
3.通过maven执行编译命令:[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,native -DskipTests -Dtar

等待时间30分钟左右,最终成功是全部SUCCESS,成功截图如下:
在这里插入图片描述

3.编译后源码所在目录/opt/hadoop-2.7.2-src/hadoop-dist/target

在这里插入图片描述

(这可能是博主贴代码贴的最细致的一篇了!!!NG)
版权声明:本博客为记录本人自学感悟,转载需注明出处!
https://me.csdn.net/qq_39657909

已标记关键词 清除标记
©️2020 CSDN 皮肤主题: 技术黑板 设计师:CSDN官方博客 返回首页