在经历过忍饥挨饿、老眼昏花的深夜加班,最后扛不住没搞定,今天周六,再次来从新梳理思路和审核每一步操作,最终苍天终不负,让我搞定了LZO的安装,使集群间lzo文件的对拷和读写成为现实。期间,重启集群不下30遍,甚至一度丢掉了所有文件(测试环境),重新格式化。真心不容易,同时我很喜悦!因此,只要坚持和努力,结果不会令人太失望!
言归正传,把我安装的过程记录一下,以备下次再安装时,我就驾轻就熟了。
1、安装JAVA、HADOOP、ANT等环境以及安装lzo、lzop系统工具,这里不赘述;
2、下载lzo源码(我是从这里下载的 https://github.com/twitter/hadoop-lzo)和下载 hadoop-gpl-compression源码(https://code.google.com/a/apache-extras.org/p/hadoop-gpl-compression/downloads/list)最新版
3、 由于lzo已经年久失修,而hadoop的版本却与时俱进,这就导致了lzo的源码显得老气横秋,而hadoop却无比娇艳。因此,原生的lzo是不支持新版hadoop的,需要更改。更改的地方也不多,不要害怕,这些需要自己动手,问度娘也不知道的,具体涉及的是两个类三个地方, "Impala V1.0安装之lzo "
4、去lzo的根目录下(即hadoop-lzo-master下),把lib目录下的jar删除,替换成你要对应的hadoop版本的jar包(我的是Hadoop 2.0.0-cdh4.3.0 );
5、对更改好的lzo源码进行编译,去lzo源码根目录下执行
export CFLAGS=-m64
export CXXFLAGS=-m64
ant compile-native tar
把编译完成生产的 cp ./builder/hadoop-lzo-0.4.17-SNAPSHOT.jar $HADOOP_HOME/share/hadoop/yarn/lib
6、把更改好的lzo源码(java src部分)全部拷贝至 hadoop-gpl-compression-0.1.0 根目录下的 java src下。删除hadoop-gpl-compression-0.1.0目录下的lib,把 hadoop-lzo-master 下lib目录完全拷贝至 hadoop-gpl-compression-0.1.0目录下,在其根目录下执行
ant compile-native tar
拷贝结果 cp ./builder/hadoop-gpl-compression-0.1.0-dev.jar $HADOOP_HOME/share/hadoop/yarn/lib
tar -cBf - -C build/hadoop-gpl-compression-0.1.0-dev/lib/native . | tar -xBvf - -C $HADOOP_HOME/lib/native
把hadoop的lib、share目录scp至各个节点
7、设置 各个节点设置~/.bashrc (这很重要,我就因为忘了设置JAVA_LIBRARY_PATH,一直没无法读取lzo )
export JAVA_LIBRARY_PATH=/export/servers/jdk1.6.0_25/jre/lib/amd64/server:/export/servers/jdk1.6.0_25/jre/lib/amd64/server::/usr/local/hadoop/lib/native/Linux-amd64-64:/usr/local/hadoop/lib/native:/usr/local/lib:/usr/local/hadoop/lib/native/Linux-amd64-64:/usr/local/hadoop/lib/native:/usr/local/lib
export LD_LIBRARY_PATH=$JAVA_LIBRARY_PATH
至此,大功告成,重启集群,执行 hdfs dfs -text /你的lzo文件,那么就可以看到结果了,如果成功了,那么恭喜你;如果不成功,继续努力,去审查每个过程,是否有漏掉的错误没有解决。
欢迎进行交流,QQ:214814466
相关推荐
hadoop-2.0.0-cdh4.2.1.rar
hadoop-2.0.0-cdh4.2.1的源码
自己编译的hadoop-2.0.0-cdh4.6.0版本eclipse插件
2 程序安装 7 2.1 zookeeper 7 2.1.1 第一步:解压 7 2.1.2 第二步:修改zoo.cfg 7 2.1.3 第三步:创建myid 9 2.1.4 第四步:配置环境变量 9 2.1.5 第五步:测试 9 2.2 hadoop 10 2.2.1 第一步:解压 10 2.2.2 第二...
hadoop-cdh-4.5.0 eclipse plugin hadoop eclipse 插件 hadoop-eclipse-plugin-2.0.0-cdh4.5.0.jar
hadoop-2.0.0-cdh4.1.5-eclipse-plugin.jar 在cdh4.1.5的MRv1配置下的自编插件(亲测cdh4.1.5~cdh4.2.2可用)
ha 方式安装 cdh4,hbase,补充原文档的内容
本资源是spark-2.0.0-bin-hadoop2.6.tgz百度网盘资源下载,本资源是spark-2.0.0-bin-hadoop2.6.tgz百度网盘资源下载
自己编译的hadoop2.6-cdh5.14.0库文件,亲测可用。因为编译过程中需要下载大量的maven依赖包,该库文件编译花了十个多小时,所以网络环境不好的情况下,不建议自己编译。
hive-0.10.0-cdh4.3.0.tar.gz liux安装文件 64位
hadoop-2.6.0-cdh5.14.0 源码 。
carbondata-1.4,spark-2.1,hadoop-2.6.0-cdh5.11.1源码编译
# 解压命令 tar -zxvf flink-shaded-hadoop-2-uber-3.0.0-cdh6.2.0-7.0.jar.tar.gz # 介绍 用于CDH部署 Flink所依赖的jar包
hadoop-2.6.0-cdh5.14.2.tar.gz适用于Linux环境,centos7已测试
kettle 9.1 连接hadoop clusters (CDH 6.2) 驱动
linux 系统为centos6.5 hadoop版本:2.5.0 cdh3.5.6环境下使用
Hadoopzailinux
hadoop-2.6.0版本的apache和cdh版本
hadoop-lzo-0.4.15-cdh5.14.4.jar
主要是因为hadoop的cdh5官网收费,项目下载不了了,上传我下载的到csdn方便各位下载