用官方的构建好的hadoop 2.4.0(133mb)安装后,每次输入hadoop命令进去都会得到这样一个warning,如图:
warn util.nativecodeloader: unable to load native-hadoop library for your platform... using builtin-java classes where applicable
网上搜罗了一些资料,下面是解决办法:
设置logger级别,看下具体原因:
<a href="http://my.oschina.net/itblog/blog/270360#">?</a>
1
<code>export</code> <code>hadoop_root_logger=debug,console</code>
再次随便运行一个hadoop相关的命令,将看到下面的错误:
wrong elfclass32?,难道是加载的so文件系统版本不对?
于是执行命令
2
<code>cd</code> <code>$hadoop_home</code><code>/lib/native</code>
<code>file</code> <code>libhadoop.so.1.0.0</code>
结果是这样的:
果然是80386,是32位的系统版本,而我的hadoop环境是64位os
原来直接从apache镜像中下载的编译好的hadoop版本native library都是32版本的,如果要支持64位版本,必须自己重新编译,这就有点坑爹了,要知道几乎所有的生产环境都是64位的os
“the pre-built 32-bit i386-linux native hadoop library is available as part of the hadoop distribution and is located in the lib/native directory”
于是重新checkout source code:
<code>svn checkout http:</code><code>//svn</code><code>.apache.org</code><code>/repos/asf/hadoop/common/tags/release-2</code><code>.4.0/</code>
<code>mvn package -pdist,native -dskiptests -dtar</code>
待编译完成后,到release-2.4.0/hadoop-dist/target/hadoop-2.4.0/lib/native目录下找到这个libhadoop.so.1.0.0文件,再次查看其file type:
用这个文件替换掉$hadoop_home/lib/native/libhadoop.so.1.0.0,之后再次随便运行一个hadoop相关命令:
<code>unset</code> <code>hadoop_root_logger</code>
<code>hadoop fs -</code><code>ls</code> <code>/</code>
再看输出:
warn消失,问题解决。