前言
在搭建大数据Hadoop相关的环境时候,遇到很多了很多错误。我是个喜欢做笔记的人,这些错误基本都记载,并且将解决办法也写上了。因此写成博客,希望能够帮助那些搭建大数据环境的人解决问题。
说明: 遇到的问题以及相应的解决办法是对于个人当时的环境,具体因人而异。如果碰到同样的问题,本博客的方法无法解决您的问题,请先检查环境配置问题。
Hadoop伪分布式相关的问题
1,FATAL conf.Configuration: error parsing conf hdfs-site.xml
原因: 字符编码问题。
解决办法: 统一编码,将文件打开,另存为统一编码,如UTF-8 即可。
2,Use of this script to execute hdfs command is deprecated。
原因:hadoop版本问题,命令过时。
解决办法: 将hadoop命令改成hdfs。
3,org.apache.hadoop.hdfs.server.namenode.NameNode。
原因:没有指定路径
解决办法:修改hadoop-env.sh文件。安装的hadoop路径是“/usr/local/hadoop/hadoop-2.8.2”, 在此路径下执行 vim etc/hadoop/hadoop-env.sh 在文件最后面添加 export HADOOP_PREFIX=/usr/local/hadoop/hadoop-2.8.2 ,并保存。
Hadoop相关的错误
1,启动hadoop时候报错:localhost: ssh: Could not resolve hostname localhost: Temporary failure in name resolution”
原因: hadoop的环境没有配置好,或者没有使配置生效。
解决办法: 如果没有配置Hadoop的环境变量,就填加配置。
例如:
然后使配置文件生效
输入:
|
|
2,mkdir: `/user/hive/warehouse’: No such file or directory
原因: 使用hadoop新建目录的时候报错,命名格式有问题
解决办法: 输入正确的命令格式
例如:
|
|
3,bash:…: is a directory
原因:可能是/etc/profile 配置未能成功配置
解决办法: 确认配置文件没有问题之后,发现环境变量后面多了空格,将环境变量后面的空格去掉之后就好了。
4,Hadoop警告:Unable to load native-hadoop library for your platform… using builtin-java classes where applicable
原因:Apache提供的hadoop本地库是32位的,而在64位的服务器上就会有问题,因此需要自己编译64位的版本。
解决办法:
1.编译64位版本的lib包,可以使用这个网站提供的编译好的http://dl.bintray.com/sequenceiq/sequenceiq-bin/ 。
- 将这个解压包解压到 hadoop/lib和hadoop/lib/native 目录下。
- 设置环境变量,在/etc/profile中添加 12export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
- 输入 hadoop checknative –a 检查
参考:
http://blog.csdn.net/jack85986370/article/details/51902871
5,hadoop成功配置之后,namenode没有成功启动。
原因:可能是hadoop的集群的配置不正确
解决方案: 检查hadoop/ etc/hadoop 的主要配置文件是否正确配置。
Spark相关的错误
##1,使用spark sql的时候报错:javax.jdo.JDOFatalInternalException: Error creating transactional connection factory
原因:可能是没有添加jdbc的驱动
解决办法: Spark 中如果没有配置连接驱动,在spark/conf 目录下编辑spark-env.sh 添加驱动配置
例如:
或者在spark目录下直接加载驱动
例如输入:
###2, spark-sql 登录日志过多
原因: spark的日志级别设置为了INFO。
解决办法:
将日志级别改成WARN就行了。
进入到spark目录/conf文件夹下,此时有一个log4j.properties.template文件,我们执行如下命令将其拷贝一份为log4j.properties,并对log4j.properties文件进行修改。
将
改成
3,spark sql启动报错:org.apache.spark.sql.hive.thriftserver.SparkSQLCLIDriver
在spark/bin 目录下 修改spark-sql ,添加蓝色的字体的内容。
HBase 相关的错误
1,启动HBase错误: -bash: /opt/hbase/hbase-1.2.6/bin: is a directory
原因:未输入正确的命令,或者Hadoop未能正确运行
解决办法:
首先检查命名格式是否正确,然后检查Hadoop是否成功运行。
2,Java API 连接HBase 报错
org.apache.hadoop.hbase.client.RetriesExhaustedException: Failed after attempts=36, exceptions:
Tue Jul 19 16:36:05 CST 2016, null, java.net.SocketTimeoutException: callTimeout=60000, callDuration=79721: row ‘testtable,,’ on table ‘hbase:meta’ at region=hbase:meta,,1.1588230740, hostname=ubuntu,16020,1468916750524, seqNum=0
原因:可能是使用了主机名进行连接,而未载windows系统的hosts文件进行配置。
解决办法:
1.确认本地和集群服务之间的通信没有问题。
2.修改 C:\Windows\System32\drivers\etc\hosts 的文件,添加集群的主机名和IP做映射。
例如:
192.169.0.23 master
192.169.0.24 slave1
192.169.0.25 slave2
Hive相关的错误
1,hive2: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
原因: 无法连接元数据库,可能没有初始化元数据
解决办法:初始化元数据
输入: schematool -dbType mysql -initSchema
然后在输入: hive
2,进入hive警告:Class path contains multiple SLF4J bindings
原因:日志文件冲突。
解决办法: 移除其中的一个架包就可以了。
例如:移除hive或hadooop相关的一个slf4j.jar就可以;
3,java连接hive报错:HIVE2 Error: Failed to open new session: java.lang.RuntimeException:org.apache.hadoop.ipc.RemoteExc
原因:没有设置远程连接权限。
解决方案:在hadoop/conf/core-site.xml 中添加如下部分,重启服务即可:
4,java连接hive报错:hive:jdbc connection refused
原因:可能hive未启动或者配置未能正确配置
解决办法:
1.查看服务是否启动
输入:
|
|
2.查看hive / conf/hive-site.xml配置是否正确,是否添加了这些配置
|
|
注: master是我配置主机的名称,可以替换成主机的IP。
3.确认配置没有问题之后,输入hive –service hiveserver2 之后,在使用java连接测试。
5,使用hive警告:WARN conf.HiveConf: HiveConf of name hive.metastore.local does not exist
原因: Hive的这个配置在1.0之后就废除了。
解决办法:
在hive / conf/hive-site.xml 去掉这个配置就行了
set mapred.reduce.tasks = 2000;
set mapreduce.reduce.memory.mb=16384;
set mapreduce.reduce.java.opts=-Xmx16384m;
dataDir=/opt/zookeeper/data
dataLogDir=/opt/zookeeper/dataLog
server.1=master:2888:3888
server.2=slave1:2888:3888
server.3=slave2:2888:3888
```
myid的配置为 1、2、3