/opt/cdh5.7.6/hadoop-2.6.0-cdh5.7.6/etc/hadoop
在我的这个目录下配置过hive的配置文件,所以Spark认为是要和Hive集成
(之前使用Sqoop时配置过这个,Spark和hive之间有天然的集成关系,Spark的前身就是在Hive的基础上改出来的)
解决报错的办法有两个:
方法一:启动MetaStore进程
方法二:将这个软连接删除
Spark默认是从HDFS上读取数据的,所以如果HDFS的两个进程没开也会报错
/opt/cdh5.7.6/hadoop-2.6.0-cdh5.7.6/etc/hadoop
在我的这个目录下配置过hive的配置文件,所以Spark认为是要和Hive集成
(之前使用Sqoop时配置过这个,Spark和hive之间有天然的集成关系,Spark的前身就是在Hive的基础上改出来的)
解决报错的办法有两个:
方法一:启动MetaStore进程
方法二:将这个软连接删除
Spark默认是从HDFS上读取数据的,所以如果HDFS的两个进程没开也会报错
道可道,非常道;名可名,非常名。 无名,天地之始,有名,万物之母。 故常无欲,以观其妙,常有欲,以观其徼。 此两者,同出而异名,同谓之玄,玄之又玄,众妙之门。