Hive on Spark配置
拷贝Hive配置文件到Spark
cp /opt/bpasoftware/hive/conf/hive-site.xml /opt/bpasoftware/spark-2.0.2-bin-hadoop2.6/conf/
将配置好的hive-site.xml文件夹分发给所有slaves节点
scp hive-site.xml 用户名@主机名:/opt/bpasoftware/spark-2.0.2-bin-hadoop2.6/conf
整合需要spark能够读取找到Hive的元数据以及数据存放位置 将hive-site.xml文件拷贝到Spark的conf目录下,同时添加metastore的url配置 注:Hive安装步骤中已配置
Seven
010-62962343-690
liujx@actionsoft.com.cn
感谢您对该文档的关注!如果您对当前页面内容有疑问或好的建议,请与我联系。如果您需要解答相关技术问题请登录AWS客户成功社区