SparkSQL访问Hive遇到的问题及解决方法
发布时间:2019-10-13 01:04:15 所属栏目:教程 来源:若泽大数据
导读:需要先将hadoop的core-site.xml,hive的hive-site.xml拷贝到project中 测试代码 报错 查看源码 解决方法 将$HIVE_HOME/lib下的spark-hive_2.11-2.4.2.jar与spark-hive-thriftserver_2.11-2.4.2.jar添加到project中 继续报错 查看源码 进入ConfVars 发现Con
需要先将hadoop的core-site.xml,hive的hive-site.xml拷贝到project中 测试代码 ![]() 报错 ![]() 查看源码 ![]() 解决方法 将$HIVE_HOME/lib下的spark-hive_2.11-2.4.2.jar与spark-hive-thriftserver_2.11-2.4.2.jar添加到project中 继续报错 ![]() 查看源码 ![]() 进入ConfVars ![]() 发现ConfVars中定义的变量并没有METASTORE_CLIENT_SOCKET_LIFETIME,而HiveConf.java来自于hive-exec-1.1.0-cdh5.7.0.jar,即证明hive1.1.0中并没有假如该参数。 解决方法 将hive依赖换为1.2.1 ![]() 继续报错 ![]() 解决方法 这是因为远端没有启动hive造成的,启动hive时需要配置metastore。
(编辑:晋中站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |