[hive]FAILED: SemanticException
hive的注意事项
------------------
如果配置hadoop HA之前,搭建了Hive的话,在HA之后,需要调整路径信息.
主要是修改mysql中的dbs,tbls等相关表。
1:解决NameNode配置HA后Hive路径不正确的问题
配置了NameNode的HA后,Hive无正常查询数据了,但是其他的组件HDFS , HBase ,Spark都正常的。
Hive中查询会出现如下异常:
hive> select * from t2;
FAILED: SemanticException Unable to determine if hdfs://s201/user/hive/warehouse/mydb2.db/t2 is encrypted: java.lang.IllegalArgumentException: Wrong FS: hdfs://s201/user/hive/warehouse/mydb2.db/t2, expected: hdfs://mycluster
应该是Hive元数据的问题,在Hive数据库中有两张表:
DBS : Hive数据仓库的总路径
SDS : Hive每张表对应的路径
数据库中保存了原来的hdfs的路径,修改成HA对应的别名即可
通常元数据库都采用mysql使用sql进行字段内容替换非常方便:
相关sql规范:
update 表名 set 字段名=REPLACE (字段名,'原来的值','要修改的值')
字段里面的所有的 原来的值,都现在改为 要修改的值
修改范例:
update DBS set DB_LOCATION_URI=REPLACE(DB_LOCATION_URI,'hdfs://s201','hdfs://mycluster');
update SDS set LOCATION=REPLACE (LOCATION,'hdfs://s201','hdfs://mycluster');