Ambari安装hadoop遇到的问题(一)
1、failure: repodata/repomd.xml frommysql56-community:[Errno 256] No more mirrors to try.
http://s3.amazonaws.com/dev.hortonworks.com/HDP-UTILS-1.1.0.21/repos/mysql-ppc64le/repodata/repomd.xml:[Errno 14] curl#6 - "Could not resolve host: s3.amazonaws.com; Unknownerror"
解决方案:查找到配置安装包路径的源文件,删除掉。然后重新添加有效的的yum源文件配置
2、parent directory /usr/hdp/current/spark-client/confdoesn't exist(没有找到conf)
解决方案:创建软连接到conf (执行 :ln-s /etc/spark/conf ./conf�)
3、
问题:启动hive metastore没有找到对应的数据库hive。解决方案:在对应的服务器下,
(1)创建hive用户:CREATE USER ‘hive’@'%' IDENDIFIED BY 'hive';
(2)给hive用户赋权:grant all privileges on *.* to hive@’%’;
(3)通过hive用户登录mysql:mysql –h127.0.0.1 –uhive –p
创建hive数据库:create database hive;
4、包冲突
--查找已安装的包 rpm -qa |grep 冲突的包名
--删除包 rpm -e 冲突的包名
--安装包 yum install 新包名
其中要更换的两个包:
mariadb-libs-5.5.50-1.el7_2.ppc64le
libtirpc-0.2.4-0.6.el7.ppc64le
在每台服务器上安装
libtirpc1-0.2.3-6.4.1.ppc64le.rpm
libtirpc-devel-0.2.3-6.4.1.ppc64le.rpm
for i `seq 138 140`;do scp lib* 10.19.88.$i:/tmp/ ;done (将包循环拷贝到138、139、140服务器上)