Day 1 虚拟机配置和搭建Kibana环境
今日任务:配置环境出现kibana页面
第一步:准备工作(软件)
1.安装VM虚拟机
2.安装notepad++
3.安装Secure CRT
——————————————————————————————————————————
(1)VM虚拟机安装、新建虚拟机:
1.添加镜像文件CentOS-6.5-x86_64-bin-DVD1.iso
2.用户名root 密码hadoop
3.配置网络IP网关等,这里用NAT;配置网络完毕之后:指令service network restart然后重启
4.在虚拟机上的一些准备工作(创建文件夹等):
[root@localhost ~]# cd /home/
[root@localhost home]# ls
hadoop
[root@localhost home]# rm -rf hadoop
[root@localhost home]# mkdir tools
[root@localhost home]# mkdir softwares
[root@localhost home]# mkdir data
[root@localhost home]# ls
data softwares tools
5.安装上传软件
[root@localhost tools]# yum -y install lrzsz
6.通过rz命令,把需要的软件上传需要装的四个软件压缩包(图1.1、1.2)


7.配置Java环境
建文件夹: cd /home/softwares/
mkdir java8
ls
java 8
cd java8/进入Java8目录
配置Java环境:
1)[root@localhost tools]# tar -zxf jdk1.8.0_162.tar.gz -C ../softwares/java8/
2)vim /etc/profile
3)按住j回到文件末然后按o插入一行
4)添加(图1.3)
export JAVA_HOME=/home/softwares/java8
export PATH=$PATH:$JAVA_HOME/bin
按esc然后":wq"写入退出

5)测试环境
[root@localhost java8]# source /etc/profile
[root@localhost java8]# javac -version
javac 1.8.0_162
——————————————————————————————————————————
(2)安装notepad++(官网下载)
1.添加ftp插件:插件->插件管理->勾选NppFtp安装
2.安装ftp插件之后:插件->NppFtp->show nppftp window
3.出现window之后:点击图标中的灰色小齿轮->profile setting 然后配置IP地址端口号等(见图2.1)
4.配置profile setting之后点击第一个图标那个蓝色小棒槌然后点击两次root 和 根"\"

___________________________________________________________________________
(3)安装secureCRT
1.解压压缩包点击两下"!!注册.reg"然后点开secureCRT.exe执行安装
2.安装完之后添加连接
第二步:参考文档"elasticsearch6.2.2安装.doc"
(1)安装elasticsearch、kibana、lostash
解压三个软件到softwares目录下(因为之前在虚拟机softwares目录下有这三个的压缩包)
[root@localhost tools]# tar -zxf elasticsearch-6.2.2.gz -C ../softwares/
[root@localhost tools]# tar -zxf kibana-6.2.2-linux-x86_64.tar.gz -C ../softwares/
[root@localhost tools]# tar -zxf logstash-6.6.2.tar.gz -C ../softwares/
————————————————————————————————————————
(2)创建用户
1.创建用户组、在组中添加用户、设置密码及权限
[root@localhost java8]# cd /
[root@localhost /]# groupadd es
[root@localhost /]# useradd es -g es
[root@localhost /]# passwd es
Changing password for user es.
New password:
BAD PASSWORD: it is too short
BAD PASSWORD: is too simple
Retype new password:
passwd: all authentication tokens updated successfully.
2.修改ES的根目录的权限(softwares目录下)
[root@hadoop softwares]# chown -R es:es elasticsearch-6.2.2
[root@hadoop softwares]# su es
[es@hadoop softwares]# cd elasticsearch-6.2.2
[es@hadoop elasticsearch-6.2.2]$ ./bin/elasticsearch
正常的启动信息如下:(图。。。)
——————————————————————————————————————
(3)修改一些xml文件配置(用notepad++)
1.elasticsearch.yml (图4.1)
2.limits.config(图4.2 etc目录security文件夹)
3.sysctl.config(图4.3 etc目录)
4.kibana.yml (图4.4)
PS:先修改虚拟机主机名再按图片配置;修改虚拟机主机名步骤:
1.键入命令 [root@localhost ~]# vim /etc/sysconfig/network
2.修改HOSTNAME=hadoop
3.键入命令 [root@localhost ~]# vim /etc/hosts
4.添加一行“192.168.188.240 hadoop” 即“IP 主机名”
批注:1)修改i 2)添加一行o 3)保存写入esc然后":wq"




—————————————————————————————————————
(4)在windows上关闭防火墙。。。。
具体过程:1.跟着路径C:\Windows\System32\drivers\etc\hosts找到hosts文件(用notepad++打开此文件)
2.在此文件中加入代码"192.168.229.101 hadoop"即"IP地址 主机名"保存
3.在命令行键入[root@hadoop ~]# chkconfig iptables off #关闭linux防火墙#
完成上述配置后重启虚拟机"reboot",然后重启后回到root用户
(5)切换用户进入并启动elasticsearch
[root@hadoop ~]# cd /home/softwares/
[root@hadoop softwares]# su es
[es@hadoop softwares] $ cd elasticsearch-6.2.2/
[es@hadoop elasticsearch-6.2.2] $ ./bin/elasticsearch
(6)启动kibana
[root@hadoop ~]# cd /home/softwares/
[root@hadoop softwares]# ls
[root@hadoop softwares]# cd kibana-6.2.2-linux-x86_64/
[root@hadoop kibana-6.2.2-linux-x86_64]# bin/kibana
(7)在浏览器中输入"192.168.229.101:5601"出现了kibana主页(图5.1)

今天的任务结束啦~