来源:民工哥技术之路 作者:吃兔头 本文以api.域名为测试对象进行统计,日志为crm.和risk.请求之和(此二者域名不具生产换环境统计意义),生产环境请根据具体需要统计的域名进行统计。 由于涉及生产线上服务器,故本文部分服务器IP做了打码处理。 一、服务介绍 1.1、ELK ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。 Elasticsearch是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。 Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为c/s架构,client端安装在需要收集日志的主机上,server端负责将收到的各节点日志进行过滤、修改等操作在一并发往elasticsearch上去。 Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。 1.2、Nginx Nginx('engine x') 是一个高性能的HTTP和反向代理服务器,也是一个IMAP/POP3/SMTP代理服务器。Nginx 是由 Igor Sysoev 为俄罗斯访问量第二的 Rambler.ru 站点开发的,第一个公开版本0.1.0发布于2004年10月4日。其将源代码以类BSD许可证的形式发布,因它的稳定性、丰富的功能集、示例配置文件和低系统资源的消耗而闻名。Nginx是一款轻量级的Web服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,并在一个BSD-like 协议下发行。由俄罗斯的程序设计师Igor Sysoev所开发,供俄国大型的入口网站及搜索引擎Rambler(俄文:Рамблер)使用。其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:新浪、网易、腾讯等。 本文中前端使用了nginx的反向代理功能,并使用了nginx的HTTP功能。 1.3、Kafka Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。对于像Hadoop一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。Kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群来提供实时的消息。 二、架构要求 2.1、架构描述 使用filebeat收集nginx日志,输出到kafka;logstash从kafka中消费日志,通过grok进行数据格式化,输出到elasticsearch中,kibana从elasticsearch中获取日志,进行过滤出图. 2.2、系统版本 CentOS Linux release 7.2.1511 (Core)
3.10.0-514.26.2.el7.x86_64 2.3、软件版本 jdk1.8.0_144 nginx-1.12.2 filebeat-6.3.2 awurstmeister/kafka(docker image) logstash-6.5.4 elasticsearch-6.4.0 kibana-6.4.0 三、linux系统环境配置与优化 #查看服务器硬件信息
dmidecode|grep 'Product Name'
#查看CPU型号
grep name /proc/cpuinfo
#查看CPU个数
grep 'physical id' /proc/cpuinfo
#查看内存大小
grep MemTotal /proc/meminfo 四、系统初始化 4.1、关闭防火墙 systemctl stop filewalld 4.2、关闭selinux setenforce 0
sed -i 's#SELINUX=enforcing#SELINUX=disabled#g' /etc/selinux/config 4.3、添加普通账户 useradd elsearch echo '******'|passwd --stdin elsearch 4.4、配置yum源 cat /etc/yum.repos.d/CentOS-Base.repo
[base]
name=CentOS-$releasever
enabled=1
failovermethod=priority
baseurl=http://mirrors.cloud./centos/$releasever/os/$basearch/
gpgcheck=1
gpgkey=http://mirrors.cloud./centos/RPM-GPG-KEY-CentOS-7
[updates]
name=CentOS-$releasever
enabled=1
failovermethod=priority
baseurl=http://mirrors.cloud./centos/$releasever/updates/$basearch/
gpgcheck=1
gpgkey=http://mirrors.cloud./centos/RPM-GPG-KEY-CentOS-7
[extras]
name=CentOS-$releasever
enabled=1
failovermethod=priority
baseurl=http://mirrors.cloud./centos/$releasever/extras/$basearch/
gpgcheck=1
gpgkey=http://mirrors.cloud./centos/RPM-GPG-KEY-CentOS-7 4.5、清理开机自启动服务 for i in `chkconfig --list|grep 3:on |awk '{print $1}'`;do chkconfig$i off;done for i in crond network rsyslog sshd;do chkconfig --level 3 $ion;done chkconfig --list|grep 3:on 4.6、服务器时间同步 echo '*/5 * * * * /usr/sbin/ntpdate time.windows.com > /dev/null2>&1' >>/var/spool/cron/root 4.7、加大文件描述符 echo '* - nofile 65535' >> /etc/security/limits.conf tail -1 /etc/security/limits.conf #重新登陆后生效(无需重启) ulimit -n(重新登陆后查看) 4.8、内核参数调优(可不操作) \cp /etc/sysctl.conf /etc/sysctl.conf.bak
cat>>/etc/sysctl.conf<<EOF
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_synack_retries = 2
net.ipv4.tcp_syn_retries = 2
net.ipv4.tcp_mem = 94500000 915000000 927000000
net.ipv4.tcp_max_orphans = 3276800
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_rmem=4096 87380 16777216
net.ipv4.tcp_wmem=4096 65536 16777216
net.core.netdev_max_backlog = 32768
net.core.somaxconn = 32768
net.ipv4.tcp_syncookies=1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_fin_timeout=1
net.ipv4.tcp_keepalive_time=1200
net.ipv4.tcp_max_syn_backlog = 65536
net.ipv4.ip_local_port_range = 1024 65535
EOF
/sbin/sysctl -p 五、部署开始 5.1、更改nginx日志输出格式 5.1.1、定义日志格式 cat /etc/nginx/nginx.conf log_format main '$remote_addr - $remote_user [$time_local]'$request' ' '$status$body_bytes_sent '$http_referer' ' ''$http_user_agent' '$http_x_forwarded_for''; 5.1.2、加载日志格式到对应域名配置中 cat /etc/nginx/conf.d/vhost/api..conf
server {
listen 80;
server_name newtest-msp-api.;
access_log /var/log/nginx/api..log main;
} 5.1.3、reload生效 nginx -s reload 5.1.4、清空原输出文件,并查看输出的日志格式 :> /var/log/nginx/api..log
tailf /var/log/nginx/api.mingongger.com.cn.log
1xx.2xx.72.175 - - [18/Mar/2019:13:51:17 0800] 'GET/user/fund/113 HTTP/1.1' 200 673 '-' 'Mozilla/5.0 (WindowsNT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) sun/1.5.6 Chrome/69.0.3497.106Electron/4.0.3 Safari/537.36' '-' 5.2、配置kafka 测试环境使用docker起的kafka,kafka部署掠过,以下任选一种 5.2.1、方法一 创建kafka topic ./kafka-topics.sh --create --topic nginxlog --replication-factor 1--partitions 1 --zookeeper localhost:2181 5.2.2、方法二 auto.create.topics.enable=true 开启kafka自动创建topic配置 5.2.3、filebeat部署完成后确认kafka topic中有数据 ./kafka-console-consumer.sh --bootstrap-server 192.168.0.53:9091--from-beginning --topic nginxlog 输出如下 {'@timestamp':'2019-03-14T07:16:50.140Z','@metadata':{'beat':'filebeat','type':'doc','version':'6.3.2','topic':'nginxlog'},'fields':{'log_topics':'nginxlog'},'beat':{'version':'6.3.2','name':'test-kafka-web','hostname':'test-kafka-web'},'host':{'name':'test-kafka-web'},'source':'/var/log/nginx/newtest-msp-api.-80.log','offset':114942,'message':'116.226.72.175- - [14/Mar/2019:15:16:49 0800] newtest-msp-api. POST\'/upstream/page\' \'-\' 200 6314\'http://newtest-msp-crm./\' 200 192.168.0.49:60070.024 0.024 \'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36(KHTML, like Gecko) Chrome/70.0.3538.67 Safari/537.36\'\'-\''}
Processed a total of 7516 messages 测试环境中kafka地址为 192.168.0.53:9091 5.3、配置filebeat收集nginx日志 5.3.1、安装filebeat cd /opt/ && wget http://download./download/software/filebeat-6.3.2-x86_64.rpm
yum localinstall filebeat-6.3.2-x86_64.rpm -y 5.3.2、编辑配置文件 cat /etc/filebeat/filebeat.yml filebeat.prospectors: - input_type: log enabled: true paths: - /var/log/nginx/api..log#收集日志路径 fields: log_topics: nginxlog #kafka中topic名称 json.keys_under_root: true json.overwrite_keys: true output.kafka: enabled: true hosts:['192.168.0.53:9091'] #kafka地址 topic:'%{[fields][log_topics]}' #kafka中topic名称 partition.round_robin: reachable_only: false compression: gzip max_message_bytes: 1000000 required_acks: 1 5.3.3、启动filebeat& 开机启动 systemctl start filebeat
systemctl enable filebeat 5.4、配置logstash 5.4.1 编辑配置 cat /usr/local/logstash/config/nginx.conf input { kafka { type =>'nginxlog' topics =>['nginxlog'] bootstrap_servers=> ['192.168.0.53:9091'] group_id =>'nginxlog' auto_offset_reset=> latest codec =>'json' } } filter { if [type] == 'nginxlog'{ grok { match => {'message' => '%{COMBINEDAPACHELOG}' } remove_field =>'message' } date { match => ['timestamp' , 'dd/MMM/YYYY:HH:mm:ss Z' ] } geoip { source =>'clientip' target =>'geoip' database =>'/usr/local/logstash/config/GeoLite2-City.mmdb' add_field => ['[geoip][coordinates]', '%{[geoip][longitude]}' ] #添加字段coordinates,值为经度 add_field => ['[geoip][coordinates]', '%{[geoip][latitude]}' ] #添加字段coordinates,值为纬度 } mutate { convert => ['[geoip][coordinates]', 'float'] } useragent { source =>'agent' target =>'userAgent' } } } output { if [type] == 'nginxlog' { elasticsearch { hosts =>['http://192.168.0.48:9200'] index =>'logstash-nginxlog-%{ YYYY.MM.dd}' } stdout {codec =>rubydebug} } } 5.4.2、使用配置文件启动logstash服务,观察输出 /usr/local/logstash/bin/logstash -f nginx.conf
{
'httpversion'=> '1.1',
'verb' =>'GET',
'auth'=> '-',
'@timestamp'=> 2019-03-18T06:41:27.000Z,
'type'=> 'nginxlog',
'json'=> {},
'source'=> '/var/log/nginx/newtest-msp-api.-80.log',
'fields' =>{
'log_topics'=> 'nginxlog'
},
'response'=> '200',
'offset'=> 957434,
'host'=> {
'name' =>'test-kafka-web'
},
'beat'=> {
'hostname'=> 'test-kafka-web',
'version'=> '6.3.2',
'name'=> 'test-kafka-web'
},
'bytes'=> '673',
'request'=> '/user/fund/113',
'timestamp'=> '18/Mar/2019:14:41:27 0800',
'referrer'=> '\'-\'',
'userAgent'=> {
'os'=> 'Windows',
'major' => '4',
'patch'=> '3',
'build'=> '',
'minor'=> '0',
'os_name'=> 'Windows',
'device'=> 'Other',
'name'=> 'Electron'
},
'geoip'=> {
'ip' => '1xx.2xx.72.175',
'country_name' => 'China',
'coordinates' => [
[0] 121.4012,
[1] 31.0449
],
'region_name' => 'Shanghai',
'location' => {
'lat'=> 31.0449,
'lon'=> 121.4012
},
'continent_code' => 'AS',
'timezone' => 'Asia/Shanghai',
'longitude' => 121.4012,
'city_name' => 'Shanghai',
'country_code2' => 'CN',
'region_code' => 'SH',
'latitude' => 31.0449,
'country_code3' => 'CN'
},
'@version'=> '1',
'clientip'=> '1xx.2xx.72.175',
'ident'=> '-',
'agent'=> '\'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36(KHTML, like Gecko) sun/1.5.6 Chrome/69.0.3497.106 Electron/4.0.3Safari/537.36\''
} 5.4.3、后台启动logstash 确认出现以上输出后,将logstash分离出当前shell,并放在后台运行 nohup /usr/local/logstash/bin/logstash -f nginx.conf &>/dev/null & 5.5、kibana配置 5.5.1、修改kibana配置 /usr/local/kibana-6.5.4-linux-x86_64/config/kibana.yml #增加高德地图
tilemap.url:'http://webrd02.is./appmaptile?lang=zh_cn&size=1&scale=1&style=7&x={x}&y={y}&z={z}' 5.5.2、创建Index Pattern 5.5.3、IP访问TOP5 选择柱形图 添加X轴,以geoip.ip为order by字段 5.5.4 、PV 选择metric 默认统计总日志条数,即为PV数 5.5.5、全球访问地图 选择map Field选择geoip.location 选择添加高德地图 5.5.6、实时流量 选择线条图 5.5.7、操作系统 选择饼图 5.5.8、登陆次数 过滤login关键字,并做count统计 5.5.9、访问地区 5.5.10、Dashboard展示
|
|
来自: 辉仔runmwo0nbv > 《计算机》