12、网站流量统计

一、网站运行环境配置

在eclipse配置jdk与Tomcat

(一)配置jdk

在这里插入图片描述

(二)配置tomcat

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

(三)分别创建两个web Project

在这里插入图片描述
在这里插入图片描述

(四)收集的信息

dest=dest_path+"url="+url+"&urlname="+urlname+"&title="+title+"&chset="+charset+"&scr="+screen+"&col="+color+"&lg="+language+"&je="+jvm_enabled+"&ce="+cookie_enabled+"&fv="+flash_ver+"&cnv="+String(Math.random())+"&ref="+ref+"&uagent="+agent+"&stat_uv="+uv_id+"&stat_ss="+stat_ss;

二、离线流处理(未写完)

(一)Flume日志收集的开发

1.发送日志到Flume

在日志服务器中,通过Log4jAppender将日志发往flume客户端
a.在日志服务器应用中导入Log4jAppernder相关开发包
b配置log4i配置文件,实现发送日志给flume

log4j.rootLogger = info,stdout,flume

log4j.appender.stdout = org.apache.log4j.ConsoleAppender
log4j.appender.stdout.Target = System.out
log4j.appender.stdout.layout = org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern = %m%n

log4j.appender.flume = org.apache.flume.clients.log4jappender.Log4jAppender
log4j.appender.flume.Hostname = 192.168.232.129
log4j.appender.flume.Port = 44444
log4j.appender.stdout.layout = org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern = %m%n

c.在日志服务器的LogServlet中,通过log4j来发送日志

logger -into (line)

2.开发客户端Agent

# Name the components on this agent
a1.sources = r1
a1.sinks = k1 k2
a1.channels = c1 

# Describe/configure the source
a1.sources.r1.type = avro
a1.sources.r1.bind = 0.0.0.0
a1.sources.r1.port = 44444

# shengming sinks
a1.sources.k1.type = avro
a1.sources.k1.hostname = hadoop01
a1.sources.k1.port = 44444

a1.sources.k2.type = avro
a1.sources.k2.hostname = hadoop01
a1.sources.k2.port = 44444

a1.sinkgroups = g1
a1.sinkgroups.g1.sinks = k1 k2
a1.sinkgroups.g1.processor.type = load_balancea1.sinkgroups.g1.processor.backoff = true
a1.sinkgroups.g1.processor.selector = random

# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

# Bind the source and sink to the channel
a1.sources.r1.channels = c1 
a1.sinks.k1.channel = c1
a1.sinks.k2.channel = c1

3、开发中心服务器agent

# Name the components on this agent
a1.sources = r1
a1.sinks = k1 #k2
a1.channels = c1 #c2 

# Describe/configure the source
a1.sources.r1.type = avro
a1.sources.r1.bind = 0.0.0.0
a1.sources.r1.port = 44444

# shengming sinks
a1.sources.k1.type = hdfs
a1.sources.k1.hdfs.path = hdfs://hadoop:9000/flux


# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

三、实时流处理(未写完)

(一)修改Flume中心服务器配置

增加kafkaSink,将数据实时导入kafka
hadoop01 hadoop02

# Name the components on this agent
a1.sources = r1
a1.sinks = k1 k2
a1.channels = c1 c2

# Describe/configure the source
a1.sources.r1.type = avro
a1.sources.r1.channels = c1
a1.sources.r1.bind = 0.0.0.0
a1.sources.r1.port = 4141
a1.sources.r1.interceptors = i1
a1.sources.r1.interceptors.i1.type = timestamp

# Describe the sink
a1.sinks.k1.type = hdfs
a1.sinks.k1.hdfs.path = hdfs://hadoop01:9000/reportTime=%Y-%m-%d
a1.sinks.k1.hdfs.fileType = DataStream
a1.sinks.k1.hdfs.filePrefix = log_%Y%m%d_%H

a1.sinks.k2.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k2.topic=fluxTopic
a1.sinks.k2.brokeList=hadoop01:9092,hadoop02:9092,hadoop03:9092

# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
a1.channels.c2.type = memory
a1.channels.c2.capacity = 1000
a1.channels.c2.transactionCapacity = 100

# Bind the source and sink to the channel
a1.sources.r1.channels = c1 c2
a1.sinks.k1.channel = c1
a1.sinks.k2.channel = c2

(二)配置Kafka

创建对应主题:
kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic fluxTopic
启动消费者测试:
kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic fluxTopic

四、遇到错误及解决方法

在这里插入图片描述
双击选中内容
在这里插入图片描述
修改
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■<br>演示地址:http://netfree.meibu.com/itsun (演示时间:上午9点-晚上9点)<br><br>QQ:451327881<br><br>〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓〓<br>网络访问统计系统功能列表<br><br>●实时信息统计 <br>※最近25条访问记录 <br>※最新在线列表 <br>※今日小时段统计 <br>※今日全部访问列表 <br>※今日来路统计 <br>※今日搜索引擎 <br>※今日搜索关键字 <br>※页面受欢迎度统计 <br>※今日访问访次统计 <br> <br>●历史信息统计 <br>※历史小时段统计 <br>※历史来路统计 <br>※历史搜索引擎 <br>※历史搜索关键字 <br>※历史详细数据查询 <br>※历史统计数据下载 <br> <br>●数据统计分析 <br>※时段统计对比 <br>※每日数据对比 <br>※每周数据对比 <br>※每月数据对比 <br>※来路统计对比 <br>※引擎统计对比 <br>※关键词统计对比 <br>※受访页统计对比 <br>※地址位置对比 <br>网络环境对比 <br> <br>●统计概要及报表 <br>※网站统计概要 <br>※日统计报表 <br>※周统计报表 <br>※月统计报表 <br>※年统计报表 <br>※网络环境统计报表 <br>※Alexa统计走势图 <br> <br>●客户端情况统计 <br>※用户操作系统统计 <br>※用户浏览器统计 <br>※访问地区统计 <br>※屏幕分辨率统计 <br>※访问者省份统计 <br>※C段IP地址分析 <br> <br>●用户管理选项 <br>※获取统计代码 <br>※统计数据重置 <br>※退出系统
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值