日增百万级文件的实时采集的入坑出坑自强之路

1.目录

2.写在前面的话

填坑不容易,入坑需谨慎!!!

流量数据数据是任何一家有志上市的科技公司不可能放弃的一个重点,但是对于好多公司而言,一本好好的经书,偏偏得歪着念,埋下一堆堪比定时炸弹的坑,后来入坑者后知后觉,从奔溃再到一点点的把坑填上,这就是一个程序员的自我修养吧! 怀着治病救人,普度众猿的慈悲之心,我把我的心酸泪贴出来,方便后来者,愿大家都活得更健康和谐.

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
可以看到v2.0与v2.1的架构的差距就在中间碎片文件的合并,无论是logstash,fliebeat,flume或者其他采集工具,对于实时日采集百万级别的碎片文件,几乎没有一个组件能达到这个要求,这个坑涉及整个采集系统的稳定性和可伸缩性.

3.功能简介

3.1模块简介

3.1.1 ufile模块

用于移动端(如sdk等)上传压缩日志文件(如.zip).可以简单理解为云存储介质.

3.1.2 down模块,文件合并模块

本模块消费kafka中url数据,并通过http/https方式从ufile中把埋点文件下载到本地,如果存在.zip文件,需要进行解压,同时把文件内容逐条写入kafka.

3.1.3 数据采集模块

本模块针对本地文件进行实时监控采集,采集组件选用的是logstash(logstashfilter插件比较丰富,能直接解析复杂json格式并上传到hdfs),同时,logstash支持数据下沉到多个下游存储组件,比如kafka,同一份数据还可以进行下一步实时分析

3.1.4 数据存储模块

通过logstash的webhdfs插件上传到hdfs上(支持压缩等),在hdfs通过建表指定路径映射,后续可以通过hive/impala等进行etl操作,对外提供数据服务能力.
通过logstash的kafka等插件等,可以同步把采集到的数据送入流式处理的源头,开始流式处理的过程.

3.1.5 业务应用模块

依托大数据平台组件对外提供离线报表/ad-hoc/大屏等的能力

4.采集模块功能实现

4.1文件下载,解析,写入kafka

此处手动提交offset,十分重要,(自动提交,如果中间步骤过多或者复杂,就有可能报各种错,此时手动提交offset十分必要),依赖包为 kafka-python

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# 作者: tianjun
# 时间: 19-5-28 下午5:24
# 文件: trace_new_kafka.py
# IDE: PyCharm

from kafka import KafkaConsumer, TopicPartition, OffsetAndMetadata, KafkaProducer
import logging as logger
import time
import threading
import uuid
import os
import requests
import json
import zipfile
import shutil
import sys
from requests.adapters import HTTPAdapter

logger.basicConfig(level=logger.INFO,
                   format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')

topic = "trackfileupload"
# topic = "tian02"
# border_server = "197.255.20.213:9092,197.255.20.214:9092,197.255.20.215:9092"
border_server = "localhost:9092"
prefix = "/data/trace/"
# prefix = "/home/tianjun/trace/"

if len(sys.argv) > 2:
    border_server = str(sys.argv[1])
    topic = str(sys.argv[2])
logger.info(topic + " " + border_server)

# dev
# producer_server = "localhost:9092"
# producer_topic = "trace_producer_01"


# pre-pro
producer_server = "master2:9092,namenode1:9092,namendoe2:9092"
producer_topic = "trace_producer_01"

consumer = KafkaConsumer(topic,
                         bootstrap_servers=border_server,
                         group_id="yjp-test-trace-5",
                         # client_id="dolphin-pipline-google-bookinfo-consumer-foolman",
                         # Manage kafka offsets manual
                         enable_auto_commit=False,
                         consumer_timeout_ms=50000,
                         # consume from beginning
                         # auto_offset_reset="earliest",
                         max_poll_interval_ms=350000,
                         session_timeout_ms=60000,
                         )

producer = KafkaProducer(
    bootstrap_servers=producer_server
)


def sub_process_handle(value, offset):
    threadnum = len(threading.enumerate())
    # logger.info("thread number: %s", threadnum)
    if threadnum < 100:
        t = threading.Thread(target=background_process, name="offset-" + str(offset), args=(value,), kwargs={})
        t.start()
    else:
        # If all threading running
        # Using main thread to handle
        # Slow down kafka consume speed
        logger.info("Reach max handle thread,sleep 2s to wait thread release...")
        time.sleep(2)
        sub_process_handle(value, offset)
    # 单线程
    # background_process(value, offset, tp)


# def parse2file(json_path, jsonarry):
#     '''
#     jsonarr一行一行的追加到文本
#     :param json_path: json要保存的路径
#     :return:
#     '''
#     hour = time.strftime('%Y%m%d%H', time.localtime())
#     if not os.path.exists(prefix + "json/" + hour):
#         os.makedirs(prefix + "json/" + hour)
#     with open(json_path, "w", encoding="utf-8") as f1:
#         for js in jsonarry:
#             f1.writelines(json.dumps(js))
#             f1.writelines(str("\n"))


def download(msg):
    # hour = time.strftime('%Y%m%d%H', time.localtime())
    url = str(json.loads(msg)['filename']).replace("filename:", "")
    path = prefix + "zip/" + str(uuid.uuid1()) + ".zip" if url.__contains__(
        ".zip") else prefix + "log/" + str(
        uuid.uuid1()) + ".json"
    if not os.path.exists(os.path.split(path)[0]):
        os.makedirs(os.path.split(path)[0])
    s = requests.session()
    s.mount('http://', HTTPAdapter(max_retries=10))
    s.mount('https://', HTTPAdapter(max_retries=10))
    r = s.get(url, timeout=10)
    logger.info(url)
    with open(path, "wb") as code:
        code.write(r.content)
    r.close()
    s.close()

    if url.__contains__(".zip"):
        f = zipfile.ZipFile(path)
        # tmp = str(uuid.uuid1()) + 'tmp/'
        for file in f.namelist():
            # f.extract(file, prefix + "zip/" + tmp)
            # if not os.path.exists(prefix + "json"):
            #     os.makedirs(prefix + "json")
            ajson = f.read(file).decode('utf-8')
            load_jsons = json.loads(ajson)
            for js in load_jsons:
                producer.send(producer_topic, json.dumps(js).encode('utf-8'))
            producer.flush()
        f.close()
        os.remove(path)
    elif url.__contains__(".json"):
        with open(path, 'r') as load_f:
            load_jsons = json.load(load_f)
            for js in load_jsons:
                producer.send(producer_topic, json.dumps(js).encode('utf-8'))
            producer.flush()
        os.remove(path)
    else:
        logger.error("this is not zip/json file!")


def background_process(value):
    download(value)
    # offsets = {tp: (OffsetAndMetadata(offset, None))}
# consumer.commit_async(offsets=offsets)

def consume_tian():
    max_records = 500
    while True:
        # try:
        msg_pack = consumer.poll(timeout_ms=5000, max_records=max_records)
        for messages in msg_pack.items():
            tp = None
            for message in messages:
                var_type = type(message)
                if isinstance(message, TopicPartition):
                    tp = message
                    # last_offset = end_offset if consumer.committed(message) is None else consumer.committed(message)
                if var_type == list:
                    # 重置此消费者消费的起始位
                    # consumer.seek(tp, last_offset)
                    # min_value = len(message) if len(message) < max_records else max_records
                    # logger.info(
                    #     "last_offset,end_offset,topicpartitionlen(message),max_records,min_value: %s,%s,%s,%s,%s,%s",
                    #     last_offset, end_offset, tp, len(message), max_records, min_value)
                    # logger.info("offsets: %s", offsets)
                    end_offset = consumer.end_offsets([tp])[tp]
                    logger.info("end_offset,tp: %s,%s", end_offset, tp)
                    # logger.info("consumer.committed(message): %s", consumer.committed(message))
                    for consumer_record in message:
                        tp = TopicPartition(topic=consumer_record.topic, partition=consumer_record.partition)
                        logger.info("record offset, tp: %s,%s", consumer_record.offset, tp)
                        sub_process_handle(str(consumer_record.value, encoding="utf8"), consumer_record.offset)
                    # 同步提交保证offset的一致性
                    offsets = {tp: (OffsetAndMetadata(end_offset, None))}
                    consumer.commit(offsets=offsets)
                    # consumer.commit_async(offsets=offsets)
                    # consumer.commit_async()
                    logger.info("Offset committed succeed!")
    # except Exception as e:
    #     logger.error(e)


if __name__ == '__main__':
    consume_tian()

本脚本程序,整体业务流程就是通过消费kafka中数据把.json问.zip文件下载到本地,并解压/解析,同时按照json object逐行写入kafka.

4.2 数据采集

logstash配置:

input {
    # file {
	#   file_completed_action => "delete"
	#   path => "/home/tianjun/trace/log/*.json"
      #   mode => "read"
      #   #不处理120天以前的数据,默认为一天
      #   ignore_older => "10368000"
      #   codec => "json"
      # }
    #beats {
    #    port => 5044
    #    codec => "json"
    #}
    kafka {
     id => "kafka_logstash_trace_01"
     bootstrap_servers => ["master2:9092","namenode1:9092","namenode2:9092"]
     topics => ["trace_producer_01"]
     auto_offset_reset => "latest"
     codec => "json"
  }
}
filter {

    ruby {
        path => "/open/python/tracelog/logstash/test.rb"
    }

    json {
        source => "business"
        remove_field => ["@version","path","host","tags","header","body","business"]
    }

}
output {
    # stdout {}
    webhdfs {
        host => "master1"              # (required)
        port => 14000                      # (optional, default: 50070)
        path => "/user/hive/warehouse/yjp_trace.db/yjp_ods_trace/day=%{op_day}/logstash-%{op_hour}.log"  # (required)
        user => "hdfs"                       # (required)
        # compression => "snappy"
        # snappy_format => "stream"
        codec => line {
                     format => "%{message}"
                 }
    }
    elasticsearch {
        hosts => ["datanode1:9200","datanode2:9200","datanode3:9200"]
        index => "trace_%{op_day}"
        #template => "/data1/cloud/logstash-5.5.1/filebeat-template.json"
        #template_name => "my_index"
        #template_overwrite => true
    }

}
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
在现有省、市港口信息化系统进行有效整合基础上,借鉴新 一代的感知-传输-应用技术体系,实现对码头、船舶、货物、重 大危险源、危险货物装卸过程、航管航运等管理要素的全面感知、 有效传输和按需定制服务,为行政管理人员和相关单位及人员提 供高效的管理辅助,并为公众提供便捷、实时的水运信息服务。 建立信息整合、交换和共享机制,建立健全信息化管理支撑 体系,以及相关标准规范和安全保障体系;按照“绿色循环低碳” 交通的要求,搭建高效、弹性、高可扩展性的基于虚拟技术的信 息基础设施,支撑信息平台低成本运行,实现电子政务建设和服务模式的转变。 实现以感知港口、感知船舶、感知货物为手段,以港航智能 分析、科学决策、高效服务为目的和核心理念,构建“智慧港口”的发展体系。 结合“智慧港口”相关业务工作特点及信息化现状的实际情况,本项目具体建设目标为: 一张图(即GIS 地理信息服务平台) 在建设岸线、港口、港区、码头、泊位等港口主要基础资源图层上,建设GIS 地理信息服务平台,在此基础上依次接和叠加规划建设、经营、安全、航管等相关业务应用专题数据,并叠 加动态数据,如 AIS/GPS/移动平台数据,逐步建成航运管理处 "一张图"。系统支持扩展框架,方便未来更多应用资源的逐步整合。 现场执法监管系统 基于港口(航管)执法基地建设规划,依托统一的执法区域 管理和数字化监控平台,通过加强对辖区内的监控,结合移动平 台,形成完整的多维路径和信息追踪,真正做到问题能发现、事态能控制、突发问题能解决。 运行监测和辅助决策系统 对区域港口与航运业务日常所需填报及监测的数据经过科 学归纳及分析,采用统一平台,消除重复的填报数据,进行企业 输和自动录,并进行系统智能判断,避免填错误的数据, 输的数据经过智能组合,自动生成各业务部门所需的数据报 表,包括字段、格式,都可以根据需要进行定制,同时满足扩展 性需要,当有新的业务监测数据表需要产生时,系统将分析新的 需求,将所需字段融合进日常监测和决策辅助平台的统一平台中,并生成新的所需业务数据监测及决策表。 综合指挥调度系统 建设以港航应急指挥中心为枢纽,以各管理部门和经营港 口企业为节点,快速调度、信息共享的通信网络,满足应急处置中所需要的信息采集、指挥调度和过程监控等通信保障任务。 设计思路 根据项目的建设目标和“智慧港口”信息化平台的总体框架、 设计思路、建设内容及保障措施,围绕业务协同、信息共享,充 分考虑各航运(港政)管理处内部管理的需求,平台采用“全面 整合、重点补充、突出共享、逐步完善”策略,加强重点区域或 运输通道交通基础设施、运载装备、运行环境的监测监控,完善 运行协调、应急处置通信手段,促进跨区域、跨部门信息共享和业务协同。 以“统筹协调、综合监管”为目标,以提供综合、动态、实 时、准确、实用的安全畅通和应急数据共享为核心,围绕“保畅通、抓安全、促应急"等实际需求来建设智慧港口信息化平台。 系统充分整合和利用航运管理处现有相关信息资源,以地理 信息技术、网络视频技术、互联网技术、移动通信技术、云计算 技术为支撑,结合航运管理处专网与行业数据交换平台,构建航 运管理处与各部门之间智慧、畅通、安全、高效、绿色低碳的智 慧港口信息化平台。 系统充分考虑航运管理处安全法规及安全职责今后的变化 与发展趋势,应用目前主流的、成熟的应用技术,内联外引,优势互补,使系统建设具备良好的开放性、扩展性、可维护性。
自强学堂的 Django 是一门面向 Web 开发的 Python 高框架。Django 的设计理念强调了快速开发和代码复用,使得开发者能够更加高效地构建功能强大的网站和应用程序。 在自强学堂的 Django 学习中,学员将会学习到 Django 的基本概念和工作原理。首先,学员将会了解到 Django 的 MTV(Model-Template-View)架构,这是 Django 开发中非常重要的一部分。Model 负责处理数据的存储和检索,Template 负责呈现页面的展示,View 则是处理请求和与模型和模板进行交互的控制器。 此外,学员还将学习到 Django 的路由配置和 URL 设计,理解将请求与相应的视图函数进行匹配的过程。学员还将熟悉 Django 的模型(Models),学习如何使用模型类来定义数据结构和数据库表,并了解如何通过模型查询数据并进行增删改查的操作。 在自强学堂的 Django 学习中,学员还将学习到如何使用 Django 的模板语言(Template Language)来编写可重用的页面模板,包括使用模板标签、模板过滤器等。学员还将学习到如何使用 Django 的表单(Forms)来处理用户输和数据验证,并学习如何利用 Django 的表单工具快速构建表单。 此外,自强学堂的 Django 学习还将引导学员了解 Django 的认证系统、缓存、静态文件管理、国际化等重要功能。学员将学习如何使用 Django 创建用户认证和授权机制,以及如何为应用程序提供缓存功能来提升性能。 总的来说,自强学堂的 Django 学习将教授学员如何使用 Django 快速开发功能强大的 Web 应用程序,并且通过实践项目来加强学习效果。学员将通过学习 Django 的各种组件和功能,积累丰富的 Web 开发经验,为未来的职业发展打下坚实的基础。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值