【javascript】修改css href <!DOCTYPE html><html><head> <link href="./.css" rel="stylesheet" type="text/css" id="css"> <script> function change(color) { ...
随笔--第一次使用crontab linux选择编辑器问题 第一次使用crontab 时,会出现:no crontab for root - using an empty one“Select a editor ......”下面有几个选项,就是叫你选择编辑器。(选vim)就可以了,我选的第三个。但是如果你选错了,就可能会遇到点麻烦,没有办法正常编辑,crontab -e。 怎么办?执行这个命令:select-editor (针对...
Linux下kafka集群搭建过程记录 环境准备zookeeper集群环境kafka是依赖于zookeeper注册中心的一款分布式消息对列,所以需要有zookeeper单机或者集群环境。三台服务器:172.16.18.198 k8s-n1172.16.18.199 k8s-n2172.16.18.200 k8s-n3下载kafka安装包http://kaf...
java使用validator进行校验 不管是html页面表单提交的对象数据还是和第三方公司进行接口对接,都需要对接收到的数据进行校验(非空、长度、格式等等)。如果使用if一个个进行校验(字段非常多),这是让人崩溃的过程。幸好jdk或hibernate都提供了对object对象的校验,只需加上相应的注解即可。1.项目建立pom.xml[html] view plain copy<projec...
模糊查询中输入通配符的问题 模糊查询中输入通配符的问题:比如说在搜索框中输入'%'、'_'、'/'时会出错,因为这些特殊符号在sql语句查询的时候是有他特定的意义的,所有这里要对前台传过来的keyword搜索内容进行排除通配符处理,我是在工具类中写了一个方法代码如下:/*** 根据搜索特殊字符串* @param id* @return 取不到返回null*/public static String spec...
kafka中partition和消费者对应关系 1个partition只能被同组的一个consumer消费,同组的consumer则起到均衡效果消费者多于partitiontopic: test 只有一个partition创建一个topic——test,bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --parti...
Flink入门学习及实战 一、Flink的基本原理以及使用场景·1、Flink特点:Apache Flink 是一个开源的分布式,高性能,高可用,准确的流处理框架。主要由 Java 代码实现。支持实时流(stream)处理和批(batch)处理,批数据只是流数据的一个极限特例。Flink原生支持了迭代计算、内存管理和程序优化。2、Flink架构3、Flink基本组件...
数据传输协议protobuf的使用及案例 一、交互流程图:总结点:问题:一开始设置http请求中content-type 设置为默认文本格式,导致使用http传输body信息的时候必须进行base64加密才可以传输,这样会导致增加传输1/3的数据量,解决:使用流进行写入与读取,客户端请求中使用inputStream,服务端使用outputStream,http数据格式设置application/octet-strea...
使用zookeeper作为分布式锁以及设计一种通知监听模式 1、创建实例/** * 初始化单例的便捷方法 */public static void init() { getInstance();} /** * 获取单例 * @return */public static ZooKeeperSession getInstance() { return Singleton.getInstance(...
Kafka性能调优分析-线上环境篇 一、背景介绍: 在平时的开发中,使用kafka来发送数据已经非常熟悉,但是在使用的过程中,其实并没有比较深入的探索kafka使用过程中一些参数配置,带来的损失可能就是没有充分的发挥出kfka的优势,无法很好的满足业务场景。在意识这个问题后,专门腾出时间来总结一下kakfa参数配置的调优,以充分发挥kafka在低时延,高吞吐等不同场景下的优势。二、通用介绍:-----...
Kafka如何保证百万级写入速度以及保证不丢失不重复消费 一、如何保证百万级写入速度:目录1、页缓存技术 + 磁盘顺序写2、零拷贝技术3、最后的总结“这篇文章来聊一下Kafka的一些架构设计原理,这也是互联网公司面试时非常高频的技术考点。Kafka是高吞吐低延迟的高并发、高性能的消息中间件,在大数据领域有极为广泛的运用。配置良好的Kafka集群甚至可以做到每秒几十万、上百万的超高并发写入。那么Kafka到底是如何做到...
openresty+lua+kafka方案与Tomcat接口并发度对比分析 1、openresty+lua+kafka1.1 openresty+lua+kafka方案 之前的项目基于nginx反向代理后转发到Tomcat的API接口进行业务处理,然后将json数据打入kafka中,但是随着业务的扩大,访问量越来越大,并发数也很高,导致程序遇到性能问题;基于nginx的高性能特点,现在考虑使用一种openresty+lua+kafka,直接在ngi...
OpenResty + Lua + Kafka 实现日志收集系统以及部署过程中遇到的坑 ********************* 部署过程 **************************一:场景描述对于线上大流量服务或者需要上报日志的nginx服务,每天会产生大量的日志,这些日志非常有价值。可用于计数上报、用户行为分析、接口质量、性能监控等需求。但传统nginx记录日志的方式数据会散落在各自nginx上,而且大流量日志本身对磁盘也是一种冲击。我们需要把这...
浅谈 OpenResty,基于opebresty+redis进行实时线上限流 一.前言我们都知道Nginx有很多的特性和好处,但是在Nginx上开发成了一个难题,Nginx模块需要用C开发,而且必须符合一系列复杂的规则,最重要的用C开发模块必须要熟悉Nginx的源代码,使得开发者对其望而生畏。为了开发人员方便,所以接下来我们要介绍一种整合了Nginx和lua的框架,那就是OpenResty,它帮我们实现了可以用lua的规范开发,实现各种业务,并且帮我们弄清楚各...
OpenResty + Lua访问Redis,实现高并发访问时的毫秒级响应打回 一、lua中redis的配置依赖:1、OpenResty的lua访问redis的插件:https://github.com/openresty/lua-resty-redis二、下载后,导入对应的插件: lua_package_path "/opt/openresty/lualib/kafka/?.lua;;"; lua_need_request_body on;三...
React拾遗(下) reconciliation(协调算法)react用于更新DOM的算法。基于两点假设,实现了一个启发的O(n)算法:两个不同类型的元素将产生不同的树。通过渲染器附带key属性,开发者可以示意哪些子元素可能是稳定的。元素的不同类型当对比两棵树时,React首先比较两个根节点。每当根元素有不同类型,React将卸载旧树并重新构建新树。当树被卸载,旧的DOM节点将被销毁。组件实...
虚拟DOM和diff算法 参考:https://juejin.im/post/5a3200fe51882554bd5111a0https://www.cnblogs.com/zhuzhenwei918/p/7271305.htmlhttps://juejin.im/post/5ad6182df265da23906c8627虚拟DOMReact将DOM抽象为虚拟DOM, 然后通过新旧虚拟DOM 这两个对象...
浏览器的渲染过程 原文地址:https://blog.csdn.net/XIAOZHUXMEN/article/details/52014901浏览器的渲染渲染引擎在取得内容之后的基本流程:解析html以构建dom树(CSSOM) -> 构建render树 -> 布局render树 -> 绘制render树所以,浏览器会解析三个东西:(1) HTML/SVG/XHTML,解...
React拾遗(上) JSX代表ObjectsBabel转义器会把JSX转换成一个名为React.createElement()的方法调用。下面两种代码的作用是完全相同的:const element = ( <h1 className="greeting"> Hello, world! </h1>);const element = React.createEl...