使用datax从mysql导入数据到taosdb中 3、编译后的tdengine30writer 目录放到/root/datax/plugin/writer 中,与其他插件放一起。*******注意:taos 字段是小写,如果mysql字段有大写的话,写不进去。taos安装不用说了,下载个rpm包,直接安装。根据业务规则,创建超级表,子表。4、编写job.json。2、下载插件源码,编译。1、data下载地址。
elasticsearch5 wildcard 模糊搜索查不出结果问题 1、搜索messagecount* 或者messagecount.do* 都能出来。2、搜索logmessage/messagecount.do*没有结果。字段message类型默认分词,text类型。
rsyslog服务端接收不到日志问题排查步骤 3、systemctl status rsyslog查看状态是否报错。4、查看配置文件udp、tcp模块是否打开。2、telnet查看ip端口是否通。1、查看日志输出目录是否提前创建。
spark on yarn 时,使用rest api 查看job的信息,然而看官方文档,没有明确告诉url到底是什么 首先,打开sparkstreaming的web页面,按F12打开控制台,点击Executors,发现有一个allexecutors请求,暴露出了rest api的地址http://ip:8088/proxy/application_1591406335661_0005/api/v1/applications/application_1591406335661_0005/allexecutors...
flink 关于何时编写分配watermark 我的电脑是8线程,当我运行下面这段代码时,可以输出结果,但是当把并行度注释掉时,就不输出结果了,这是为什么呢?输入数据一样,watermark应该都是一样的啊输入数据为:1585721697000,xiao,81585721700000,xiao,101585721705000,xiao,41585721715000,xiao,9case class Line(id:Long,n...
flink 在idea中编写的wordcount 重新启动后没有从检查点恢复之前的数据,为什么? 启用了检查点和状态后端,看hdfs目录确实有内容,然而重新启动后并没有从检查点恢复数据,这是为什么??object kafkatest { def main(args: Array[String]) { val env = StreamExecutionEnvironment.getExecutionEnvironment val properties = new Pro...
kafka消费者报错:Class org.apache.kafka.common.serialization.StringDeserializer could not be found. org.apache.kafka.common.config.ConfigException: Invalid value org.apache.kafka.common.serialization.StringDeserializer for configuration key.deserializer: Class org.apache.kafka.common.serialization.S...
spark2.0 读取本地json数据到Elasticsearch时,过滤非法json package esimport net.minidev.json.parser.JSONParserimport org.apache.spark.SparkConfimport org.apache.spark.rdd.RDDimport org.apache.spark.sql.{Dataset, SparkSession}import scala.collection.Map...
spark restful api 启动任务,运行完之后到historyserver 首先1、 spark-env.sh中添加export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs://xiaoqi0:9000/sparkeventlog"2、spark-defaults.c...
Hbase 查询语句记录 1.1.1 查询前几条数据scan 'logs',{LIMIT=>1}1.1.2 3查询表的总条数count 'logs'1.1.3 4删除表数据truncate 't1'1.1.4 5查看过滤器 show_filters1.1.1 6行键过滤器scan 'logs',{FILTER=>"RowFilter(=,'substring:2017-12-27')"}1.1.2 例子: h...
spring batch 并行执行任务 @RequestMapping("/startall") @ResponseBody String startall() throws ParseException { if (TimeFlag.getJobRun()) { System.out.println("Cron Start All Data Rsync Job. But Job Running."); return "Job...
快学scala 记录 用scala的ArrayBuffer 调用java方法要导入隐式转换import scala.collection.JavaConversions.bufferAsJavaListimport scala.collection.mutable.ArrayBufferval command =ArrayBuffer("ls","-al","/home/cay")val pb = new Proces...
sparkmllib交替最小二乘法 http://spark.apache.org/docs/2.2.0/ml-collaborative-filtering.html不需要用户和商品属性的信息,这类算法通常称为协同过滤算法例子:根据两个用户的年龄相同来判断他们可能有相似的偏好,这不叫协同过滤。相反,根据两个用户播放过许多相同歌曲来判断他们可能都喜欢某首歌,这才叫协同过滤。SparkMLlib 的ALS算法 要求用户和产品ID必须是...
elasticsearch 内存溢出 ES在做聚合的时候,容易发生内存溢出https://www.elastic.co/guide/cn/elasticsearch/guide/current/_limiting_memory_usage.html