边缘技术
工作中涉及主要工作的周边技术案例
不会飞的乌龟
这个作者很懒,什么都没留下…
展开
-
mysql等merge数据用法案例
mysql等merge数据用法案例*按user_name,离职日期(resign_date)字段merge,获取最新日期的数据。select * from tb01 mwhere not exists (select 1 from tb01 where user_name = m.user_name and resign_date > m.re...原创 2020-03-11 15:58:19 · 66972 阅读 · 0 评论 -
MySQL数据库优化的八种方式(经典必看)
前言 查询MySQL优化的时候发现这表文章,非常不错,故而转发一下,分享给大家: (文章出处链接)MySQL数据库优化的八种方式(经典必看)1、选取最适用的字段属性MySQL可以很好的支持大数据量的存取,但是一般说来,数据库中的表越小,在它上面执行的查询也就会越快。因此,在创建表的时候,为了获得更好的性能,我们可以将表中字段的宽度设得尽可能小。例如,在定义邮政编码这个字段时,如果...转载 2019-05-06 14:37:27 · 1810 阅读 · 0 评论 -
解决mysql数据库表锁死
原因:多个进程同时执行,因争夺资源而造成的一种互相等待。常见于程序循环操作数据库,建议采用批量操作。解决方案: show full processlist kill 锁死进行,kill + id(或者重启mysql)查看state找到锁死进程kill掉。eg: kill 250244一定要检查造成死锁的代码,并修改,否则还会造成锁死。...原创 2020-03-18 18:10:56 · 631 阅读 · 0 评论 -
LDAP管理用户数据,用户UserAccountControl属性详解
最近用ldap协议读取其管理的ad数据,一直对userAccountControl的详细含义不是很清楚,userAccountControl记录了用户的AD账号的很多属性信息,该属性标志是累积性的。若要禁用用户的帐户,请将 UserAccountControl 属性设置为 0x0202 (0x002 + 0x0200)。在十进制中,它是 514 (2 + 512)。但有时汇出的资料并不完全都是下面...转载 2019-07-11 17:37:04 · 5322 阅读 · 0 评论 -
JAVA链接ldap读取数据,并写入MySQL数据库
java链接ldap读取数据,并写入数据到MySQL数据库:package mysql;public class MysqlInfo { /*public static String url = "jdbc:mysql://10.122.23.164:3306/lenovo_upp?rewriteBatchedStatements=true&useUnicode=true&a...原创 2019-08-02 16:58:09 · 1820 阅读 · 0 评论 -
spark链接ldap获取数据(thumbnailPhoto属性获取以及转成base64图片格式存储)
spark链接ldap获取数据依赖 <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-distcp</artifactId> <version>2...原创 2020-03-18 14:44:13 · 562 阅读 · 0 评论 -
spark 链接ftp读取数据并写入到hive表中
spark依赖pom文件<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLoca...原创 2019-04-17 17:28:48 · 2779 阅读 · 6 评论 -
scala 链接ftp读取数据(小数据量)
package com.lenovo.ftpimport java.io.{BufferedReader, InputStreamReader}import java.net.InetSocketAddressimport sun.net.ftp.FtpClientimport scala.collection.mutable.ArrayBufferclass FtpUtil {...原创 2019-03-21 17:25:53 · 1212 阅读 · 0 评论 -
http协议获取splunk上数据并写入hive
http协议获取splunk上数据并写入hive-依赖<dependency> <groupId>com.squareup.okhttp3</groupId> <artifactId>okhttp</artifactId> <version>3.0.0...原创 2020-03-25 12:01:31 · 525 阅读 · 0 评论