自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

zhangvalue的博客

自我驱动是唯一道路

  • 博客(664)
  • 资源 (72)
  • 收藏
  • 关注

原创 Spark on Hive和Hive on Spark的区别

Spark on hive和hive on spark的区别

2022-07-19 17:10:56 294

原创 Spark统计每天新增用户

给出的数据使用Spark统计每天的新增的用户。

2022-07-18 19:00:56 36

原创 Java代码实现PDF添加水印

Java代码实现PDF添加文字水印

2022-07-03 11:15:00 45

原创 Spark与Flink 架构选择

Spark和Flink都支持批处理和流处理,接下来让我们对这两种流行的数据处理框架在各方面进行对比。

2022-07-03 11:09:03 113

原创 Spark中collect方法报错java.lang.OutOfMemoryError:Java heap space

具体报错信息:在执行val arr = data.collect()的时候报错java.lang.OutOfMemoryError:Java heap space1.collect的作用Spark内有collect方法,是Action操作里边的一个算子,这个方法可以将RDD类型的数据转化为数组,同时会从远程集群是拉取数据到driver端。2.已知的弊端首先,collect是Action里边的,根据RDD的惰性机制,真正的计算发生在RDD的Action操作。那么,一次collect就会导致一次S

2022-05-13 10:49:19 380

原创 MAC中SublimeText 批量清除空行

MAC中SublimeText 批量清除空行一、快捷键:Command+option+f二、勾选最左侧*并在Find中输入 \s+$三、点击replace All

2022-04-23 00:19:07 393

原创 (Spark3.2.0)Spark SQL 初探: 使用大数据分析2000万KF数据

(Spark3..2.0)Spark SQL按照星座对2000W数据进行分组统计, 看看哪个星座的人最喜欢KF

2022-04-23 00:15:08 1485

原创 ERROR 2002 (HY000): Can‘t connect to local MySQL server through socket ‘/tmp/mysql.sock‘ (2)

报错:ERROR 2002 (HY000): Can’t connect to local MySQL server through socket ‘/tmp/mysql.sock’ (2)原因:因为Mac OS X的升级或其他原因会导致MySQL启动或开机自动运行时/usr/local/mysql/data的宿主发生了改变,没有了这个文件夹的权限了,所以在终端上执行第一步: 赋权sudo chown -R mysql /usr/local/mysql/data第二步:打开系统偏好设置设置,双击

2022-04-22 23:03:21 772

原创 error: value createSchemaRDD is not a member of org.apache.spark.sql.SQLContext

<console>:23: error: value createSchemaRDD is not a member of org.apache.spark.sql.SQLContext在spark1.3以后spark SQL取消了createSchemaRDD,改为了implicits。import sqlContext.implicits._

2022-04-22 21:18:26 2052

原创 Mac中使用brew更新Spark至3.2.0

Mac中使用brew更新Spark至3.2.0当前Mac中安装的spark版本比较旧为2.3.0使用brew install spark出现问题:Error: Permission denied @ apply2files - /usr/local/lib/docker/cli-plugins解决方法:sudo chown -R $(whoami) $(brew --prefix)/*下载apache-sparkbrew install apache-sparkhttps:

2022-04-22 21:05:59 2013

原创 Linux查找大文件指定内容

Linux查找大文件指定内容①、查看test.txt中某段字符所有日志 cat test.txt | grep '52920'②、重定向>> 到指定文件tmp.txt中cat test.txt | grep '52920' >> tmp.txt

2022-02-27 21:30:13 821

原创 MultipartFile文件直接通过数据流的方式上传文件到HDFS

MultipartFile文件通过数据流的方式上传文件到HDFS要求文件不能经过缓存落盘,直接数据流的方式上传文件到hdfs最后记得flush一下/** * 文件流直接上传至HDFS * * @param srcFile 上传文件源文件, * @param destPath fs的目标路径 */ public void upoldFileToHDFS(MultipartFile srcFile, String destPath)

2022-02-18 20:44:55 334

原创 JAVA 通过数据流的方式上传文件到HDFS

JAVA 通过数据流的方式上传文件到HDFS源代码/** * @ Author zhangsf * @CreateTime 2022/2/18 - 6:18 PM */import java.io.FileInputStream;import java.io.FileOutputStream;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDataInputStream;import o

2022-02-18 18:34:31 1987

原创 Idea直接编辑国际化文件(properties)方法

Idea直接编辑国际化文件(properties)方法第一步、file encodings 菜单,右下角勾上那个勾就ok了第二步、建议把Defaule encoding for properties files,属性设置成utf-8如下图所示:

2022-02-18 09:55:00 791 1

原创 SpringBoot文件上传文件大小限制The field file exceeds its maximum permitted size of 1048576 bytes.

SpringBoot文件上传文件大小限制The field file exceeds its maximum permitted size of 1048576 bytes.Maximum upload size exceeded; nested exception is java.lang.IllegalStateException: org.apache.tomcat.util.http.fileupload.FileUploadBase$FileSizeLimitExceededException

2022-02-15 18:38:47 2343

原创 Idea使用Fast Request接口调试

Idea使用Restful Fast Request接口调试一. Idea安装Restful Fast Request 插件,安装完之后重启二、打开Idea中的Fast Request配置项目名和环境三、为具体的项目勾选环境四、使用上传文件点击方法左边的小飞机,右侧就会自动生成对应调试接口五、点击绿色小飞机,将查询的结果保存到getPathInfo文件中使用Json插件查看对比查看hdfs中zhangvalue目录的文件六、尝试将jpg上传到/zhangvalue目录下

2022-02-15 18:33:28 1474 2

原创 Java上传本地文件到HDFS

Java上传本地文件到HDFS/** * @ Author zhangsf * @CreateTime 2022/2/9 - 4:33 PM */package SparkWordCount;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;public class CopyFile { public

2022-02-09 16:45:21 1412

原创 Docker制作Spark3.1.2镜像

Docker制作Spark3.1.2镜像一、启动Docker容器二、下载Spark3.1.2并进去目录三、使用Docker build命令制作镜像docker build -t registry/spark:3.1.2 -f kubernetes/dockerfiles/spark/Dockerfile .四、docker images查看镜像五、导出镜像docker save -o spark3.1.2.tar registry/spark:3.1.2六、下载地址Docker

2022-01-29 14:32:28 2145

原创 Spark3.1.2 on k8s配置日志存储路径:spark-defaults.conf

Spark3.1.2 on k8s配置日志存储路径:spark-defaults.conf使用的Hadoop版本是2.7.3 HDFS端口号9000192.168.x.x是Hadoop的namenode节点IP地址18080是默认的历史日志的端口号spark.yarn.historyServer.address=192.168.x.x:18080spark.history.ui.port=18080spark.eventLog.enabled truespark.eventLo

2022-01-26 09:57:25 1632

原创 Linux中查找指定的文件且按时间排序

Linux系统查找指定的文件,并按时间顺序进行排序。

2022-01-25 17:14:38 1977

原创 Mac上安装docker

Mac上安装docker首先去官网下载安装文件:官网下载docker安装文件Docker下载https://desktop.docker.com/mac/main/amd64/Docker.dmg然后打开安装文件,拖拽安装安装完成之后,使用docker --version没有响应需要配置.base_profilesource .base_profile...

2022-01-19 10:43:53 751

原创 宿主机向Docker容器传送文件

需求:创建Spark3.1.2的Docker镜像,在安装了docker容器之后并成功启动Docker需要将待创建的文件发到Docker容器中。docker exec -it e987770d24f3faacda767958ee0fce4fa529a0e85e58b5407bc830cedb27e7ed /bin/sh一、先在终端登录docker容器二、首先需要知道docker容器的container_id可以使用docker ps命令来查看你要操作的docker容器的contai.

2022-01-18 18:53:49 2332

原创 Mac中在终端中使用Sublime打开文件

使用sublime文本编辑器修改,在sublime里面经常没法找到那些隐藏文件夹下的文件。所以用命令行启动sublime打开文件sublime 提供命令行的工具叫subs,路径在:/Applications/Sublime\ Text.app/Contents/SharedSupport/bin/subl使用ln命令ln命令是做文件链接用的,可以看做为建立快捷方式。ln /Applications/Sublime\ Text.app/Contents/SharedSupport/b.

2022-01-18 18:42:58 388

原创 Spark运行WordCount(案例二)

Spark运行WordCount(案例二)具体细节参考Spark运行WordCount(案例一):https://zhangvalue.blog.csdn.net/article/details/122501292https://zhangvalue.blog.csdn.net/article/details/122501292和前期准备工作:Mac安装Spark并运行SparkPi_zhangvalue的博客-CSDN博客Mac安装Spark2.4.7https://archive.apach

2022-01-14 20:23:19 830

原创 Spark运行WordCount(案例一)

使用Spark运行WordCount将/Users/zhangsf/data/poet.txt上传到/zhangvalue/input目录hdfs dfs -put /Users/zhangsf/data/poet.txt/zhangvalue/input查看hdfs dfs -ls /zhangvalue/inputhttp://localhost:9870/explorer.html#/zhangvalue/input查看上传的poet文件...

2022-01-14 20:08:44 541

原创 Mac安装Spark并运行SparkPi

Mac安装Spark2.4.7https://archive.apache.org/dist/spark/spark-2.4.7/spark-2.4.7-bin-hadoop2.7.tgz解压tgz文件tar xvf spark-2.4.7-bin-hadoop2.7.tgz先创建scala项目并进行编译打成jar包然后就打好成了本地的jar包打包一个jar包通过sparksubmit提交./bin...

2022-01-14 19:55:58 556

原创 Presto可视化Client-yanagishima20.0的使用

Presto可视化Client-yanagishima的Github地址GitHub - yanagishima/yanagishima: Web UI for Trino, Hive and SparkSQLpresto web ui yanagishima 最后一个jdk 8版本yanagishima-20.0拷贝到/usr/local/Cellar/prestodb/0.267/libexec/yanagishima-20.0yanagishima-20.0/conf/ya

2022-01-10 21:31:18 699

原创 presto web UI介绍

Presto Web UI 可以用来检查和监控Presto集群,以及运行的查询。所提供的关于查询的详细信息可以更好的理解以及调整整个集群和单个查询。需要Presto Web UI所展示的信息都来自于Presto系统表;当进入Presto Web时,会看到如同1所示的界面:主要分为上下两部分,上面描述了集群信息,下面是查询列表;首页集群信息Running Queries当前在集群中正在执行的查询的个数。包含所有用户提交的查询;例如,如果Alice正在执行两个查询,Bob正在执行

2022-01-07 15:12:57 851

原创 Java程序访问Presto

./presto --server localhost:8080 --catalog mysql --schema tp_musicselect * from mysql.tp_music.singer limit 3;pom.xml中引入presto-jdbc<dependency><groupId>com.facebook.presto</groupId><artifactId>presto-jdbc</artifactId.

2022-01-06 22:36:45 748

原创 Mac上部署Presto

一、概要在部署和使用presto的过程中,在此记录一下部署记录和使用记录以及需要注意的事项。此次使用的presto版本是0.267。使用背景:使用分布式查询引擎presto查询数据。使用目的:为了在Hadoop大数据平台上建服务层。二、安装部署2.1 Mac上直接使用brewbrew install brestoTo restart prestodb after an upgrade: brew services restart prestodbOr, if yo.

2022-01-06 21:52:09 582

原创 关键字Serializable序列化和反序列化

遇到这个 Java Serializable 序列化这个接口,我们可能会有如下的问题a,什么叫序列化和反序列化b,序列化的作用。为什么要实现这个 Serializable 接口(为什么要序列化)c,serialVersionUID 这个的值到底是在怎么设置的,有什么用。有的是1L,有的是一长串数字。在了解Serializable问题之前先知道一个问题,这个比较重要。这个Serializable接口,以及相关的东西,全部都在 Java io 里面的。有的时候是涉及不到io操作就不需要实...

2021-11-12 18:09:32 102

原创 五大常用经典算法-分治-动态规划-贪心-回溯-分支限界

在求解某问题时,经过分析发现该问题具有最优子结构和重叠子问题性质。则适用(动态规划)算法设计策略得到最优解。若了解问题的解空间,并以广度优先的方式搜索解空间,则采用的是(分支限界)算法策略。A.动态规则B.贪心C.回溯D、分支限界E、分治要想直接解决一个较大的问题,有时是相当困难的,分治法的设计思想是将一个难以解决的大问题分解成一些规模较小的相同问题,以便各个击破,分而治之。动态规划法与分治法类似,其基本思想也是将带求解问题分解为若干个子问题,先求解子问题再从这些子问题的解得到原问题的..

2021-10-11 18:31:16 214

原创 大顶堆构建、排序过程

一、堆的定义堆是一种非线性结构,可以把堆看作一棵二叉树,也可以看作一个数组,即:堆就是利用完全二叉树的结构来维护的一维数组。堆可以分为大顶堆和小顶堆。堆通常是一个可以被看做一棵树的数组对象,其任一非叶节点满足以下性质:1)堆中每一个节点的值总是不大于或不小于其父节点的值:大顶堆:每个结点的值都大于或等于其左右孩子结点的值。即: arr[i] >= arr[2i+1] && arr[i] >= arr[2i+2]。小顶堆:每个结点的值都小于或等于其左右孩子结点的值。

2021-10-11 10:38:58 367

原创 MySQL 8.0 Keywords and Reserved Words

A|B|C|D|E|F|G|H|I|J|K|L|M|N|O|P|Q|R|S|T|U|V|W|X|Y|ZA ACCESSIBLE(R) ACCOUNT ACTION ACTIVE; added in 8.0.14 (nonreserved) ADD(R) ADMIN; became nonreserved in 8.0.12 AFTER...

2021-06-30 11:25:18 120

原创 Leeccode反转字符串 II

给定一个字符串 s 和一个整数 k,你需要对从字符串开头算起的每隔 2k 个字符的前 k 个字符进行反转。如果剩余字符少于 k 个,则将剩余字符全部反转。如果剩余字符小于 2k 但大于或等于 k 个,则反转前 k 个字符,其余字符保持原样。示例:输入: s = “abcdefg”, k = 2输出: “bacdfeg”提示:该字符串只包含小写英文字母。给定字符串的长度和 k 在 [1, 10000] 范围内。思路 以2k为一组数据。 1、每次取一块数据如果大于2

2021-04-29 20:21:13 163

原创 腾讯云-Centos7安装配置cmake

安装说明安装环境:CentOS7安装方式:源码编译安装软件:cmake-3.20.1.tar.gz下载地址:http://www.cmake.org/cmake/resources/software.html安装前提系统中已经安装了g++和ncurses-develyum install gcc-c++yum install ncurses-devel安装cmake将cmake-3.20.1.tar.gz文件上传到/root/opt再mv到/usr/local中执行以下操作:cd

2021-04-26 10:17:04 159

原创 腾讯云-Linux服务器安装安装C/C++环境(gcc)

linux下安装c/c++环境(gcc)第一步:yum install gcc第二步:yum install gcc-c++ libstdc++-devel第三步:验证 gcc -v

2021-04-18 19:33:02 737

原创 腾讯云-关闭Tomcat

1、使用 ps -ef |grep tomcat 命令查看所有tomcat 进程。2、关闭tomcat 进程kill -9 22872 就可以彻底杀死tomcat22872 就为进程号 pid = 22872

2021-04-18 18:13:18 91

原创 C语言-删除原数组中0值并连续存储

对于具有n个元素的整型数组a,需要进行的处理是删除a中所有值为0的数组元素,并将a中所有非0元素按照原顺序连续地存储在数组空间的前端。下面分别用函数CompactArr_vl和CompactArr_v2来实现上述处理要求,函数的返回值为非零元素的个数。函数CompactArr_vl(int a[], intn)的处理思路是:首先申请一个与数组a的大小相同的动态数组空间,然后顺序扫描数组.a的每一个元素,将遇到的非0元素依次复制到动态数组空间中,最后再将动态数组中的元素传回数组a中。函数CompaetA

2021-04-18 18:03:09 284

原创 Windows的网络命令

Windows的网络命令net view命令用于显示计算机共享资源列衰,带选项使用本命令显示前域或工作组 计算机列表。nbtstat显示基于TCP/IP的NetBIOS(NetBT)协议统计资料、本地计算机和远程计算机的NetBIOS名称表和NetBIOS名称缓存。nbtstat-r显示NetBIOS名称统计资料。netstat是控制台命令,是一个监控TCP/IP网络的非常有用的工具,它可以显示路由表、实际的网络连接以及每一个网络接口设备的状态信息,nbstat用于显示IP、TCP、UDP

2021-04-18 17:48:06 74

PDF文档转换工具(含安装使用教程).rar

亲测可用,pdf转换为word、PowerPoint、excel、html、图像、text、提取数据(.csv)等都可以,亲测可用,而且内附解锁软件的解锁码,安装使用按照使用文档可用。

2019-05-13

mongodb命令学习手册.pdf

MongoDB命令学习手册.pdf文档大部分内容来自 MongoDB 官网网站, 经过提炼出主要的部分MongoDB的基础入门, 方便快速了解和上手MongoDB!

2019-04-14

Charles4.2.6.dmg

charles版本号4.2.6是一款非常实用的网络分析软件。charles能轻松截取到时机上网络封包并分析,Charles其实是一款代理服务器,通过过将自己设置成系统(电脑或者浏览器)的网络访问代理服务器,然后截取请求和请求结果达到分析抓包的目的。

2018-12-12

mysql-connector-java-8.0.13.jar

mysql-connector-java-8.0.13.jar包,是当前最新的jar包 is highly recommended for use with MySQL Server 8.0, 5.7, 5.6, and 5.5. Please upgrade to MySQL Connector/J 8.0.

2018-11-20

wget-1.18.tar.gz

Wget 1.18之前的版本在对HTTP服务重定向进行处理时存在漏洞,远程攻击者可以利用此漏洞写入任意文件,CVE编号为CVE-2014-4877,CVSS分值为9.3【严重】。

2018-04-27

软件工程期末考试试卷

软件工程期末考试试卷 。

2017-10-29

李开复自传

李开复自传-讲述李开复的自传 。

2017-10-29

数据结构本科教案PPT

数据结构本科教案PPT,和历年考研数据结构的知识点讲义都存在

2017-10-29

android6.0及以上获取wifi MAC地址

Android 6.0的手机无法通过低版本的Mac地址获取方式获取Mac地址,可以通过读取节点进行获取"/sys/class/net/wlan0/address",具体参考http://blog.csdn.net/zhangvalue/article/details/78220825,亲测通过

2017-10-12

Fiddlersetup.exe

Fiddler是一个http协议调试代理工具,它能够记录并检查所有你的电脑和互联网之间的http通讯,设置断点,查看所有的“进出”Fiddler的数据

2017-07-18

JSONObject所必须的6个包

jakarta commons-lang 2.5 jakarta commons-beanutils 1.8.0 jakarta commons-collections 3.2.1 jakarta commons-logging 1.1.1 ezmorph 1.0.6

2017-07-06

膳活APP,三高人群

膳活APP,三高人群

2017-05-01

膳活 Android 三高人群

Android 膳活 三高人群

2017-04-28

数据结构C++殷人昆

数据结构C++殷人昆

2016-11-19

Android中隐藏显示密码

代码改变EditText的password属性值并可查看密码,就是在设置密码的时候有的时候需要显示密码,但是有的时候需要隐藏密码

2016-03-31

ActivityForResult

startActivityForResult和setResult详解

2016-03-31

commons-collections-3.2

commons-collections-3.2使用json常用到的包有以下六个。 commons-logging-1.0.4.jar commons-lang-2.3.jar commons-collections-3.2.jar commons-beanutils-1.7.0.jar json-lib-2.2.1-jdk15.jar ezmorph-1.0.4.jar

2016-03-18

json-lib-2.2.2-jdk15

使用JSON时,除了要导入JSON网站上面下载的json-lib-2.2-jdk15.jar包之外,还必须有其它几个依赖 包:commons-beanutils.jar,commons-httpclient.jar,commons- lang.jar,ezmorph.jar,morph-1.0.1.jar

2016-03-18

commons-httpclient.jar

commons-httpclient.jar 使用JSON时,除了要导入JSON网站上面下载的json-lib-2.2-jdk15.jar包之外,还必须有其它几个依赖 包:commons-beanutils.jar,commons-httpclient.jar,commons- lang.jar,ezmorph.jar,morph-1.0.1.jar

2016-03-18

commons-beanutils.jar

使用JSON时,除了json-lib-2.2-jdk15.jar包之外,还必须有其它几个依赖包:commons-beanutils.jar,commons-httpclient.jar,commons- lang.jar,ezmorph.jar,morph-1.0.1.jar 下载起来只是麻烦,这个包是commons-beanutils.jar

2016-03-18

2021年美团技术年货-20220120.pdf

2021年美团技术年货-20220120.pdf

2022-01-29

BigDataTools_for_intellij-213.5449.243

With this plugin, you can conveniently work with Zeppelin notebooks, run applications with spark-submit, produce and consume messages with Kafka, monitor Spark and Hadoop YARN applications, and work with following file storages: AWS S3 DigitalOcean Spaces Google Cloud Storage Hadoop Distributed File System (HDFS) Linode Microsoft Azure Minio SFTP Yandex Object Storage You can use this plugin in IntelliJ-based IDEs including IntelliJ IDEA Ultimate, PyCharm Professional, DataGrip and DataSpell.

2022-01-29

Spark3.1.2 Docker镜像资源

Docker制作Spark3.1.2镜像 步骤一:docker build -t registry/spark:3.1.2 -f kubernetes/dockerfiles/spark/Dockerfile . 步骤二:docker images查看镜像 步骤三:导出镜像 docker save -o spark3.1.2.tar registry/spark:3.1.2

2022-01-29

spark-3.1.2-bin-hadoop2.7.tgz

spark的安装包,Linux下使用,需要欢迎下载,spark-3.1.2-bin-hadoop2.7.tgz

2022-01-29

test_db.sql

在数据仓库中,经常会用历史数据和时间维度做数据分析。而保存历史数据最常见的方案是使用拉链表进行存储。 创建测试表中的数据

2020-09-29

WinPcap_4_1_3.exe

WinPcap, though still available for download (v4.1.3), has not seen an upgrade in many years and there are no road map/future plans to update the technology. While community support may persist, technical oversight by Riverbed staff, responses to questions posed by Riverbed resources, and bug report

2020-09-22

合并PDF软件.rar

PDF补丁丁是一个用于修改PDF文件信息的工具。它具有以下功能: 修改PDF信息:修改文档属性、页码编号、页面链接、页面尺寸;删除自动打开网页等动作,去除复制及打印限制;设置阅读器初始模式。 贴心PDF书签编辑器:带有阅读界面(具有便于阅读竖排文档的从右到左阅读方式),可批量修改PDF书签属性(颜色、样式、目标页码、缩放比例等),在书签中执行查找替换(支持正则表达式及XPath匹配、可快速选择篇、章、节书签),自动快速生成文档书签(0.6.1版新增功能)。 生成PDF书签:无需手工输入,自动识别正文标题或目录,为PDF文档生成书签。 制作PDF文件:合并已有PDF文件或图片,生成新的PDF文件。合并后的PDF文档带有原文档的书签,还可挂上新书签(或根据文件名生成),新书签文本和样式可自定义。 拆分或合并PDF文件,并保留原文件的书签或挂上新的书签。 高速无损导出PDF文档的图片。 提取或删除PDF文档中指定的页面,调整PDF文档的页面顺序。 根据PDF文档元数据重命名PDF文件名。 调用微软 Office 的图像识别引擎分析PDF文档图片中的文字;将图片PDF的目录页转换为PDF书签。识别结果可写入PDF文件。 替换字库:替换文档中使用的字体库;嵌入字库到PDF文档,消除复制文本时的乱码,使之可在没有字库的设备(如Kindle等电子书阅读器)上阅读。 分析文档结构:以树视图显示PDF文档结构,可编辑修改PDF文档节点,或将PDF文档导出成XML文件,供PDF爱好者分析、调试之用。 永久免费,绝不过期,无广告,无弹出废话对话框。

2020-06-06

设计ATM使用封装、继承和多态.zip

Design An ATM 设计一个ATM 需求 1)实现余额不足怎么办 2)密码登陆多次错误怎么办 3)检测卡有没有插入成功 要求使用到 封装、继承、多态

2020-05-21

EVCapture_3.9.7.exe.zip

EVCapture软件免费无水印,集视频录制与直播功能于一身的桌面录屏软件,可实现分屏录制、实时按键显示、录屏涂鸦等功能

2020-05-14

数据库系统概论复习资料(王珊版).doc

数据库系统概论复习资料(王珊版) 《数据库系统概论》是王珊、萨师煊编著的“十二五”普通高等教育本科国家级规划教材,于2014年由高等教育出版社出版,可以作为高等学校计算机类专业、信息管理与信息系统等相关专业数据库课程的教材,也可供从事数据库系统研究、开发和应用的研究人员和工程技术人员参考。

2020-04-05

tampermonkey.crx.zip

Tampermonkey是一款免费的浏览器插件和最为流行的用户脚本管理器。号称第二个chrome商店!Tampermonkey适用于基于 blink 和 WebKit 的浏览器像是 Chrome Microsoft Edge Safari Opera Next 和 Firefox 。它可以加载第三方的脚本文件,改变页面中的CSS和JS元素,也能在网页中增加额外的功能。 Tampermonkey就是一个管理别人写的插件的一个插件管理器。

2020-03-29

StudentsPerformance.csv

kaggle案例-学生在考试数据集 数据集包括8个变量 gender 性别 race/ethnicity 种族 parental level of education 父母教育水平 lunch 午餐 test preparation course  math score 数学 reading score 阅读 writting score 写作 具体看https://blog.csdn.net/zhangvalue/article/details/103427969

2020-03-26

tools-1.8.0_181.jar.zip

上传的tools.jar的版本号为1.8.0_181,是一个zip压缩文件,解压就可以 而自己安装jdk的tools.jar在jdk下的lib中 jdk和jre的区别: Jre是运行环境,及编译后的java程序运行时只需要jre就行了; jdk是开发环境,当你开发java程序时需要用jdk。Jdk包括了jre,及 java程序运行有jre或jdk都可以,但jdk包括了在开发过程中需要的工具。如果只是运行java程序,只要jre就行了,因为jre要比jdk省空间。 但ant需要tools.jar

2020-03-04

Java开发工程师笔试题(带答案).pdf

一套Java开发工程师笔试试题 (请不要在试题上留任何痕迹,所有答案均写在答题纸上) 包括了选择题、填空题、简答题、程序读写题 都有答案 最后一道简答题关于设计模式的题目见博客: https://blog.csdn.net/zhangvalue/article/details/104236638

2020-02-22

万兴数据恢复MAC版本.zip

万兴数据恢复 for Mac可以恢复Mac下丢失的文件,误删的文件,是值得信赖的Mac数据恢复软件 亲自测试可用 具体参考 https://blog.csdn.net/zhangvalue/article/details/104212302

2020-02-07

复旦大学中文文本分类训练集和测试集.zip

复旦大学中文文本分类训练集和测试集 文件太大压缩为了zip格式。 all文件夹为复旦大学中文文本分类语料集, test_corpus为该语料集中挑选部分划分出来的, train_corpus为该语料集中挑选test_corpus后剩余部分划分出来的。 下载以后可以按照自己的要求指定比例划分训练集和测试集,也可以按照本文档的划分方法。

2020-01-11

weibodatabase.sql.zip

数据集为:新浪微博数据集sql文件 数据集标记了话题 文件太大了有138M,就压缩为了zip格式,解压之后就是sql文件 数据概述:本数据集为63641个用户的新浪微博数据集,包括以下内容: 63641个新浪微博用户信息 数据格式:用户uid,用户昵称,用户姓名,用户所在地,用户主页url,用户性别,用户粉丝数,用户关注数,用户微博数,用户收藏数,用户创建时间; 84168条在2014-05-03至2014-05-11采的关于12个主题的微博信息 数据格式:微博mid,发布时间,微博内容,微博来源,微博转发数,微博评论数,微博被赞数,发表用户uid,微博所属主题。 12个主题包括魅族,小米,火箭队,林书豪,恒大,韩剧,雾霾,房价,同桌的你,公务员,贪官,转基因。1391718条用户好友关系

2020-01-11

微博粉丝数据userrelation.json.zip

微博粉丝数据json数据 (爬虫采集的微博用户关系数据,经过自己的精心整理、处理,做成了方便用python导入的格式)

2020-01-11

Apache Flink v1.9 官方中文文档.pdf

Apache Flink v1.9 官方中文文档.pdf Apache Flink是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。Flink以数据并行和流水线方式执行任意流数据程序,Flink的流水线运行时系统可以执行批处理和流处理程序。此外,Flink的运行时本身也支持迭代算法的执行。

2020-01-03

用于逻辑回归教学分析的数据.rar

数据总名称:用于逻辑回归教学分析的数据 数据描述: 1. bankloan.csv 进行logistic分析的原始数据,一个假设数据集,Age列是年龄列,Credit rating表示是否具有信贷风险。 2. 转化计算数据表.xls 手算逻辑回归曲线中几个重要的数据计算步骤: 1) 不同年龄情况下的随机误差的差异值是多少 2) 某一年龄下是否有信贷风险的0/1两种取值,转换成该年龄下有信贷风险的概率 3) 信贷风险概率,转化成和年龄变量呈线性关系的新的因变量。 3. logistic_data.csv 手算逻辑回归中全量的计算结果数据

2020-01-02

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除