自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

超级帅的一个小伙子的博客

天下事有难易乎?为之,则难者亦易矣;不为,则易者亦难矣。人之为学有难易乎?学之,则难者亦易矣;不学,则易者亦难矣。

  • 博客(176)
  • 资源 (1)
  • 收藏
  • 关注

原创 阿里云学生机mysql初始密码

PS:前几天 注册申请了ali云。。。。却找不到 默认安装的mysql 的初始密码,真成了 ali晕。版本 :阿里云学生机标配CentOS 密码在 root用户家目录中的 passwd.txt

2017-08-02 10:39:18 2628

转载 PHPMailer简介+实例

PHPMailer是一个用来发送电子邮件的函数包,远比PHP提供的mail()方便易用。邮件格式说明 一封普通的电子邮件,通常是由发件人、收件人、抄送人、邮件标题、邮件内容、附件等内容构成。以下是一封邮件的标准格式:邮件标题(Subject):测试邮件 发件人(From):小红([email protected]) 收件人(To):小白([email protected]) 抄送人(CC):大红(daho

2017-08-01 17:29:49 921

转载 spark-submit 依赖解决方案

spark的jar包没必要把所有相关的依赖都打进一个jar包中,因为这样会把spark、hadoop本身相关的jar包也打进去,但是这些依赖在用spark-submit命令运行时,会自动加载部署环境中已有的。/opt/cloudera/parcels/CDH/bin/spark-submit \–class “cn.icarevision.its007.upgrade.EsIndexUpgrade”

2017-07-18 10:11:15 3262 1

转载 hadoop学习路线

1.我们要掌握Linux的安装及基本操作、Python安装及编程基础、java基础。需要学习Linux的常用命令、基本网络配置、进程管理、shell语法;Python的常用语法,能够基于Python搭建一个常用的Server服务器和java的基础知识。这时候只需要掌握基础即可,后边遇到问题再学习,这样才不会混乱,学的才扎实。搭建Hadoop分布式环境我们要做的是在自己的电脑上安装Linux,然后

2017-07-17 17:43:58 321

原创 云计算/SDN/AI等IT技术发展曲线

***IT技术生命周期的五个关键阶段创新触发器:潜在的技术突破踢了一切。早期的概念故事和媒体兴趣引发了大量的宣传。通常没有可用的产品存在,商业可行性尚未得到证实。充满希望的高峰:早期的宣传产生了许多成功的故事,通常伴随着许多失败。有些公司采取行动;许多不消失的沟通:随着实验和实施的失败,利益消失。生产者的技术摆脱或失败。只有幸存的供应商改善产品以满足早期采用者的需求,投资才会继续。启蒙倾向:更多关

2017-07-14 09:55:33 1183

转载 BinaryTree:学习二叉树的Python库

http://geek.csdn.net/news/detail/106885

2017-07-05 11:42:35 374

原创 数据库大作业(山东科技大学)

界面展示 : Hello, DBMS(byGreat!Great!Great!Han!!!!!!!!!!!!!!!!!) 为您服务!!!username: jihanpassword: 123456登陆成功欢迎您,尊敬的超级管理员 jihanSql_Service>>>help _____________________________________________本次SQL服务

2017-07-05 10:45:21 6260 12

原创 scala——实例 new_customer_extract

import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}

2017-05-21 10:03:27 8512

原创 网页页面 自动刷新的3种代码

1.页面自动刷新:把如下代码加入区域中 ,其中20指每隔20秒刷新一次页面. 2.页面自动跳转:把如下代码加入区域中 http://www.jb51.net“>,其中20指隔20秒后跳转到http://www.jb51.net页面 3.页面自动刷新js版 function myrefresh(){ window.location.reload(); } setTimeout('myrefr

2017-05-20 18:28:58 1635

转载 为VMware虚拟机内安装的Ubuntu 16.04设置静态IP地址

为VMware虚拟机内安装的Ubuntu 16.04设置静态IP地址VMWare VMNet 8 的配置使用及原理说明

2017-05-19 09:44:21 260

原创 linux(ubuntu)安装apache2和php7后浏览器无法解析php

在此之前,必须安装php对于apache的模块sudo apt install php libapache2-mod-php 安装之后,浏览器就会正常解析php

2017-05-18 21:55:01 769 1

原创 Ubuntu安装apache2无法解析php

在/etc/apache2/apache2.conf 文件的不是最后随机位置,但是不要有行前空格,添加AddHandler php5-script .php .htmlAddType text/html .php .html 重启sudo /etc/init.d/apache2 restart

2017-05-18 21:31:29 3078

转载 ubuntu(linux)搭建LAMP全教程

ubuntu(linux)搭建LAMP全教程

2017-05-17 20:02:08 520

原创 php 发送与接收流文件

PHP 发送与接收流文件sendStreamFile.php 把文件以流的形式发送 receiveStreamFile.php 接收流文件并保存到本地sendStreamFile.php<?php /** php 发送流文件 * @param String $url 接收的路径 * @param String $file 要发送的文件 * @return boolean */

2017-05-16 09:20:07 2373

原创 php定时自动执行任务(后台执行)

php定时自动执行任务(后台执行) 入门<?phpignore_user_abort(); // run script in backgroundset_time_limit(0); // run script forever$interval=30; // do every 15 minutes...do{$fp = fopen('text3.txt','a');fwrite($fp,

2017-05-15 22:09:43 9005 1

原创 scala实例——六

import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}

2017-05-13 11:38:27 8878

原创 scala实例——五

import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}

2017-05-12 22:24:11 8894

原创 scala实例——四

import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}

2017-05-12 22:23:06 8803

原创 scala实例——三

import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}

2017-05-12 22:22:25 78261

原创 scala实例——二

import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}

2017-05-12 18:20:49 9315

原创 scala 在某特定范围内生成随机数

scala随机数生成函数(new util.Random).nextInt(n) 返回一个0-n(不包括n) 的随机数比如scala> (new util.Random).nextInt(3) res7: Int = 1返回一个[0, 2]的随机数scala生成一组不重复的随机数1、循环获取随机数,再到 list中找,如果没有则添加def randomNew(n:Int)={ var res

2017-05-12 17:54:02 16079

原创 scala 直接引用字符串 三个引号

Scala中的字面量与Java中的基本一样,只有String类型略有差别。例如:val i =1 (普通数字)val i = 0xf(16进制)val i = 35L(long)val big = 1.2345 浮点数val big = 1.2345elval big = 1.2345E45 字符串:Scala中的转义字符与Java一致例如:\n 换行\t 制表等等同时使用 反斜杠进行转义对于

2017-05-12 17:02:12 6490

原创 Scala循环体break 和 continue方法

Java里经常会用到continue和break,Scala里并没有这俩个语法。但是我们可以用一个类似这样的方法: 使用Breaks对象中的break方法:import scala.util.control.Breaks._val top = Array[Int](2, 3, 5,8,5,77,3,88) for(a <- top){ breakable

2017-05-12 16:58:43 6695

原创 Scala break 语句

Scala break 语句 Scala 循环 Scala 循环 Scala 语言中默认是没有 break 语句,但是你在 Scala 2.8 版本后可以使用另外一种方式来实现 break 语句。当在循环中使用 break 语句,在执行到该语句时,就会中断循环并执行循环体之后的代码块。 语法 Scala 中 break 的语法有点不大一样,格式如下: // 导入以下包 import sc

2017-05-12 16:56:17 358

原创 scala 实例——一

import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}

2017-05-12 16:53:07 2489 6

转载 scala 类型强转

scala object 转Class Scala强制类型转换asInstanceOf[T]将对象类型强制转换为T类型。 还是由于泛型存在类型擦除的原因,1.asInstanceOf[String]在运行时会抛出ClassCastException异常,而List(1).asInstanceOf[List[String]]将不会。package resti.web import org.sp

2017-05-12 11:27:17 6420

转载 RDD,DataFrame 和 Dataset区别以及各自用途

http://www.tuicool.com/articles/IjMrmuZ

2017-05-12 10:45:41 549

原创 数据库入门+php基础加强训练+CMS源码分析

数据库入门: 具体要求: ①:宏观了解数据库概念(请自行 百度/谷歌 ‘数据库’) ②:掌握,实践 基本SQL(重点掌握基本的 SELECT,DELETE,UPDATE,INSERT语句) ③:命令行模式下 进入 数据库,从选择指定数据库,到选择指定表,进行数据的增删改查操作 ④:安装并熟悉使用 任意一款 数据库管理工具 SQLyog,PhpMyAdmin,My

2017-05-07 16:05:07 348

原创 php 向指定url 发送 post数据 (http)

<?php error_reporting(E_ALL || ~E_NOTICE);//报错屏蔽设置date_default_timezone_set('PRC');//设置默认时区 $data_array["data"] = '{"id":"0029c591","mmac":"5e:cf:7f:29:c5:91","rate":"1","wssid":"datasky1","wmac":"00

2017-05-06 11:37:48 8733

转载 Visual C++与其他开发语言比较的优势

1.与Windows紧密结合。 MFC类库集成了大量已经预先定义好的类,用户可以根据编程的需要定义相应的类,或根据需要自己定义相应的类。因此Visual C++在使用API等方面和Windows联系的最为紧密 2.强大的类库支持和类改造能力。 代码重用是C++追求的目标,重用就是从已有的基类派生处新的C++类;MFC提供了大量的基类供程序员们根据不同的应用要求生成新的类以满足要求。VC

2017-05-03 18:14:39 1555

原创 php Fatal error: Maximum execution time of 30 seconds exceeded解决方案

这个错误是说你的php执行时间越过了配置文件中设置的最大执行时间30秒钟,这不是你的程序本身存在的问题,而是系统的配置文件问题,如果你的网速快的话,可能再执行一次就不会出现这种错误了,不过有了出现这种问题也可以进行一定的修改,方法有三种: 1.修改php的配置文件,找到php.ini文件,它一般应该放在你的C:\WINDOWS目录下,然后找到 max_execution_time = 30 ;/

2017-05-02 17:21:31 406

原创 scala 代码示例

import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{SQLContext, SparkSession}import org.apache.spark.rdd.RDDobject flow { def main(args: Array[String]

2017-05-01 11:00:02 1928

原创 scala 代码实例——customer_extract

import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}import org.apache.spark.rdd.RDDimport util.control.Breaks._obje

2017-05-01 10:59:00 427

转载 在Java项目中整合Scala

Scala是一个运行在Java JVM上的面向对象的语言。它支持函数编程,在语法上比Java更加灵活,同时通过Akka库,Scala支持强大的基于Actor的多线程编程。具有这些优势,使得我最近很想在一个新的项目中使用Scala,但是在新项目中,抛弃我们常用的Java和C#,而直接使用一门新的语言是很困难的。这不仅包括学习新语言这个过程,未来,更为项目的长期发展和日后的开发和支持增加了很多变数。毕竟

2017-05-01 10:54:24 5217 1

原创 scala 完美中文教程

scala 完美中文教程

2017-05-01 09:32:56 4971 1

原创 Scala 官方文档 --包结构解读

scala 官方文档 (英文版) root (This is the documentation for the Scala standard library.) Package structure The scala package contains core types like Int, Float, Array or Option which are acces

2017-04-30 11:46:48 867

转载 Spark选择Scala的理由

为什么选择Scala火热的网上公开课网站Coursera采用了Scala来作为他们的首选编程语言。最初这个网站是由几个Stanford的学生用PHP写的,后来随着业务扩展,团队开始寻找合适的语言来搭建平台。在尝试过了包括Python和Go在内的许多种框架后,Coursera决定采用Scala以及使用Scala编写的web框架Play Framework,原因有以下几条:类型安全 Coursera一

2017-04-30 10:55:09 5370

转载 SDK,Library,API,framework,Toolkits概念介绍

SDK : 软件开发工具包(SoftwareDevelopmentKit,SDK)一般是一些被软件工程师用于为特定的软件包、软件框架、硬件平台、作业系统等创建应用软件的开发工具的集合。API:应用程序接口(英语:ApplicationProgrammingInterface,简称:API),又称为应用编程接口,就是软件系统不同组成部分衔接的约定。Library:用于开发软件的子程序集合。库和可执行

2017-04-30 10:46:28 1465

转载 scala continue,break 详解

scala自身是没有continue,break这两个语法关键词的。但是实际上我们还是很希望有这两个语法,那么我们是否可以自己实现呢?从官网上搜索,我们可以找到一下关于break的类相关资料:Breaks extends AnyRefA class that can be instantiated for the break control abstractio

2017-04-30 09:25:30 573

转载 Spark RDD、DataFrame和DataSet的区别

RDD优点:编译时类型安全 编译时就能检查出类型错误面向对象的编程风格 直接通过类名点的方式来操作数据缺点:序列化和反序列化的性能开销 无论是集群间的通信, 还是IO操作都需要对对象的结构和数据进行序列化和反序列化.GC的性能开销 频繁的创建和销毁对象, 势必会增加GCimport org.apache.spark.sql.SQLCo

2017-04-29 18:58:56 243

cms 源码解读

CMS源码解读

2016-11-28

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除