- 博客(176)
- 资源 (1)
- 收藏
- 关注
原创 阿里云学生机mysql初始密码
PS:前几天 注册申请了ali云。。。。却找不到 默认安装的mysql 的初始密码,真成了 ali晕。版本 :阿里云学生机标配CentOS 密码在 root用户家目录中的 passwd.txt
2017-08-02 10:39:18 2628
转载 PHPMailer简介+实例
PHPMailer是一个用来发送电子邮件的函数包,远比PHP提供的mail()方便易用。邮件格式说明 一封普通的电子邮件,通常是由发件人、收件人、抄送人、邮件标题、邮件内容、附件等内容构成。以下是一封邮件的标准格式:邮件标题(Subject):测试邮件 发件人(From):小红([email protected]) 收件人(To):小白([email protected]) 抄送人(CC):大红(daho
2017-08-01 17:29:49 921
转载 spark-submit 依赖解决方案
spark的jar包没必要把所有相关的依赖都打进一个jar包中,因为这样会把spark、hadoop本身相关的jar包也打进去,但是这些依赖在用spark-submit命令运行时,会自动加载部署环境中已有的。/opt/cloudera/parcels/CDH/bin/spark-submit \–class “cn.icarevision.its007.upgrade.EsIndexUpgrade”
2017-07-18 10:11:15 3262 1
转载 hadoop学习路线
1.我们要掌握Linux的安装及基本操作、Python安装及编程基础、java基础。需要学习Linux的常用命令、基本网络配置、进程管理、shell语法;Python的常用语法,能够基于Python搭建一个常用的Server服务器和java的基础知识。这时候只需要掌握基础即可,后边遇到问题再学习,这样才不会混乱,学的才扎实。搭建Hadoop分布式环境我们要做的是在自己的电脑上安装Linux,然后
2017-07-17 17:43:58 321
原创 云计算/SDN/AI等IT技术发展曲线
***IT技术生命周期的五个关键阶段创新触发器:潜在的技术突破踢了一切。早期的概念故事和媒体兴趣引发了大量的宣传。通常没有可用的产品存在,商业可行性尚未得到证实。充满希望的高峰:早期的宣传产生了许多成功的故事,通常伴随着许多失败。有些公司采取行动;许多不消失的沟通:随着实验和实施的失败,利益消失。生产者的技术摆脱或失败。只有幸存的供应商改善产品以满足早期采用者的需求,投资才会继续。启蒙倾向:更多关
2017-07-14 09:55:33 1183
原创 数据库大作业(山东科技大学)
界面展示 : Hello, DBMS(byGreat!Great!Great!Han!!!!!!!!!!!!!!!!!) 为您服务!!!username: jihanpassword: 123456登陆成功欢迎您,尊敬的超级管理员 jihanSql_Service>>>help _____________________________________________本次SQL服务
2017-07-05 10:45:21 6260 12
原创 scala——实例 new_customer_extract
import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}
2017-05-21 10:03:27 8512
原创 网页页面 自动刷新的3种代码
1.页面自动刷新:把如下代码加入区域中 ,其中20指每隔20秒刷新一次页面. 2.页面自动跳转:把如下代码加入区域中 http://www.jb51.net“>,其中20指隔20秒后跳转到http://www.jb51.net页面 3.页面自动刷新js版 function myrefresh(){ window.location.reload(); } setTimeout('myrefr
2017-05-20 18:28:58 1635
转载 为VMware虚拟机内安装的Ubuntu 16.04设置静态IP地址
为VMware虚拟机内安装的Ubuntu 16.04设置静态IP地址VMWare VMNet 8 的配置使用及原理说明
2017-05-19 09:44:21 260
原创 linux(ubuntu)安装apache2和php7后浏览器无法解析php
在此之前,必须安装php对于apache的模块sudo apt install php libapache2-mod-php 安装之后,浏览器就会正常解析php
2017-05-18 21:55:01 769 1
原创 Ubuntu安装apache2无法解析php
在/etc/apache2/apache2.conf 文件的不是最后随机位置,但是不要有行前空格,添加AddHandler php5-script .php .htmlAddType text/html .php .html 重启sudo /etc/init.d/apache2 restart
2017-05-18 21:31:29 3078
原创 php 发送与接收流文件
PHP 发送与接收流文件sendStreamFile.php 把文件以流的形式发送 receiveStreamFile.php 接收流文件并保存到本地sendStreamFile.php<?php /** php 发送流文件 * @param String $url 接收的路径 * @param String $file 要发送的文件 * @return boolean */
2017-05-16 09:20:07 2373
原创 php定时自动执行任务(后台执行)
php定时自动执行任务(后台执行) 入门<?phpignore_user_abort(); // run script in backgroundset_time_limit(0); // run script forever$interval=30; // do every 15 minutes...do{$fp = fopen('text3.txt','a');fwrite($fp,
2017-05-15 22:09:43 9005 1
原创 scala实例——六
import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}
2017-05-13 11:38:27 8878
原创 scala实例——五
import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}
2017-05-12 22:24:11 8894
原创 scala实例——四
import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}
2017-05-12 22:23:06 8803
原创 scala实例——三
import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}
2017-05-12 22:22:25 78261
原创 scala实例——二
import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}
2017-05-12 18:20:49 9315
原创 scala 在某特定范围内生成随机数
scala随机数生成函数(new util.Random).nextInt(n) 返回一个0-n(不包括n) 的随机数比如scala> (new util.Random).nextInt(3) res7: Int = 1返回一个[0, 2]的随机数scala生成一组不重复的随机数1、循环获取随机数,再到 list中找,如果没有则添加def randomNew(n:Int)={ var res
2017-05-12 17:54:02 16079
原创 scala 直接引用字符串 三个引号
Scala中的字面量与Java中的基本一样,只有String类型略有差别。例如:val i =1 (普通数字)val i = 0xf(16进制)val i = 35L(long)val big = 1.2345 浮点数val big = 1.2345elval big = 1.2345E45 字符串:Scala中的转义字符与Java一致例如:\n 换行\t 制表等等同时使用 反斜杠进行转义对于
2017-05-12 17:02:12 6490
原创 Scala循环体break 和 continue方法
Java里经常会用到continue和break,Scala里并没有这俩个语法。但是我们可以用一个类似这样的方法: 使用Breaks对象中的break方法:import scala.util.control.Breaks._val top = Array[Int](2, 3, 5,8,5,77,3,88) for(a <- top){ breakable
2017-05-12 16:58:43 6695
原创 Scala break 语句
Scala break 语句 Scala 循环 Scala 循环 Scala 语言中默认是没有 break 语句,但是你在 Scala 2.8 版本后可以使用另外一种方式来实现 break 语句。当在循环中使用 break 语句,在执行到该语句时,就会中断循环并执行循环体之后的代码块。 语法 Scala 中 break 的语法有点不大一样,格式如下: // 导入以下包 import sc
2017-05-12 16:56:17 358
原创 scala 实例——一
import scala.util.control.Breaks._import org.apache.spark.sql._import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}
2017-05-12 16:53:07 2489 6
转载 scala 类型强转
scala object 转Class Scala强制类型转换asInstanceOf[T]将对象类型强制转换为T类型。 还是由于泛型存在类型擦除的原因,1.asInstanceOf[String]在运行时会抛出ClassCastException异常,而List(1).asInstanceOf[List[String]]将不会。package resti.web import org.sp
2017-05-12 11:27:17 6420
原创 数据库入门+php基础加强训练+CMS源码分析
数据库入门: 具体要求: ①:宏观了解数据库概念(请自行 百度/谷歌 ‘数据库’) ②:掌握,实践 基本SQL(重点掌握基本的 SELECT,DELETE,UPDATE,INSERT语句) ③:命令行模式下 进入 数据库,从选择指定数据库,到选择指定表,进行数据的增删改查操作 ④:安装并熟悉使用 任意一款 数据库管理工具 SQLyog,PhpMyAdmin,My
2017-05-07 16:05:07 348
原创 php 向指定url 发送 post数据 (http)
<?php error_reporting(E_ALL || ~E_NOTICE);//报错屏蔽设置date_default_timezone_set('PRC');//设置默认时区 $data_array["data"] = '{"id":"0029c591","mmac":"5e:cf:7f:29:c5:91","rate":"1","wssid":"datasky1","wmac":"00
2017-05-06 11:37:48 8733
转载 Visual C++与其他开发语言比较的优势
1.与Windows紧密结合。 MFC类库集成了大量已经预先定义好的类,用户可以根据编程的需要定义相应的类,或根据需要自己定义相应的类。因此Visual C++在使用API等方面和Windows联系的最为紧密 2.强大的类库支持和类改造能力。 代码重用是C++追求的目标,重用就是从已有的基类派生处新的C++类;MFC提供了大量的基类供程序员们根据不同的应用要求生成新的类以满足要求。VC
2017-05-03 18:14:39 1555
原创 php Fatal error: Maximum execution time of 30 seconds exceeded解决方案
这个错误是说你的php执行时间越过了配置文件中设置的最大执行时间30秒钟,这不是你的程序本身存在的问题,而是系统的配置文件问题,如果你的网速快的话,可能再执行一次就不会出现这种错误了,不过有了出现这种问题也可以进行一定的修改,方法有三种: 1.修改php的配置文件,找到php.ini文件,它一般应该放在你的C:\WINDOWS目录下,然后找到 max_execution_time = 30 ;/
2017-05-02 17:21:31 406
原创 scala 代码示例
import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{SQLContext, SparkSession}import org.apache.spark.rdd.RDDobject flow { def main(args: Array[String]
2017-05-01 11:00:02 1928
原创 scala 代码实例——customer_extract
import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.{DataFrame, SQLContext, SparkSession}import org.apache.spark.rdd.RDDimport util.control.Breaks._obje
2017-05-01 10:59:00 427
转载 在Java项目中整合Scala
Scala是一个运行在Java JVM上的面向对象的语言。它支持函数编程,在语法上比Java更加灵活,同时通过Akka库,Scala支持强大的基于Actor的多线程编程。具有这些优势,使得我最近很想在一个新的项目中使用Scala,但是在新项目中,抛弃我们常用的Java和C#,而直接使用一门新的语言是很困难的。这不仅包括学习新语言这个过程,未来,更为项目的长期发展和日后的开发和支持增加了很多变数。毕竟
2017-05-01 10:54:24 5217 1
原创 Scala 官方文档 --包结构解读
scala 官方文档 (英文版) root (This is the documentation for the Scala standard library.) Package structure The scala package contains core types like Int, Float, Array or Option which are acces
2017-04-30 11:46:48 867
转载 Spark选择Scala的理由
为什么选择Scala火热的网上公开课网站Coursera采用了Scala来作为他们的首选编程语言。最初这个网站是由几个Stanford的学生用PHP写的,后来随着业务扩展,团队开始寻找合适的语言来搭建平台。在尝试过了包括Python和Go在内的许多种框架后,Coursera决定采用Scala以及使用Scala编写的web框架Play Framework,原因有以下几条:类型安全 Coursera一
2017-04-30 10:55:09 5370
转载 SDK,Library,API,framework,Toolkits概念介绍
SDK : 软件开发工具包(SoftwareDevelopmentKit,SDK)一般是一些被软件工程师用于为特定的软件包、软件框架、硬件平台、作业系统等创建应用软件的开发工具的集合。API:应用程序接口(英语:ApplicationProgrammingInterface,简称:API),又称为应用编程接口,就是软件系统不同组成部分衔接的约定。Library:用于开发软件的子程序集合。库和可执行
2017-04-30 10:46:28 1465
转载 scala continue,break 详解
scala自身是没有continue,break这两个语法关键词的。但是实际上我们还是很希望有这两个语法,那么我们是否可以自己实现呢?从官网上搜索,我们可以找到一下关于break的类相关资料:Breaks extends AnyRefA class that can be instantiated for the break control abstractio
2017-04-30 09:25:30 573
转载 Spark RDD、DataFrame和DataSet的区别
RDD优点:编译时类型安全 编译时就能检查出类型错误面向对象的编程风格 直接通过类名点的方式来操作数据缺点:序列化和反序列化的性能开销 无论是集群间的通信, 还是IO操作都需要对对象的结构和数据进行序列化和反序列化.GC的性能开销 频繁的创建和销毁对象, 势必会增加GCimport org.apache.spark.sql.SQLCo
2017-04-29 18:58:56 243
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人