Eclipse中修改Gradle的默认安装路径和User Home && 升级至gradle2.0 Eclipse中修改Gradle的默认安装路径和User Home && 升级至gradle2.0一:升级方案在build.gradle脚本中加入配置即可 Java代码 task wrapper(type: Wrapper) { gradleVersion = '2.0' } 二:修改默认的安装路径 1.确保j
Tomcat优化配置 一.Tomcat内存优化Tomcat内存优化主要是对 tomcat 启动参数优化,我们可以在 tomcat 的启动脚本 catalina.sh 中设置 JAVA_OPTS 参数。 1.JAVA_OPTS参数说明Java代码 -server 启用jdk 的 server 版; -Xms java虚拟机初始化时的最小内存; -Xmx j
软件开发的组织和角色分工 随着软件规模的不断膨胀和软件开发技术的发展,软件开发的分工和组织也变得越来越复杂,如何合理的组织和分工越来越成为能否成功开发的一个决定性因素。 对一个软件产品或者一项软件工程来说,参与角色通常包括如下几种: l 高级经理 l 产品经理或项目经理 l 开发经理 l 设计师 l 测试经理 l 开发人员 l 测试人员 l 项目实施人员 高级经理 具体参与项
Linux rpm 命令参数使用详解[介绍和应用] RPM是RedHat Package Manager(RedHat软件包管理工具)类似Windows里面的“添加/删除程序”rpm 执行安装包二进制包(Binary)以及源代码包(Source)两种。二进制包可以直接安装在计算机中,而源代码包将会由RPM自动编译、安装。源代码包经常以src.rpm作为后缀名。常用命令组合:-ivh:安装显示安装进度--install--verb
从源代码剖析Mahout推荐引擎 前言Mahout框架中cf.taste包实现了推荐算法引擎,它提供了一套完整的推荐算法工具集,同时规范了数据结构,并标准化了程序开发过程。应用推荐算法时,代码也就7-8行,简单地有点像R了。为了使用简单的目标,Mahout推荐引擎必然要做到精巧的程序设计。本文将介绍Mahout推荐引擎的程序设计。目录Mahout推荐引擎概况标准化的程序开发过程数据模型相似度算法
Java基础进阶——“Java IO流之三:IO实例” IO 编程的一般流程: 1. 创建基本流 2. 升级基本流到高级流 3. 使用在高级流中的方法作读写操作 4. 关闭流并释放资源------------------------------------------------------------------------------- 1. Creat node stream;
Java基础进阶——“Java IO流之二:细说流的分类” IO流的三种分类方式。1.按流的方向分为:输入流和输出流。2.按流的数据单位不同分为:字节流和字符流。3.按流的功能不同分为:节点流和处理流。 二、IO流的四大抽象类。 字符流:Reader Writer。 字节流。一、IO流的三种分类方式1.按流的方向分为:输入流和输出流2.按流的数据单位不同分为:字节流和字符流3.按流的功能不同分为:节点流和处理流(过滤流)
Java基础进阶——“Java IO流” 一.流的概念 流的概念起源于UNIX中管道(PIPE)的概念,UNIX中,管道是一条不间断的字节流,用于实现程序和进 程间的通信,或读写外围设置、外部文件等。 一个流,必须有源端和目的端,它们可以是计算机内存的某些区域,也可以是磁盘文件,甚至可以是 Internet上的某个URL。 流的方向是重
深入理解JVM—性能调优 在上文中我们分析了很多性能监控工具,介绍这些工具的目的只有一个,那就是找出对应的性能瓶颈。盲目的性能调优是没有效果的,只有充分知道了哪里出了问题,针对性的结果才是立竿见影的。解决了主要的性能问题,那些次要的性能问题也就不足为虑了!我们知道,性能问题无非就这么几种:CPU、内存、磁盘IO、网络。那我们来逐一介绍以下相关的现象和一些可能出现的问题。一、CPU过高。查看CPU最简
深入理解JVM—性能监控工具 我们知道,在JVM编译期和加载器,甚至运行期已经做了大量的调优操作,但是那些都是JVM针对Java程序所做的通用的、简单的优化,程序在运行时由于运行环境的复杂性、业务逻辑的复杂性,很多JVM是无法进行优化处理的,这就需要我们自己在写代码的时候就注意,以便我们的程序在特定的业务场景发挥到最佳性能。要进行性能调优,首先我们要找到程序的性能瓶颈在哪里?而要知道性能瓶颈在哪里,我们需要借助
Mahout 之kmeans算法学习笔记 Mahout 之kmeans算法学习笔记1. 什么是 k-means 聚类算法?从网上找到了很多定义,这里选取比较典型的几个;K-Mean 分群法是一种分割式分群方法,其主要目标是要在大量高纬的资料点中找出具有代表性的资料点;这些资料点可以称为群中心,代表点;然后再根据这些群中心,进行后续的处理,这些处理可以包含1 )资料压缩:以少数的资料点来代表大量的资料,达
输入set autotrace on 报cannot set autotrace 错误 今天在一台机器中想分析下执行计划,但是在sqlplus中输入set autotrace on 报cannot set autotrace 错误解决方法如下:首先必须采用用Oracle的sqlplus登陆sys账号sqlplus " sys/sys@XXX as sysdba "然后执行如下脚本:@?\sqlplus\admin\plustrce.sql (创建plustrace
ORA-00257 archiver error. 错误的处理方法 archive log 日志已满ORA-00257: archiver error. Connect internal only, until freed 错误的处理方法1. 用sys用户登录sqlplus sys/pass@tt as sysdba2. 看看archiv log所在位置SQL> show parameter log_archive_dest;NAME TY
利用eclipse远程调试模式搭建一个调试hadoop源码的环境 1、 利用eclipse远程调试模式搭建一个调试hadoop源码的环境,抓图证明搭建成功。1) 软件准备:从http://www.sparxsystems.cn/products/index.html下载EACN_Trial和EAEclipse_Integration2) 安装上面两个软件,在安装EAEclipse_Integration的过程中有个过程需要选择你的eclipse的安装
linux设置时区 版权声明:转载时请以超链接形式标明文章原始出处和作者信息及本声明原文地址:http://helenfj.blogbus.com/logs/60894038.html时间以及时区设置首先确认使用utc还是local time. UTC(Universal Time Coordinated)=GMT(Greenwich Mean Time) Local time 是你手
Eclipse is running in a JRE, but a JDK is required 解决方法 安装Maven后每次启动出现警告信息:Eclipse is running in a JRE, but a JDK is requiredSome Maven plugins may not work when importing projects or updating source folders.分两步解决问题:1. 检查Eclipse正在使用的JRE‘Windo
HDFS数据存储位置与复制详解 HDFS是一种高度分布的多层次结构布局。典型的HDFS集群是由数百个服务器被同时部署在同一个集群之中,并且可以同时被来自同一或者不同地点的多个客户机进行访问。HDFS的数据存储的目标有两个,最大化数据可靠性与可用性,最大化利用网络带宽资源。为了实现这两个目的,仅仅在多台机器上进行单一存储是不够的,并不能预防硬件设备失误带来的损失。因此而采用的是多副本存储复制。在多个节点之间重复分布存储数据副本,这
Linux 启动项设置 1、通过 ntsysv 命令,然后对启动项进行选择或取消即可 2、查看:chkconfig --list增加:chkconfig –add mysqld start增加开机启动服务:chkconfig 服务名 onChkconfig –add httpd startChkconfig –level 5 httpd onChkconfig –level 5 iptable
LVM一种支持在线增大和减小的分区技术 LVM一种支持在线增大和减小的分区技术一、PV物理卷 由分区架构而成,为卷组提供空间。二、VG卷组 由一个或多个物理卷组成,为LV提供空间。三、LV逻辑卷 从卷组中获取空间,形成一个新的可用的LVM分区。四、制作逻辑卷。1、创建PV(在创建PV之前需要创建一个可用的分区,并且ID为8e)[root@station19 media]# fdisk /dev/hda 对第一块I
利用sqoop把Mysql中的表数据导出到HDFS下的文本文件里 1) 下载并安装sqoop-1.4.4.bin__hadoop-1.0.0.tar.gz到/usr目录下tar -zvxf sqoop-1.4.4.bin__hadoop-1.0.0.tar.gz2) 配置环境变量/etc/profileexport SQOOP_HOME=/usr/sqoop-1.4.4.bin__hadoop-1.0.0export HADOOP_HOME