RootTools帮助文档
想通过浏览器查看的话可以直接解压出来
也可以在eclipse中设置RootTools.jar的api文档直接在eclipse中查看
androidannotations-bundle-3.0.1.zip
android 的annotation jar包。
包里面包括可导入的jar文件、javadoc和源码
解压后的目录结构说明
androidannotations-bundle-3.0.1
--androidannotations-3.0.1.jar (查看最后的配置说明)
--androidannotations-api-3.0.1.jar (查看最后的配置说明)
--javadoc
----androidannotations-3.0.1-javadoc.jar (解压到本地即可查看文档)
----androidannotations-api-3.0.1-javadoc.jar(解压到本地即可查看文件)
--sources
----androidannotations-3.0.1-sources.jar (解压到本地或者添加到eclipse 可查看源代码)
----androidannotations-api-3.0.1-sources.jar (解压到本地或者添加到eclipse 可查看源代码)
----------------配置说明-------------------
解包后可以得到两个 jar 文件,一个是 androidannotations-xxx.jar 另一个是 androidannotations-api-xxx.jar 。
把 aa-api-xxx.jar 放到 libs 目录下,但是 aa-xxx.jar不可以放到 libs 目录下,可以另外建一个目录,比如说叫 compile-libs 。
然后打开 Project | Properties …
查看 Java Compiler ,确定 Compiler compliance level 必须是 1.6 。
查看 Java Compiler | Annontation Processing ,选中 Enabled annontation processing (可能需要先选中 Enable project specific settings) 。
查 看 Java Compiler | Annontation Process | Factory Path ,点击 Add JARs (可能需要先选中 Enable project specific settings),把刚才那个 aa-xxx.jar 加进来。
点击确定后将弹出个对话框,提示 annotation 设置变更,要求 rebuild project ,确定即可重建项目。
最后在 Java Build Path 里,选择 Libraries 页,点 Add JARs ,把刚才那个 aa-api-xxx.jar 加进来即可。
配置完成。
hibernate-release-4.3.0.Final
hibernate-release-4.3.0.Final 4.3 的稳定版本
文件包包括documentation, lib, project 三个目录
1. documentation 存放文档
2. lib 存放jar包,jar包目录包括各种功能的
3. project 目录内容比较丰富,有文档,源码,还有案例
VMware-vSphere-SDK-5.0.0-429209
VMware-vSphere-SDK-5.0.0-429209
文件包含
1.详细帮助文档 vSphereManagementSDKReadme.html
2.一些开发安例,包括java与.net的 注意eam,sms-sdk,vsphere-ws目录,各取所需。
Iptables 指南1.1.19
Iptables的详细指南,自己今天刚看了70%,觉得内容非常丰富,而且例子也很详细。此文档比较适合有网络基础的人员,做为Iptables的入门是非常好的选择。指南目标
1.序言
2.准备阶段
3.表和链
4.状态机制
5.规则的保存与恢复
6.规则是如何练成的(这一章讲得很丰富)
7.防火墙配置实例
8.例子简介
附录....
Django-1.3.1.tar.gz
如何安装此框架
解压后进入文件夹执行如下指令
python setup.py install
hbase-0.90.5.tar.gz
HBase – Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。
HBase是Google Bigtable的开源实现,类似Google Bigtable利用GFS作为其文件存储系统,HBase利用Hadoop HDFS作为其文件存储系统;Google运行MapReduce来处理Bigtable中的海量数据,HBase同样利用Hadoop MapReduce来处理HBase中的海量数据;Google Bigtable利用 Chubby作为协同服务,HBase利用Zookeeper作为对应。
pig-0.9.1.tar.gz
Pig是yahoo捐献给apache的一个项目,它是SQL-like语言,是在MapReduce上构建的一种高级查询语言,把一些运算编译进MapReduce模型的Map和Reduce中,并且用户可以定义自己的功能。这是Yahoo开发的又一个克隆Google的项目:Sawzall。
Pig是一个客户端应用程序,就算你要在Hadoop集群上运行Pig,也不需要在集群上装额外的东西。Pig的安装是灰常的简单的:
1、安装JAVA6(在Windows的话要装Cygwin),设置好JAVA_HOME。
% export JAVA_HOME=/home/tom/jdk1.6
2、下载本文件,解压到你的工作空间:
% tar xzf pig-x.y.z.tar.gz
3、为了方便,可以把Pig的程序目录放到命令行路径里,比如:
% export PIG_INSTALL=/home/tom/pig-x.y.z
% export PATH=$PATH:$PIG_INSTALL/bin
注销或重启,你就可以用pig -help来查看使用帮助了,安装够简单吧? :)
Pig有两种模式:
一种是Local mode,也就是本地模式,这种模式下Pig运行在一个JVM里,访问的是本地的文件系统,只适合于小规模数据集,一般是用来体验Pig。而且,它并没有用到Hadoop的Local runner,Pig把查询转换为物理的Plan,然后自己去执行。
在终端下输入
% pig -x local
就可以进入Local模式了。
还有一种就是Hadoop模式了,这种模式下,Pig才真正的把查询转换为相应的MapReduce Jobs,并提交到Hadoop集群去运行,集群可以是真实的分布式也可以是伪分布式。要想Pig能认识Hadoop,你要告诉它Hadoop的版本以及一些关键daemon的信息(也就是Namenode和Jobtracker的Address和Port)。比如,下面这个可以允许Pig连接到任何Hadoop0.20.*上:
% export PIG_HADOOP_VERSION=20
接下来,你还要指明集群的Namenode和Jobtracker的所在。有两种方法,一种就是把你Hadoop的Conf地址添加到Pig的Classpath上:
% export PIG_CLASSPATH=$HADOOP_INSTALL/conf/
还有一种就是在Pig目录的Conf文件夹(可能需要自己创建)里创建一个pig.properties文件,然后在里面添加集群的Namenode和Jobtracker的信息:
fs.default.name=hdfs://localhost/
mapred.job.tracker=localhost:8021
搞定后,在终端执行下面的命令:
% pig
你就会看到下面的信息:
2009-03-29 21:22:20,489 [main] INFO org.apache.pig.backend.hadoop.executionengine.
HExecutionEngine – Connecting to hadoop file system at: hdfs://localhost/
2009-03-29 21:22:20,760 [main] INFO org.apache.pig.backend.hadoop.executionengine.
HExecutionEngine – Connecting to map-reduce job tracker at: localhost:8021
grunt>
如你所见,Pig报告已经连上了Hadoop的Namenode和Jobtracker,是不是也灰常的简单?
到此,Pig的安装和配置讲解完毕,是不是很Easy,那还等什么,赶紧去试试,玩玩~
hive-0.8.0
hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
resin-pro-4.0.23
最快的java 免费web 服务器 ,此文件在官方获取。解压后的文件夹doc 里面包含了详细的说明文档。
jmock-2.5.1
JMock是一个使用模拟对象机制测试Java代码的开发包。模拟对象(Mock Object)可以取代真实对象的位置,用于测试一些与真实对象进行交互或依赖于真实对象的功能,模拟对象的背后目的就是创建一个轻量级的、可控制的对象来代替测试中需要的真实对象,模拟真实对象的行为和功能,方便我们的测试。JMock就是这种机制的实现,使用JMock我们可以快速创建模拟对象,定义交互过程中的约束条件等,同时JMock也是易扩展的,你可以很方便添加自定义的需求。
mock对象:这个虚拟的对象就是mock对象。mock对象就是真实对象在调试期间的代替品。
mock对象使用范畴:
真实对象具有不可确定的行为,产生不可预测的效果,(如:股票行情,天气预报)
真实对象很难被创建的
真实对象的某些行为很难被触发
真实对象实际上还不存在的(和其他开发小组或者和新的硬件打交道) 等等...
使用mock对象测试的关键步骤:
使用一个接口来描述这个对象
在产品代码中实现这个接口
在测试代码中实现这个接口
在被测试代码中只是通过接口来引用对象,所以它不知道这个引用的对象是真实对象还是mock对象。
apache-ant-1.8.2
ant 的做用就不多做介绍了。此文件包来自apache官网,解压后docs 文件夹下有详细的官方api说明文档
hadoop-0.21.0.tar.gz
Hadoop是一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。简单地说来,Hadoop是一个可以更容易开发和运行处理大规模数据的软件平台。
Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有着高容错性(fault-tolerent)的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高传输率(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求(requirements)这样可以流的形式访问(streaming access)文件系统中的数据。
下面列举hadoop主要的一些特点:
1 扩容能力(Scalable):能可靠地(reliably)存储和处理千兆字节(PB)数据。2 成本低(Economical):可以通过普通机器组成的服务器群来分发以及处理数据。这些服务器群总计可达数千个节点。3 高效率(Efficient):通过分发数据,hadoop可以在数据所在的节点上并行地(parallel)处理它们,这使得处理非常的快速。4 可靠性(Reliable):hadoop能自动地维护数据的多份复制,并且在任务失败后能自动地重新部署(redeploy)计算任务。
skype api 官方文档,示例以及SDK
本文档花了10刀从skype 官方买的,特地放在这里与大家分享。文件中包括所有的官方案例,其中有有C++,java,Python的,大家各取所要,这里就不做过多的使用说明,文件里面有,希望大家使用前仔细查看如何使用。
zlib-1.2.5 2011最新稳定版
安装方法
1. 解压
2. 进到解压目录./configure
3. make
4. sudo make install
nginx-1.0.2稳定版
nginx-1.0.2.tar.gz nginx-1.0.2 稳定版
nginx-1.0.5最新稳定版
nginx最新稳定版
附送官方中文网址http://wiki.nginx.org/Chs
如果安装时遇到错误的解决方法。
1. 缺少pcre
状况:./configure: error: the HTTP rewrite module requires the PCRE library.
解决:yum -y install pcre-devel 安装相应的包
2.缺少zlib
状况: ./configure: error: the HTTP gzip module requires the zlib library.
解决:安装zlib,这个如果使用yum安装有可能会提示系统已经存在,所以一定要手动安装。
resin-3.1.9-src
resin-3.1.9源代码 可以查看resin是怎么具体实现一些j2EE接口的。
resin-pro-3.1.9
resin-pro-3.1.9 resin 比较稳定的一个版本
json-lib-2.4-jdk15
json in java . 在java代码里面使用使用json方式处理数据。 些包里面包括三个包:
1. java开发所需的jar文件夹json-lib-2.4-jdk15.jar
2. 与此版本配套的源代码 json-lib-2.4-jdk15-sources.jar
3. 与此版本配套的帮助文档 json-lib-2.4-jdk15-javadoc.jar
如果要查看文档只需要将json-lib-2.4-jdk15-javadoc.jar解压就可以了
HTMLParser.rar
如果要对HTML进行解析,提取HTML的数据或者修改HTML数据,HtmlParser是一个不错的选择. 自己最近在用觉得解析起来非常方便。文件里面包括三个包。其中有-bin是所有的jar文件,-doc是文档,-src是源码
spring-framework-3.0.5-projects.rar
spring-framework-3.0.5官方例子 针对每个jar 有相关的例子可参考,学spring如果有例子查看的话会易懂很多
spring-framework-3.0.5-dist.rar
spring-framework-3.0.5-jar文件,这里并不包含所有的spring所需的jar ,这些jar文件来自spring官方网站。
spring-framework-3.0.5-src.rar
spring-framework-3.0.5各个jar 的源码
spring-framework-3.0.5.reference.rar
spring-framework-3.0.5.reference官方开发文档 spring-framework-3.0.5官方开发文档 spring-3.0.5官方开发文档
jude5.4.1社区版最轻巧实用UML工具
jude5.4.1免费版 jude5.4.1免注册版
Spring Framework 2.5 Reference中文版
SpringFramework2.5Reference中文版开发文档
struts2 中文chm教程
struts2中文chm教程 struts2中文文档
oracle.chm
oracle中文帮助文档,了解的不需要多讲
prototype.chm
prototype中文帮助文档 了解的不需多讲
slf4j-1.6.1.zip
这个东东不用多说,玩hibernate的时候你懂的
junit4.8.2.zip(junit 整合包包括核心jar,文档,源代码,dep)
非常完成的junit4.8.2 包,里面包括核心jar,文档,源代码,还有dep 。 至于dep是做什么用的暂时还不知道
junit-4.8.2.jar
junit-4.8.2官方jar包 junit的做用就不用多说了吧
mysql5.1 官方中文文档
官方原汁原味中文文档,自己平时查看学习的好搭档
apache-log4j-1.2.16.zip
og4j-1.2.16jar 相关jar与源代码 . 使用myeclipse 关联源代码的时候选择External Floder,然后找到解压的apache-log4j-1.2.16 这个文件夹即可
hibernate_reference3.6 官方中文方档
另有hibernate3.6 完整架包与源代码,由于文件太大无法上传。可以通过QQ 问我要:402279001
Edraw Max v8.4 for Mac中文破解版_2019-05-31亲测可用.zip
此版本为8.4真正的破解版本,虽然现在新版本都已经9.4了,但试了无数次网上的破解方法,除了8.4其它版本都用不了。
如果打开时提醒你文件不能打开,请打开命令行窗口输入指令 sudo spctl --master-disable -->回车 --> 输入你的系统登录密码。 再打开就可以了
RootTools.jar
Android开发者的福音,使用自jar包可以已经root的手机上轻松获取root权限,只需一行代码
RootTools.isRootAvailable() 检查是否具有root权限
RootTools.isAccessGiven() 检查是否具有root权限,如果没有的话将尝试获取root权限