RootTools帮助文档
想通过浏览器查看的话可以直接解压出来
也可以在eclipse中设置RootTools.jar的api文档直接在eclipse中查看
androidannotations-bundle-3.0.1.zip
android 的annotation jar包。
包里面包括可导入的jar文件、javadoc和源码
解压后的目录结构说明
androidannotations-bundle-3.0.1
--androidannotations-3.0.1.jar (查看最后的配置说明)
--androidannotations-api-3.0.1.jar (查看最后的配置说明)
--javadoc
----androidannotations-3.0.1-javadoc.jar (解压到本地即可查看文档)
----androidannotations-api-3.0.1-javadoc.jar(解压到本地即可查看文件)
--sources
----androidannotations-3.0.1-sources.jar (解压到本地或者添加到eclipse 可查看源代码)
----androidannotations-api-3.0.1-sources.jar (解压到本地或者添加到eclipse 可查看源代码)
----------------配置说明-------------------
解包后可以得到两个 jar 文件,一个是 androidannotations-xxx.jar 另一个是 androidannotations-api-xxx.jar 。
把 aa-api-xxx.jar 放到 libs 目录下,但是 aa-xxx.jar不可以放到 libs 目录下,可以另外建一个目录,比如说叫 compile-libs 。
然后打开 Project | Properties …
查看 Java Compiler ,确定 Compiler compliance level 必须是 1.6 。
查看 Java Compiler | Annontation Processing ,选中 Enabled annontation processing (可能需要先选中 Enable project specific settings) 。
查 看 Java Compiler | Annontation Process | Factory Path ,点击 Add JARs (可能需要先选中 Enable project specific settings),把刚才那个 aa-xxx.jar 加进来。
点击确定后将弹出个对话框,提示 annotation 设置变更,要求 rebuild project ,确定即可重建项目。
最后在 Java Build Path 里,选择 Libraries 页,点 Add JARs ,把刚才那个 aa-api-xxx.jar 加进来即可。
配置完成。
hibernate-release-4.3.0.Final
hibernate-release-4.3.0.Final 4.3 的稳定版本
文件包包括documentation, lib, project 三个目录
1. documentation 存放文档
2. lib 存放jar包,jar包目录包括各种功能的
3. project 目录内容比较丰富,有文档,源码,还有案例
VMware-vSphere-SDK-5.0.0-429209
VMware-vSphere-SDK-5.0.0-429209
文件包含
1.详细帮助文档 vSphereManagementSDKReadme.html
2.一些开发安例,包括java与.net的 注意eam,sms-sdk,vsphere-ws目录,各取所需。
Iptables 指南1.1.19
Iptables的详细指南,自己今天刚看了70%,觉得内容非常丰富,而且例子也很详细。此文档比较适合有网络基础的人员,做为Iptables的入门是非常好的选择。指南目标
1.序言
2.准备阶段
3.表和链
4.状态机制
5.规则的保存与恢复
6.规则是如何练成的(这一章讲得很丰富)
7.防火墙配置实例
8.例子简介
附录....
Django-1.3.1.tar.gz
如何安装此框架
解压后进入文件夹执行如下指令
python setup.py install
hbase-0.90.5.tar.gz
HBase – Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。
HBase是Google Bigtable的开源实现,类似Google Bigtable利用GFS作为其文件存储系统,HBase利用Hadoop HDFS作为其文件存储系统;Google运行MapReduce来处理Bigtable中的海量数据,HBase同样利用Hadoop MapReduce来处理HBase中的海量数据;Google Bigtable利用 Chubby作为协同服务,HBase利用Zookeeper作为对应。
pig-0.9.1.tar.gz
Pig是yahoo捐献给apache的一个项目,它是SQL-like语言,是在MapReduce上构建的一种高级查询语言,把一些运算编译进MapReduce模型的Map和Reduce中,并且用户可以定义自己的功能。这是Yahoo开发的又一个克隆Google的项目:Sawzall。
Pig是一个客户端应用程序,就算你要在Hadoop集群上运行Pig,也不需要在集群上装额外的东西。Pig的安装是灰常的简单的:
1、安装JAVA6(在Windows的话要装Cygwin),设置好JAVA_HOME。
% export JAVA_HOME=/home/tom/jdk1.6
2、下载本文件,解压到你的工作空间:
% tar xzf pig-x.y.z.tar.gz
3、为了方便,可以把Pig的程序目录放到命令行路径里,比如:
% export PIG_INSTALL=/home/tom/pig-x.y.z
% export PATH=$PATH:$PIG_INSTALL/bin
注销或重启,你就可以用pig -help来查看使用帮助了,安装够简单吧? :)
Pig有两种模式:
一种是Local mode,也就是本地模式,这种模式下Pig运行在一个JVM里,访问的是本地的文件系统,只适合于小规模数据集,一般是用来体验Pig。而且,它并没有用到Hadoop的Local runner,Pig把查询转换为物理的Plan,然后自己去执行。
在终端下输入
% pig -x local
就可以进入Local模式了。
还有一种就是Hadoop模式了,这种模式下,Pig才真正的把查询转换为相应的MapReduce Jobs,并提交到Hadoop集群去运行,集群可以是真实的分布式也可以是伪分布式。要想Pig能认识Hadoop,你要告诉它Hadoop的版本以及一些关键daemon的信息(也就是Namenode和Jobtracker的Address和Port)。比如,下面这个可以允许Pig连接到任何Hadoop0.20.*上:
% export PIG_HADOOP_VERSION=20
接下来,你还要指明集群的Namenode和Jobtracker的所在。有两种方法,一种就是把你Hadoop的Conf地址添加到Pig的Classpath上:
% export PIG_CLASSPATH=$HADOOP_INSTALL/conf/
还有一种就是在Pig目录的Conf文件夹(可能需要自己创建)里创建一个pig.properties文件,然后在里面添加集群的Namenode和Jobtracker的信息:
fs.default.name=hdfs://localhost/
mapred.job.tracker=localhost:8021
搞定后,在终端执行下面的命令:
% pig
你就会看到下面的信息:
2009-03-29 21:22:20,489 [main] INFO org.apache.pig.backend.hadoop.executionengine.
HExecutionEngine – Connecting to hadoop file system at: hdfs://localhost/
2009-03-29 21:22:20,760 [main] INFO org.apache.pig.backend.hadoop.executionengine.
HExecutionEngine – Connecting to map-reduce job tracker at: localhost:8021
grunt>
如你所见,Pig报告已经连上了Hadoop的Namenode和Jobtracker,是不是也灰常的简单?
到此,Pig的安装和配置讲解完毕,是不是很Easy,那还等什么,赶紧去试试,玩玩~
hive-0.8.0
hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
resin-pro-4.0.23
最快的java 免费web 服务器 ,此文件在官方获取。解压后的文件夹doc 里面包含了详细的说明文档。
jmock-2.5.1
JMock是一个使用模拟对象机制测试Java代码的开发包。模拟对象(Mock Object)可以取代真实对象的位置,用于测试一些与真实对象进行交互或依赖于真实对象的功能,模拟对象的背后目的就是创建一个轻量级的、可控制的对象来代替测试中需要的真实对象,模拟真实对象的行为和功能,方便我们的测试。JMock就是这种机制的实现,使用JMock我们可以快速创建模拟对象,定义交互过程中的约束条件等,同时JMock也是易扩展的,你可以很方便添加自定义的需求。
mock对象:这个虚拟的对象就是mock对象。mock对象就是真实对象在调试期间的代替品。
mock对象使用范畴:
真实对象具有不可确定的行为,产生不可预测的效果,(如:股票行情,天气预报)
真实对象很难被创建的
真实对象的某些行为很难被触发
真实对象实际上还不存在的(和其他开发小组或者和新的硬件打交道) 等等...
使用mock对象测试的关键步骤:
使用一个接口来描述这个对象
在产品代码中实现这个接口
在测试代码中实现这个接口
在被测试代码中只是通过接口来引用对象,所以它不知道这个引用的对象是真实对象还是mock对象。
apache-ant-1.8.2
ant 的做用就不多做介绍了。此文件包来自apache官网,解压后docs 文件夹下有详细的官方api说明文档
hadoop-0.21.0.tar.gz
Hadoop是一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。简单地说来,Hadoop是一个可以更容易开发和运行处理大规模数据的软件平台。
Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有着高容错性(fault-tolerent)的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高传输率(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求(requirements)这样可以流的形式访问(streaming access)文件系统中的数据。
下面列举hadoop主要的一些特点:
1 扩容能力(Scalable):能可靠地(reliably)存储和处理千兆字节(PB)数据。2 成本低(Economical):可以通过普通机器组成的服务器群来分发以及处理数据。这些服务器群总计可达数千个节点。3 高效率(Efficient):通过分发数据,hadoop可以在数据所在的节点上并行地(parallel)处理它们,这使得处理非常的快速。4 可靠性(Reliable):hadoop能自动地维护数据的多份复制,并且在任务失败后能自动地重新部署(redeploy)计算任务。
skype api 官方文档,示例以及SDK
本文档花了10刀从skype 官方买的,特地放在这里与大家分享。文件中包括所有的官方案例,其中有有C++,java,Python的,大家各取所要,这里就不做过多的使用说明,文件里面有,希望大家使用前仔细查看如何使用。
zlib-1.2.5 2011最新稳定版
安装方法
1. 解压
2. 进到解压目录./configure
3. make
4. sudo make install
nginx-1.0.2稳定版
nginx-1.0.2.tar.gz nginx-1.0.2 稳定版
nginx-1.0.5最新稳定版
nginx最新稳定版
附送官方中文网址http://wiki.nginx.org/Chs
如果安装时遇到错误的解决方法。
1. 缺少pcre
状况:./configure: error: the HTTP rewrite module requires the PCRE library.
解决:yum -y install pcre-devel 安装相应的包
2.缺少zlib
状况: ./configure: error: the HTTP gzip module requires the zlib library.
解决:安装zlib,这个如果使用yum安装有可能会提示系统已经存在,所以一定要手动安装。
resin-3.1.9-src
resin-3.1.9源代码 可以查看resin是怎么具体实现一些j2EE接口的。
resin-pro-3.1.9
resin-pro-3.1.9 resin 比较稳定的一个版本
json-lib-2.4-jdk15
json in java . 在java代码里面使用使用json方式处理数据。 些包里面包括三个包:
1. java开发所需的jar文件夹json-lib-2.4-jdk15.jar
2. 与此版本配套的源代码 json-lib-2.4-jdk15-sources.jar
3. 与此版本配套的帮助文档 json-lib-2.4-jdk15-javadoc.jar
如果要查看文档只需要将json-lib-2.4-jdk15-javadoc.jar解压就可以了
HTMLParser.rar
如果要对HTML进行解析,提取HTML的数据或者修改HTML数据,HtmlParser是一个不错的选择. 自己最近在用觉得解析起来非常方便。文件里面包括三个包。其中有-bin是所有的jar文件,-doc是文档,-src是源码
spring-framework-3.0.5-projects.rar
spring-framework-3.0.5官方例子 针对每个jar 有相关的例子可参考,学spring如果有例子查看的话会易懂很多
spring-framework-3.0.5-dist.rar
spring-framework-3.0.5-jar文件,这里并不包含所有的spring所需的jar ,这些jar文件来自spring官方网站。
spring-framework-3.0.5-src.rar
spring-framework-3.0.5各个jar 的源码
spring-framework-3.0.5.reference.rar
spring-framework-3.0.5.reference官方开发文档 spring-framework-3.0.5官方开发文档 spring-3.0.5官方开发文档
jude5.4.1社区版最轻巧实用UML工具
jude5.4.1免费版 jude5.4.1免注册版
Spring Framework 2.5 Reference中文版
SpringFramework2.5Reference中文版开发文档
struts2 中文chm教程
struts2中文chm教程 struts2中文文档
spring3.x权威开发指南
spring3.x权威开发指南 罗时飞著
主体内容如下
1. 借助Spring3.0实施Java EE6
2. 控制反转容器。
3. 面向切面编程
4. DAO层集成支持。
5. Hibernate,JPA集成
6. O/X Mapping集成支持。
7. 集成JavaEE其他容器服务
8. Web层集成支持
9. 高级Spring3.0 特性
10. 附录A,安装及使用SpringSource Tool Suite
11. 附录B,Spring3.0内置的命名空间
12. 附录C, Spring Web Services
13. 附录D,Spring Web Flow
14. 附录E,Spring BlazeDS Integration
15,附录F, Spring Roo
16,附录G,相关资料
文章还提供示例源码下载的方式
oracle.chm
oracle中文帮助文档,了解的不需要多讲
prototype.chm
prototype中文帮助文档 了解的不需多讲
slf4j-1.6.1.zip
这个东东不用多说,玩hibernate的时候你懂的
junit4.8.2.zip(junit 整合包包括核心jar,文档,源代码,dep)
非常完成的junit4.8.2 包,里面包括核心jar,文档,源代码,还有dep 。 至于dep是做什么用的暂时还不知道
junit-4.8.2.jar
junit-4.8.2官方jar包 junit的做用就不用多说了吧
mysql5.1 官方中文文档
官方原汁原味中文文档,自己平时查看学习的好搭档
apache-log4j-1.2.16.zip
og4j-1.2.16jar 相关jar与源代码 . 使用myeclipse 关联源代码的时候选择External Floder,然后找到解压的apache-log4j-1.2.16 这个文件夹即可
Edraw Max v8.4 for Mac中文破解版_2019-05-31亲测可用.zip
此版本为8.4真正的破解版本,虽然现在新版本都已经9.4了,但试了无数次网上的破解方法,除了8.4其它版本都用不了。
如果打开时提醒你文件不能打开,请打开命令行窗口输入指令 sudo spctl --master-disable -->回车 --> 输入你的系统登录密码。 再打开就可以了
RootTools.jar
Android开发者的福音,使用自jar包可以已经root的手机上轻松获取root权限,只需一行代码
RootTools.isRootAvailable() 检查是否具有root权限
RootTools.isAccessGiven() 检查是否具有root权限,如果没有的话将尝试获取root权限