- 博客(0)
- 资源 (10)
- 收藏
- 关注
高级Bash脚本编程指南_手册CHM版
shell几乎是你在UNIX工作平台上最亲密的朋友,因此,学好shell,是学习Linux/UNIX的的开始,并且它会始终伴随你的工作学习。
shell是如此地重要,但令人惊奇的是,介绍shell的书没有真正令人满意的。所幸的是,我看到了这本被人称为abs的书,这本书介绍了bash大量的细节和广阔的范围,我遇到的绝大部分的技术问题--无论是我忘记的或是以前没有发现的--都可以在这本书里找到答案。这本使用大量的例子详细地介绍了Bash的语法,各种技巧,调试等等的技术,以循序渐进的学习方式,让你了解Bash的所有特性,在书中还有许多练习可以引导你思考,以得到更深入的知识。无论你是新手还是老手,或是使用其他语言的程序员,我能肯定你能在此书用受益。而本书除了介绍BASH的知识之外,也有许多有用的关于Linux/UNIX的知识和其他shell的介绍。
2009-07-28
GGhost一键恢复 最新测试版
GGhost一键恢复是基于ghost(v11)和grub4dos的免费系统备份和还原工具,具有良好的兼容性、易用性与丰富的自定义功能。
可运行于微软主流操作系统Windows 2000、xp、2003、2008、vista和Windows 7。
2009-07-28
LINUX SHELL SED 手册
sed 是 UNIX 编辑器 ed 的直系后代。由于在交互式和非交互式操作之间的差异,在 ed 和 sed 之间已经有了可观的
变化;甚至 ed 的惯常用户都会经常感到惊讶 ( 并可能气愤 ) ,如果他们没有阅读本文档的章节 2 和 3 ,就草率的使用 sed
的话。在两个编辑器之间最显著的家族性共同之处,在于他们所识别的模式 ( ‘ 正则表达式 ’ ) 的种类;匹配模式的代码可 以
从 ed 的代码几乎原封不动的复制过来,在章节 2 中对正则表达式的描述就是从 UNIX Programmer ’ s Manual[1] 几乎 原
封不动的 复制过来的。 ( 代码和描述都是 Dennis M. Ritchie 写的 ) 。
一般 sed sed sed 最常用在编辑那些需要不断重复某些编辑动作的档上 , 例如将文件中的某个字符串替换成另一个字符串等
等。这些相较于一般 UNIX 编辑器 ( 交谈式的 , 如 vi 、 emacs) 用手动的方式修改檔 , sed sed sed 用起来较省力。
SED 手册 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 何时使用 sed . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 何处获得 sed . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 sed 能做那些编辑动作 . . . . . . . . . . .
1.4 sed 如何工作 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 使用 sed . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1. 执行命令列上的编辑指令 . . . . . . .
2.2 sed 的编辑指令 . . . . . . . . . . . . . . . . . . . . . . .
2.3 执行档案内的编辑指令 . . . . . . . . . .
2.4 执行多个文件檔的编辑 . . . . . . . . . .
2.5. 执行输出的控制 . . . . . . . . . . . . . . . . . . . . . . .
3. 范例 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1 替换文件中的数据 . . . . . . . . . . . . . . . . . .
3.2 搬动文件中的数据 . . . . . . . . . . . . . . . . . .
3.3 删除文件中的数据 . . . . . . . . . . . . . . . . . .
3.4 搜寻文件中的数据 . . . . . . . . . . . . . . . . . .
4 介绍函数参数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2009-05-21
linux 文本处理 awk 手册
awk 是一种程序语言. 它具有一般程序语言常见的功能.
因awk语言具有某些特点, 如 : 使用直译器(Interpreter)不需先行编译; 变量无类型之分(Typeless), 可使用文字当数组的下标(Associative Array)...等特色. 因此, 使用awk撰写程序比起使用其它语言更简洁便利且节省时间. awk还具有一些内建功能, 使得awk擅于处理具数据行(Record), 字段(Field)型态的资料; 此外, awk内建有pipe的功能, 可将处理中的数据传送给外部的 Shell命令加以处理, 再将Shell命令处理后的数据传回awk程序, 这个特点也使得awk程序很容易使用系统资源.
2009-05-21
大型网站架构演变和知识体系
介绍大型网站架构演变的文章,例如LiveJournal的、ebay的,都是非常值得参考的,不过感觉他们讲的更多的是每次演变的结果,而没有很详细的讲为什么需要做这样的演变,再加上近来感觉有不少同学都很难明白为什么一个网站需要那么复杂的技术,于是有了写这篇文章的想法,在这篇文章中 将阐述一个普通的网站发展成大型网站过程中的一种较为典型的架构演变历程和所需掌握的知识体系,希望能给想从事互联网行业的同学一点初步的概念,:),文中的不对之处也请各位多给点建议,让本文真正起到抛砖引玉的效果
第一步:物理分离webserver和数据库
第二步:增加页面缓存
第三步:增加页面片段缓存
第四步:数据缓存
第五步:增加webserver
第六步:分库
第七步:分表、DAL和分布式缓存
第八步:增加更多的webserver
第九步:数据读写分离和廉价存储方案
第十步:进入大型分布式应用时代和廉价服务器群梦想时代
2008-12-25
LINUX iptable应用手册
防火墙(Firewall)、网址转换(NAT)、数据包(package)记录、流量统计,这些功能全是Linux核心里的Netfilter子系统所提供的,而iptables是控管Netfilter的唯一工具程序。iptables的接口很可能是Linux有史以来最精致的,它使得Linux成为最有弹性的网络过滤系统。iptables将许多组繁复的规则集成组织成容易控管的形式,以便管理员可以进行分组测试,或关闭、启动某组规则集。
iptable能够为Unix、Linux和BSD个人工作站创建一个防火墙,也可以为一个子网创建防火墙以保护其它的系统平台。iptable只读取数据包头,不会给信息流增加负担,也无需进行验证。要想获得更加好的的安全性,可以将其和一个代理服务器(比如sqiud)相结合。
每当有人紧急要求你开放或关闭特定通讯端口(为了让某种重要的网路通讯能通过防火墙,或是阻挡某种攻击),或是请你在防火墙设置某种功能,本文将能协助你尽速解决问题。本文以直接的语法和务实的范例,帮助你记忆iptables的各种用法,并提供一些适当的意见,让你的防火墙尽可能保持安全。我们将iptables的选项分成「防火墙」、「流量统计」、「NAT」三类,以合适务实查询的方式编排,协助管理员在最短时间内找到相关选项的语法和说明。
2008-11-25
聚类分析-文本自动聚类技术
聚类分析就是按照一定的规律和要求对事物
进行区分和分类的过程,在这一过程中没
有任何关于类分的先验知识,没有指导,
仅靠事物间的相似性作为类属划分的准则
2008-10-16
中文人名自动识别的一种有效方法
中文信息计算机自动处理的研究已有几十年的
历史 , 但至今仍有许多技术难题没有得到很好解
决 , 中文姓名自动识别问题就是其中的一个。由于
它与中文文本的自动分词一样 , 属于中文信息处理
的基础研究领域 , 因而它的研究成果直接影响到中
文信息的深层次研究。汉语的自身特点使得中文信
息自动处理大多是先对要处理的文本进行自动分词
(加入显式分割符) , 然后再在分词的基础上进行词
法、语法、语义等方面的深入分析。而在分词阶
段 , 文本中的人名、地名以及其它专有名词和生词
大多被切分成单字词 , 在这种情形下如不能很好地
解决汉语文本中专有名词生词的识别问题 , 将给其
后的汉语文本的深入分析带来难以逾越的障碍。中
文姓名的自动识别问题就是在这种背景下提出来
的。对这一问题的研究目前采用的技术中主要利用
以下几方面的信息: 姓名用字的频率信息、上下文
信息[1 ,2 ]
、语料库统计信息[2 ]
、词性信息等[3 ]
。本
文的方法是 , 首先对中文人名的构成、姓名用字的
规律及上下文文本信息特征进行充分分析 , 在此基
础上建立起两组规则集 , 将其作用于测试文本 , 获
得初步识别结果 , 再利用大规模语料库的统计信息
对初步识别结果进行概率筛选 , 设定合适的阈值 ,
输出最终识别结果。经对 50 多万字的开放语料测
试 , 系统自动识别出 1781 个中文人名 , 在不同的
筛选阈值下获得 90 %以上的识别准确率 , 而召回
率高于 91 %。
2008-10-16
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人