搜索引擎学习资源收集

一、搜索引擎技术/动态资源

<一>、综合类

1、卢亮的搜索引擎研究&<60;&<60;&<60;&<60;[URL=http://www.wespoke.com/][/URL]http://www.wespoke.com/

卢亮属于搜索引擎开发上的专家,以前开发过一个搜索引擎"博索"([URL=http://booso.com/][/URL]http://booso.com/),好像现在已经停止开发了,目前他服务于博客网。在他的这个blog上可以了解许多搜索引擎开发的技术和经验,值得持续关注。

2、laolu/'blog&<60;&<60;

有不少来自国外的关于搜索引擎方面的资料,偏重于资料和数字

3、哈斯日志&<60;[URL=http://www.loverty.org/][/URL]http://www.loverty.org/

在这里可以看到国内外几大搜索引擎的最新动态,值得关注搜索发展形势的人多看看

4、北京奕天锐新科技有限公司&<60;&<60;&<60;[URL=http://www.21cnbj.com/][/URL]http://www.21cnbj.com/

搜索引擎、SEO、SEM等行业新闻动态

5、中文搜索引擎指南网&<60;&<60;&<60;&<60;&<60;[URL=http://www.sowang.com/][/URL]http://www.sowang.com/

搜索引擎最新动态,各种搜索技巧、方法

6、中文全文检索网&<60;&<60;&<60;&<60;&<60;[URL=http://www.fullsearcher.com/][/URL]http://www.fullsearcher.com/

FullSearcher.Com是有两个对搜索爱好的年轻人创办,我们的目标是让中文互联网全面进入搜索时代,让搜索无处不在。通过搜索改变人们的生活。
&<60;&<60;FullSearcher提供全文检索的相关知识、垂直搜索引擎知识、搜索的相关新闻等搜索相关内容。


<二>、Google动态

Google官方博客:Google&<60;黑板报&<60;&<60;&<60;[URL=http://googlechinablog.com/][/URL]http://googlechinablog.com/

&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;Google&<60;中国的博客网志,走近我们的产品、技术和文化

按此在新窗口浏览图片&<60;

1、Gfans&<60;&<60;&<60;[URL=http://gfans.org/][/URL]http://gfans.org/

&<60;&<60;&<60;&<60;一群Google的粉丝

这里没有&<60;PageRank,没有&<60;HillTop,没有&<60;SEO。如果&<60;Google&<60;是龙井,我希望这里便是虎跑,去化开那馥郁如兰之香。观于沧海者难为水,搜于&<60;Google&<60;者难为言,Google&<60;已不只是文化,他是我的信仰。

本站文章约法三章:&<60;


不讨论&<60;SEO&<60;及相关;&<60;

不得无聊转载;&<60;

严禁侮辱百度。
2、幻灭的麦克风&<60;&<60;&<60;[URL=http://www.kenwong.cn/][/URL]www.kenwong.cn

&<60;&<60;Google天地

3、google&<60;观察&<60;[URL=http://blog.donews.com/googleview/][/URL]http://blog.donews.com/googleview/

<二>、其他搜索引擎动态

1、雅虎搜索日志&<60;&<60;[URL=http://ysearchblog.cn/][/URL]http://ysearchblog.cn/

记录雅虎搜索引擎的动态、产品、技术等

按此在新窗口浏览图片


二、搜索引擎代码资源


一>、搜索引擎/网络蜘蛛程序代码

国外开发的相关程序

1、Nutch

按此在新窗口浏览图片

官方网站&<60;[URL=http://www.nutch.org/][/URL]http://www.nutch.org/
中文站点&<60;[URL=http://www.nutchchina.com/][/URL]http://www.nutchchina.com/
最新版本:Nutch&<60;0.7.2&<60;Released

Nutch&<60;是一个开源Java&<60;实现的搜索引擎。它提供了我们运行自己的搜索引擎所需的全部工具,可以建立自己内部网的搜索引擎,也可以针对整个网络建立搜索引擎。自由(Free)而免费(Free)。

2、Lucene

[B][/B]&<60;
按此在新窗口浏览图片

官方网站&<60;&<60;[URL=http://lucene.apache.org/][/URL]http://lucene.apache.org
中文站点&<60;&<60;[URL=http://www.lucene.com.cn/][/URL]http://www.lucene.com.cn/

Lucene&<60;是apache软件基金会&<60;jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具包[用Java写的],即它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎,部分文本分析引擎(英文与德文两种西方语言)。Lucene的目的是为软件开发人员提供一个简单易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎。

3、Larbin:&<60;[URL=http://larbin.sourceforge.net/index-eng.html][/URL]http://larbin.sourceforge.net/index-eng.html

larbin是一种开源的网络爬虫/网络蜘蛛,由法国的年轻人&<60;Sébastien&<60;Ailleret独立开发。larbin目的是能够跟踪页面的url进行扩展的抓取,最后为搜索引擎提供广泛的数据来源。

国内开发的相关程序

1、SQLET&<60;-&<60;开放源码的中文搜索引擎&<60;&<60;&<60;

官方网站&<60;[URL=http://www.sqlet.com/][/URL]http://www.sqlet.com/

SQLET,是Search&<60;&&<60;Query&<60;&Link,&<60;加后缀&<60;let,表示小的,小型的意思.打算建立一个能搜上亿张网页的基于主题功能的中文搜索引擎.支持3种索引方式:MySql_table_Index,&<60;Lucene_Index,SQLET_Index.网页抓取可以保存在文件系统及数据库里。自带WebServer.

2、菲度垂直搜索引擎代码&<60;

菲度[URL=http://www.faydu.net/][/URL]http://www.faydu.net&<60;为一个垂直在线搜索的演示版,主要对国内一些购物站点进行搜索整理,

现在开源测试版本的代码,供大家讨论。下载说明:

1》因为本程序是在服务器上运行,是在多个处理器下运行的,个人电脑上请控制线程数量

2》包含一个data&<60;的数据库&<60;还原到sql&<60;server&<60;

3》收集完毕默认在bin目录有licene生成的反排的索引文件&<60;

4》下载地址:[URL=http://www.faydu.net/download/code.rar][/URL]http://www.faydu.net/download/code.rar

开放日期:2006-4-18&<60;&<60;&<60;来源:http://blog.csdn.net/faydu/archive/2006/04/18/667997.aspx
语言:VB.net(c#)

二>、中文分词程序代码

1、计算所汉语词法分析系统&<60;ICTCLAS

中国科学院计算技术研究所在多年研究基础上,耗时一年研制出了基于多层隐马模型的汉语词法分析系统&<60;ICTCLAS (Institute&<60;of&<60;Computing&<60;Technology,&<60;Chinese&<60;Lexical&<60;Analysis&<60;System),该系统的功能有:中文分词;词性标注;未登录词识别。分词正确率高达97.58%(最近的973专家组评测结果),基于角色标注的未登录词识别能取得高于90% 召回率,其中中国人名的识别召回率接近98%,分词和词性标注处理速度为31.5KB/s。ICTCLAS&<60;和计算所其他14项免费发布的成果被中外媒体广泛地报道,国内很多免费的中文分词模块都或多或少的参考过ICTCLAS的代码。

下载页面:[URL=http://www.nlp.org.cn/project/project.php?proj_id=6][/URL]http://www.nlp.org.cn/project/project.php?proj_id=6

由于&<60;ICTCLAS&<60;是由&<60;C&<60;语言写成的,现在主流的开发工具用起来不太方便,于是有一些热心的程序员把&<60;ICTCLAS&<60;改为&<60;Java&<60;和&<60;C#&<60;等其他语言。

(1)fenci,Java&<60;的&<60;ICTCLAS,下载页面:[URL=http://www.xml.org.cn/printpage.asp?BoardID=2&id=11502][/URL]http://www.xml.org.cn/printpage.asp?BoardID=2&id=11502

(2)AutoSplit,另一个&<60;Java&<60;的&<60;ICTCLAS,已经找不到下载页面,点击本地下载

(3)小叮咚中文分词,曾经有下载页面,现在找不到了。据作者介绍,从&<60;ICTCLAS&<60;中改进,有&<60;Java,C#&<60;和&<60;C++&<60;三个版本,介绍页面:[URL=http://www.donews.net/accesine][/URL]http://www.donews.net/accesine

2、海量智能分词研究版

海量智能计算技术研究中心为了使中文信息处理领域的研究者们能够共同分享海量智能中心的研究成果,共同提高中文信息处理水平,特此发布《海量智能分词研究版》,供专家、学者和爱好者进行研究。

下载页面:[URL=http://www.hylanda.com/cgi-bin/download/download.asp?id=8][/URL]http://www.hylanda.com/cgi-bin/download/download.asp?id=8


3、其他

(1)CSW中文智能分词组件

运行环境:Windows&<60;NT、2000、XP&<60;或更高,可以在&<60;ASP,VB&<60;等微软的开发语言中调用。

简介:&<60;CSW中文智能分词DLL组件,可将一段文本自动的按常规汉语词组进行拆分,并以指定方式进行分隔,且可对其拆分后的词组进行语义、词频标注。其广范应用于各行各业的信息资料检索、分析。

下载页面:[URL=http://www.vgoogle.net/][/URL]http://www.vgoogle.net/

(2)&<60;C#&<60;写的中文分词组件

据作者介绍,一个&<60;DLL&<60;文件,可以做中英文分词组件。完全C#托管代码编写,独立开发。

下载页面:[URL=http://www.rainsts.net/article.asp?id=48][/URL]http://www.rainsts.net/article.asp?id=48

三>、开源spider一览

spider是搜索引擎的必须模块.spider数据的结果直接影响到搜索引擎的评价指标.

第一个spider程序由MIT的Matthew&<60;K&<60;Gray操刀该程序的目的是为了统计互联网中主机的数目

Spier定义(关于Spider的定义,有广义和狭义两种).

狭义:利用标准的http协议根据超链和web文档检索的方法遍历万维网信息空间的软件程序.&<60;
广义:所有能利用http协议检索web文档的软件都称之为spider.&<60;
其中Protocol&<60;Gives&<60;Sites&<60;Way&<60;To&<60;Keep&<60;Out&<60;The&<60;/'Bots&<60;Jeremy&<60;Carl,&<60;Web&<60;Week, &<60;Volume&<60;1,&<60;Issue&<60;7,&<60;November&<60;1995&<60;是和spider息息相关的协议,大家有兴趣参考robotstxt.org.

Heritrix&<60;

Heritrix&<60;is&<60;the&<60;Internet&<60;Archive/'s&<60;open-source,&<60;extensible,&<60;web-scale,&<60;archival-quality&<60;web&<60;crawler&<60;project.

Heritrix&<60;(sometimes&<60;spelled&<60;heretrix,&<60;or&<60;misspelled&<60;or&<60;missaid&<60;as&<60;heratrix/heritix/&<60;heretix/heratix)&<60;is&<60;an&<60;archaic&<60;word&<60;for&<60;heiress&<60;(woman&<60;who&<60;inherits).&<60;Since&<60;our&<60;crawler&<60;seeks&<60;to&<60;collect&<60;and&<60;preserve&<60;the&<60;digital&<60;artifacts&<60;of&<60;our&<60;culture&<60;for&<60;the&<60;benefit&<60;of&<60;future&<60;researchers&<60;and&<60;generations,&<60;this&<60;name&<60;seemed&<60;apt.

语言:JAVA,&<60;(下载地址)

WebLech&<60;URL&<60;Spider&<60;
&<60;
WebLech&<60;is&<60;a&<60;fully&<60;featured&<60;web&<60;site&<60;download/mirror&<60;tool&<60;in&<60;Java,&<60;which&<60;supports&<60;many&<60;features&<60;required&<60;to&<60;download&<60;websites&<60;and&<60;emulate&<60;standard&<60;web-browser&<60;behaviour&<60;as&<60;much&<60;as&<60;possible.&<60;WebLech&<60;is&<60;multithreaded&<60;and&<60;comes&<60;with&<60;a&<60;GUI&<60;console.&<60;

语言:JAVA,&<60;(下载地址)

JSpider

A&<60;Java&<60;implementation&<60;of&<60;a&<60;flexible&<60;and&<60;extensible&<60;web&<60;spider&<60;engine.&<60;Optional&<60;modules&<60;allow&<60;functionality&<60;to&<60;be&<60;added&<60;(searching&<60;dead&<60;links,&<60;testing&<60;the&<60;performance&<60;and&<60;scalability&<60;of&<60;a&<60;site,&<60;creating&<60;a&<60;sitemap,&<60;etc&<60;..&<60;


语言:JAVA,&<60;(下载地址)

WebSPHINX&<60;

WebSPHINX&<60;is&<60;a&<60;web&<60;crawler&<60;(robot,&<60;spider)&<60;Java&<60;class&<60;library,&<60;originally&<60;developed&<60;by&<60;Robert&<60;Miller&<60;of&<60;Carnegie&<60;Mellon&<60;University.&<60;Multithreaded,&<60;tollerant&<60;HTML&<60;parsing,&<60;URL&<60;filtering&<60;and&<60;page&<60;classification,&<60;pattern&<60;matching,&<60;mirroring,&<60;and&<60;more.&<60;


语言:JAVA,&<60;(下载地址)

PySolitaire&<60;

PySolitaire&<60;is&<60;a&<60;fork&<60;of&<60;PySol&<60;Solitaire&<60;that&<60;runs&<60;correctly&<60;on&<60;Windows&<60;and&<60;has&<60;a&<60;nice&<60;clean&<60;installer.&<60;PySolitaire&<60;(Python&<60;Solitaire)&<60;is&<60;a&<60;collection&<60;of&<60;more&<60;than&<60;300&<60;solitaire&<60;and&<60;Mahjongg&<60;games&<60;like&<60;Klondike&<60;and&<60;Spider.&<60;


语言:Python&<60;,&<60;(下载地址)

The&<60;Spider&<60;Web&<60;Network&<60;Xoops&<60;Mod&<60;Team&<60;&<60;&<60;&<60;&<60;

The&<60;Spider&<60;Web&<60;Network&<60;Xoops&<60;Module&<60;Team&<60;provides&<60;modules&<60;for&<60;the&<60;Xoops&<60;community&<60;written&<60;in&<60;the&<60;PHP&<60;coding&<60;language.&<60;We&<60;develop&<60;mods&<60;and&<60;or&<60;take&<60;existing&<60;php&<60;script&<60;and&<60;port&<60;it&<60;into&<60;the&<60;Xoops&<60;format.&<60;High&<60;quality&<60;mods&<60;is&<60;our&<60;goal.&<60;


语言:php&<60;,&<60;(下载地址)

Fetchgals&<60;

A&<60;multi-threaded&<60;web&<60;spider&<60;that&<60;finds&<60;free&<60;porn&<60;thumbnail&<60;galleries&<60;by&<60;visiting&<60;a&<60;list&<60;of&<60;known&<60;TGPs&<60;(Thumbnail&<60;Gallery&<60;Posts).&<60;It&<60;optionally&<60;downloads&<60;the&<60;located&<60;pictures&<60;and&<60;movies.&<60;TGP&<60;list&<60;is&<60;included.&<60;Public&<60;domain&<60;perl&<60;script&<60;running&<60;on&<60;Linux.&<60;

 

语言:perl&<60;,&<60;(下载地址)


Where&<60;Spider&<60;

 

The&<60;purpose&<60;of&<60;the&<60;Where&<60;Spider&<60;software&<60;is&<60;to&<60;provide&<60;a&<60;database&<60;system&<60;for&<60;storing&<60;URL&<60;addresses.&<60;The&<60;software&<60;is&<60;used&<60;for&<60;both&<60;ripping&<60;links&<60;and&<60;browsing&<60;them&<60;offline.&<60;The&<60;software&<60;uses&<60;a&<60;pure&<60;XML&<60;database&<60;which&<60;is&<60;easy&<60;to&<60;export&<60;and&<60;import.&<60;

语言:XML&<60;,&<60;(下载地址)


[B][/B]Sperowider

Sperowider&<60;Website&<60;Archiving&<60;Suite&<60;is&<60;a&<60;set&<60;of&<60;Java&<60;applications,&<60;the&<60;primary&<60;purpose&<60;of&<60;which&<60;is&<60;to&<60;spider&<60;dynamic&<60;websites,&<60;and&<60;to&<60;create&<60;static&<60;distributable&<60;archives&<60;with&<60;a&<60;full&<60;text&<60;search&<60;index&<60;usable&<60;by&<60;an&<60;associated&<60;Java&<60;applet.&<60;

语言:Java&<60;,&<60;(下载地址)

SpiderPy

SpiderPy&<60;is&<60;a&<60;web&<60;crawling&<60;spider&<60;program&<60;written&<60;in&<60;Python&<60;that&<60;allows&<60;users&<60;to&<60;collect&<60;files&<60;and&<60;search&<60;web&<60;sites&<60;through&<60;a&<60;configurable&<60;interface.&<60;

语言:Python&<60;,&<60;(下载地址)


[B][/B]Spidered&<60;Data&<60;Retrieval

Spider&<60;is&<60;a&<60;complete&<60;standalone&<60;Java&<60;application&<60;designed&<60;to&<60;easily&<60;integrate&<60;varied&<60;datasources.&<60;*&<60;XML&<60;driven&<60;framework&<60;*&<60;Scheduled&<60;pulling&<60;*&<60;Highly&<60;extensible&<60;*&<60;Provides&<60;hooks&<60;for&<60;custom&<60;post-processing&<60;and&<60;configuration&<60;

语言:Java&<60;,&<60;(下载地址)


[B][/B]webloupe

WebLoupe&<60;is&<60;a&<60;java-based&<60;tool&<60;for&<60;analysis,&<60;interactive&<60;visualization&<60;(sitemap),&<60;and&<60;exploration&<60;of&<60;the&<60;information&<60;architecture&<60;and&<60;specific&<60;properties&<60;of&<60;local&<60;or&<60;publicly&<60;accessible&<60;websites.&<60;Based&<60;on&<60;web&<60;spider&<60;(or&<60;web&<60;crawler)&<60;technology.&<60;

语言:java&<60;,&<60;(下载地址)

ASpider

Robust&<60;featureful&<60;multi-threaded&<60;CLI&<60;web&<60;spider&<60;using&<60;apache&<60;commons&<60;httpclient&<60;v3.0&<60;written&<60;in&<60;java.&<60;ASpider&<60;downloads&<60;any&<60;files&<60;matching&<60;your&<60;given&<60;mime-types&<60;from&<60;a&<60;website.&<60;Tries&<60;to&<60;reg.exp.&<60;match&<60;emails&<60;by&<60;default,&<60;logging&<60;all&<60;results&<60;using&<60;log4j.&<60;

语言:java&<60;,&<60;(下载地址)

larbin&<60;

Larbin&<60;is&<60;an&<60;HTTP&<60;Web&<60;crawler&<60;with&<60;an&<60;easy&<60;interface&<60;that&<60;runs&<60;under&<60;Linux.&<60;It&<60;can&<60;fetch&<60;more&<60;than&<60;5&<60;million&<60;pages&<60;a&<60;day&<60;on&<60;a&<60;standard&<60;PC&<60;(with&<60;a&<60;good&<60;network).&<60;

语言:C++,&<60;(下载地址)


三、SEO相关资源

&<60;&<60;1、域名信息查询

 &<60;&<60;&<60;★&<60;查询国际顶级域名的信息(.aero,&<60;.arpa,&<60;.biz,&<60;.com,&<60;.coop,&<60;.edu,&<60;.info,&<60;.int, &<60;.museum,&<60;.net,&<60;.org),可以通过ICANN授权的域名注册商来查询,也可以直接到INTERNIC网站查询,网址是

  [URL=http://www.internic.com/whois.html][/URL]http://www.internic.com/whois.html

&<60;&<60;&<60;&<60;&<60;&<60;&<60;[URL=http://www.iwhois.com/][/URL]http://www.iwhois.com/

  ★&<60;查询全球各个地理顶级域名是否已经被注册可以到下列网址查询(其中也包括国内域名.cn):

  [URL=http://www.uwhois.com/cgi/domains.cgi?User=NoAds][/URL]http://www.uwhois.com/cgi/domains.cgi?User=NoAds

  ★&<60;查询国内域名的注册情况,

  [URL=http://ewhois.cnnic.net.cn/index.jsp][/URL]http://ewhois.cnnic.net.cn/index.jsp&<60;

&<60;&<60;&<60;&<60;&<60;&<60;&<60;★&<60;万网的域名注册信息查询

&<60;&<60;&<60;&<60;&<60;&<60;&<60;&<60;[URL=http://www.net.cn/][/URL]http://www.net.cn/

&<60;&<60;&<60;&<60;&<60;&<60;&<60;★&<60;IP地址查询、域名注册信息Whois查询

&<60;&<60;&<60;&<60;&<60;&<60;&<60;[URL=http://ip.zahuopu.com/][/URL]http://ip.zahuopu.com/


&<60;&<60;2、alexa相关与搜索排行榜

&<60;&<60;&<60;&<60;★&<60;中文排名500强

&<60;&<60;&<60;&<60;&<60;[URL=http://www.alexa.com/site/ds/top_sites?ts_mode=lang&lang=zh_gb2312][/URL]http://www.alexa.com/site/ds/top_sites?ts_mode=lang&lang=zh_gb2312&<60;

&<60;&<60;&<60;&<60;★&<60;Google&<60;Zeitgeist--Google搜索排行榜

&<60;&<60;&<60;&<60;&<60;[URL=http://www.google.com/press/intl-zeitgeist.html#cn][/URL]http://www.google.com/press/intl-zeitgeist.html#cn

&<60;&<60;&<60;&<60;★&<60;百度中文搜索风云榜

&<60;&<60;&<60;&<60;&<60;[URL=http://top.baidu.com/][/URL]http://top.baidu.com/

&<60;&<60;&<60;★&<60;雅虎搜索排行榜

&<60;&<60;&<60;&<60;[URL=http://misc.yahoo.com.cn/top_index.html][/URL]http://misc.yahoo.com.cn/top_index.html

&<60;&<60;&<60;★&<60;搜狗搜索指数

&<60;&<60;&<60;[URL=http://www.sogou.com/top/][/URL]http://www.sogou.com/top/

&<60;&<60;3、搜索关键词查询

&<60;&<60;&<60;★&<60;&<60;google关键字查询&<60;&<60;&<60;https://adwords.google.com/select/KeywordSandbox&<60;
&<60;&<60;&<60;★&<60;百度关键字查询&<60;&<60;&<60;[URL=http://www2.baidu.com/inquire/dsquery.php][/URL]http://www2.baidu.com/inquire/dsquery.php&<60;
&<60;&<60;&<60;★&<60;搜狐关键词&<60;&<60;&<60;[URL=http://db.sohu.com/regurl/pv_price/query_consumer.asp][/URL]http://db.sohu.com/regurl/pv_price/query_consumer.asp&<60;

&<60;&<60;4、seo项目/工具

&<60;&<60;★网页质量&<60;&<60;&<60;&<60;[URL=http://category.booso.com/cgi-bin/category/category.cgi][/URL]http://category.booso.com/cgi-bin/category/category.cgi
&<60;&<60;★关键词密度&<60;&<60;&<60;[URL=http://www.21ql.com/seo/keyword.asp][/URL]http://www.21ql.com/seo/keyword.asp&<60;
&<60;&<60;★搜索引擎蜘蛛模拟器&<60;&<60;[URL=http://www.webconfs.com/search-engine-spider-simulator.php][/URL]http://www.webconfs.com/search-engine-spider-simulator.php

&<60;&<60;&<60;★Google&<60;Dance查询工具:[URL=http://www.google-dance-tool.com/][/URL]http://www.google-dance-tool.com/&<60;

&<60;&<60;5、seo网站

&<60;&<60;英文网站

&<60;&<60;搜索观察&<60;&<60;[URL=http://www.searchenginewatch.com/][/URL]http://www.searchenginewatch.com/&<60;
&<60;&<60;seochat&<60;&<60;&<60;[URL=http://www.seochat.com/][/URL]http://www.seochat.com&<60;

&<60;&<60;中文网站

1>美国尚奇公司&<60;[URL=http://www.zunch.cn/][/URL]http://www.zunch.cn

全球领先的网站设计和搜索引擎优化服务公司&<60;,目前中国区负责人为--柳焕斌

尚奇博客社区&<60;&<60;blog.zunch.cn&<60;

按此在新窗口浏览图片
在这里可以获取最新的SEO行业信息

&<60;&<60;2>搜索引擎优化交流中心&<60;&<60;&<60;&<60;&<60;&<60;[URL=http://www.seoonline.cn/][/URL]http://www.seoonline.cn&<60;

SEO从业者网站

1>尚奇中国区负责人为--柳焕斌&<60;&<60;[URL=http://blog.zunch.cn/category/robinliu/][/URL]http://blog.zunch.cn/category/robinliu/

2>seo专业人士--bianyue&<60;&<60;&<60;&<60;&<60;&<60;[URL=http://www.bianyue.com/][/URL]http://www.bianyue.com/

 

四、各大搜索引擎公司相关资料

1、联系方式

Google&<60;

[URL=http://www.google.com/intl/zh-CN/contact.html][/URL]http://www.google.com/intl/zh-CN/contact.html&<60;
公司总部
1600&<60;Amphitheatre&<60;Parkway
Mountain&<60;View,&<60;CA
94043&<60;USA
phone:&<60;(650)&<60;253-0000
fax:&<60;(650)&<60;253-0001
电子邮件:chinese_s@google.com

&<60;&<60;
百度

[URL=http://d.baidu.com/contact/index.html][/URL]http://d.baidu.com/contact/index.html&<60;
电话&<60;(010)82621188&<60;
传真&<60;(010)82607007&<60;82607008&<60;
E-mail&<60;webmaster@baidu.com&<60;
地址&<60;北京市北四环西路58号理想国际大厦12层&<60;
邮编&<60;100080&<60;

&<60;&<60;
雅虎/一搜

[URL=http://cn.yahoo.com/docs/sales/040203_contact.htm][/URL]http://cn.yahoo.com/docs/sales/040203_contact.htm&<60;
总机:010-65811221
地址:北京市朝阳区光华东路和乔大厦B座5层雅虎中国搜索事业部&<60;
邮编:100026
传真:010-65812440
在线问题提交:[URL=http://www.yisou.com/search_feedback.html][/URL]http://www.yisou.com/search_feedback.html

&<60;&<60;
中国搜索

[URL=http://www.zhongsou.com/kefu/kfzs.htm][/URL]http://www.zhongsou.com/kefu/kfzs.htm&<60;
地址:北京市西直门北大街42号华星大厦a座15.16层
邮编:100088
总机:010-62266296
传真:&<60;010-82211302

&<60;&<60;
搜狐搜索

[URL=http://www.sohu.com/about/lianxi.htm][/URL]http://www.sohu.com/about/lianxi.htm
地址:北京市海淀区中关村东路1号清华科技园9号威新国际大厦10层&<60;
邮编:&<60;100084&<60;
电话:&<60;86-10-62726666
传真:&<60;86-10-62728300&<60;

&<60;&<60;
新浪搜索

[URL=http://ads.sina.com.cn/contact.html][/URL]http://ads.sina.com.cn/contact.html&<60;
北京市北四环西路58号理想国际大厦20层
邮编:100080
Tel:(86-10)82628888
Fax:(86-10)82607166
搜索引擎咨询电话:010-82628888转6688
搜索引擎联系信箱&<60;searchcn@staff.sina.com.cn

&<60;&<60;
网易搜索

[URL=http://so.163.com/contactus.shtml][/URL]http://so.163.com/contactus.shtml&<60;
北京市东城区东长安街1号东方广场东方经贸城东三办公楼1901室
邮编/Zip:100738
网易搜索引擎客服热线:
电话:010-82110163-8350、8121、8136
E-mail:adp_complaint@service.netease.com

<!-- Inject Script Filtered --> <!-- Inject Script Filtered -->
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值