域名、主机名与URL

什么是域名?

google.com、baidu.com、163.com等。

域名、主机名与URL例子

例子1:

http://mail.163.com/index.html
1)http://:这个是协议,也就是HTTP超文本传输协议,也就是网页在网上传输的协议。
2)mail:这个是服务器名,代表着是一个邮箱服务器,所以是mail.
3)163.com:这个是域名,是用来定位网站的独一无二的名字。
4)mail.163.com:这个是主机名(网站名),由服务器名+域名组成。
5)/:这个是根目录,也就是说,通过网站名找到服务器,然后在服务器存放网页的根目录
6:)index.html:这个是根目录下的默认网页(当然,163的默认网页是不是这个我不知道,只是大部分的默认网页,都是index.html)
7)http://mail.163.com/index.html:这个叫做URL,统一资源定位符,全球性地址,用于定位网上的资源。

例子2:

像163一样,域名是163.com,想建立一个www服务器,所以www.163.com.有了
又想整个邮箱服务器,ok,mail.163.com有了。

例子3:

http://www.sina.com.cn/为例,http是通信使用的协议,sina.com.cn是域名,www是提供服务的机器的名字(计算机名),计算机名+域名才是主机名,即www.sina.com.cn是主机名。再举个例子,http://blog.sina.com.cn/中,blog是提供博客服务的那台机器的名字,sina.com.cn是域名,blog.sina.com.cn是主机名。

域名还分级,从后往前级别依次降低,sina.com.cn中,cn是顶级域名,表示中国,com是二级域名,表示商业机构(commercial),sina是三级域名,一般用自己的名字。

补充:

http://mail.163.com/index.html
其中,index.html是默认网页。
但是,我们输入网址的时候,一般直接输入
mail.163.com或者www.baidu.com,为什么呢?

当我们访问www.baidu.com时,浏览器会自动帮我们加上http://,变成http://www.baidu.com.

而百度的服务器,收到该请求后,会自动加上/,变成:
http://www.baidu.com/.

百度服务器会在该目录下寻找index.html或其他默认网页,也就是百度的主页,找到后,通过http协议返回给你。也就是你看到的百度主页。

参考链接:
https://jingyan.baidu.com/article/2c8c281df0afd00008252aa7.html
https://blog.csdn.net/SuperYuHuoFei/article/details/77159444

  • 67
    点赞
  • 162
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
一、介绍 子域名收集是一项网络安全领域的工作,通过查找目标网站的 DNS 记录和其他公开信息,寻找到与目标站点相关的域名和子域名,并将其列出,以便进行后续测试和攻击。 本文介绍了一种基于 Python 的子域名收集工具的设计和实现。该工具可以从多个来源自动地收集目标站点的子域名,并将其输出为一个文本文件,以供后续使用。 二、设计思路 该工具的设计基于以下思路: 1. 定义目标站点:用户输入目标站点的域名或 IP 地址,程序自动获取其对应的 DNS 服务器地址,并使用 DNS 解析查询该站点的基本信息。 2. 查找子域名:程序使用多种方式自动或半自动地查找与目标站点相关的子域名,包括基于字典的暴力枚举、搜索引擎的关键词匹配、社交媒体和在线论坛的信息采集等。 3. 过滤和去重:由于某些收集方式可能会产生大量冗余信息,程序需要进行过滤和去重操作,以保留唯一有效的子域名信息。 4. 输出结果:程序将过滤后的子域名信息输出到一个文本文件中,并可选择性地进行格式化和排序。 五、实现步骤 根据上述设计思路,我们可以分为以下几个步骤来实现该工具。 1. 查询目标站点信息 程序需要获取目标站点的 IP 地址和主机名等基本信息。可以使用 Python 的 socket 和 dns.resolver 等库进行 DNS 解析查询,并提取关键信息。 2. 收集子域名 (1)字典暴力枚举 该工具使用一个字典文件来生成可能的子域名,并使用 DNS 解析查询来验证是否存在。可以使用 Python 库中的 itertools 和 threading 等库来加速生成和并行检测,以提高效率。 (2)搜索引擎关键词匹配 工具可以通过爬取 Google、Bing、Yahoo 等搜索引擎的搜索结果,并将与目标站点相关的 URL 根据域名进行筛选和去重,获取到一定的子域名信息。 (3)社交媒体和在线论坛信息采集 工具可以通过爬取 Twitter、GitHub、Reddit 等社交媒体平台、以及 Stack Overflow 等在线技术论坛的帖子和主页信息,来收集与目标站点相关的子域名信息。 3. 过滤和去重 由于不同来源的子域名信息可能存在冗余或重复的部分,程序需要进行过滤和去重操作,以保留唯一有效的子域名信息。 可以使用 Python 中的正则表达式库和 set 类型数据结构等工具来实现过滤和去重功能。 4. 输出结果 程序根据用户需求,将过滤后的子域名信息输出到一个文本文件中。可以使用 Python 中的文件读写库和 sort 函数等工具来实现。 六、总结 本文介绍了一种基于 Python 的子域名收集工具的设计和实现,可以实现从多个来源自动化地收集目标站点的子域名信息,并进行过滤和去重等处理,输出到一个文本文件中。该工具可以用于实现网络攻击和防御等各种应用场景,具有一定的技术实用价值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值