1.硬件架构
CISC:复杂型指令集
性能上限为晶体管数量。
RISC:精简型指令集
为什么CISC流行起来了:由IBM+Intel一起开发,后面IBM把标准制定卖给了Intel,后Intel拉上Microsoft做起了PC兼容机。
原因:进入人手一台电脑的时代,建立了一套完整的生态链,如软件支持。
因为摩尔定律:
每两年一个周期,第一年升级架构,第二年升级性能。
1、单CPU情况下,不断升级主频。当达到上限时,
2、开发多核技术--多个核心。
CPU单个核心同一时间只能运行一件事,线程是为了不让核心闲置下来,并不能提升核心的物理性能。
3、分布式架构
整数运算是指得到的结果是一个整数,并且计算结果中的小数部分将被忽略。 整数运算虽然只能运算一个相对较小的数值范围,但这种表示是精确的。大多数机器都是32位的,也就是说32位都用来表示整数的话,那么对于无符号整数就是0 到 2^32-1,对于有符号的话就是-2^31 到 2^31-1。
浮点运算是指得到的结果是一个浮点数,计算结果中的小数部分将保留下来。浮点运算虽然可以运算一个较大的数值范围,但其表示只是近似的。因为计算机只能存储整数,所以实数都是约数,这样浮点运算是很慢的而且会有误差。
整数运算用于CPU中央处理器,在科学计算中,中央处理器可以通过整数
运算,加快运算速度和提高系统执行效率。
在大多数情况下,浮点运算用于CPU辅助处理器,完成中央处理器完成其
无法执行或执行效率、效果低下的处理工作。
简单来说数字属于整形计算,图形属于浮点计算。
2.硬件架构
CPU:调度和通用计算,串行,单进程多线程,快。
GPU:图形计算,并行计算。
FPGA:可编程门阵列(不规则并行计算),能效行高。
ASIC:可编程性
性能最好:ASIC
系统软件:负责管理计算机系统中独立的硬件,使得它们可以协调工作,提供基本的功能。
中间件:是提供系统软件和应用软件之间连接的软件
应用软件:是为了某种特定的用途而被开发上软件
PCI:(简称PCI-E)计算机总线PCI的一种,它沿用现有的PCI编程概念及通信标准,基于更快的串行通信系统。
BIOS:(基本输入输出系统)是一种业界标准的固件接口。
BMC:(执行伺服器)为基板管理控制器。它可以在机器未开机的状态下,对机器进行固件升级、查看机器设备等一些操作。
3.软件架构
C/S架构:客户端和用户端
B/S架构:网页和服务
FTP:文件传输协议。有两个端口:20、21.21端口:用来验证用户信息。20端口:用来数据传输。
CPU性能:缓存、核数、主频。
FSB:前端总线
QPI:快速互联通道
4.内存
双通道技术:其实是一种内存控制和管理技术,它依赖于 内存控制器 发生作用,在理论上能够使两条同等规格内存所提供的 带宽 增长一倍。
内存镜像:内存不丢失。性能会下降、资源利用率高。
内存颗粒越多越优(理论上x4比x8性能强)
5.硬盘关键指标
硬盘容量
IOPS(4K随机写)
SSD:固态硬盘
SLC:容量小、价格贵、性能好、寿命最长
6.名词意思
RAID热备一般分为两种:
全局:备用硬盘为系统中所有的冗余RAID组共享。【单一的热备(R5、R6、R1)】
专业:备用硬盘为系统中某一冗余RAID组专用。(R10、R50、R60)
复杂指令集:串行
精简指令集:并行
双通道技术:两组内存的位置得一样。(内存盘少的时候)
LB:负载均衡器
Apache:充满补丁的服务器,开源软件,功能模块比较多,BUG少,非常稳定,常见应用厂商:亚马逊、雅虎、W3C万维网联盟。
NginX:相对于Apache而言,并发连接数相应,内存占用的少,编写模块
相对于较为简单,更加的轻量,异步非阻塞
LVS:Linux虚拟服务器,主要是用在网页服务器负载分担场景下
主要有3种算法:
NAT:提出一个VIP(虚拟IP地址)将服务器绑定上此IP地址,通过LVS负载分担将用户请求进行NATIP地址转换,分配到相应的服务器。
VIP:虚拟IP地址,绑定在LVS设备上
工作过程:用户将请求发给LVS,目的地址为VIP,LVS收到请求后将流量分配给服务器执行,将用户请求目的地址转换成相应服务器的IP地址,返回结果时源IP地址为服务器的IP地址,目的地址为客户端的IP地址,经由LVS进行转发。
TUN:隧道模式,将用户请求流量与服务器相应流量进行分流
工作模式:用户正常将请求下发放给LVS,LVS通过调度算法将请求分配给筛选出来的服务器,服务器就会与客户端之间路由器建立一个VPN,逻辑上形成直连,这样服务流量就不需要经过LVS了,这样实现流量分流,解决LVS(负载均衡器)的瓶颈问题。减轻了NAT设备的压力。
DR:将请求流量与相应流量在物理层面进行分流。Clien将流量正常发送到NAT,NAT转发给筛选出来的服务器,服务器处理完成后将相应流量发送给服务器,通过路由器连接到互联网将结果发送给Clien。
memcache:高性能分布式内存对象缓存系统。
工作过程:将热点网页放入缓存中提升服务相应速度。
无状态技术:将服务器的个性化配置(MAC地址,UUID,BIOS)从宿主机中独立出来,定义成一个配置文件。配置文件独立存在。
Console线:连接服务器的一种专用线路,一端是USB接口,一端是RJ45口。
异构计算:使用不同的芯片组成的系统。
同构计算:使用相同的芯片组成的系统。
ARP:地址重定向。
SNMP:简单网络管理
总线型网络中
CSMA/CD:载波监听多路访问/冲突检测机。
先听后发,边听边发
冲突停发,随机延时后重启
AP:无线信号发射器。
瘦AP要与AC一起
胖AP不用
Ansble:Ansible核心程序。
Hostlnventory:记录由Ansible管理的主机信息,包括端口、密码、ip等。
Playbooks:“剧本”YAML格式文件,多个任务定义在一个文件中,定义主机需要调用哪些模块来完成的功能。
CoreModules:核心模块,主要操作是通过调用核心模块来完成管理任务。
CustomModules:自定义模块,完成核心模块无法完成的功能,支持多种语言。
ConnectionPlugins:连接插件,Ansible和Host通信使用。
HP:高性能
HA:高可用
HPC:高性能集群
邮件输入协议:STMP
邮件输出协议:POP3
分布式系统:由多个地域的服务器共同运行的一套系统。
集群:由两台或两台以上的服务器在物理形式上组合成的一个集合。
集群是物理形式上的概念;分布式系统是服务器的工作方式。
主频(时钟频率)
南桥和北桥
南桥ICH:连接速度比较慢的芯片
北桥MCH:离CPU最近连接速度比较快的芯片
UMA(一致性内存访问)
NUMA(非一致性内存访问)
7.数据封装和解封装过程
数据的封装过程:
应用层产生数据,传递给传输层添加上传输层协议头部(TCP、UDP)添
加上层应用端口号,将数据段传递给网络层添加上IP头部(源目
IP地址,上层使用协议号TCP:6,UDP:17)封装成数据包,将数据包
传输给数据链路层后添加上以太网帧头(源目MAC地址,上层使
用的协议类型)、FCS校验帧尾,封装成数据帧,传递给物理层转换为高
低电流在以太网线中传输。
数据的解封装过程:
物理层:将电信号转化为二进制数据,并将其送至数据链路层
数据链路层:查看MAC地址,地址是自己,就拆掉MAC头部,继续传输
地址不是自己,就丢弃数据
网络层:查看IP地址,地址是自己,就拆掉IP头部,继续传输
地址不是自己,就丢弃数据
传输层:查看TCP头部,判断应该传到哪里,然后重组数据,传输到应用层
应用层:二进制转化为原始数据
8.硬件信息
分布式系统:由多个地域的服务器共同运行的一套系统。
集群:由两台或两台以上的服务器在物理形式上组合成的一个集合。
集群是物理形式上的概念;分布式系统是服务器的工作方式。
集群特性:
高可扩展性:当物理资源不足时,可以在线(业务不中断的情况下)添加硬件资源。
高可用性:由多台服务器共同提供一个服务,当某台服务器损坏,则将流量分担在其余服务器身上,来保障业务不中断。
高可管理性:多台服务器对接到控制节点,管理员通过控制节点统一管控。
Apache:一款开源的软件(自由软件),是一款充满补丁的服务器,稳定,功能齐全,BUG少,异步阻塞。
亚马逊,雅虎,W3C(万维网联盟)……
NginX:相对于Apache而言,拥有更强的并发用户数处理能力,功能模块编写较为简单,更加的轻量,占用内存空间更少,异步非阻塞。
百度,京东,淘宝,腾讯……
LVS:Linux虚拟服务器
9.三种Web集群解决方案
集群系统与分布式系统的区别
集群是物理形式,分布式是一种工作方式,集群更强带物理上的集中,要
求统一管理;分布式系统则不强调物理上的集中。
Web服务组件:
Apache:
充满补丁的服务器,由于它是一款开源的软件(自由软件),优势:功能
模块多,功能齐全,BUG少,系统运行稳定。亚马逊、雅虎、W3C等等。
NginX:对比Apache的优势,并发连接数响应(同时服务的用户数量),
相对与Apache更加轻量,所占用的内存空间更少,模块编写简单。百度,新浪,淘宝,腾讯。
LVS:linux虚拟服务器
提出了三种方式
NAT:用户将请求流量发送给NAT/LB设备,NAT设备接收到后筛选出合适的服务器后将请求流量
转发给相应服务器,服务器处理完成后
将处理结果发送给NAT,NAT再转发给用户。
请求流量与响应流量都经过NAT/LB设备,导致NAT/LB设备压力过大,影响正常业务。
TUN:将请求流量与响应流量逻辑上进行分流。用户将请求流量发送给
NAT设备,LB正常转发请求流量到服务器,服务器接收到后进行处
理,服务器会与用户的客户端建立逻辑上的一个隧道,服务器通过隧道将
处理结果通过隧道发送给客户端,不需要NAT再进行地址转换,
减轻了NAT设备的压力。
DR:将请求流量与响应流量在物理层面进行分流。Clien将请求流量正常
发送到NAT,NAT转发给筛选出来的服务器,服务器处理完成后
将响应流量发送给路由器,通过路由器连接到互联网将结果发送给Client。
memcache: 高性能分布式内存对象缓存系统。
工作过程:将热点网页放入缓存中提升服务响应速度。
无状态计算:将服务器的个性化配置(MAC地址,UUID,BIOS,BMC)
从宿主机硬件中独立出来,定义成一个配置文件。配置文件是独立存在的
Console线:连接服务器的一种专用线路,一端是USB接口,一端是RJ45口。
异构计算:使用不同的计算芯片组成的计算系统。
同构计算:使用相同的计算芯片组成的计算系统。
ARP:地址重定向
SNMP:简单网络管理
总线型网络中
CSMA/CD:载波监听多路访问/冲突检测机,
先听后发,边听边发,
冲突停发,随机延时后重发
IPv4地址:点分十进制
MAC地址/IPv6地址:冒分十六进制
VLAN范围:0-4095,共4096个,可用ID范围1-4094
NAT:网络地址转换模式
工作过程:
客户端向NAT设备发送请求报文,NAT接收到后筛选出最适合处理请求的服务器,并进行目的地址转换,将请求流量转发给相应服务器,
服务器接收到后进行处理,处理完成后将响应流量发送给NAT,NAT接收到后进行地址转换,将流量转发给客户端。
只适用与小规模场景,大规模场景下容易造成NAT设备压力过大影响用户体验。
TUN:隧道模式
工作过程:
从逻辑层面进行分流,客户端请求流量正常转发,服务器接收到响应流量后,会与客户端之间建立一个隧道,通过隧道将响应流量发送给
客户端,隧道由服务器进行维护,将NAT上的压力分摊到服务器上来提升响应速度,减少NAT设备的压力。
DR:路由模式
工作过程:
在物理层面进行分流,客户端将流量发送给NAT设备,NAT设备正常转发,服务器接收到请求流量后进行响应,响应流量通过路由器发送
给客户端。
Memcached:是一个高性能分布式内存对象缓存系统。
无状态计算:是指将服务器的个性化配置如MAC地址、UUID、BIOS等配置与设置,从宿主机的物理资源中独立出来,定义为一个配置文
件。 脏页:指内存与硬盘之间的缓存空间。
InnoDB:MySQL中的磁盘块,一般为16K。系统从硬盘读取数据到内存是以磁盘块为基本单位。
RDMA:远程直接数据存取
RoCE:RDMA over Converged Ethernet :基于以太网的RDMA
Open Flow流表:
Match Fields:匹配字段,匹配流表项执行的动作。
Instructions Set:指令,指定匹配中流表项后执行的动作,如添加上Vlan Tag。
Counters:计数器,统计系统收到的报文个数。
Priority:优先级,默认从上到下顺序查找表项。
TimeOut:老化时间,指流表项的一个生效时间。
Cookie:控制节点用来向交换节点传递相关操作信息。
单机架构:将单机应用(单机游戏)下载到本机,只有通过本机才能进行使用
互联网架构:将应用部署在云端,访问软件需要连接互联网,例:网抑云
B/S:网页/服务器架构,无需安装额外的软件,只需要在浏览器中输入相应的网址就能进行访问:qq邮箱
C/S:需要安装相应的客户端(软件)通过软件去访问相应的服务。
常见的计算单元:CPU、GPU、FPGA……
FTP两个端口号:21号端口用作用户鉴权,20号端口用作文件传输 主频=外频*倍频系数
总线:是服务器各个组件之间交互的线路,SCSI、FSB、QPI、PCIe
多核心CPU域单核心CPU的区别在与三级缓存是否共享,每个核心都拥有着自己的一级二级缓存。
内存镜像与在线备用内存技术的区别,内存镜像是对当前运行的所有内存做全量备份;在线备用内存是针对与关键性数据(部分数据)进行备份,只能保障业务不中断,不能保障用户数据不丢失。
LUN:逻辑单元号,在逻辑层面隔离。
XOR:数据重构
奇偶校验:与或运算:相同为真,相异为假;1:1=0,1:0=1
10.智能计算
云计算把握整体,边缘计算更专注与局部,它们之间是互补关系。
边缘计算优势:
效率高,降低网络带宽的限制,缓解了流量压力。
智能边缘计算:
将云计算中的AI能力下沉到边缘计算节点上,使得智能边缘计算节点能
够“自己”处理一些问题。
数据上传:边缘数据经过计算和过滤,从边缘上传到云
能力下沉:AI和其他需要丛云端下沉到边缘设
智能本地化:小型化,轻量化,边缘化,摆脱云和网络束缚
边缘硬件加速:强大的硬件能力,提供本地实时推理的能力
众核:超过8个cpu
x86
昇腾对标AI行业的
鲲鹏
CCIX:采取了缓存一致性,例如CPU和GPU,之前得复制一份到对面。现在可以直接去缓存空间里拿,提高了性能。
mgmt:管理接口。只是管理节点。
UNS:统一域名服务
VLB一定不能和WI、UNS部署在同一台虚拟机上。
UNS仅适用于局方统一提供AD/DNS/DHCP的场景。
UNS不适用于使用VLB对WI做负载均衡的场景。
DNS:正向解析:由域名找到ip地址
反向解析:由ip地址找到域名,由前24为ip地址。
静态ip:单交换机:同网段访问
单路由器:不同网段访问
多路由器:两个路由器的下一跳是对方路由器,设置路由表。
DMA:直连内存访问(都不需要CPU),
RDMA:远程直连内存访问。DMA,传统模式
lnfiniband(IB):无线带宽网络
Atlas G5500异构服务器:
高异构计算性能:
支持GPUDirect RDMA、P2P、以及NVLink互联。
fusionserver Pro智能服务器:
刀片服务器
高密服务器
机架服务器
关键业务服务器
超融合服务器:将所有业务都集合到一起。
RCoE:基于以太网的RDMC
横向扩展:一起弄。在原有的基础上在添加。
集群是物理状态,将多台主机放在一个物理区域。
分布式是逻辑状态,让不同物理区域的主机同时干一件事。
FC的平面为什么要同时要管理平面和BMC平面:
BMC平面可以控制主机开关机。
管理平面可以管理一些业务的。
BIOS:在硬件开启之前需要开启CPU。
kunlun:开放架构小型机。