智能计算的自我笔记

1.硬件架构

CISC:复杂型指令集

性能上限为晶体管数量。

RISC:精简型指令集

为什么CISC流行起来了:由IBM+Intel一起开发,后面IBM把标准制定卖给了Intel,后Intel拉上Microsoft做起了PC兼容机。

原因:进入人手一台电脑的时代,建立了一套完整的生态链,如软件支持。

因为摩尔定律:

每两年一个周期,第一年升级架构,第二年升级性能。

1、单CPU情况下,不断升级主频。当达到上限时,

2、开发多核技术--多个核心。

CPU单个核心同一时间只能运行一件事,线程是为了不让核心闲置下来,并不能提升核心的物理性能。

3、分布式架构

整数运算是指得到的结果是一个整数,并且计算结果中的小数部分将被忽略。 整数运算虽然只能运算一个相对较小的数值范围,但这种表示是精确的。大多数机器都是32位的,也就是说32位都用来表示整数的话,那么对于无符号整数就是0 到 2^32-1,对于有符号的话就是-2^31 到 2^31-1。

浮点运算是指得到的结果是一个浮点数,计算结果中的小数部分将保留下来。浮点运算虽然可以运算一个较大的数值范围,但其表示只是近似的。因为计算机只能存储整数,所以实数都是约数,这样浮点运算是很慢的而且会有误差。

整数运算用于CPU中央处理器,在科学计算中,中央处理器可以通过整数

运算,加快运算速度和提高系统执行效率。

在大多数情况下,浮点运算用于CPU辅助处理器,完成中央处理器完成其

无法执行或执行效率、效果低下的处理工作。

简单来说数字属于整形计算,图形属于浮点计算。

2.硬件架构

CPU:调度和通用计算,串行,单进程多线程,快。

GPU:图形计算,并行计算。

FPGA:可编程门阵列(不规则并行计算),能效行高。

ASIC:可编程性

性能最好:ASIC

系统软件:负责管理计算机系统中独立的硬件,使得它们可以协调工作,提供基本的功能。

中间件:是提供系统软件和应用软件之间连接的软件

应用软件:是为了某种特定的用途而被开发上软件

PCI:(简称PCI-E)计算机总线PCI的一种,它沿用现有的PCI编程概念及通信标准,基于更快的串行通信系统。

BIOS:(基本输入输出系统)是一种业界标准的固件接口。

BMC:(执行伺服器)为基板管理控制器。它可以在机器未开机的状态下,对机器进行固件升级、查看机器设备等一些操作。

3.软件架构

C/S架构:客户端和用户端

B/S架构:网页和服务

FTP:文件传输协议。有两个端口:20、21.21端口:用来验证用户信息。20端口:用来数据传输。

CPU性能:缓存、核数、主频。

FSB:前端总线

QPI:快速互联通道

4.内存

双通道技术:其实是一种内存控制和管理技术,它依赖于 内存控制器 发生作用,在理论上能够使两条同等规格内存所提供的 带宽 增长一倍。

内存镜像:内存不丢失。性能会下降、资源利用率高。

内存颗粒越多越优(理论上x4比x8性能强)

5.硬盘关键指标

硬盘容量

IOPS(4K随机写)

SSD:固态硬盘

SLC:容量小、价格贵、性能好、寿命最长

6.名词意思

RAID热备一般分为两种:

全局:备用硬盘为系统中所有的冗余RAID组共享。【单一的热备(R5、R6、R1)】

专业:备用硬盘为系统中某一冗余RAID组专用。(R10、R50、R60)

复杂指令集:串行

精简指令集:并行

双通道技术:两组内存的位置得一样。(内存盘少的时候)

LB:负载均衡器

Apache:充满补丁的服务器,开源软件,功能模块比较多,BUG少,非常稳定,常见应用厂商:亚马逊、雅虎、W3C万维网联盟。

NginX:相对于Apache而言,并发连接数相应,内存占用的少,编写模块

相对于较为简单,更加的轻量,异步非阻塞

LVS:Linux虚拟服务器,主要是用在网页服务器负载分担场景下

主要有3种算法:

NAT:提出一个VIP(虚拟IP地址)将服务器绑定上此IP地址,通过LVS负载分担将用户请求进行NATIP地址转换,分配到相应的服务器。

VIP:虚拟IP地址,绑定在LVS设备上

工作过程:用户将请求发给LVS,目的地址为VIP,LVS收到请求后将流量分配给服务器执行,将用户请求目的地址转换成相应服务器的IP地址,返回结果时源IP地址为服务器的IP地址,目的地址为客户端的IP地址,经由LVS进行转发。

TUN:隧道模式,将用户请求流量与服务器相应流量进行分流

工作模式:用户正常将请求下发放给LVS,LVS通过调度算法将请求分配给筛选出来的服务器,服务器就会与客户端之间路由器建立一个VPN,逻辑上形成直连,这样服务流量就不需要经过LVS了,这样实现流量分流,解决LVS(负载均衡器)的瓶颈问题。减轻了NAT设备的压力。

DR:将请求流量与相应流量在物理层面进行分流。Clien将流量正常发送到NAT,NAT转发给筛选出来的服务器,服务器处理完成后将相应流量发送给服务器,通过路由器连接到互联网将结果发送给Clien。

memcache:高性能分布式内存对象缓存系统。

工作过程:将热点网页放入缓存中提升服务相应速度。

无状态技术:将服务器的个性化配置(MAC地址,UUID,BIOS)从宿主机中独立出来,定义成一个配置文件。配置文件独立存在。

Console线:连接服务器的一种专用线路,一端是USB接口,一端是RJ45口。

异构计算:使用不同的芯片组成的系统。

同构计算:使用相同的芯片组成的系统。

ARP:地址重定向。

SNMP:简单网络管理

总线型网络中

CSMA/CD:载波监听多路访问/冲突检测机。

先听后发,边听边发

冲突停发,随机延时后重启

AP:无线信号发射器。

瘦AP要与AC一起

胖AP不用

Ansble:Ansible核心程序。

Hostlnventory:记录由Ansible管理的主机信息,包括端口、密码、ip等。

Playbooks:“剧本”YAML格式文件,多个任务定义在一个文件中,定义主机需要调用哪些模块来完成的功能。

CoreModules:核心模块,主要操作是通过调用核心模块来完成管理任务。

CustomModules:自定义模块,完成核心模块无法完成的功能,支持多种语言。

ConnectionPlugins:连接插件,Ansible和Host通信使用。

HP:高性能

HA:高可用

HPC:高性能集群

邮件输入协议:STMP

邮件输出协议:POP3

分布式系统:由多个地域的服务器共同运行的一套系统。

集群:由两台或两台以上的服务器在物理形式上组合成的一个集合。

集群是物理形式上的概念;分布式系统是服务器的工作方式。

主频(时钟频率)

南桥和北桥

南桥ICH:连接速度比较慢的芯片

北桥MCH:离CPU最近连接速度比较快的芯片

UMA(一致性内存访问)

NUMA(非一致性内存访问)

7.数据封装和解封装过程

数据的封装过程:

应用层产生数据,传递给传输层添加上传输层协议头部(TCP、UDP)添

加上层应用端口号,将数据段传递给网络层添加上IP头部(源目

IP地址,上层使用协议号TCP:6,UDP:17)封装成数据包,将数据包

传输给数据链路层后添加上以太网帧头(源目MAC地址,上层使

用的协议类型)、FCS校验帧尾,封装成数据帧,传递给物理层转换为高

低电流在以太网线中传输。

数据的解封装过程:

物理层:将电信号转化为二进制数据,并将其送至数据链路层

数据链路层:查看MAC地址,地址是自己,就拆掉MAC头部,继续传输

地址不是自己,就丢弃数据

网络层:查看IP地址,地址是自己,就拆掉IP头部,继续传输

地址不是自己,就丢弃数据

传输层:查看TCP头部,判断应该传到哪里,然后重组数据,传输到应用层

应用层:二进制转化为原始数据

8.硬件信息

分布式系统:由多个地域的服务器共同运行的一套系统。

集群:由两台或两台以上的服务器在物理形式上组合成的一个集合。

集群是物理形式上的概念;分布式系统是服务器的工作方式。

集群特性:

高可扩展性:当物理资源不足时,可以在线(业务不中断的情况下)添加硬件资源。

高可用性:由多台服务器共同提供一个服务,当某台服务器损坏,则将流量分担在其余服务器身上,来保障业务不中断。

高可管理性:多台服务器对接到控制节点,管理员通过控制节点统一管控。

Apache:一款开源的软件(自由软件),是一款充满补丁的服务器,稳定,功能齐全,BUG少,异步阻塞。

亚马逊,雅虎,W3C(万维网联盟)……

NginX:相对于Apache而言,拥有更强的并发用户数处理能力,功能模块编写较为简单,更加的轻量,占用内存空间更少,异步非阻塞。

百度,京东,淘宝,腾讯……

LVS:Linux虚拟服务器

9.三种Web集群解决方案

集群系统与分布式系统的区别

集群是物理形式,分布式是一种工作方式,集群更强带物理上的集中,要

求统一管理;分布式系统则不强调物理上的集中。

Web服务组件:

Apache:

充满补丁的服务器,由于它是一款开源的软件(自由软件),优势:功能

模块多,功能齐全,BUG少,系统运行稳定。亚马逊、雅虎、W3C等等。

NginX:对比Apache的优势,并发连接数响应(同时服务的用户数量),

相对与Apache更加轻量,所占用的内存空间更少,模块编写简单。百度,新浪,淘宝,腾讯。

LVS:linux虚拟服务器

提出了三种方式

NAT:用户将请求流量发送给NAT/LB设备,NAT设备接收到后筛选出合适的服务器后将请求流量

转发给相应服务器,服务器处理完成后

将处理结果发送给NAT,NAT再转发给用户。

请求流量与响应流量都经过NAT/LB设备,导致NAT/LB设备压力过大,影响正常业务。

TUN:将请求流量与响应流量逻辑上进行分流。用户将请求流量发送给

NAT设备,LB正常转发请求流量到服务器,服务器接收到后进行处

理,服务器会与用户的客户端建立逻辑上的一个隧道,服务器通过隧道将

处理结果通过隧道发送给客户端,不需要NAT再进行地址转换,

减轻了NAT设备的压力。

DR:将请求流量与响应流量在物理层面进行分流。Clien将请求流量正常

发送到NAT,NAT转发给筛选出来的服务器,服务器处理完成后

将响应流量发送给路由器,通过路由器连接到互联网将结果发送给Client。

memcache: 高性能分布式内存对象缓存系统。

工作过程:将热点网页放入缓存中提升服务响应速度。

无状态计算:将服务器的个性化配置(MAC地址,UUID,BIOS,BMC)

从宿主机硬件中独立出来,定义成一个配置文件。配置文件是独立存在的

Console线:连接服务器的一种专用线路,一端是USB接口,一端是RJ45口。

异构计算:使用不同的计算芯片组成的计算系统。

同构计算:使用相同的计算芯片组成的计算系统。

ARP:地址重定向

SNMP:简单网络管理

总线型网络中

CSMA/CD:载波监听多路访问/冲突检测机,

先听后发,边听边发,

冲突停发,随机延时后重发

IPv4地址:点分十进制

MAC地址/IPv6地址:冒分十六进制

VLAN范围:0-4095,共4096个,可用ID范围1-4094

NAT:网络地址转换模式

工作过程:

客户端向NAT设备发送请求报文,NAT接收到后筛选出最适合处理请求的服务器,并进行目的地址转换,将请求流量转发给相应服务器,

服务器接收到后进行处理,处理完成后将响应流量发送给NAT,NAT接收到后进行地址转换,将流量转发给客户端。

只适用与小规模场景,大规模场景下容易造成NAT设备压力过大影响用户体验。

TUN:隧道模式

工作过程:

从逻辑层面进行分流,客户端请求流量正常转发,服务器接收到响应流量后,会与客户端之间建立一个隧道,通过隧道将响应流量发送给

客户端,隧道由服务器进行维护,将NAT上的压力分摊到服务器上来提升响应速度,减少NAT设备的压力。

DR:路由模式

工作过程:

在物理层面进行分流,客户端将流量发送给NAT设备,NAT设备正常转发,服务器接收到请求流量后进行响应,响应流量通过路由器发送

给客户端。

Memcached:是一个高性能分布式内存对象缓存系统。

无状态计算:是指将服务器的个性化配置如MAC地址、UUID、BIOS等配置与设置,从宿主机的物理资源中独立出来,定义为一个配置文

件。 脏页:指内存与硬盘之间的缓存空间。

InnoDB:MySQL中的磁盘块,一般为16K。系统从硬盘读取数据到内存是以磁盘块为基本单位。

RDMA:远程直接数据存取

RoCE:RDMA over Converged Ethernet :基于以太网的RDMA

Open Flow流表:

Match Fields:匹配字段,匹配流表项执行的动作。

Instructions Set:指令,指定匹配中流表项后执行的动作,如添加上Vlan Tag。

Counters:计数器,统计系统收到的报文个数。

Priority:优先级,默认从上到下顺序查找表项。

TimeOut:老化时间,指流表项的一个生效时间。

Cookie:控制节点用来向交换节点传递相关操作信息。

单机架构:将单机应用(单机游戏)下载到本机,只有通过本机才能进行使用

互联网架构:将应用部署在云端,访问软件需要连接互联网,例:网抑云

B/S:网页/服务器架构,无需安装额外的软件,只需要在浏览器中输入相应的网址就能进行访问:qq邮箱

C/S:需要安装相应的客户端(软件)通过软件去访问相应的服务。

常见的计算单元:CPU、GPU、FPGA……

FTP两个端口号:21号端口用作用户鉴权,20号端口用作文件传输 主频=外频*倍频系数

总线:是服务器各个组件之间交互的线路,SCSI、FSB、QPI、PCIe

多核心CPU域单核心CPU的区别在与三级缓存是否共享,每个核心都拥有着自己的一级二级缓存。

内存镜像与在线备用内存技术的区别,内存镜像是对当前运行的所有内存做全量备份;在线备用内存是针对与关键性数据(部分数据)进行备份,只能保障业务不中断,不能保障用户数据不丢失。

LUN:逻辑单元号,在逻辑层面隔离。

XOR:数据重构

奇偶校验:与或运算:相同为真,相异为假;1:1=0,1:0=1

10.智能计算

云计算把握整体,边缘计算更专注与局部,它们之间是互补关系。

边缘计算优势:

效率高,降低网络带宽的限制,缓解了流量压力。

智能边缘计算:

将云计算中的AI能力下沉到边缘计算节点上,使得智能边缘计算节点能

够“自己”处理一些问题。

数据上传:边缘数据经过计算和过滤,从边缘上传到云

能力下沉:AI和其他需要丛云端下沉到边缘设

智能本地化:小型化,轻量化,边缘化,摆脱云和网络束缚

边缘硬件加速:强大的硬件能力,提供本地实时推理的能力

众核:超过8个cpu

x86

昇腾对标AI行业的

鲲鹏

CCIX:采取了缓存一致性,例如CPU和GPU,之前得复制一份到对面。现在可以直接去缓存空间里拿,提高了性能。

mgmt:管理接口。只是管理节点。

UNS:统一域名服务

VLB一定不能和WI、UNS部署在同一台虚拟机上。

UNS仅适用于局方统一提供AD/DNS/DHCP的场景。

UNS不适用于使用VLB对WI做负载均衡的场景。

DNS:正向解析:由域名找到ip地址

反向解析:由ip地址找到域名,由前24为ip地址。

静态ip:单交换机:同网段访问

单路由器:不同网段访问

多路由器:两个路由器的下一跳是对方路由器,设置路由表。

DMA:直连内存访问(都不需要CPU),

RDMA:远程直连内存访问。DMA,传统模式

lnfiniband(IB):无线带宽网络

Atlas G5500异构服务器:

高异构计算性能:

支持GPUDirect RDMA、P2P、以及NVLink互联。

fusionserver Pro智能服务器:

刀片服务器

高密服务器

机架服务器

关键业务服务器

超融合服务器:将所有业务都集合到一起。

RCoE:基于以太网的RDMC

横向扩展:一起弄。在原有的基础上在添加。

集群是物理状态,将多台主机放在一个物理区域。

分布式是逻辑状态,让不同物理区域的主机同时干一件事。

FC的平面为什么要同时要管理平面和BMC平面:

BMC平面可以控制主机开关机。

管理平面可以管理一些业务的。

BIOS:在硬件开启之前需要开启CPU。

kunlun:开放架构小型机。

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值