目录
引言
生存还是毁灭...这是个问题......
我才懒得管这些有的没的,每天开开心心的摸鱼摆烂,睡觉干饭,偶尔打个游戏放松一下仅这些便已足够日常的生活了。心情如果不好的话......就看一下“猴王”(《笨女孩》)心情就好多了!然后再偶尔挥霍一下...买点水果,炸鸡;和朋友打个台球,调戏一下AI菌也挺不错。那么就闲聊到这里吧,毕竟这里是IT行业的专业性平台,我们就认真的去学习知识吧,当然偶尔的幽默与闲谈也是可以必要的......至少我不喜欢过于桎梏的行为。
虽然,我也很想做个目录,提高大家的观感体验。但...我还没搞明白它的机制。所以随缘吧...有目录的话,就证明我大概率理解它的机制了;没有的话,就没有了...也没什么可说的,我就是个“绯雾”!
这次的帖子呢,我们就来唠一唠“硬件”!可能对于IT硬件已经熟练掌握的一些人而言,这些根本不必要去讲解。但其实至今也有很多人对于硬件并不理解,或者可以说根本就没有概念。没有办法,这种情况仍然持续存在......所以我希望可以通过自己的能力为实现“社会主义现代化进程”而努力!(没错,这就是自我感动...吾乃一介贫民,呜呼哀哉)
在我目前的认知里,我将会对于两个方面(计算机;服务器)进行各自硬件部件的分析,然后讲解各部件的意义与作用。大致的粗略结构如下:
计算机 |
---|
中央处理器 |
控制器 |
存储设备 |
... ... (省略) |
虽然结构略显粗糙,我也是通过AI根据传统的冯·诺依曼结构(Von Neumann Architecture)进行知识点总结后,通过表格整理出大致的大纲。
说到了这里,我们就来插个队简单来聊一下冯·诺依曼结构(Von Neumann Architecture)。在早期计算机(如ENIAC)采用固定电路编程,每次更换任务都需要重新接线,效率极低。冯·诺依曼忍无可忍,脑子一抽提出了“存储程序”概念。然后在1945年的《EDVAC报告书》中首次系统阐述,此概念将程序和数据统一存储在内存中,通过指令控制执行,极大提升了灵活性。
那一年他作为核心科学家参与美国“曼哈顿计划”,负责复杂数学计算以支持原子弹研制,其计算的冲击波模型也为后续核武器设计提供了理论依据,加速了第二次世界大战的终结。
在其架构中,计算机由五大核心模块构成,分别为:运算器、控制器、存储器,输入设备与输出设备。其设计奠定了现代计算机的理论基础,是计算机科学领域的基石,深刻影响了现代计算机的设计与发展。以下为各模块的功能以及其对应的现代硬件:
模块 | 功能 | 对应现代硬件 |
---|---|---|
运算器 | 执行算术/逻辑运算(如加减乘除、比较) | CPU中的ALU(算术逻辑单元) |
控制器 | 读取指令、协调各部件工作 | CPU中的控制单元(CU) |
存储器 | 统一存储程序和数据 | 内存(RAM/ROM) + 硬盘/SSD |
输入设备 | 将外部数据/程序输入到存储器 | 键盘、鼠标、网络接口卡等 |
输出设备 | 将处理结果输出给用户 | 显示器、打印机、存储设备等 |
其架构不仅简化了硬件设计,降低制造成本;也可以通过增加存储器容量或I/O设备扩展功能。但相应的...有利必有弊!(就如《老子》里的“祸兮福之所倚,福兮祸之所伏”一般。)由于程序和数据共享总线,计算机在同一时间只能进行读或写操作;且受限于并行性,顺序执行模式难以充分地利用多核/分布式计算潜力。
然而,最严重的问题便是“存储墙”。它是计算机体系结构中处理器与存储器性能差距持续扩大的核心瓶颈问题。其本质是冯·诺依曼架构下计算速度与数据供给速度不匹配的必然矛盾,具体表现为处理器性能提升速率远快于内存带宽和延迟的改进速度,导致系统整体效率受限。(也就是所谓的“木桶效应”)所以我们在组装电脑时,就需要考虑到彼此硬件运作的适应... ...
正篇
计算机,computer,对于大部分老百姓而言屡见不鲜。虽然如今网络已逐步深入生活,但很多人却对于计算器的基本构成并不了解。所以为了让更多的人初步的了解这类知识,我也将继续遵循“引言”中所提到的冯·诺依曼架构来为大家进行讲解。
可为什么要去讲解这些呢?真的是为了让大多数人去就此进行就业吗?不是的,如果真的如此...我应该也不会继续下去,因为我的能力并未熟练掌握。比起误人子弟,还不如早点放弃。(无奈摊手.jpg)
一、中央处理器(CPU)
中央处理器,CPU。计算机的“大脑”,负责执行指令、协调硬件资源、处理数据运算、日常发烧,比金子还贵的小挂件。它的设计融合了众多领域先进的技术:半导体工艺、体系结构、指令集等等。以下从工作原理,现代技术展开解说。(原为组成结构,可你会看吗?可以通过小白简单的文件看懂吗?反正我不能,欸嘿~)
CPU的工作原理
以ADD RAX, RBX
指令为例,展示Intel Core处理器(如13代i9)的6步核心流程,以下流程概览:
取指 → 解码 → 重命名 → 执行 → 写回 → 提交
1. 取指(Fetch)
- 任务:从内存获取指令
- 关键动作:
- PC寄存器指向当前指令地址(例如
0x7FF814A21000
) - L1指令缓存(32KB/核)提供机器码
48 01 D8
(对应ADD RAX, RBX
) - 分支预测器猜测下一条指令位置(若预测失败需清空流水线)
- PC寄存器指向当前指令地址(例如
2. 解码(Decode)
- 任务:将复杂x86指令拆解为微操作(μOps)
- 关键动作:
- 识别
48 01 D8
为“64位加法指令” - 分解为3个μOps:
- 从寄存器RBX读数据
- 从寄存器RAX读数据
- 执行加法并写回RAX
- 识别
3. 寄存器重命名(Rename)
- 任务:避免数据冲突(如同时修改RAX的多个指令)
- 关键动作:
- 将逻辑寄存器RAX映射到物理寄存器P5
- 将逻辑寄存器RBX映射到物理寄存器P12
4. 执行(Execute)
- 任务:完成算术逻辑运算
- 关键动作:
- ALU单元接收P5(RAX值)和P12(RBX值)
- 1个周期完成加法运算(如0x00000014 + 0x0000000A = 0x0000001E)
5. 写回(Writeback)
- 任务:将结果暂存到物理寄存器
- 关键动作:
- 加法结果
0x0000001E
写入物理寄存器P5(对应逻辑RAX)
- 加法结果
6. 提交(Commit)
- 任务:确认指令完成并更新可见状态
- 关键动作:
- 重排序缓冲(ROB)检查无异常后,将P5的值同步到逻辑寄存器RAX
- PC寄存器指向下一条指令
现代CPU设计挑战与突破
由于我自己的能力低下,所以也就让Ai来帮忙总结了。抱歉......
1.物理极限突破
-
3D堆叠技术:
- AMD 3D V-Cache:通过硅通孔(TSV)堆叠64MB SRAM,游戏性能提升15%。
- 散热难题:堆叠层间需嵌入微流道(Microchannel)液冷结构。
-
异构集成:
模块 工艺节点 功能 计算芯片(CCD) 5nm 8个Zen4核心 + 32MB L3 IO芯片(IOD) 6nm DDR5控制器 + PCIe 5.0接口
2. 能效优化技术
-
近阈值计算(Near-Threshold Computing):
- 工作电压从1.2V降至0.5V,能效提升5倍(Intel Quark系列)。
- 代价:频率降低至100MHz-500MHz。
-
时钟门控(Clock Gating):
- 关闭空闲模块的时钟信号,AMD Zen4空闲状态功耗仅15mW。
总得来说呢,CPU的工作原理以及现代技术的挑战与突破便是这些,可对于老百姓而言有用吗?没错,就是没有!对于老百姓而言,性价比是最重要的东西。我没办法去对于相应品牌CPU进行评价,可是我对于它的看法就是“先观望,再观望”。并且有时还需要去看相应官方的公告,就比如24年9月下旬,intel的桌面端CPU以及少数移动端“HX”后缀的CPU出现了问题。
我记得很清楚,那段时间...AMD的CPU都涨价了。
二、控制器
控制器(Controller)是电子系统中的核心逻辑单元,负责接收输入信号、处理数据并输出指令,协调各部件按预定规则运行。其本质是实现“感知→决策→执行”闭环控制的智能模块。其核心功能有信息采集、逻辑处理、指令输出,通信协调。
如果按控制逻辑复杂度进行分类,那么就会分为开环与闭环,详细如下:
- 开环控制器:输出仅依赖输入信号,无反馈(如定时开关)。
- 闭环控制器:实时监测输出结果并动态调整(如恒温系统、自动驾驶)。
如果按应用领域分类,列表如下:
类型 | 特点 | 典型应用 |
---|---|---|
微控制器(MCU) | 集成CPU、存储器、I/O接口的单芯片系统,低功耗,实时性强 | 家电、物联网设备、汽车电子 |
可编程逻辑控制器(PLC) | 工业级可靠性,模块化设计,支持梯形图编程 | 工厂自动化、机械控制 |
中央处理器(CPU)控制单元 | 负责指令译码、流水线调度、异常处理 | 计算机、服务器 |
专用控制器 | 针对特定场景优化(如电机控制、电源管理) | 无人机飞控、SSD主控芯片 |
三、存储器
存储器是计算机系统中用于存储程序、数据及运算结果的硬件设备,分为易失性(临时存储)与非易失性(永久存储)两大类,当然也具有特殊用途的存储器:
类型 | 典型代表 | 特点 |
---|---|---|
易失性存储器 | DRAM(内存)、SRAM | 依赖电力保持数据,速度快(纳秒级延迟),用于临时运算与缓存。 |
非易失性存储器 | NAND闪存(SSD)、HDD | 断电后数据保留,速度较慢(微秒~毫秒级),用于长期存储。 |
特殊用途存储器 | ROM、EEPROM、3D XPoint | 固化程序(如BIOS芯片)、高频读写(如Optane内存)等场景专用。 |
主流存储器技术解析
1. 易失性存储器
-
DRAM(动态随机存取存储器)
- 原理:利用电容存储电荷,需周期性刷新(如DDR5刷新频率64ms)。
- 技术演进:
- DDR4 → DDR5:带宽翻倍(3200MHz → 6400MHz),电压降至1.1V。
- HBM(高带宽内存):3D堆叠技术,用于GPU/AI加速卡(如NVIDIA H100显存带宽3TB/s)。
-
SRAM(静态随机存取存储器)
- 原理:通过触发器电路保持数据,无需刷新,速度更快(1-10ns延迟),但成本高、密度低。
- 应用:CPU缓存(如Zen4 L3缓存达128MB)。
2. 非易失性存储器
-
NAND闪存(SSD)
- 技术类型:
- SLC:单层单元,寿命长(10万次擦写),成本高(企业级SSD专用)。
- TLC/QLC:三层/四层单元,容量大(8TB单盘),寿命较低(1千~3千次擦写)。
- 接口标准:
- SATA III:理论速度6Gbps(实际550MB/s),逐步淘汰。
- PCIe 4.0/5.0:NVMe协议下速度达16GB/s(如三星990 Pro 12.4GB/s)。
- 技术类型:
-
HDD(机械硬盘)
- 原理:磁头在旋转磁盘上读写数据,容量大(30TB单盘),速度慢(120-250MB/s)。
- 技术革新:HAMR(热辅助磁记录)技术突破容量瓶颈,2025年单盘可达50TB。
四、输入与输出设备
一、输入设备
-
定义与功能
输入设备用于将用户指令或外部数据转换为计算机可识别的信号,是人机交互的核心媒介。 -
分类与典型设备
类型 代表设备 核心功能 交互类 键盘、鼠标、触摸屏 输入文本、控制光标、触控操作(如游戏操控、图形设计) 图像采集类 扫描仪、数字摄像头 转换纸质文档为电子文件、捕捉图像/视频(如证件扫描、视频会议) 语音输入类 麦克风、语音识别器 录制音频、语音指令控制(如智能音箱、会议录音) 特殊输入类 光笔、数位板、光学阅读器 手写绘图、工业条码扫描(如设计绘图、考试阅卷) -
技术原理
- 键盘:通过电路矩阵和扫描码将物理按键转换为数字信号,支持机械轴(如Cherry MX)实现不同手感。
- 鼠标:光学/激光传感器捕捉位移,DPI(每英寸点数)决定精度(如电竞鼠标达26000 DPI)。
- 扫描仪:CCD/CMOS传感器接收反射光,分辨率达4800 dpi(高精度文档数字化)。
二、输出设备
-
定义与功能
输出设备将计算机处理结果转化为人类可感知的形式(图像、声音、文本等)。 -
分类与典型设备
类型 代表设备 核心功能 显示类 显示器、投影仪 输出图像/视频(如4K显示器、激光投影) 打印类 喷墨打印机、激光打印机 生成纸质文档(如彩色照片打印、高速文稿输出) 音频类 扬声器、耳机 播放音乐/语音(如Hi-Fi音响、降噪耳机) 特殊输出类 3D打印机、盲文显示器 立体模型打印、无障碍信息输出(如医疗模型、视障辅助) -
技术原理
- 显示器:LCD面板通过液晶分子偏转控制光线,OLED屏自发光实现高对比度(如240Hz刷新率电竞屏)。
- 激光打印机:静电吸附碳粉并加热定影,打印速度达60页/分钟(企业级高效输出)。
- 投影仪:DLP芯片微镜反射光源,亮度超3000流明(会议室/家庭影院适用)。
三、未来发展趋势
-
输入设备革新
- 脑机接口:非侵入式EEG头环实现意念控制(实验室阶段)。
- 触觉反馈:VR手套模拟真实触感(如压力/温度反馈)。
-
输出设备升级
- Micro LED显示:自发光+高亮度,替代OLED(2026年商用化)。
- 全息投影:空气成像技术(无需介质,立体影像交互)
五、闲谈
没错,写完了......也知道自己是多么屑。唉...我该怎么和AI工作啊?乖乖地去学习吧,至少这一点是正确的。