Logisim设计模型机——编制并执行程序

 

  • 前言

计算机组成原理课程设第一部分使用logisim软件设计一个模型机器,包括但不限于CPU,主存,实现至少4条指令,在其上编织并执行一个程序(最好是循环程序)。

 

  • 题目 

logisim设计相应的课程设计逻辑电路。

1. 课程设计基本完成作业

具体电路功能为

(1)有清晰是时序逻辑。

(2)有完整的微操作发生器(四条基本指令:ADD LDA JMP STP)。

(3)数据传递正确,并能运行出结果,结果存在ACC(累加器)中。

2. 课程设计选做作业

具体电路功能为

(1)有清晰是时序逻辑。

(2)有完整的微操作发生器(八条基本指令、建议可以实现一个循环程序段)。

(3)数据传递正确,并能运行出结果,结果存在ACC(累加器)中。

相关文档

  • 设计方案

  1. 设计指令集
  2. 为每个指令设计微操作
  3. 做微操作时间表
  4. 根据时间表制作微操作发生器Microoperation signal generator(我简称为MOG)
  5. 制作CPU和存储器等部件
  6. 调试执行

 

  • 具体实施

 

  • 设计指令集

该指令集设计为8位的指令字长,高四位为OP,低四位为地址码或者立即数。

我首先设计并完成了8条指令:LDA(取数) ADD STA(存数) SHL SHR NOT JMP STP(停止)

为了实现循环又添加了4条指令:CMP  INC  LDI(取数至ID寄存器)  JE

如下图所示

需要注意的是在相关文档中,提到在数据寻址时,高位自动补1010,在跳转指令寻址时高位自动补0001

比如:0000 0001 识别为LDA [1010 0001]; 1100 0001 识别为JMP [0001 0001] 如下图所示

故而需要在寻址时设计一个 根据指令不同 自动补齐高位的电路。(在下面的指令寄存器电路模块有所体现)。

  • 为每个指令设计微操作

在此举几个例子:

· ADD
EF:
    T0: PC->MAR; 1->R
    T1: M[MAR]->MDR; PC+1->PC
    T2: MDR->IR
    T3:
EX:
    T0: Ad(IR)->MAR; 1->R
    T1: M[MAR]->MDR
    T2: MDR->X
    T3: X+ACC->ACC

 

· LDA
EF:
    T0: PC->MAR; 1->R
    T1: M[MAR]->MDR; PC+1->PC
    T2: MDR->IR
    T3:
EX:
    T0: Ad(IR)->MAR; 1->R
    T1: M[MAR]->MDR
    T2: MDR->ACC
    T3: 

FE是取指令周期,EX是执行周期。这里不考虑间址周期。

 

 

  •  微操作时间表

周期

时钟

微操作(本文件中hex(op)码)

LDA(0)

CMP(1)

ADD(2)

INC(3)

STA(4)

LDI(5)

SHL(6)

SHR(8)

NOT(a)

JMP(c)

STP(e)

JE(f)

FE

T0

PC->MAR 

1->R

T1

M[MAR]->MDR

PC+1->PC

T2

MDR->IR

T3

 

 

 

 

 

 

 

 

 

 

 

 

 

EX

T0

 

Ad(IR)->MAR

 

 

 

 

 

 

 

Ad(IR)->CMPer

 

 

 

 

 

 

 

 

 

 

 

1->R

 

 

 

 

 

 

 

 

 

1->W

 

 

 

 

 

 

 

 

 

 

 

T1

 

M[MAR]->MDR

 

 

 

 

 

 

 

 

ACC->MDR

 

 

 

 

 

 

 

 

 

 

 

ID->CMPer

 

 

 

 

 

 

 

 

 

 

 

T2

MDR->X

 

 

 

 

 

 

 

 

 

 

 

MDR->ACC

 

 

 

 

 

 

 

 

 

 

 

MDR->M[MAR]

 

 

 

 

 

 

 

 

 

 

 

Ad(IR)->PC

 

 

 

 

 

 

 

 

 

 

STOP

 

 

 

 

 

 

 

 

 

 

 

¬AC->AC

 

 

 

 

 

 

 

 

 

 

 

ACC<<<

 

 

 

 

 

 

 

 

 

 

 

ACC>>>

 

 

 

 

 

 

 

 

 

 

 

ID+1->ID

 

 

 

 

 

 

 

 

 

 

 

MDR->ID

 

 

 

 

 

 

 

 

 

 

 

T3

X+ACC->ACC

 

 

 

 

 

 

 

 

 

 

 

 

现在的上传资源好像不能自己定积分了,默认就是5积分?

这个图实在太大,截图显示不清楚,可以使用logisim打开我完成的电路图看。

以上是整体的MOG图,左下角一排是输入引脚,最上面一排是输出引脚,最左侧是一个译码器,根据输入的4位OP码译码选择指令,中间和右侧这整一大片是对微操作的选择电路。关于选择电路主要就是根据微操做时间表上的节拍和周期以及指令类型进行选择。

当完成微操作内部时,可以通过下图中的按钮进入一个调整页面,调整其他程序调用它时的显示样式。

 

  • 制作CPU和存储器等部件

 

可以看到这张图比刚才还大。。。

我来分部解说一下:

1. 时钟控制器

2. 存储器

3. 微操作发生器

4. ALU(加法器 位移操作器 操作数寄存器X)

5. 程序计数器

6. 相等标志位

7. ID寄存器

8. 指令寄存器IR

9. 门控电路和时钟控制电路

 

  • 调试执行

1. 右键存储器 Load Image... 载入数据code

首先将数据清零,然后观察存储器数据是这样的

根据起那面的指令设计,不难理解这里面的程序是这样的

00: LDA [A0]

21: ADD [A1]

43: STA ACC,[A3]

C1: JMP 11

60: SHL

80: SHR

A0: NOT

E0: END

 

2. 接下来再load image cycle 这是一个循环程序

具体内容是这样的 首先给IDload一个数,然后比较这个数是否与某个立即数相等,如果相等则结束,否则进入循环:

ID++,继续比较是否和一个立即数相等,如果相等,这跳出循环,否则继续循环。

详细的汇编指令不在赘述。

 

0613有更新:

其实这里我理解错老师的意思了,老师说的ID其实是一个变址寄存器,在比较的时候时

cmp [ID],立即数 

这种形式的,?,我就不再做修改了,大家只要理解循环的思路,这个也是很容易做出来的。

 

 

 

  • 8
    点赞
  • 74
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
感知是二分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取 +1 和 -1 二值。感知对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型。 感知学习算法是基于随梯度下降法的。具体地,首先任意选取一个超平面,然后用梯度下降法不断地极小化目标函数,找出最优超平面。 以下是感知算法的C++类实现及案例代码: ```c++ #include <iostream> #include <vector> #include <random> using namespace std; class Perceptron { public: Perceptron(int feature_num) : w(feature_num), b(0) {} void train(const vector<vector<double>>& X, const vector<double>& y, int max_iter = 100) { int n_samples = X.size(); int n_features = X[0].size(); mt19937 rng(0); uniform_int_distribution<int> dist(0, n_samples - 1); for (int iter = 0; iter < max_iter; iter++) { int i = dist(rng); double wx = 0; for (int j = 0; j < n_features; j++) { wx += X[i][j] * w[j]; } double yi = y[i]; if (yi * (wx + b) <= 0) { for (int j = 0; j < n_features; j++) { w[j] += yi * X[i][j]; } b += yi; } } } double predict(const vector<double>& x) { double wx = 0; int n_features = x.size(); for (int i = 0; i < n_features; i++) { wx += x[i] * w[i]; } return wx + b > 0 ? 1 : -1; } void print_weights() const { cout << "w = ["; for (double wi : w) { cout << wi << ", "; } cout << "], b = " << b << endl; } private: vector<double> w; double b; }; int main() { vector<vector<double>> X{ {3, 3}, {4, 3}, {1, 1} }; vector<double> y{1, 1, -1}; Perceptron model(X[0].size()); model.train(X, y); model.print_weights(); cout << "predict([3, 4]) = " << model.predict({3, 4}) << endl; return 0; } ``` 在上述代码中,Perceptron类代表感知模型。train函数接受训练数据X和y,以及最大迭代次数max_iter,默认为100。predict函数接受一个样本特征向量x,返回其预测的类别标签。print_weights函数打印训练后得到的权重和偏置项。 本例中,使用学习率为1的随梯度下降法进行模型训练。训练数据X是一个3x2的矩阵,y是一个包含3个元素的向量,表示3个样本的类别标签。模型训练完毕后,使用predict函数对特定样本进行预测。 以上是感知算法的C++类实现及案例代码,希望对你有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值