简单的二层网络

1、MAC(48比特长,16进制表示的)

MAC地址就是网卡上的一个物理地址,理论上全球唯一,0-23位是组织唯一标志符,是用来识别lan(局域网)节点的标识,24-47位是由厂家自由分配,其中40位是组播地址标志位

2、IP地址

IP地址有2个功能

1)给广播域编址

2)给广播域寻址

3、SW交换机

是给广播域转发消息的这个转发消息分2种,一种是单播,另一种是广播

4、网关

是lan局域网内想要访问非本广播域的IP地址时,就需要找网关了。

5、TCP端口号

80是HTTP

23是telnet

21/20是ftp

1是ICMP

25是SMTP

6、封装

OSI参考模型有七层,封装是从上往下封装,解封装是从下往上解封装

应用层

表示层

会话层

传输层                  数据段

网络层                  数据包

数据链路层          数据帧

物理层                  比特

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用numpy实现简单二层神经网络的示例代码: ```python import numpy as np class NeuralNetwork: def __init__(self, input_size, hidden_size, output_size): self.W1 = np.random.randn(input_size, hidden_size) # 输入层到隐藏层的权重矩阵 self.b1 = np.zeros((1, hidden_size)) # 隐藏层的偏置向量 self.W2 = np.random.randn(hidden_size, output_size) # 隐藏层到输出层的权重矩阵 self.b2 = np.zeros((1, output_size)) # 输出层的偏置向量 def forward(self, X): # 前向传播计算输出 self.z1 = np.dot(X, self.W1) + self.b1 self.a1 = np.tanh(self.z1) self.z2 = np.dot(self.a1, self.W2) + self.b2 self.a2 = self.sigmoid(self.z2) return self.a2 def backward(self, X, y, learning_rate): m = X.shape[0] # 样本数量 # 反向传播更新权重和偏置 delta2 = self.a2 - y dW2 = (1 / m) * np.dot(self.a1.T, delta2) db2 = (1 / m) * np.sum(delta2, axis=0, keepdims=True) delta1 = np.dot(delta2, self.W2.T) * (1 - np.power(self.a1, 2)) dW1 = (1 / m) * np.dot(X.T, delta1) db1 = (1 / m) * np.sum(delta1, axis=0, keepdims=True) self.W2 -= learning_rate * dW2 self.b2 -= learning_rate * db2 self.W1 -= learning_rate * dW1 self.b1 -= learning_rate * db1 def train(self, X, y, epochs, learning_rate): for epoch in range(epochs): output = self.forward(X) self.backward(X, y, learning_rate) if epoch % 100 == 0: loss = self.calculate_loss(y, output) print(f"Epoch {epoch}, loss: {loss:.4f}") def predict(self, X): return self.forward(X) def calculate_loss(self, y_true, y_pred): return -np.mean(y_true * np.log(y_pred) + (1 - y_true) * np.log(1 - y_pred)) def sigmoid(self, x): return 1 / (1 + np.exp(-x)) ``` 上述代码定义了一个名为NeuralNetwork的类,它具有输入层、隐藏层和输出层。在初始化函数中,随机初始化了权重矩阵和偏置向量。forward函数实现了前向传播,backward函数实现了反向传播和更新权重和偏置。train函数用于训练神经网络,predict函数用于进行预测。calculate_loss函数计算损失函数的值,sigmoid函数实现了激活函数sigmoid。 你可以根据自己的需求修改代码中的参数和结构,比如调整隐藏层的大小、修改激活函数等。然后使用训练集进行训练,最后使用测试集进行预测。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值