欧鹏HCIP 第二次作业 RIP环境下的MGRE实验(待完善)

 作业要求:


1.R5为ISP,只能进行IP地址配置,其所有地址均为公有IP地址;

2.R1和R5间使用PPP的PAP认证,

   R5为主认证方;R2与R5之间使用PPp的chap认证,

   R5为主认证方;R3与R5之间使用HDLC封装。
3.R1/R2/R3构建一个MGRE环境,R1为中心站点;R1、R4间为点到点的GRE。

4.整个私有网络基于RIP全网可达。

5.所有Pc设置私有IP为源IP,可以访问R5环回

大概实验完成步骤,和大概用到的代码模版


1.进入系统视图:

system-view

2,配置路由器接口和IP地址:

interface GigabitEthernet0/0/0 <-- 进入特定接口视图>
ip address <IP地址> <子网掩码> <-- 配置IP地址和子网掩码>

3,启用RIP协议:

router rip <-- 进入RIP配置视图>
network <子网地址> <-- 声明要路由的子网>

4,配置路由汇总:

summary-address <主网地址> <子网掩码> <-- 配置汇总地址和子网掩码>

5,配置静态路由:

ip route-static <ISP子网地址> <子网掩码> <下一跳地址> <-- 配置静态路由>

6,启用MGRE协议:

mpls traffic-eng router-id <路由器ID> <-- 配置路由器ID>
mpls traffic-eng area-id <区域ID> <-- 配置区域ID>
mpls traffic-eng interface GigabitEthernet0/0/0 <-- 选择要加入的接口>

7,验证配置:

display ip routing-table <-- 显示路由表信息>
display mpls traffic-eng router-id <路由器ID> <-- 显示MGRE相关配置信息>
ping <目标IP地址> <-- 测试主机之间的连通性>

 

 

好的,这里我会使用jieba第三方库进行分词和词频统计,并使用wordcloud和matplotlib库制作词云图。请确认您已经安装了这些库。 首先,我们需要读取`水浒传.txt`文件并将其分词。 ```python import jieba # 读取文件 with open('水浒传.txt', 'r', encoding='utf-8') as f: text = f.read() # 分词 words = jieba.lcut(text) ``` 接下来,我们需要对分词结果进行词频统计。为了统计时适当考虑相同的人物的不同叫法,我们可以使用一个字典来存储每个人物的出现次数。 ```python # 人物名称列表 names = ['宋江', '卢俊义', '吴用', '公孙胜', '关胜', '林冲', '秦明', '呼延灼', '花荣', '柴进', '李应', '朱仝', '鲁智深', '武松', '董平', '张清', '杨志', '徐宁', '索超', '戴宗', '刘唐', '李逵', '史进', '穆弘', '雷横', '李俊', '阮小二', '张横', '阮小五', '张顺', '阮小七', '杨雄', '石秀', '解珍', '解宝', '燕青', '朱武', '黄信', '孙立', '宣赞', '郝思文', '韩滔', '彭玘', '单廷珪', '魏定国', '萧让', '裴宣', '欧鹏', '邓飞', '燕顺', '杨林', '凌振', '蒋敬', '吕方', '郭盛', '安道全', '皇甫端', '王英', '扈三娘', '鲍旭', '樊瑞', '孔明', '孔亮', '项充', '李衮', '金大坚', '马麟', '童威', '童猛', '孟康', '侯健', '陈达', '杨春', '郑天寿', '陶宗旺', '宋清', '乐和', '龚旺', '丁得孙', '穆春', '曹正', '宋万', '杜迁', '薛永', '施恩', '李忠', '周通', '汤隆', '杜兴', '邹渊', '邹润', '朱贵', '朱富', '施琅', '李立', '杨瑞', '赵云', '段景住'] # 词频统计 word_count = {} for word in words: if word in names: if word in word_count: word_count[word] += 1 else: word_count[word] = 1 ``` 最后,我们可以使用wordcloud和matplotlib库制作词云图。 ```python from wordcloud import WordCloud import matplotlib.pyplot as plt # 生成词云图 wc = WordCloud(background_color='white', font_path='msyh.ttc', width=800, height=600) wc.generate_from_frequencies(word_count) # 显示词云图 plt.imshow(wc, interpolation='bilinear') plt.axis('off') plt.show() ``` 完整代码如下: ```python import jieba from wordcloud import WordCloud import matplotlib.pyplot as plt # 读取文件 with open('水浒传.txt', 'r', encoding='utf-8') as f: text = f.read() # 分词 words = jieba.lcut(text) # 人物名称列表 names = ['宋江', '卢俊义', '吴用', '公孙胜', '关胜', '林冲', '秦明', '呼延灼', '花荣', '柴进', '李应', '朱仝', '鲁智深', '武松', '董平', '张清', '杨志', '徐宁', '索超', '戴宗', '刘唐', '李逵', '史进', '穆弘', '雷横', '李俊', '阮小二', '张横', '阮小五', '张顺', '阮小七', '杨雄', '石秀', '解珍', '解宝', '燕青', '朱武', '黄信', '孙立', '宣赞', '郝思文', '韩滔', '彭玘', '单廷珪', '魏定国', '萧让', '裴宣', '欧鹏', '邓飞', '燕顺', '杨林', '凌振', '蒋敬', '吕方', '郭盛', '安道全', '皇甫端', '王英', '扈三娘', '鲍旭', '樊瑞', '孔明', '孔亮', '项充', '李衮', '金大坚', '马麟', '童威', '童猛', '孟康', '侯健', '陈达', '杨春', '郑天寿', '陶宗旺', '宋清', '乐和', '龚旺', '丁得孙', '穆春', '曹正', '宋万', '杜迁', '薛永', '施恩', '李忠', '周通', '汤隆', '杜兴', '邹渊', '邹润', '朱贵', '朱富', '施琅', '李立', '杨瑞', '赵云', '段景住'] # 词频统计 word_count = {} for word in words: if word in names: if word in word_count: word_count[word] += 1 else: word_count[word] = 1 # 生成词云图 wc = WordCloud(background_color='white', font_path='msyh.ttc', width=800, height=600) wc.generate_from_frequencies(word_count) # 显示词云图 plt.imshow(wc, interpolation='bilinear') plt.axis('off') plt.show() ``` 运行代码后,就可以得到词云图了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

星鬼123

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值