信息论、通信入门介绍

在这里插入图片描述

信源:产生消息和消息序列的来源

信道:传输的媒介

信宿:接受消息的人或机器

在这里插入图片描述
概率越小,信息量越大;概率越大,接近于1,那么信息量会趋于0,也就是信息量越小。
一个事件的信息量就是这个事件发生的概率的负对数
在这里插入图片描述
定义一为热力学的克劳修斯熵
定义二为量子力学的玻尔兹曼熵
在这里插入图片描述
信息熵是跟所有可能性有关系的。每个可能事件的发生都有个概率。
信息熵就是平均而言发生一个事件我们得到的信息量大小 即 平均信息量。
数学上,信息熵是信息量的期望。
也 可 以 写 成 : H = − ∑ x ∈ U P ( x ) log ⁡ 2 P ( x ) 也可以写成:H=-\sum_{x\in{U}}P(x)\log_2P(x) H=xUP(x)log2P(x)
举例求信息熵:
在这里插入图片描述

Shannon三定律

在这里插入图片描述
例如:ASCII码,摩尔斯码,huffman编码
在这里插入图片描述
例如:音频、视频、图像的编码
在这里插入图片描述
香农公式: 2 B 2B 2B 1 2 log ⁡ ( 1 + S N ) \frac{1}{2}\log({1+\frac{S}{N}}) 21log(1+NS)的乘积
前者(2B):奈奎斯特带宽的倍
后者:在每个符号上~~~
单位:bit/s
举例:Turbo码、 Polar码、 LDPC (Low Density Parity Check Code)

先进信道编码

在这里插入图片描述
LDPC码的译码算法是一种基于稀疏矩阵的并行迭代译码算法
低密度:指校验矩阵中1的密度比较低,例如:
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

网络信息论

在这里插入图片描述
在这里插入图片描述
对于网络的容量问题:

最大流最小割:能够从源点到达汇点的最大流量等于如果从网络中移除就能够导致网络流中断的边的集合的最小容量和。即在任何网络中,最大流的值等于最小割的容量。
详解:最大流最小割

在这里插入图片描述

经典例子:
S广播一个数据包,a,b都是0、1组成的bit数据包
在这里插入图片描述
moduel 2 add:模2加 ( 0+0=0,1+1=0)

例二:
在这里插入图片描述
A最后得到是的 b A ⊕ b R = b A ⊕ b A ⊕ b B = b B b_{A}\oplus b_{R}=b_{A}\oplus b_{A}\oplus b_{B}=b_{B} bAbR=bAbAbB=bB

在这里插入图片描述

通信+机器学习

在这里插入图片描述
在这里插入图片描述

计算、存储、通信的融合

在这里插入图片描述

信息论 前沿展望:

一.Semantic Information Theory

在这里插入图片描述
在这里插入图片描述

问题与未来发展研究方向

在这里插入图片描述
在这里插入图片描述
某些尝试、解决方法:(模糊熵)
在这里插入图片描述

二.Quantum Information Theory

在这里插入图片描述
Bloch sphere:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

三.Bioinformatics

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值