信息论与编码_生物信息学中的信息论基础(一)

本文是生物信息学中的信息论基础系列第一篇,介绍了信息论的基本概念,如信息、单符号离散信源、自信量和信息熵。通过实例解释了信息熵的计算,并提及R语言在计算信息熵中的应用。下篇文章将探讨信息熵在生物信息学中的应用及互信息。
摘要由CSDN通过智能技术生成

14c24936835d1e97a1ffdf19c8d0ec36.png

大家好,我是你们的小徐同学,目前本科四年级生物技术专业在读,我们又见面了。上一次,我们在一起学习了一篇有关编程基础的文章(《R、Python与Julia基础简介与入门》),详情可见:https://zhuanlan.zhihu.com/p/103705200。

这一次,我将带领大家一起了解一下生物信息学中的信息论,此次内容仅起到一个抛砖引玉的作用,并且仅覆盖信息论的一些最基础的内容。如果各位对信息论十分感兴趣,还是需要各位去买本书(教材)进行系统的学习。

本文参考的教材是电子工业出版社出版,由姜丹老师和钱玉美老师编著的《信息论与编码基础》。

1. 什么是信息?

1948年,美国科学家香农发表的论文《通信的数学理论》,奠定了信息论的理论基础。在这篇论文中,香农对信息定义为:信息是消除不确定性的东西,也就等于通信前后不确定性的消除量(香农照片见图1)。

香农到底有多厉害呢?这里引用知乎上用户“灵剑“的一段话:

别的学科的创始人是发明了一个新的起点,而香农在创立信息论的时候,直接发明了它的终点——只要你还在经典信息论框架内,你就逃不出三大定理的范围,你只能在工程应用上稍微努努力了,当你拼尽全力爬山的时候,香农在山顶等你。
香农的信息论究竟牛在哪里? - 灵剑的回答 - 知乎 https://www. zhihu.com/question/2706 8465/answer/572776043

1d0285cb785d73bbb358cf223b851cad.png
图1:克劳德·艾尔伍德·香农(Claude Elwood Shannon ,1916年4月30日—2001年2月24日)是美国数学家、信息论的创始人。

我们知道,不确定性(可能性)在数学上可以用概率表示:概率越大,不确定性越小;概率越小,不确定性越大。例如:“中国男足获得世界杯冠军”这条信息,根据男足的历年比赛情况,男足世界杯夺冠的概率非常小,这意味着不确定性很大。而一旦这条信息发生,消除的不确定性就很大,我们从中接收到的信息

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值