信息是什么
构成客观世界的三大要素
哈佛大学的一个研究小组曾给出过著名的资源三角形理论,也就是组成客观世界的三大基本要素:物质,能量,信息。
他们给出了一个看似十分有说服力的论据:没有物质,什么都不存在;没有能量,什么都不会发生;没有信息,什么都没有意义。
首次将信息与物质、能量相提并论的是控制论的创始人——美国科学家维纳。他说:
“信息是人们在适应外部世界,并使这种适应反作用于外部世界的过程中,同外部世界进行互相交换的内容和名称”。
物理学家估算了宇宙中的信息总量
信息是所有物质和能量都可测量地拥有的东西。管理它们存在的规则,如它们的质量、速度或电荷,都是它们包含的信息位。
英国朴茨茅斯大学的物理学家梅尔文·沃普森估计了单个基本粒子,如电子,储存了多少关于自身的信息。然后他用这种计算方法来估计整个可观测宇宙所包含的惊人的信息量。
沃普森利用克劳德·香农的信息理论,估算出可观测宇宙中的
每个粒子都拥有1.509比特的信息。
这一理论将熵--一个系统中的不确定性数量--与信息联系起来。熵是衡量事件不确定性的标准。但不同类型的信息有不同的熵。
例如,投掷硬币赌正反面,设先验概率为正反均50%,若实际投掷结果如此,则有0比特的信息,因为没有产生新的内容。若结果不同于先验概率,则产生了信息。
沃普森将这些信息熵应用于质子、中子(及其组成夸克)和电子的质量、电荷和自旋,以得出他对它们所拥有的信息量。
然后,利用对这些粒子存在数量的估计,他把它乘以整个宇宙。
结果是大约6……后面是惊人的80个零的信息位,这实际上比以前的估计要低。但沃普森预计到了这一点,因为过去的计算试图说明整个宇宙,而他将计算限制在可观察的部分--不包括反粒子和力(如光玻色子)。
"我们认为所有玻色子都是负责传递信息的力/相互作用粒子,而不是储存信息。"沃普森写道,"我们推测,信息只能存储在稳定且具有非零静止质量的粒子中,而相互作用/力的载体玻色子只能通过波形传递信息。"
他也没有包括不稳定的粒子或反粒子,鉴于它们的寿命极短,"所以它们只能通过人为创造的实验条件或理论上的观察来实现。因此,它们对可观测宇宙的参与是可以忽略不计的,而且通过推断,它们记录信息的能力也是可以忽略不计的。
"但必须提到的是,根据全息原理,信息也可以以其他形式存储,包括在时空结构本身的表面。"
信息是物理实体的这一观点自20世纪20年代以来一直存在。从那时起,实验证明了信息理论和热力学之间的联系,并导致了一个疯狂的想法,即宇宙是由二维现实模拟出的三维。
"这些激进的理论是基于这样的原则:信息是物理的,信息是由物理系统记录的,所有的物理系统都可以登记信息。"
在此基础上,此前曾提出,信息可能是物质的第五种状态,与固体、液体、气体和等离子体并列,甚至更疯狂的是,信息可能是物理学家一直在寻找的暗物质。
这些新的计算方法可以帮助测试这些奇怪而迷人的假说。
"目前的方法为估计每个基本粒子的信息含量提供了一个独特的工具,这对于设计实际的实验来测试这些预测非常有用,"
此外,如果光可以是一个粒子,而物理状态在被观察到之前可以不被确定,那么为什么信息不能成为宇宙的一个物理和基本部分呢?
通信系统模型
我们将通信的整个过程简化为五个基本模块:信源、编码器(发送器)、信道(存在噪声)、解码器(接收器)、信宿,这就是香农的一般通信系统模型。
信息是信源的内涵。
所谓内涵,也就是他所要表达的内容和含义,而这种内涵的载体可以从两个层面上去看,第一个是物理层面,这时我们将其称之为信号,理工科的学生完全可以把它看作是一种可以描述,测量和显示的物理量。
信息以某种信号参量的形式载荷到信号上,就比如说我们有一个正弦波,通过改变它的频率来传递信息,数字0 对应正弦波的频率f1,数字1 对应正弦波的频率f2,(先不要管为何要用0 和1)然后我们在刚刚那个一般通信系统模型的发射端发送一个cos(f1t)或者cos(f2t),注意,这里的cos 信号是一个波,是可以被检测到的,接收端接受到就可以知道你发送的是0 还是1 了(如果要问为什么一定要发个cos 信号而不是其他的,这个也是信号与系统里的内容,此处我们着重去聊信息,故最好不要纠结)而这种传信方式我们在数字通信中称之为2FSK 调制,现在主要应用于广播通信当中。
信号即物理量可以作为承载信息的一种载体。
数学层面上,我们用来承载信息的是消息,或者说是符号。
信息是消息所要描述和度量的对象。
通信研究过程中,我们通常把信源要发送的消息看作是一组消息序列。假如这组序列只由0 和1 组成,那么就是【100101101……】这就是由一堆符号组成的二进制时间序列。通常,对于某个时刻的某一个符号,它只有0 和1 两种可能,而且总是随机的,也就是说,在你接收到这个信号之前,它是0 还是1是未知的。当然在实际上,对于大部分信道而言,即使你接收到了消息也不能百分百确定其承载的信息。序列中的每个符号都是一个随机变量,而给这些随机变量加上一个时间轴,就变成了随机过程。(随机过程是一个让人难过的话题,毕竟高校流传着“随机过程随机过”的说法……)根据符号间的相关性,我们又可以给信源序列分类,比如符号间相互独立,我们称其为无记忆信源;如果后一个符号仅与前一个有关,就叫它二阶马尔可夫链。
小结
在物理层面,信息的载体是信号;在数学层面,信息的载体是符号。它们两者都是消息的外延,而信息则是消息的内涵。
测量就是把信号转换成符号,使之定在,确定。你如何解读符号,所需要的信息都是外部引入的,要增加能量或者质量也是增加你脑子的质量,和储存器无关。
香农定义:信息是用来消除不确定性的东西。
假设我们现在有一排日字形格子。每个日字形格子里有一个小球,用这个小球处在日字形的上格还是下格来记录信息。现在我们有一大排的这种格子,就可以储存非常多的信息。
从信息链理论的角度,这些格子的质量不会随着储存信息而改变。因为可以采用不同的编码方式,从而得到不同的信息。即使对于完全相同的小球位置,我们也可以完全得不到信息,或者得到许多信息,只是因为我们认为每个格子朝上是0,朝下是1,或者认为奇数格朝上是0,朝下是1,或者认为……(某种复杂到信息量巨大的规定),而格子本身必然没有任何改变。
假设日字形格子中间的挡板是可以升起或放下的。把挡板放下,小球在其中的位置不确定。再把挡板升起,限制小球在其中的某个位置,如果你不作什么限制,那挡板可以无限轻,这样是没有储存任何信息,也不用消耗能量。但是如果你要确保挡板升起时小球在指定的一侧,那么你就需要消耗能量了,因为小球处于热运动当中,你要限制它的位置,这是一个熵减的过程,需要消耗kTIn2(兰道尔原理)的能量。这就是1bit信息具有的能量。
那这个能量能释放出来吗?当然可以啦,你让挡板能够在日字形格子里上下活动,小球就会把挡板往下推,气体(只有一个分子的气体哈哈哈)对外做功,就能在可逆过程里释放它的能量了。但是这样它的温度也下降了。如果你采取抹除信息的方法从而不改变它的温度,也就是抽去隔板,那就是自由扩散,信息,也就是能量,就这样耗散了。
这样一个被限制了位置的小球,是具有能量的,但是这个能量与熵(温度)成正比。如果你从几何的角度考虑,那小球就不热运动了,绝对零度的情况下,信息确实不消耗能量,假如你从经典力学去考虑的话。但实际上还有量子力学,它有零点能,这又是另一个极限了。
这个能量在这个经典的情形下,其实就是一种机械能。那机械能能不能具有质量?它是能量,当然也具有质量。限制了位置的小球和格子的系统,它的质量是增加的。
所以说,信息本身具有能量。更进一步,信息也是一种能量,是一种物质。所以,限制实物粒子不能超越光速的相对论,同样用于是实实在在物质的电磁场,也作用于是实实在在物质的信息。信息因此不能超光速传播。当然你可以说其实不是,信息只是信息,不能传播的是信息带来的影响。
兰道尔极限,表示清除1bit信息所需要的最小能量。
数字化,就是把模拟信号变成数字信号再传出去。一个小小的A/D 转换过程,其中大有玄机,要经过采样,保持,量化,编码这一系列复杂的操作。其中采样对应的是模拟信号的时间离散,而量化则对应的幅度值的离散化。
所谓离散化,就是将取值连续的某个量按照某种规则转化成有限个离散值的过程。
为什么要量化呢?直接用连续值不行吗?答案是确实不行,计算机处理不了连续的数据,因此只能把量化后的数据通过某种编码规则进行编码,再交给计算机进行处理。
1940年,美国风光摄影师安塞尔.亚当斯提出了分区曝光理论,他将区域内的光暗明暗程度分成了十一个等级。
不确定性的度量
对于一个事件而言,它发生的概率越小,那么它的不确定性就越大。所以一旦发生,所包含的信息量也就越大。而同样的,发生概率越大,它的不确定性就越小,一旦发生,所包含的信息量也就越小。
概率的大小与信息量是呈反比的。
但我们如果要直接将概率作为度量信息量的标准,就有很多的不便。比如两个概率相加会使得概率变大,同时导致信息量的减少。因此,我们希望找到一个量或者函数可以满足可加性。
信息论的先驱学者哈特莱于1928 年提出:如果一个等概信源有N 个不同的符号,那么它的不确定性就是N 的以二为底的对数,即logN。但显然信源的每个符号不可能是等概的,所以这个理论有其不足之处。
1948年,香农严格定义了信息熵,用以度量信息量以及不确定性的大小。
信息熵需要满足三大要求:单调性,非负性,以及可加性。
这个式子只能用来度量离散单符号信源的不确定性,对于连续信源就有其他的方式去计算其信息量了,虽然形式都大抵类似。
获取信息意味消除信息熵,用对数是因为情况的增加是以2的n次方计算的(每增加一个情况这个情况还要与原来的情况形成新情况)。
1和0是信息的基本单位。
说“A是B样的(B是一个形容词)”,其本质是:A在B的位置是1,在所有非B的位置是0。
线性时不变系统的特性,比如说叠加性质,为什么信号要展开?如果将线性时不变系统的输入用一组基本信号的线性组合来表示,可由系统对这些基本信号的响应,利用叠加性质得到整个系统的输出。因此,照这个思路继续下去,我们可以找到一种求系统输出的更简单的方法,而不需要每次都对于不同的x(t)去解微分方程的y(t)。
以离散时间信号为例,我们可以将一个时间序列表示成一串移位单位脉冲序列的线性组成,而系统对每一个移位脉冲都有一个输出,也就是响应。各个移位脉冲序列的区别仅在于在一个脉冲中加入了不同的时移,因此这里如果把系统变成时不变系统,根据时不变性,那么其对应的输出也就是某一脉冲序列的响应加入一与之对应的时移,因此我们可以确定一个单位冲激响应,而其他脉冲序列的响应仅是在其上添加一个时移,这样我们可以巧妙而简洁的将一个线性时不变系统的输出表示成输入序列与其单位冲激响应的卷积和的形式。故这里可以说是因为线性时不变系统特有的叠加性质和时不变性,才导致了卷积这么一个经典而又简洁的表达形式。
当已知一个线性时不变系统的单位冲激响应时,你也就知道了这个系统的全部特性。
线性时不变系统让之前繁琐的求输出的过程变成了在已知单位冲激响应时求卷积的过程。
卷积的形式就是一个循环移位求和。这个过程完全可以交给计算机(先天)去做,丝毫不需要花费太大的力气。
单位冲激响应怎么得到?把一个狄拉克函数丢到系统里作为输入,看系统的输出就知道了!
以上过程的推导都是基于我们先将一个时间序列表示成一串移位单位脉冲序列的线性组成才得到的。
对于线性时不变系统而言,我们不需要去直接求单位冲激响应,只需要通过输出信号的傅立叶变换除以输入信号的傅立叶变换,得到其频率响应,然后再做一次傅立叶反变换即可。
傅立叶变换的公式,可以看成是时域向频域做的一次映射。
输入,输出,单位冲激响应,这三者是知二推一的关系。
显然在频域里做乘法运算比在时域做卷积运算要方便很多。
在时域上看问题,最多不过是四维空间,时域上很多复杂的问题放到频域里面去看就会简单很多。比如一组不同频率的正弦波的叠加在时域上可能是一个比较复杂的模型,但在频域上则是对应于不同频率处的冲激响应,一目了然。
傅立叶变换,或者是小波变换,或者是离散余弦变换,这些变换本质都是一种基变换,对于不同的系统,不同的研究对象,我们可以选取不同的基来让研究和分析变得更加简单。
复指数信号是线性时不变系统的特征函数。
在研究线性时不变系统及其特性时通常采用傅立叶变换,选取了一组好的基,可以让问题变得简单,比如我们的现在机器学习里很多的降维算法,像PCA,K-L变换也是基变换,对于一些基可能会出现很多很小的系数,或者是零系数,这要用这组基去表示这一信号或者向量时也就更加的简洁。
通过线性时不变系统后,复指数信号的频率没变,系数是一个关于频率w的函数,称频率响应。对于原始的输入信号在做傅立叶展开时(即一组复指数信号的线性组合),每个不同频率的复指数信号前都会有一个系数,这个称之为傅立叶系数,而线性时不变系统也就可以看作是通过乘以相应频率点上的频率响应值来逐个改变输入信号的傅立叶系数。于是我们整理一下就会发现:
如果我们知道一个线性时不变系统的单位冲激响应,通过傅立叶正变换可以求出其频率响应,而如果我们又知道输入信号的傅立叶系数,那么通过乘法就可以求出输出信号所对应的傅立叶级数,而不需要先在时间域上做卷积运算,再做傅立叶级数展开这么麻烦,根据复指数信号是线性时不变系统的特征函数这一点让原本的卷积运算变为了更加简单的逐频率系数相乘。
相对论联系了质量和能量,或者说联系了物质和能量,一定的能量变化可以随之发生粒子的产生和湮灭。量子力学联系了能量和信息,因为波动力学
E=hv
频率是表示信号的一个量。
如果存在终极理论的话,信息,物质,能量应该是存在联系的。
关于全息原理的机制,现在也有关于时空层展性的研究。时空起源于量子纠缠,边界上的物理自由度(算符)可以通过张量网络对应于bulk中的自由度。这个方向需要应用重整化群(MERA),量子信息,以及广义相对论相关知识,并需要tensor network语言。
自由度=算符
能量是媒介。信息赋予能量也许可以转变为物质。剥离了信息的物质转变为能量。
也许能量是物质分布不均而产生的一种均化趋势或累计效应,信息本身就是能量传递(物质位置变化)的测量。
本源是啥?随便你说它是啥。既然它是本源那它就只能是它自己了,说它是其他东西都不是它。
围绕信息,即关于信息与质量,信息与能量,应该还有与E=mc^2同一个层面的结果,等待下一个爱因斯坦来发现。试想一下,信息跟意识有什么关系?主观跟客观还有分别么?
我们来研究一个公式:E=hv
这是普朗克的光子能量公式。普朗克得到这个公式的时候很惊诧,因为他以为光是一种波,结果他得到的结论是光是一种量子。
但后世,我们却可以更为惊诧,因为我们如果把这个公式和侠义相对论联立,可以得出:
E=mc^2
E=hv
hv=mc^2
v=m((c^2)/h)
其中,v是光子振动频率,((c^2)/h)是一个常量。也就是说,光子振动频率是和质量m成正比的。
德布罗意就连立了这两个方程,得到了物质波。
这两个公式不该联立,因为这两种理论各种矛盾。这一系列问题也是现在弦理论研究的大头。我们先无视这些问题,回过头来看v。
光子振动频率是什么?我们可以把它理解为光子的能量表现,也可以理解为更深层次,量子力学上的一些特性表现。
频率是空间和时间量化后的信息表征。
频率本身是个虚的概念,它的单位是赫兹,无法和焦耳或者克或者牛顿进行转化。它就是一个信息。
然后我们再回过头来看信息是什么。
从频率这个概念,我认为你可以把它看作空间和时间的坐标系(闵可夫斯基时空)量化后的一个特征表现。
信号为何“能"在时域和频域做转换,或许背后的原因就是信息和时空有关系。
如果把信息看作是一个粒子,它所包含的一段时空坐标系中的值,或者说表征。那频率正好符合了这个特征。也就是说,在普朗克公式中,能量和信息挂钩起来了。
如果按照这种推导。那么宇宙中便只有三要素了,物质,能量,信息。空间和时间都可以省略了。而且这三要素是可以互相转化的。回过头来说,我们可以认为整个宇宙只有一个要素,即信息,它的单位是比特。
物质和能量是不是还可以进一步和在一起,把它称为状态。宏观下有物质,微观中似无物质,只是能量的概率分布,信息与概率互补。
信息量由其所能消除的状态的不确定性来决定。(度量方式,参见信息论第一课)
信息和物质的关系:信息的存在、改变、转移必须以物质为载体。信息(通过物质)的转移可以改变物质与物质的相互作用关系。
信息和能量的关系:兰道尔原理,即,在平衡态擦除1bit的信息要消耗的能量的最小值为kTln2(k为玻尔兹曼常数,T为环境温度)。直观理解就是,信息的(逻辑上不可逆的)改变需要消耗能量。
兰道尔原理的表述:“任何对于信息的逻辑上不可逆的操作,比如擦除1比特(bit)的信息或者合并两条计算路径,一定伴随着信息载体以外的系统的相应的熵增。”这里的关键是逻辑上不可逆,像读、写、复制都是逻辑上可逆的,因此可以不消耗能量,但擦除信息是逻辑上不可逆的,因此必然消耗能量引起熵增。
假定你有一块存储区域(定义为你的系统S),包含N个比特的存储单元,每个存储单元可能具有两种微观状态(分别标记为0和1)。在不包含任何信息的时候,所有的比特在平衡态下都是随机混乱的,所以总共有2N个微观态,那么如果我们要在某一个存储单元写入一比特信息,也就是说环境(定义为E,包括计算机的剩余部分以及用户)和S之间发生一定作用,使得在该比特在S的新平衡态下处于一个特定的态,比如0。这时候体系的微观态数量变为2(N-1),缩减了一半。则这个过程中S的熵变是-kln2,那么根据热力学第二定律,相应的环境E至少会出现kln2的熵增。根据热温熵的定义,这一熵增意味着必须有kT*ln2的能量以热能的形式耗散进入环境。如果环境除热能外的其他有效能量形式不发生改变(这里有效能量指在平衡态下具有做功能力的能量,不包括热能),那么这部分能量必定来自系统S。也就是说
在环境不输入功的情况下,写入1比特信息意味着系统S要损失kTln2的能量。那么相应的,要擦除这一比特信息,环境就必须为体系提供至少kTln2的有效能量(即在平衡态下对系统S做kT*ln2的功)。
总体上考察写入擦除这一循环过程,就会发现,在体系S维持不变的情况下,实际相当于环境为S提供了kTln2的有效能量,最后这部分能量又以热能的形式耗散进入环境中,整个过程伴随着kln2的熵增,是一个不可逆过程。也就是说在外界不输入有效功的情况下,计算机的计算过程不能持续不断地自发进行下去。
底程序要擦除s信息,把信息交还给环境,使s熵增趋向死亡。
熵增不可逆,计算可逆(通过可逆门)。一场计算下来,大量的中间过程的位都留在那里。要从里面检索出正确的结果,还是要消耗负熵。
熵变和热量有关: dS = dQ/T ,所以,
擦除信息 -> 系统熵增 -> 环境要给系统能量。
其实计算本身消耗能量极低,能量消耗主要发生在擦除比特的过程中,也就是在理论上,一个计算系统的能耗只与输入输出位数有关,而和计算无关。
系统储存信息是靠系统内物质本身的物理性质的。如果系统多有了1bit的信息就意味着,原本一位是0还是1是不确定的,现在突然被定死了,要不是0,要不是1。也就是说状态的个数少了一半,就说明Ω变为了原来的一半。带入玻尔兹曼的公式:
ΔS=k ln Ω/2 - k ln Ω=-k ln2
一个系统的如果吸热(放热),那么这个系统的熵就会增加(减少),增加(减少)的量反比于热力学温度。 因为熵在减少,所以系统需要放热,至少放多少?
Q≥kT ln2
如果去除数学上的推导,实际上就一句话:
信息的本质是负熵。
信息熵和热力学熵没有本质区别,擦除信息的时候,信息熵减小,环境的热力学熵就增加,而且总的熵也要增加,所以不违背热力学第二定律。
信息的逻辑状态需要由物理状态来表示(脑子里想的也是神经元的不同状态?), 所以信息的消除对应的是物理状态的消除。按照bit的定义, 一比特的消除意味着,由两个态消除成为一个态。
前提条件是不可逆, 对应着状态的产生/湮灭而不是状态的改变. 开关的开和闭只是信息状态的改变, 要把开关粉碎了才叫信息的消除. 所以处理信息的时候并不一定有最低能耗, 只是在新增或擦除的时候有. 所以会有可逆计算的提出, 量子计算啥的, 由此便不会有限制.
如果你失去了物理系统s的信息,那你就无法获取s所做的功。
信息本身只存在于动物的大脑对感受器感受到的信号进行判断的主观感受。
关于信息,无争议的说法有:信息是系统的要素。信息不是物质,不是能量,且不守恒。信息使得信宿的变化能够模拟信源的变化,但各自的物理、数学形式可以完全不同,物理形式自不待言,数学形式如对数放大器可以把线性的变化转换成对数的变化。
感性直观是检验客观存在的标准。
数学存在性证明是检验实在的标准。
客观存在是经验的,实在是超验的。
主观(对象的)存在是自由的。
引力波可以携带信息。而引力波不是物质(能量),是时空的涟漪。所以信息可以脱离物质而存在。
时空又是什么?更高层次看,还是一种物质形态啊。《同构的世界》这本书可以看看,信息必须与能量结构,在一个层次表现为物质,但是这个信息又反映着下一个层次的能量信息状态。
信息跟物质/能量是两回事。物质/能量客观存在,不以谁的意志为转移。信息,没有能够获取或处理信息的东西存在(生命或计算机),也无所谓有没有信息。
信息涉及展信者与收信者以及载体,展信方式,收信方式五个部分。每一个信息必然会有这五个部分,每一个部分都是千变万化的,所以信息并不是绝对的。
我在尺子上上刻了一个点,你觉得这是信息吗?你不是收信者,没有密钥,即使你有了载体信息链也无法成立。如果你知道收信方式,你就会去用精确到足够位数的观测方式去量点的位置,得到一个数据,再将它二进制化,转译成文字,你会发现内容是一本完整的大英百科全书。
信息只是载体之上的内容而已。
传递信息是传递信息,信息是信息,你先把概念理清楚。消失的质量是信息而引力波是信息载具懂么?蛋白质分布顺序是信息而大脑是信息载具懂么?
力不是物质?那你是不是以为原子里面存在的强弱作用力撑起的场大概也不是物质吧。眼睛看到石头的漫反射难道不是力场反射了光子?手摸到石头的实在感难道不是力场拒绝了你的手进入石头的分子结构?两个星系的相互作用力和两个分子的相互作用力有什么本质区别吗?力不是物质什么是物质?
力,物理学的定义非常清楚,是物质与物质之间的相互作用,描述的是动量对时间的变化率。力是物质之间的相互作用,不是物质本身。力能描述动量对时间的变化率,物质能描述动量对时间的变化率么?
信息和质量的兑换,看的不是信息的含义,而是信息的量。在信息论里,信息的量化是有明确定义的,就是消除了多少不确定性,消除了多少不确定性就是有多少信息量,信息量叫做信息熵,信息熵的单位是比特,1比特就是消除一个0和1的不确定性。信息是可以精确量化的,量是可计算的,这个是预备知识。好了,到你的case,其实有结就是1,没结就是0,一个结就是一个bit,消除了一个不确定性。你把解的奇数和偶数节点的结反一下,只是含义变了,但是信息的量(信息熵并没有变),所以质量没变化。质量是和信息的量(信息熵/消除的不确定性数量)有关,和信息的含义无关。信息的量/信息熵是可以精确计算的,当然可以比较(量的多少),从而比较质量的多少。
信息熵(信息的量)对应的是质量。改变信息的含义对应的是能量,每改变一次含义,都会增加对象的内能,比如摩擦力温度上升。改变信息需要消耗能量,消耗的能量会成为对象(信源)的内能(能量守恒定律)。改变1bit信息需要的能量就是兰道尔极限。百科全书的例子:一个确定的点(位置精度),就是代表有和无,一个比特信息,消除一个0和1的不确定性。
构成一个程序的基本要素
1、日志器
2、looper
信息是一个二维事物,表示为(property,value).这是信息的最小单元。一条最小单元的完整信息(元信息)应该是property1=value1。即一条完整的信息至少确切表明了一个属性的一个具体存在状态。元信息集合成为是一个复合信息,完整的复合信息(当事物每一属性都知具体值时)能表征一个事物的具体存在状态。
信息的本质
信息是抽象的二维概念,一个维度是属性(内涵),另一维度是值(物理量)。信息表征事物或事物一个属性的具体存在状态。一条信息的数学表达为:property=value。如果只从属性的粒度来看,把属性称为键,则信息实质就是指一个键值对(KeyValuePair)。信息量(信息的大小)就是键值对的数量。
信息的作用:用于标识事物及其属性的存在状态。
如果我们掌握一个事物与另一事物之间的属性的映射甚至多重映射关系(运算规则),那么,我们还能根据一些已知的信息各运算规则,推算出新的信息,这些新的信息表征了另一事物或其属(或同一事物的其它属性)性的存在状态。也就是说有
信息+运算规则(算法)->新的信息
这一过程称作对信息的运算,是信息处理的一个核心过程。
根据信息与算法进行运算,间接得知另一些事物或其属性的存在状态。
对信息进行运算,是由信息运算器来进行的。人脑就是一个典型的信息运算器(人脑掌握的所有知识和经验就是运算规则集合,随着人知识的增长,规则集会不断扩展)。对于计算机来讲,一个进程就是一个信息运算器。程序里设好的所有算法过程就是运算规则集。
运算规则(算法)即可以是数学性算法(符号公式算法),也可以是物理定理演绎算法。
从本质上来讲,根据运算规则得出运算结果的过程是一个查”对应表“的过程,这个对应表是指输入与输出之间的对应关系表(即传入一个值,根据对应表,直出一个输出值),这个表叫哈希表。对于有公式的数学运算的本质也是一个查表过程,只不过这种查表是一个分级查法。所有算法的本质都是”查表得结果“,而这个表可以是单级的,也可以是多层级的(有目录树结构)。对于有相同数据映射项数目的表,分层级表结构查起来更快,但事先得花时间对数据晨映射项进行分类归层级,建立目录树结构。
信息是客观存在的。
1、信息是信源系统(如字母表、语音、二进制数位、DNA碱基,或任何其他组合在一起的单元)诸多可能的排序或状态中的一种有序的模式。当另一个信宿系统(读者、听众、计算机、生物细胞等)对信息做出选择性反应时,信息就被传递了,即在这个过程中信息被编码、传输和解码。
在有机体中,信息的流动是双向的:它既从基因中流出,也流入基因。
知觉是关于环境的信息的选择性传输。
高级灵长类动物具有符号信息交流的能力,人类则会用言辞来表达抽象的概念。