跳转到内容

资讯

本页使用了标题或全文手工转换
维基百科,自由的百科全书
采用二进制表示的“Wikipedia”的ASCII代码。这是电脑资讯编码时最为常用的数制
“Wikipedia”二进制ASCII代码的动画演示。
“information”的各地常用译名
中国大陆信息、资讯
台湾资讯[1]
香港资讯
澳门资讯
新加坡资讯[2][3][4][5]、信息
马来西亚资讯
日韩汉字情報
越南喃字通信、通𠒷

资讯(英语:information,新加坡作资讯/信息,中国大陆作信息),为一科学术语,其定义不统一,是由它的极端复杂性决定的,获取资讯的主要方法为六何法。资讯的表现形式多不胜数:声音图片温度体积颜色……资讯的类别也不计其数:电子资讯、财经资讯、天气资讯、生物资讯……。

热力学中,资讯是指任何会影响系统热力学状态的事件。

资讯可以减少不确定性。事件的不确定性是以其发生几率量测,发生几率越高,不确定性越低,事件的不确定性越高,越需要额外的资讯减少其不确定性。位元是典型的资讯单位英语unit of information,但也可以使用像纳特之类的单位,例如抛出一个公正硬币,其资讯为log2(2/1) = 1 bit,抛出两个公正的硬币,其资讯为log2(4/1) = 2 bits。

词源

在古希腊文中资讯单词为μορφήεἶδος,后者是著名哲学家柏拉图的经常用词(以及后来的亚里士多德),以表示理想的身份或事物的本质。在英文单词中则源于拉丁文宾格形式(informationem)的主格(informatio):这个名词是由动词反过来又派生出“informare”(告知)在“to give form to the mind”,“to discipline”,“instruct”,“teach”:“这么聪明的男人应该去通知他们的国王。”

狭义定义

美国数学家资讯论的奠基人克劳德·艾尔伍德·香农Claude Elwood Shannon)在他的著名论文《通信的数学理论》(1948)中提出计算资讯量的公式,(一个资讯由个符号所构成,符号出现的几率为),则有[1]

这个公式和热力学的熵的本质一样,故也称为。从公式可知,当各个符号出现的几率相等,即“不确定性”最高时,资讯熵最大。故资讯熵可以视为“不确定性”或“选择的自由度”的度量。

美国数学家控制论的奠基人诺伯特·维纳在他的《控制论——动物和机器中的通讯与控制问题》中认为,资讯是“我们在适应外部世界,控制外部世界的过程中同外部世界交换的内容的名称”。英国学者阿希贝William Ross Ashby)认为,资讯的本性在于事物本身具有变异度。意大利学者朗高在《资讯论:新的趋势与未决问题》中认为,资讯是反映事物的形成、关系和差别的东西,它包含于事物的差异之中,而不在事物本身。

另有以下两种定义:

  • 凡是在一种情况下能减少不确定性的任何事物都叫资讯。[6]
  • 资讯是物质存在的一种方式、形态或运动形态,也是事物的一种普遍属性,一般指数据、消息中所包含的意义,可以使消息中所描述事件中的不定性减少。[7]

传播学观点[8]

  • 资讯是传播的材料。
  • 凡是能减少情况不确定性的东西都叫资讯。
  • 资讯是减少熵的工具。
  • 人们在大多数传播活动中寻求的资讯就是传播活动的内容,其功能是有助于他们构造或组织环境,即与传播活动有关的环境。
  • 资讯使决策容易进行。

哲学定义

资讯是反映(映射)事件的内容。事件包括判断事件、动作事件等对所有运动的描述。对资讯的定义了解将从根本上揭示智慧形成的原因。 经典的哲学定义有北京邮电大学钟义信教授:“资讯是事物运动的状态及其改变方式”。[9]

经典的属加种差定义

属加种差定义是一种严格的定义方式,A是满足C特质的B。这里A是被定义项(被定义的),B是A的属,即,这个概念是更一般于A的提前被定义的了,或已经知道的,和C并不代表这一概念,但对所有的陈述来说,A是如何不同于B的所有其他种(即所有别的概念的一般性更小于B)。

例如在“人是两条腿的无羽毛动物”中:

  • A=“人”
  • B=“两条腿动物”
  • C=“无羽毛”

这是亚里士多德在他的演讲中对学生讲的如何进行概念定义的著名例子。它已经是如此的著名,以至于第二天这位学生将一只剔了羽毛的鸡带到了演讲会上。 在此基础上,Fred Dretske在《知识与资讯流》一书中对资讯定义到:粗略地说,资讯是能够产生知识的商品,消息或信号所携带的正是我们需要知道的。

呈现及复杂性

认知科学家及应用数学家认为资讯是一个泛及至少和两个相关实体的概念,目的是在提供量化的意义。假设有任意定义尺寸的物体集合S,以及其子集合R,在本质上,R是一种S的呈现方式,或者说R传递了有关S概念性的资讯。Vigo定义R传递有关S的资讯量为当将R中的物件从S移除时,S复杂度变化的速度。依照Vigo定义的资讯,模式、不变性、复杂度、呈现方式以及资讯可以集成在同一个数学架构下[10][11]。此架构试图要克服在表征及量测主观的资讯时,香农-维纳资讯定义下的限制。

感官输入

资讯常被视为是一种对生物系统的输入。输入可以分为两种:有些输入是对生物的某个机能很重要(例如食物),或是对系统本身很重要(例如能量)。Dusenbery在《感官生态》(Sensory Ecology)[12]书中称这些输入为必然输入(causal input)。其他的输入(资讯)重要的原因是因为和必然输入有关,而且可以预测稍晚时间(也许不同地点)必然输入是否会出现。有些资讯重要的原因可能只是和另一资讯有关,但最后终究可以链接到必然输入。在实务上,资讯可能只有微弱的刺激,必需用特定的感测系统来侦测,且经过能量的放大,才能对生物或是系统有用。例如光对植物是必然输入,但对动物而言却提供了一些资讯,花朵反射的有色光非常弱,不足以进行光合作用,但蜜蜂的视觉系统可以侦测到,其神经系统用这种资讯来导引蜜蜂找到花,采集花蜜或花粉,这些是营养系统的必然输入。

造成改变的影响

资讯是任意形式,会影响其他模式形成或改变的模式[13][14]。以这个意义来说,不需要一个有意识的心灵来认知模式[来源请求]。以DNA为例,这个由核酸形成的序列,是一个会影响生物形成或改变的模式,即使生物体没有有意识的心灵也是如此。

系统理论有时会提到此种定义(定义中不需要有意识心灵)的资讯,并且将系统中(因着反馈)而循环的模式称为资讯。可能说此定义下的资讯是某种潜在可能被感知的事物,虽然不一定是为了此目的创造或是呈现。格雷戈里·贝特森对资讯的定义是“带来改变的改变”[15]

物理的概念

物理学中资讯有明确的定义。在2003年雅各布·贝肯斯坦认为物理学中的一个在成长的趋势是将物理世界定义为由资讯本身组成(也以此来定义资讯)(参考数码物理学)。这个例子包括量子纠缠的现象,两个粒子会互相影响,影响的速度甚至高于光速。资讯即使是以非直接的方式传播,资讯的传播也不会比光速快。因此可能在物理上观测某一个和其他粒子纠缠的粒子,观测本身就会影响另一个粒子,其至二个粒子除了承载的资讯外,两者没有任何其他的链接。

另外一个示例是称为麦克斯韦妖的思想实验。在此实验中呈现了资讯和另一个物理性质的关系,其结论是无法在熵不增加(一般是会产生热)的情形来破坏资讯,另一个更哲学性的结论是资讯可以和能量互相转换[来源请求]。因此在逻辑门的研究中,AND闸发热量的理论下限比NOT闸的发热量要低(因为资讯在AND闸中会被破坏,而在NOT闸中只会被转换)。在量子电脑的理论中物理资讯的概念格外的重要。细胞自动机等概念也有关。例如,康拉德·楚泽表明, 资讯处理可以解释物理现象。

科技介质的资讯

估计世界可存储资讯的量从1986年的2.6EB(经优化压缩)-其资讯量小于每个人有一片730-MBCD-ROM的资讯量,成长为2007年的295 EB[16]-资讯量约等于每个人有61片CD-ROM[17]

2007年时,世界上借由单向广播可接受资讯的技术能力,相当于每人每天174份报纸[16]。而借由双向电信可交换资讯的技术能力,相当于每人每天6份报纸。

分类

资讯依据载体的不同被分为4大类:文字、图形(图像)、声音、视频。

相关条目

脚注

参考文献

  1. ^ 1.0 1.1 自然科學概論. 五南图书出版股份有限公司. 1996: 1– [2014-10-10]. ISBN 978-957-11-1185-8. 
  2. ^ Resources. www.foundersmemorial.gov.sg. [2023-11-02]. (原始内容存档于2023-11-02) (中文(新加坡)). 
  3. ^ 资讯通信科技产业. www.edb.gov.sg. [2023-11-02]. (原始内容存档于2023-11-02). 
  4. ^ Home Chinese - Infocomm Media Development Authority. www.imda.gov.sg. [2023-11-02]. (原始内容存档于2023-11-02) (中文). 
  5. ^ 资讯通信媒体发展局 (PDF). [2023-11-02]. (原始内容存档 (PDF)于2022-07-16). 
  6. ^ 资讯化的创始人香农和韦弗,1948年,《通信的数学理论》
  7. ^ 中国国家标注GB 489885《情报与文献工作词汇基本术语》
  8. ^ 施拉姆; 波特. 传播学概论. 北京: 中国人民大学出版社. 2010. ISBN 978-7-300-12214-4. 
  9. ^ 钟义信,《资讯和科学原理》
  10. ^ Vigo, R. Representational information: a new general notion and measure of information. Information Sciences, 181 (2011),4847-4859. 2011. 
  11. ^ Vigo, R. (2013).Complexity over Uncertainty in Generalized Representational Information Theory (GRIT): A Structure-Sensitive General Theory of Information. Information, 4(1), 1-30; doi:10.3390/info4010001
  12. ^ Dusenbery, David B. (1992). Sensory Ecology. W.H. Freeman., New York. ISBN 978-0-7167-2333-2.
  13. ^ Shannon, Claude E. The Mathematical Theory of Communication. 1949. 
  14. ^ Casagrande, David. Information as verb: Re-conceptualizing information for cognitive and ecological models (PDF). Journal of Ecological Anthropology. 1999, 3 (1): 4–13 [2014-03-12]. (原始内容存档 (PDF)于2020-12-08). 
  15. ^ Bateson, Gregory. ^ Form, Substance, and Difference, in Steps to an Ecology of Mind. University of Chicago Press. 1972: 448–466. 
  16. ^ 16.0 16.1 "The World’s Technological Capacity to Store, Communicate, and Compute Information"页面存档备份,存于互联网档案馆), Martin Hilbert and Priscila López (2011), Science (journal), 332(6025), 60-65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html
  17. ^ "video animation on The World’s Technological Capacity to Store, Communicate, and Compute Information from 1986 to 2010. [2014-11-06]. (原始内容存档于2013-02-21). 

外部链接