这是我们在第一次真正意义上开始对导论的研究,经过本次课的学习,我懂得了许多关于信息的知识,明白了知识与计算机的不可或缺的紧密联系。计算机作为储存和处理信息的一门科学,进入计算机的学习前就必须要明白信息对于计算机的特殊意义。
这是百度百科上信息的定义:
这是百度百科上信息的定义:
> 信息,指音讯、消息、通讯系统传输和处理的对象,泛指人类社会传播的一切内容。人通过获得、识别自然界和社会的不同信息来区别不同事物,得以认识和改造世界。在一切通讯和控制系统中,信息是一种普遍联系的形式。1948年,数学家香农在题为“通讯的数学理论”的论文中指出:“信息是用来消除随机不定性的东西”。创建一切宇宙万物的最基本单位是信息。
在课堂上,老师讲解了许多关于对信息的定义。在这之前,我从来没有对信息这个词做出真正的定义,主要可能是我觉得信息这个词的意义太过宽泛,难以对其做出实际上的定义。可是在课上,老师放映了一张女孩在图书馆的照片,运用形象的表述从中得到的信息。“信息就是信息,不是物质,也不是能量。”这一颇具奇特的描述,从另一个方面决定了信息注定是一种最基本的概念。作为信息论创始人,香农定义了信息是用来消除随机不定性的东西。而后,钟义信教授又在认识论和本体论的层次中提出了信息定义体系,更加全面的展现了信息的各种用处。老师又在属加种差这种定义中形象地举例说明,对人进行了信息定义,人是一种动物,这是一种属概念,可这么说大家就会不乐意了,而且显得很没有特性,这个时候如果说人是一种高级动物,“高级”来修饰动物,突出了人相对于其他动物的不同点,这便是种差。其实这就相当于一句话中的不同成分,例如“xx是一种xx的xx”,那么定义的物体就是主语,属加便是名词部分,种差就是的前面的修饰词。
总之,一切客观存在都有信息。
而后,我们谈谈信息的度量,在我原先看来,信息量可以说大小,但如果要问起实际大小,这还真的不太好说,只能说信息量的大小因人而异,没有真正意义上的实际大小。在听完老师的讲解后再结合信息和不确定度的关系,可以肯定的是收到某信息获得的信息量等于不确定度减少的量。实际上这里说的不确定减少的量对于每一个客体都不一样,跟我想的因人而异的道理差不多。
随后是信息熵的概念——信息中排除了多余信息之后的平均信息量。当各个事件出现的概率相等,即不确定度最高时,信息熵最大。实际上,信息熵可以作为不确定度的度量。进而,用bit这个概念来度量信息熵便产生了,也就是从信息熵引申到计算机中的形式。计算机处理的信息一般有文本、数值、音频、图像、视频五种形态,而这些处理信息的方式都是通过位模式实现的。
后面老师强调了想要学好计算机就必不可少的运用到了数学知识,还给我们放映了用代码实现做出来的三维动态演示图,还有老师以前学生制作的迷宫地图,让我觉得计算机的强大的信息处理能力,从这次课开始了我的计算机系统之路,加油!!!