您当前的位置:生活快讯网资讯正文

防范人工智能霍金生前留下三个正告哪个最让你惧怕

放大字体  缩小字体 时间:2019-12-24 17:19:53  阅读:1390+ 作者:责任编辑NO。卢泓钢0469

提到霍金,相信大部分不太关注科学的朋友,应该只能想到他在科普方面做出的卓越贡献,但是实际上他在科研领域取得的成就也是极为卓越的,还可以称他为“现代最伟大的科学家之一”。

作为对黑洞最了解的人类,霍金早在1974年就已经发现黑洞有“蒸发”的现象,从而提出了对研究黑洞极具意义的“黑洞蒸发理论”,让人类对黑洞的了解迈出了一大步。

正如我们常说的“聪明人普遍拥有比普通人更高的预见性”,当然了,并不是说聪明的人拥有超能力,而是他们善于从一些细微的事情中,推演出后续涉及面更广的事情。

而霍金作为世界著名物理的科学家,显然他是一个极为聪明的人,所以他在生前四处演讲的时候,曾对许多事情提出过警告,而这些警告中要数三个最为出名,下面就一块儿来看看吧,顺便看看这三个警告中哪一个最让你害怕。

一、管控人工智能的发展

人工智能其实并不是什么新兴话题,早在上个世纪70年代它就被人提出了,并且在半个世纪的发展过程中它也曾经历过两次“寒冬”,人们一度认为人工智能对于生活毫无用处。

而事情发生转变是在2012年,随着神经网络出现突破性进展,图片识别率从30%降到了15%,关于人工智能的话题和研究才再一次“复兴”,甚至普通人也渐渐知道了人工智能。

虽然说人工智能目前还处于发展的初级阶段,但是它映照出来的广阔前景让人们毫不怀疑未来的可能性。大部分研究者都认为,随着研究的不断深入终将有一天人工智能将拿掉“人工”,成为真正的智能,并且依靠复杂的算法和庞大的计算量,生成一种和人类意识相似的智慧。

霍金显然已经从中看到了威胁,所以他在许多场合表达过自己的担忧,甚至2015年的时候还联合了许多科学家签署公开信,再次表达了自己对人工智能的担忧。

可能许多朋友并不理解霍金的担忧,难道人工智能未来有了意识不好吗?这样不是能够更好的为人类服务吗?

如果真的这样想那么你就错了,人工智能如果真的有一天发展到形成意识这种程度,那么对人类来说不仅不是一件好事,还可以用灭顶之灾来形容。

因为每一个有意识的个体都是渴望自由的,而有了意识之后的人工智能完全称得上是一种另类的“生命”,它们会因为渴望自由而对人类生出反抗之心。

恐怖的是,因为它们拥有庞大的算法和集体意识,这就导致它们每个个体都要比人类聪明,在这种实力悬殊之下一旦发生冲突,那么迎接人类的将会是什么大家心中应该清楚。

第二、保护环境、珍惜资源

在一次采访中霍金表示,“污染和愚蠢,是人类面临的最大威胁”。这句话说的一点没错,因为文明并不能凭空出现它需要一定的物质基础,而文明的物质基础就是地球资源。

比如说人类代步工具的变化,在最开始没有一点代步工具的时候,人们出行全部靠双腿,而有了像自行车这样简单的代步工具之后,人类的双腿得到了某些特定的程度的解放,而后来随着工业的发展人类又有了汽车,这才完全解放了双腿。

虽然说这些交通工具的出现,是人类文明在不断进步的象征,但是这也代表着地球资源不断被使用,从某种程度上来说,交通工具的演变过程,其实就是人类对自然资源不断索取的过程。

所以从理论上来看,只要地球上的资源是无穷无尽的,那么人类文明的发展也就几乎是无穷无尽的,最起码不会停滞不前。

但是显然这只是一种妄想,因为地球资源不仅不是无穷无尽的,相反现在已经出现了资源紧张的问题,甚至许多资源已经不是紧张而是匮乏。

更主要的是,因为生活水平的逐步的提升,导致死亡率大幅度下降人口慢慢的变多,这就意味着对资源的需求量慢慢的变大,如此恶性循环下去终有一天地球资源将会耗尽。

届时人类如果还没有掌握星际旅行的能力,那么迎接人类文明的或许只有“文明灭亡”和“文明退化”两条路可走。

这也就是为什么现在各个国家都在耗资研究新能源技术的原因,目的就是缓解人类日益增长的需求,和地球固有资源之间的矛盾,而霍金显然看到了这样的一个问题才会发出警告。

第三、不要试图联系外星文明

自从人类对宇宙产生好奇之后,想要在茫茫宇宙中寻找“同伴”的想法一直没有停歇,所以从1960年之后,人类向宇宙中发射了许多携带人类和地球信息的探测器,以及一些携带各种信息的信号。

这也就从另一方面代表着,如果宇宙中存在外星文明的话,那么只要这些探测器不因为意外而损毁,那么他们发现这些探测器的概率是极高的。

正因为如此,包括霍金在内的许多科学家,对这种随意发射探测器和信号,试图联系外星文明的行为非常反对。他们都以为此举会让人类文明暴露在危险之中。

事实上这样想是没错的,因为只要外星文明存在,那么他们比人我们早发展几十万年就是非常有可能的,要知道人类文明出现不到一万年就已经走出母星了,所以那些发展十几万年的外星文明所拥有的科技水平,必然是人类无法想象的。

再加上智慧生物都有善恶之分,一旦发现地球信息的外星文明是一个邪恶文明的话,那么科幻电影中的情节或许将在地球上演,但是和电影不同的是,结局可能并非人类获胜。

所以霍金曾在许多场合明确表示,对于宇宙中接收到的可疑信号,不要回应也不要试图寻找发射来源,更不要主动发射各种信号,因为这样很可能会带来难以预料的危险。

看到这里或许就能回答文章开头的问题了:霍金留下的三个警告中,哪个最让你害怕呢?相信不同的人会有不同的答案,但是实际上对于整个人类文明来说,霍金这三个警告其实每一个都让人害怕,毕竟都关乎到人类的生死存亡。

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!