霍金留给世人的劝告,科技的极端让人害怕,它实在太危险了

人类科技发展之中最主要的功臣就是科学家了。因为科学家们有着与众不同的头脑和研究毅力。每一个正义的科学家都是人类中宝贵的存在。特别是能够提出伟大科学理论的科学家,其更为宝贵。而在人类科学发展的千百年y K N Q r O ; 间,出现过许X . U M u 9 Z m s许多多的科学家。一些古时候的科学家就不提,就说近百年来的伟大科学家。如爱因斯坦、霍金、钱学森等。

霍金留给世人的劝告,科技的极端让人害怕,它实在太危险了

而今日笔者要[ | r [ x 7 T说的科学家是$ O v J E ) * g霍金。说到霍金,很多人可能就会想到黑~ ( s x R洞理论了。霍金所提出的“黑洞蒸发理论”对于现代研究黑洞是有着非常大帮助。@ H ` !霍金虽然说没有制造出什么实际的科技产物,但是霍金所提出的许多科学理论对于人类研究物理,天文等方面有着% L ; # * X很大的影响。霍金不止是研究了许多的科学理论,其还对人类提出了三大警告。

霍金留给世人的劝告,科技的极端让人害怕,它实在太危险了

第一是霍金警告人类要谨慎对待人工智能的发展。人工智能在2020年来说是民众皆知。最早提出人工智能是在20世纪的70年代,当时人工智能对于上个世纪的人类来说还是非常的陌生。一些有先见的科) m $ 0 K E学家提出了人工智能,但是这在当时看来简直就是大言不惭。因为以当时的科技水平来说,人工智能似乎只是一个存在于神话o B @ h d w中的东西。

霍金留给世人的劝告,科技的极端让人害怕,它实在太危险了

所以人工智能起始发展期是异常艰难。人工智能的转机是在2012年。当时科学家们在神经网络的研r G J究上得到了重大的突破,使t 0 { y ; a f得机器对图片的识别错误率由30%下降到了15%,因此人工智能的话题就被大肆的在社会上宣传,许多普通的民众也知道了人工智能这回事。

霍金留给世人的劝告,科技的极端让人害怕,它实在太危险了

虽然说现在的人工智能只是属于初级的发展阶段,但是其未来是无可限量。许k / 6 m F e多的科研者都认为,在未来真正的人工智能是会可以像人类一样有着思考能力的。由于人工智能机器承载着人类一半的头脑,所以其是会非常强大的。霍金就由此看出了人工智能在未来对人类的威胁,所以他就提出了要人类谨慎对待人工智能的发展。并且霍金还联合了多位科学家签署公开信,表明他对人工智能的担忧。

霍金留给世人的劝告,科技的极端让人害怕,它实在太危险了

有一些人可能会说了,T O a p G G d人工智能发展到了像人类一样思考,那这样不就能够更好的服务人类嘛。然而要知道的是,凡事有利必有弊。人工& / m智能倘若发展到了拥有人类意识的阶段,那人工智能之中是很有可能会危害人类生存的机器。

霍金留给世人的劝告,科技的极端让人害怕,它实在太危险了

要知道人都是有着好人坏人的,更何况更为强大的人A F 6 Y e A工智能呢。虽然说人类是制造人工智能的,但要知道人类不一定能够完全控制自己制造出来的科技产物。不管你在制造之前植入什么程序,其都是有可能会出现错乱,这是一种概率,要是发生,那是无法避免的。所以说科学家们在研究人工智能时一定要考虑到方方面面,不能只是说将这种类人的机器发明出来,而不顾及后果。

上一篇

是什么导致光线发生红移?

下一篇

太阳是白细胞,银河系就是大中国!微观有多小?宏观有多大?

评论已经被关闭。

插入图片
返回顶部