2032年会有小行星撞击地球吗?这颗所谓的“杀手”小行星在2017年9月16日刚刚与地球擦肩而过,当时它距离地球只有670万公里。计算显示,这颗小行星将于2032年再次回归。美国宇航局的权威专家指出,这颗小行星与地球相撞的可能性只有0.002%,几乎为零。在现有的技术手段和科学条件下,完全不用担心。因此,预测是错误的,不可靠的。

5、...出来的机器展开战斗,那为什么不现在采取措施不大量生产机器人...

人工智能终有一天会毁灭人类,这只是霍金的预言。人工智能的全球领先水平远非超级人工智能。霍金担心的超级计算机如果有一天问世,它必须在综合思维能力上超越人类,才能拥有“超越”的思想,拥有控制或毁灭人类的能力。估计需要几个世纪。一个坐在轮椅上的人把他说的话当成故事来听。别往心里去。很简单,因为现在很多人都不信。人只有在快死的时候才会醒来。

6、霍金对人工智能的预言是什么?

霍金认为人工智能可能会对人类产生不好的影响。人工智能是一门非常广泛的科学,由不同的领域组成,如机器学习、计算机视觉等。一般来说,人工智能研究的主要目标之一是使机器能够胜任一些通常需要人类智能的复杂任务。人类将被机器人取代。人工智能一旦脱离束缚,就以加速的状态重新设计自己,人类受到漫长的生物进化的限制。

2月14日,据英国BBC等媒体报道,著名物理学家斯蒂芬·威廉·霍金去世,享年76岁。一直致力于探索宇宙奥秘的霍金曾经预言过人工智能:人工智能可能是未来人类的终结者!霍金预言,人工智能可能是未来人类的终结者。根据霍金的说法,人工智能技术在发展的初级阶段确实给人类生活带来了便利,但机器很可能会以越来越快的速度重新设计自己。

7、霍金为什么反对人工智能?

霍金先生并不反对人工智能,也就是AI。他只是担心人工智能会朝着不利于人类社会安全的方向发展。霍金先生已经签署了一份类似于禁止在某些领域发展人工智能的请愿书。现在人工智能的发展越来越快。不仅仅是霍金,很多人都在争论人工智能的发展是否存在道德限制。霍金说“人工智能的短期影响在于谁能控制它,长期影响在于能不能控制它。”霍金不否认蓬勃发展的人工智能技术在许多行业中发挥了至关重要的作用,但他真正担心的是机器和人之间进化速度的不平等。

8、霍金生前给人类留下的三条忠告,分别是什么?

第一条建议是提醒人们保护环境,不要为了发展而牺牲环境。第二个建议是不要过度发展人工智能。第三个建议是不要寻找外星文明,不要回复外星信号。1.人类应该保护恶劣的环境,不要过度开发地球资源。2.不要过度发展人工智能。3.警告人类不要和外星人接触。霍金生前留下了三条忠告,每一条都关系到人类的生存,现在其中两条已经实现。不要试图接触外星人,隐藏自己,停止一切必要的探索活动。

牛顿万有引力定律和三大定律帮助人类认识了宏观世界。爱因斯坦的相对论帮助人类打开了微观世界的大门;霍金的奇点定理、黑洞理论、霍金的辐射理论等理论改变了人类的宇宙观,对认识宇宙发挥了巨大作用。霍金也是科普作家。他的作品《时间简史》、《壳中宇宙》、《黑洞》、《婴儿宇宙》等,成为科学史上最畅销的科普作品之一。他们为人类科学普及做出了巨大贡献,被誉为现代科学普及的代言人。

9、为什么霍金说人工智能会给人类带来毁灭

其实我觉得很简单。科学技术是第一生产力。AI相当于一个电子大脑,这个大脑是可以物理扩展的。即使人类开发了100%的大脑,容量仍然远不及硬盘。更别说真正的AI,只是一台普通的机器,几乎不需要计算学习成本(人类从出生到训练成为工人或学者需要大量的时间和资源),生产成本低于人类的劳动力,人无法回收,需要养老、住房、吃饭、娱乐...资本家掌握了世界上大部分的资源,所以需要靠手艺吃饭的工人就会被逐渐取代,也就是大部分的劳动力。

然后是成熟的AI。人工智能可以随便杀死任何一个科学家,因为他(她,它)德的知识库是人类从古至今所有智慧的聚集地,他可以随意调动任何知识,也会相应地进行智能处理,然后尖端领域将被人工智能取代,全球失业率将超过百分之九十七。大部分人失业的时候,会因为赚不到钱而饿死。

 2/2   首页 上一页 1 2 下一页

文章TAG:霍金  人工智能  人类  机器人  预言  
下一篇