写于 2017-05-06 09:23:08| 网上赌场网址大全| 股票

redOrbit Staff&Wire Reports - 您的宇宙在线SpaceX和特斯拉汽车公司创始人Elon Musk对人工智能的安全性表示严重关注,利用社交媒体发出警告,AI可能对人类造成比核武器更严重的威胁

正如美国广播公司新闻报道的Alyssa Newcomb报道的那样,马斯克周末在推特上发帖说人们需要对人工智能“非常小心”,他称之为“可能比核武器更危险

”他在阅读后做了评论(和推荐)瑞典哲学家和牛津大学教授Nick Bostrom撰写的“超级智能”一书,VentureBeat的Tom Cheredar解释道

这本书探讨了当机器变得比人类更聪明时将会发生什么,将于9月1日在美国发布

据Business Insider的Rob Wile介绍,博斯特罗姆的同事剑桥大学的Martin Rees他说:“在阅读这本原创且备受争议的书之后,那些愿意将'AI接管'视为科幻小说的人可能会再次思考

”Wile补充说,博斯特罗姆在最近的一次会议上被问及人们是否应该害怕新技术

他回答说“是的”,但补充说人类必须“害怕正确的事情

存在巨大的存在威胁,这些威胁是对地球生命的生存的威胁,来自机器智能 - 不是今天的方式,而是如果我们在未来实现这种超级智能

“马斯克似乎同意作者的评估,虽然值得注意的是,他在3月份投资了总部位于加利福尼亚州的AI集团Vicarious--一家希望设计出“像个人一样思考的计算机的公司......除了它不需要吃饭或睡觉”

根据英国“每日邮报”的英国报纸的Ellie Zolfagharifard所说,联合创始人斯科特菲尼克斯说

根据Zolfagharifard的说法,马斯克此前在接受CNBC采访时说:“我认为那里可能存在危险的结果

” “就像终结者一样,有关于此的电影

有一些可怕的结果

我们应该努力确保结果是好的,而不是坏事

“每日邮报的作者补充说,Vicarious目前正在尝试开发一种模拟大脑新皮层的程序 - 哺乳动物大脑中的大脑半球的顶层

新皮层厚约3毫米,有6层

这些层中的每一层都涉及各种不同的生物学功能,包括感觉知觉,空间推理,有意识思维和人类语言

早在5月,国际公认的理论物理学家斯蒂芬霍金在观看了约翰尼德普电影的超越之后表达了类似的担忧,其中德普的角色将他的意识上传到量子计算机,只是为了变得更强大,变得几乎无所不知

霍金表示,这部电影不应该被视为科幻小说,忽视故事的深层教训将是“一个错误,可能是我们历史上最糟糕的错误

”虽然无人驾驶汽车和数字助理等人工智能的进步常常被视为霍金对人类有益,他们担心他们最终会导致我们的垮台,除非我们为独立思考技术带来的潜在风险做好准备

“潜在的好处是巨大的;文明所提供的一切都是人类智慧的产物;我们无法预测当人工智能可以提供的工具放大这种情报时我们可能取得的成就,但消灭战争,疾病和贫困将在任何人的名单上都很高,“他在英国报纸”独立报“的专栏中写道

“创建人工智能的成功将是人类历史上最大的事件

不幸的是,它可能也是最后一次,除非我们学会如何规避风险