|
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区
您需要 登录 才可以下载或查看,没有账号?立即注册
×
机器人过度智能,人类将自取灭亡
关键词:人工智能,智能机器人,智能仪器
时间:2014-12-04 09:47:07 来源:中国新闻网
据英国广播公司(BBC)报道,英国著名科学家斯蒂芬·霍金说,人类创造智能机器的努力威胁自身生存。霍金表示,“彻底开发人工智能可能导致人类灭亡。”
霍金的此番警告是回应对他使用的通讯科技的改良,其中就包括了基本的人工智能。
霍金是英国著名理论物理学家,患有肌萎缩性脊髓侧索硬化症(ALS),使用英特尔(Intel)公司开发的一种新的系统说话。
另一家英国公司Swiftkey的机器认知方面的专家也参加了这一系统的开发。这家公司的技术已经被用在智能手机的按键应用软件中,揣摩霍金教授的思想并推测他可能希望使用的词语。
霍金教授说,人工智能目前的初步阶段已经证明非常有用,但他担心创造出媲美人类甚至超过人类的东西将要面对的后果。“它可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越。”
不过,其它科学家并非都对人工智能持如此悲观的看法。智能机器人的发明者罗洛·卡彭特表示:“我相信我们还将继续在相当长的时间内掌控科技和它的潜力,并解决世界上的许多问题。”
卡彭特说,“我们还不知道机器智能超越人类后将出现什么情况。所以我们不知道我们最终将得益于此,还是因此而被忽略、被边缘化,或者被消灭。”他预示,人工智能将起到正面的作用。
霍金教授并非少数担心未来的科学家。智能机器的开发已经让很多人担心它们将取代人类,短期效应是使数以百万计的工作职位不复存在。而长期来看,人工智能是“人类生存面临的最大威胁”。
霍金教授另外还对互联网的好处和危险发表了看法。他引述英国政府通讯总部(GCHQ)负责人的警告说,网络有可能成为恐怖主义分子的指挥中心。“互联网公司应该下更大力气应对这些威胁,但是困难之处是如何不损害自由和隐私”。
虽然人工智能在过去数年发展很快,但霍金使用的科技智能仪器中,声音部分并没有任何的更新换代。
霍金承认,他的声音的确听起来很机器,不过坚持他不想要更加自然的声音。“这已经是我的标志,我不想变成更自然的英国腔调的声音”,“我听说很多需要智能声音的孩子,都要像我这样的声音。” |
|