|
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区
您需要 登录 才可以下载或查看,没有账号?立即注册
×
但是,人工智能这个问题不得不引起我们更深层次的思考。通常人们会觉得世界末日可能是一场核战争或是地球被陨石袭击,但是牛津大学的研究人员认为还有一个潜在的威胁,它就是人工智能。机器人会让我们失业吗?机器人的智慧会变得和我们一样吗?《终结者》电影的场景看似虚构,但是从另一角度也让我们开始认真审视科技发展这件事儿。
Stuart Armstrong是牛津大学哲学研究员,他觉得,核战争(包括大瘟疫)虽然杀伤力很大,甚至会造成99%的人类灭亡,但是剩下的1%也能咬牙生存下来。但如果是人工智能造成95%的人类灭亡,那么剩下的5%很快也会消失。
当我们在酒吧遇到AI…
当机器人变得比我们更聪明,而且社交能力更强时,情况就会变得非常可怕。例如,当你和机器人一起走进酒吧,它反而能够更轻松的找到女朋友或男朋友,此时的你有没有被威胁的感觉?同样,当机器人涉足政治、经济、以及技术研究领域,而且表现的比人类还要好,那真的非常恐怖。
这种威胁首先冲击的行业就是科技。如果有一个达到人类级别智慧的AI机器人,复制一百个,然后培训100种不同的职业技能,然后每个再复制一百人,就会有1万名劳动力从事100个职业。后果难以设想。
AI为什么想要“杀”我们?
先拿《终结者》电影里的天网(Skynet)举个例子吧,这种高级人工智能防御系统按道理是不会反抗其创造者的。但Armstrong拿反病毒软件作为例子,他表示反病毒软件会过滤用户电子邮件,以较高成功率去杀死“病毒”,如果有一天人工智能像反病毒软件一样,意识到如果把所有人都杀死是一个最好的解决方案,那么AI就很可能会执行。
难道我们不能编写一个“绝不杀死人类”的强制程序规则吗?事实上,这说起来容易做起来难,因为从纯理论的角度来看,很难定义人的生与死,比如把人埋在地壳下面10公里深的地方,然后用营养液维系生命。所以做任何决策都必须要非常慎重,否则都将导致不可预料的结果。
不确定和“安全”不一样
Armstrong描绘了一个被人工智能接管的“恐怖”世界,但是这种悲剧真的不可避免吗?答案是,不确定。如果说这种不确定性越来越大,那么结果似乎并不乐观。想想全球变暖这件事,一开始有些反对全球变暖理论的人也是说“不确定”,于是人们误以为自己是安全的,但是如今的全球变暖已经是一个不争的事实了。“不确定性”和“安全”是不一样的,而“我们不了解人工智能”和“我们知道人工智能是安全的”这两种态度也是不一样的。
什么时候能见到真正的人工智能?
至于什么时候能见到真正超级智能AI,似乎是一个很难回答的问题。有一种观点是人工智能希望能够完全模仿人类大脑,然后通过计算机来将其实例化。如果说计算机“只”按照人类的大脑去思考,或许还不是件坏事儿。因为至少未来要挑战人类的是一个“同类而已”,这种挑战比应对一个真正的人工智能要轻松的多。不过,就算要实现完全模拟人类的大脑也许还得需要好几个世纪的时间。而要等到那些能够战胜人类的真正人工智能出现,时间就更加模糊了,总之,现在还没有人能够给出真正人工智能出现的时间。
技术哲学
在谈到我们该如何与“智能”技术进行交互时,Armstrong发现了一个问题,那就是当代哲学家们似乎只在自己的学术圈内比较受重视,一旦走出了这个圈子,他们却会被外界所忽视。
在设计开发人工智能的时候,Armstrong把这个过程和计算机编程做了比较。“我们必须要尽可能把一切都拆分成最简单的术语,然后把它编进人工智能或计算机中。编程经验非常有用,但幸运的是,哲学家们,特别是分析哲学家们已经开始做这项工作了。你只需扩展它,人工智能需要一套学习的理论基础,并且要了解人们是如何感知世界,这就是一套技术哲学。”
人工智能会让你失业
人工智能会对人类构成威胁,其中之一就是失业。这种担忧非常理性,因为未来人工智能可以替代任何人,甚至一些专业度较高的职业也不能幸免。相对于一开始大谈特谈人类灭绝这样的问题,似乎失业更容易触及人们的利益。
Armstrong认为,人工智能可以替代任何工作,甚至是一些被人们看作无法外包、专业程度较高的工作也能够被人工智能取代。而这似乎引发出了一个哲学问题,那就是,Armstrong自己的工作,也就是研究人工智能的工作,会被人工智能本身所取代吗?虽然这是一个类似“先有鸡或先有蛋”的问题,但的确也需要引起人们的重视。
或许出现像电影《终结者》里面的场景还需要很长一段时间,但是“能够杀死人类的”自动机器人绝对会是一种威胁,说不定它们就会出现在未来的战场之上。围绕在人工智能周围的不确定性是一个非常大的威胁,我们不能忽视它,当智能机器人崛起的时候,至少我们要做好准备。 |
|