【人工智能时代即将来临:机遇与挑战并存】

人工智能是否会让人类最终陷入万劫不复的境地?
(报道)据新浪科技(任天):2015年第一个星期天的下午,埃隆·马斯克(Elon Musk)在波多黎各的一个度假胜地参加了一场有关“智力爆炸”(intelligence explosion)的闭门会议 。这个略显吓人的理论词汇描述的是人工智能在认知能力上不受控制的飞跃 , 埃隆·马斯克和物理学家斯蒂芬·霍金担忧,有朝一日这将给整个人类带来灭顶之灾 。
这是一次有关人工智能伦理的会议,长期以来,这一领域的专家、学者都不怎么引人注目 。会议的主题是“人工智能的未来:机遇与挑战”,显得十分乐观 。牛津大学人工智能伦理学家尼可·博斯特伦(Nick Bostrom)与商业巨头 , 如Skype的创始人扬·塔里安(Jaan Tallinn)、谷歌公司人工智能专家谢恩·列格(Shane Legg)都参与了这次会议 。
埃隆·马斯克和霍金担忧“人工智能天启”的到来,但目前还存在着更加迫在眉睫的威胁 。在过去五年中,人工智能——特别是被称为“深层神经网络”的人工智能算法分支——的快速发展使人工智能主导的产品在我们的生活中越来越占据着中心和前沿的地位 。谷歌、Facebook、微软和百度等公司,都在以前所未有的速度寻找人工智能研究者,投入数以亿计的美元,试图开发出更好的算法和更聪明的计算机 。
几年之前人们认为似乎无法解决的人工智能难题如今逐渐被攻克 , 推动了安卓系统的语音识别,使Skype能像《星际迷航》里那样进行即时的翻译;谷歌公司正在研制自动驾驶汽车,以及可以自动学习如何分辨猫类视频的计算机系统;机器大狗如今的行走能力也越来越接近现实中的狗了 。
“计算机视觉已经开始应用;语音识别也开始了应用,人工智能系统有相当快的发展速度,”参与会议的人工智能伦理学家、康奈尔大学教授巴特·塞尔曼(Bart Selman)说,“这使得这一议题变得更加紧迫 。”
鉴于如此快速的发展,埃隆·马斯克和其他许多人开始向人工智能产品的开发者发出呼吁:要考虑开发过程中的伦理问题 。在这次波多黎各的会议上,代表们签署了一封公开信,承诺进行目的健康、积极的人工智能研究,避免误入歧途 。埃隆·马斯克也在公开信上签了名,“所有这些最优秀的前沿研究者都认为人工智能的安全问题非常重要,”他说,“我同意他们的意见 。”
谷歌公司的雄心
九位来自DeepMind公司的研究者也在公开信上签了字 。DeepMind是一家人工智能公司 , 去年被谷歌收购 。这个故事要从2011年开始讲起 。当时,德米斯·哈萨比斯(Demis Hassabis)在一次人工智能会议上做了演讲,之后认识了主动前来自我介绍的扬·塔里安 。哈萨比斯刚刚创立了DeepMind , 而塔里安在创立Skype之后,逐渐成了一个人工智能安全问题的“布道者”,正在寻找一位志同道合的人 。两个人开始谈论起人工智能,塔里安很快就投资了DeepMind 。去年 , 谷歌公司花了4亿美元收购了这家仅有50人的公司,一举拥有了世界上最大的深度学习领域人才和专利库 。不过 , 谷歌还是显得十分低调,甚至不让哈萨比斯接受采访 。DeepMind正在进行的研究包括对周围环境具有更好感知能力的智能机器人和自动驾驶汽车 。
不过,这些研究却让扬·塔里安有点担心 。他在此次波多黎各的会议上做了个演讲 , 回忆起哈萨比斯在一个午餐会上向他展示自己所开发的机器学习系统,该机器能玩20世纪80年代流行的街机游戏《Breakout》 。事实上,它不仅会玩 , 而且非常精通,高效而无情,令塔里安感到震惊 。“尽管作为技术人员的我对这一成就感到惊奇 , 但另一方面的我想到,我正在见证一个开启人工智能灾难的玩具模型 。一次突然的展示,让我看到了意想不到的智能潜力 。”塔里安回忆道 。
在1975年的阿希洛马会议(Asilomar Conference)上 , 分子生物学家们就重组DNA的道德底线问题进行了讨论,最终在安全标准上取得了共识,签名保证不让人工基因改造的生物对公众造成威胁 。相比波多黎各的这次人工智能会议 , 阿希洛马会议的结果显然更加具体 。
在波多黎各的这次会议上,参会者的公开信概述了人工智能的研究重点,如人工智能的经济和法律效应 , 以及人工智能系统的安全性 。近日,埃隆·马斯克斥资一千万美元用于支持这项研究 。这些都是防止机器人破坏世界经济,或防止它们向人类大开杀戒的重要一步 。一些公司已经走得更远 。去年,加拿大机器人公司Clearpath Robotics承诺不研制用于军事的自主机器人 。该公司首席技术官瑞恩·加里皮(Ryan Gariepy)在公司网页上写道:“致反对杀人机器人的人们:我们支持你 。”
承诺不开发“终结者”仅仅是开始 。像谷歌这样的人工智能公司必须考虑他们的产品 , 如自动驾驶汽车的安全性和法律责任问题 。无论机器人是否会使人类失去工作,人工智能算法所导致的意想不到的后果,对人类来说都显得不是很公平 。举例来说,亚马逊公司在不同社区出售商品的价格不同,这是否符合伦理?有没有什么安全措施,来保障大宗商品市场不被某个交易算法破坏?在自动驾驶交通工具的时代 , 从事大巴司机这样职业的人将何去何从?
Binatix是一家从事股票市场交易的深度学习公司,其创始人伊塔马尔·阿雷尔(Itamar Arel)并没有参加波多黎各的会议,但他在读完公开信后马上签了名 。对他来说,智能算法领域的革命,以及价格低廉的智能机器人需要被人们更好地理解 。“是时候要花更多精力去理解人工智能系统取代蓝领工作所带来的社会影响了 , ”他说,“这是肯定的 , 社会无法跟上人工智能系统发展的速率 。这绝对是个问题 。”
伦敦帝国学院的认知机器人教授穆雷·沙纳汉(Murray Shanahan)称,对破坏性人工智能超级大脑的预测或许会登上头版头条,但在近几年,这些更加枯燥、平淡的担忧意见才是更应该见诸媒体的 。他说:“很难预测到底会发生什么,但我们能肯定,它们一定会对社会造成影响 。”
- 石器时代北欧居民的主要食物是鱼类
- 德国13岁少年考古寻宝 发现维京时代传奇“蓝牙王”宝藏
- 中国第二处旧石器时代墓葬:山顶洞人后再发现人类头骨化石
- 铁器时代的繁育法可能影响了现代马匹中的公马种系稀缺
- 青藏高原东部发现旧石器时代晚期遗址
- 世界首个商业飞船发射基地——美国航天港即将开工建设
- 美国男子沉迷网络游戏《堡垒之夜》 即便龙卷风来袭也不放下
- 汶川发现4800年的新石器时代遗址——布瓦遗址
- 数码技术复原旧石器时代日本人的面部 轮廓接近中国南方人及越南人
- 捷克布拉格发现一个比金字塔和巨石阵还要古老的神秘石质结构 建于7000年前的石器时代
