本文系网易智能工作室(公众号 artman 163)出品。聚焦AI,读懂下一个大时代!
【网易智能讯 7月20日消息】前段时间,埃隆·马斯克(Elon Musk)在全美国州长协会会议上,强调人工智能是“我们人类文明面临的最大威胁”,并呼吁政府迅速而坚决地进行干预,监督这项技术的发展。
在讨论无人驾驶汽车和太空探索的过程中,马斯克呼吁政府对人工智能研究和实施进行更大的监管,他说:“在人们看到机器人在街上杀人之前,我们不知道如何做出反应,因为这看起来离我们太遥远了。但是,人工智能是一个特例,我认为我们需要积极主动地进行监管,而不是被动地应对。因为我认为,现在意识到在人工智能监管方面的重要性,为时还不晚。”
虽然电脑可能在诸如电子游戏竞技和棋牌类游戏中更胜一筹,但它们始终无法接近人类的智力——人类的广泛推理技能,这能让我们完成许多不同的任务。这就是为什么人工智能在单一任务例如象棋比赛上表现出色,但当被要求做一些其他简单的事情时,比如描述椅子,它就不会做了。也许未来有一天人工智能能够和人类电脑相媲美,但当我们真的达到这一点的时候,大家就会担心人工智能和人类之间的关系问题。但目前看来,我们现在的人工智能还是弱人工智能,尚未达到强人工智能阶段。
艾伦人造智能研究所CEO、AI专家奥伦埃齐奥尼(Oren Etzioni)
华盛顿大学计算机科学教授和艾伦人造智能研究所首席执行官奥伦埃齐奥尼(Oren Etzioni),对于马斯克此举行为表示不认可,他认为马斯克所说的人工智能对人类来说是一种威胁,主要是因为只片面的看到了人工智能对人类工作的威胁,担心人工智能被当做军事武器威胁人类的生存等负面作用。公众需要全面的看到人工智能背后的所有信息,包括正面和负面的。我们必须区分科幻小说和科学。在虚幻小说中,人工智能经常被认为是一个“坏人”,试图统治人类世界。但事实上,人工智能是一种工具、一种技术,它有望通过改善交通方式、医疗服务等方式来拯救生命。与其建立一个新的监管机构,我们还需要更好地教会人工智能什么可以做、什么不可以做。我们需要研究如何构建“AI监护人”等系统来监控和分析,以确保人工智能遵守我们的法律和价值观。世界需要人工智能来满足其利益,人工智能需要监管。
新南威尔士大学人工智能研究员、AI专家托夫·沃尔什(Toby Walsh)
托夫·沃尔什,澳大利亚新南威尔士大学人工智能研究员托比·沃尔什(Toby Walsh)表示Elon Musk的话是危言耸听。最近经过对300位领先的AI研究人员进行了调查,发现其中大多数人认为,人工智能要等至少50年才能达到像人类一样聪明,所以这不是一个亟待解决的问题, 而且我们也不用担心当那一天到来时会发生什么,因为如今有一个健康研究机构正致力于确保这些机器不会对人类的生存构成威胁。相信他们会准确地提供届时需要采取的保障措施。
但是,马斯克在一件事上是正确的:现在需要政府开始着手监管人工智能。正因为现如今的人工智能都不够聪明,才需要人类的监管,例如有偏见的算法、军备竞赛中的杀人机器人等等,这些不够聪明的人工智能被赋予了决定生死存亡的能力。除此之外,一些科技公司掌握了我们所有的个人和医疗数据对我们隐私造成威胁,同时,互联网扭曲了人们的观念。这些当下科技公司所存在的问题都需要着手去处理,否则就需要政府出面干涉管理。
我们正在见证一场大型科技巨头之间的人工智能竞赛。许多其他行业也看到政府介入,以防止垄断行为的出现。如果像谷歌和Facebook这样的大公司在20年里没有分裂的话,我将会非常担心我们的社会的未来。
斯坦福人工智能实验室主任、AI专家李飞飞
身为斯坦福人工智能实验室主任的AI专家李飞飞表示,机器的价值是人类的价值观。无论斯坦福、谷歌还是特斯拉,每一位技术专家都在为改善我们的社会做出贡献的慈善技术中扮演着重要角色。作为一名人工智能教育工作者和技术专家,我最希望看到的是,在人工智能的发展以及人工智能的传播方面,都能看到更多的包容和多样性,人工智能正被嵌入到我们现在和未来正在构建的几乎所有的算法和系统中。
IEEE全球AI伦理倡议主席、AI专家Raja Chatila
IEEE全球AI伦理倡议主席Raja Chatila对于马斯克的言论表示, 人造智能已经无处不在。人工智能正在嵌入到我们目前所建立的所有算法和系统当中。非常重要的一点,我们需要设计优先考虑人工智能是否符合伦理道德并承担责任。然而,这与人工智能和社会所面临的风险有关,呈现指数经济增长的优先级,而忽视环境和社会问题。就马斯克关于人工智能的生存威胁的警告是否值得人们的立即关注,我们实际上冒着巨大的风险的,因为我们将指数增长和股东价值凌驾于社会繁荣指标之上,作为这些令人惊叹的技术的成功标志。
人工智能的发展必须确保在欧盟的GDPR(一般数据保规)的鼓励下,安全和可信地访问和交换用户数据。而且,他们必须优先考虑以人权为中心的标准,比如联合国的可持续发展目标是确定的全球成功的标准,可以证明人类的繁荣是可以确定的,而国际电子协会全球人工智能倡议则建立了道德一致的设计:将人类福祉与人工智能和自治系统结合在一起的愿景,以务实的方式帮助任何利益相关方创造这些技术,积极应对马斯克提出的各种伦理问题。
由超过250名全球人工智能和道德专家组成的团队,也是该系列的灵感来源——在目前正在进行的系统设计中,解决伦理问题的模型过程,旨在为这些问题在全球共识构建过程中创造解决方案。我对人工智能的最大担忧是,在没有优先考虑伦理和负责任的设计的情况下,设计和推广这种技术,或者在我们迫切需要关注环境和社会可持续性的情况下,快速增加经济增长,以避免在人工智能的帮助下,我们已经创造出的生存风险。人类不需要担心人工智能,只要我们现在就把道德和负责任的设计目标放在优先位置。
马斯克对人工智能的担忧是合理的,也不应该被忽视——但他们担心的是,这些发展几乎肯定会发生在相对遥远的未来,可能至少是30到50年之后,可能会有更多的事情发生。
《机器人的兴起:技术和失业未来的威胁》作者、AI专家马丁·福特 (Martin Ford)
马丁·福特,《机器人的兴起:技术和失业未来的威胁》作者表示,对于人工智能对人类构成生存威胁这件事,Elon Musk的担忧是合理的,也不应该被忽视 。但这种担忧要在至少50年之后才可能会出现。要求立即规范或限制人工智能发展的原因有很多,其中最重要的一个原因是美国目前正在与其他国家特别是中国展开积极竞争,我们在这场关键的比赛中不能落后。
另外,对真正先进的人工智能“接管”的担忧,让我们忽视了与专业人工智能发展相关的更紧迫的问题。这些因素包括,随着数以百万计的工作岗位被淘汰,以及潜在的隐私威胁,以及在网络犯罪和网络战争中部署人工智能,以及真正自主的军事和安全机器人的出现,可能出现大规模经济和社会动荡的可能性。
这些更接近短期的发展,都依赖于马斯克担心的先进超级智能的发展。它们是已经存在的技术对社会影响的简单推断。我们当前的重点应该是解决这些投机性较低的风险,这些风险极有可能在未来20年内产生重大影响。
本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕,E-mail:xinmeigg88@163.com
本文链接:http://jx.tttmy.cn/news/2134.html
下一篇
营销类网站建设