• 24小时机器人维修热线:020-82000787

子锐站内搜索 互联网
  • 广州子锐机器人技术有限公司
  • 服务热线:020-82000787(8:30-17:30)
  • 联系手机:15889988091(非工作时间)
  • 座机:020-82000787
  • 传真:020-32887675
  • 邮箱:gz@zr-robot.com
  • 广州市番禺区东环街金山谷创意八街1号109
  • 当前位置:首页 > 机器人资讯 > 无人机刺杀一国元首!是时候讨论一下AI杀人了!

无人机刺杀一国元首!是时候讨论一下AI杀人了!

时间:2019-10-20   点击:   来源:互联网   作者:匿名
简介:人类历史上出现了第一次动用无人机刺杀一国元首。 这似乎像是好莱坞大片中的情节:委内瑞拉的总统马杜罗在首都加拉加斯出席军队纪念活动演讲时,突然遭遇无人机的攻击。 这次刺杀一共有三架无人机参与其中,每架无人机负载1公斤的C4炸药。第一架无人机在总……

人类历史上出现了第一次动用无人机刺杀一国元首。

这似乎像是好莱坞大片中的情节:委内瑞拉的总统马杜罗在首都加拉加斯出席军队纪念活动演讲时,突然遭遇无人机的攻击。

这次刺杀一共有三架无人机参与其中,每架无人机负载1公斤的C4炸药。第一架无人机在总统看台对面爆炸,另一架起飞后在看台右侧爆炸,最后一架是在看台以南的建筑附近爆炸。

总统没有受伤,6名犯罪嫌疑人已经落网。委内瑞拉地下组织宣布对此事负责,美国国家安全顾问表示:这跟我们没关系....

虽然此次刺杀并未成功,并且技术含量不高,不过随着科技的进步,作恶的手段也会进步。

杀人蜂的出现

2017年11月,无人机公司StratoEnergytics发布了一款微型无人机武器,该武器很小,自带一颗小型炸弹,搭载摄像头进行人脸识别确认目标,KUKA机器人保养,实施精准爆头打击。如果此次暗杀采用的是这种杀人蜂,结果恐怕不好说...

几年前,美国大片出现这种武器的时候,KUKA机器人维修,还感觉神奇无比,完全不曾想过它们很快就出现在了现实世界中。此时此刻,我不由得生出一丝恐惧。

谁来保证不研发AI武器?

3月Google与美国国防部一起合作一个ProjectMaven的军事项目,利用图像识别技术分析无人机拍摄的影像,以更好的实现精确打击。这遭到了Google员工的强烈抵制,超过3000名Google员工联名发布公开信。

随后,Google不得不发布声明,宣布使用人工智能的7项原则以及4条底线。这7项原则是:

1、对社会有益。

2、避免制造或者加深不公平的偏见。

3、在开发中进行测试以确保安全。

4、对人类负责。

5、隐私原则。

6、坚持对卓越科学的追求。

7、在使用中考虑首要用途、技术的独特性及适用性、使用的规模这三个因素。

4条底线:1、对于那些将产生或者导致伤害的整体性技术,我们会确保其利大于弊,并将做好确保安全的相关限制。

2、不会将AI用于制造武器及其它会对人类产生伤害的产品。

3、不会将AI用于收集或使用用户信息,以进行违反国际公认规范的监视。

4、不会将AI用于违反国际法和人权的技术开发。

对于Google员工的反对以及大众的质疑,Goolge给出了这一份回复,但是和五角大楼的合作仍在进行。都说战争是充满谎言的,谁能够保证自己不研发AI武器?电影中各种势力珠胎暗结,现实恐怕比片中还更加荒诞可怕。

前段时间,马斯克、DeepMind创始人以及116位科学家联名写信给联合国,表示:老铁,必须要谨慎对待AI武器啊!你得管管。强烈建议各个国家能够制定相应的法律法规,监管AI武器的研发。

然而,从国家的角度来说,对于武器,比如核武器:可以不用,但是不能没有。

另一个问题是能不能Hold住?

核武的主动权尚在人类手中,机器人维修,AI武器的主动权在谁手中?完全拥有自主意识的强人工智能,自主权当然不会再存在于人类手上,机器人伺服电机维修,它们会不会出现,何时会出现,不得而知。可是一旦出现,局面就很难掌控了。

现阶段,我们还在弱人工智能的探究中,但是掌控它们似乎也不是一件容易的事情。比如Twitter曾经上线的聊天机器人出现了种族歧视;很多聊天机器人都出现了性别歧视的倾向,而这些并不是研发者的初衷。它们太可能被数据、环境、病毒所左右...

还有一点,当无人机代替人类执行歼灭任务的时候,它的目标是歼灭敌人...它将毫无人性的执行所接收到的命令,完全没有人道主义精神可言。它们完成的结果可能并不是我们想要的。

AI其实也很痛苦

在广泛研究探索AI技术的今天,AI伦理被抬上了桌面。著名小说家阿西莫夫提出的机器人学三定律想必大家都很熟悉:

机器人不能伤害人类,或因不运动而使人类受到伤害;

机器人必须执行人类的命令,除非这些命令与第一条定律相抵触;

在不违背第一、二条定律的前提下,机器人必须保护自己不受伤害。

这样看上去好像是能解决人们利用机器人作恶的问题,但如果不是你死就是我亡呢?自动驾驶是现在很火的研究方向,而关于自动驾驶就有一个很著名的电车悖论问题。

遇到交通意外的时候,无人驾驶汽车到底是应该尽力保护车里的乘客还是路上的行人?这真的是一个不亚于亲妈和亲老婆同时落水的世纪难题,作为AI也表示相当为难,但是作为一个智能体,能够考虑多种选择,作出当下情况的最优解将可能的伤害降到最低。

但素!通过调查发现,超过80%以上的人类表示:我会购买尽最大可能保障车内乘客安全的车。无人车表示:我看不懂你们人类!我们每一个人都很理解这种出于本能的自我保护愿望,每个人的生命都是平等的,在万不得已的情况下牺牲自己或者是他人都是情有可原的。可是,一旦AI接受了最大可能保障车内乘客的安全这个信息,那么很有可能就会致路人于死地...想想都不寒而栗。

是时候了

到底要不要研发武器,如何管制AI武器,全球应该达成怎样的共识?无人机,无人车,智能机器人发生事故,MOTOMAN机器人培训,导致人类死亡,KUKA机器人维修,如何界定责任呢?有人说,现在人工智能才发展到什么阶段,不必杞人忧天。但是全球来看这一块都是缺失的,是时候探讨一下关于发展AI我们会面临的一系列伦理、道德以及威胁人类生存的问题了。

如果不研发AI武器,如何保障全球内不会有别有用心的组织偷偷研发?如果可以研发AI武器,如何保障不肆意乱用,人类拥有绝对的控制权利?

AI伦理由谁站在谁的立场来制定?谁按照什么原则来执行AI伦理呢?

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。
扫二维码手机浏览
  • 广州子锐机器人技术有限公司
  • 地址:广州市番禺区东环街金山谷创意八街1号109
  • 电话:15889988091
  • 传真:

Copyright © 广州子锐机器人技术有限公司版权所有 www.zr-robot.com     网站备案ICP:粤ICP备15095857号

留电回访
  • 您的姓名
  • 联系电话
  • 需要维修或帮助的产品型号及说明
  •  
24小时工业机器人维修热线:020-82000787(首次维修半价优惠)