• 24小时机器人维修热线:020-82000787

子锐站内搜索 互联网
  • 广州子锐机器人技术有限公司
  • 服务热线:020-82000787(8:30-17:30)
  • 联系手机:15889988091(非工作时间)
  • 座机:020-82000787
  • 传真:020-32887675
  • 邮箱:gz@zr-robot.com
  • 广州市番禺区东环街金山谷创意八街1号109
  • 当前位置:首页 > 机器人资讯 > 【深度好文】美国法律扼杀机器人前途产业发展喜忧参半

【深度好文】美国法律扼杀机器人前途产业发展喜忧参半

时间:2024-11-26   点击:   来源:互联网   作者:匿名
简介:【深度好文】美国法律扼杀机器人前途产业发展喜忧参半 ZR-ROBOT子锐机器人维修网讯:目前世界各地的各类机器人发明数量稳步提升,美国军方也丝毫不怠慢。几年之前,美国空军无人机执行任务逾一百万小时。机器人爱好者们使用如Arduino的平台建造自己的机器……

【深度好文】美国法律扼杀机器人前途产业发展喜忧参半

ZR-ROBOT子锐机器人维修网讯:目前世界各地的各类机器人发明数量稳步提升,美国军方也丝毫不怠慢。几年之前,美国空军无人机执行任务逾一百万小时。机器人爱好者们使用如Arduino的平台建造自己的机器人,他们制造的机器人已有数千个。

最近特斯拉宣布公司有意研发无人驾驶汽车,并在2018年将产品推向市场。ChrisAnderson辞去《连线杂志》总编一职,成立并经营一家机器人公司。

封闭软件有碍创新

将机器人封闭化就像现代的家用电器,他们被设定成只执行一种任务的平台。家电运行的是专用软件,就像洗碗机一样只能够洗碗而做不了其它工作。

开放的机器人正好相反,他们没有预先制定的功能,运行第三方或者甚至是开放资源软件,可对外形进行修改和扩展,并且不会影响到性能。

消费性机器人就属于封闭式,这也就是为什么消费性机器人的发展如此缓慢的原因。数年前仅有少数公司,如索尼,iRobot制造消费性机器人或编写机器人软件。

个人电脑设计用于运行任何人编写的所有软件,的确,许多颇受欢迎的创新应用程序或应用并非出自苹果公司或IBM,而是业余编码员之手。消费者购买个人电脑并非为了电脑会做什么,而是能做什么。

开放性机器人也是如此,其具有可拓展性或者模块化的特性让开放性机器人具有第二优势,日后多种用途和有实际用途的机器人价格将会不断升高。

两年之前消费者电子展会上iRobot推出了一款名为AVA的机器人,该款机器人可运行第三方应用程序。但是接踵而至的却是版权诉讼,索尼公司也为AIBO推出了一款软件开发工具,可用于教室或比赛。

机器人开放平台的问题在于为制造商带来各种潜在的诉讼问题。如果机器人可以做任何事,KUKA机器人维修,那么也就可以做任何坏事。如果机器人可以运行各种软件,那么也可以运行病毒或恶意软件,甚至还有可能运行应用程序。

阿西莫夫三大定律与机器人法则的现实性

目前不少国家开发了智能战场机器人,这些机器人让人们担心《圣经》中描述的审判之日离我们不远,出于对战场机器人的顾虑,不少政府开始更加关注对战场机器人问题,至少距离完全禁止生产该类机器人迈出了第一步。

2013年11月,CCW(《特定常规武器公约》)的成员国同意明年在日内瓦举办会议讨论致命自主武器的议题,这个名字是官方的叫法。

机器人对军方而言优势太大:无需报酬、不吃不喝不睡觉、自主执行上级命令、不会害怕、愤怒,也不会痛苦。还有,即便机器人在战场上轰成渣,也不会造成国内悲痛。

从第一辆坦克投入战场到以色列研制的大卫的投石索飞弹,技术改变战争的例子不胜枚举。进来备受争议的战争用无人机便是例子,但是即便如此,无人机也需要人远程控制。无论是锁定目标还是发射导弹,做决定的都是人。

无数专家关心的其实是下一代机器人武器:可以自行决定目标并杀死目标的武器。

禁止制造机器人

明年开始全球国家将对机器人武器进行讨论,这对禁止制造机器人武器是一个巨大的进步,人权观察的武器负责人SteveGoose说,各国政府已经意识到全自动化武器带来巨大的立法压力和道德压力,问题已经刻不容缓。

目前完全自主机器人武器部署到战场可能还需要等上20-30年,由学者和专家组成的国际机器人控制委员会(ICRAC)担心可能发生的机器人武器军备竞赛,认为有必要禁止研发和使用自主武器系统。

目前还没有那个国家制造出自主武器,但是这个提议绝非只是纸上谈兵。今年下半年美国国防部(DOD)发布了如何使用自主武器以及如何在战场部署自主武器的规划书。书中规定了如何操作自主武器,然而却没有只字提到禁止使用。

国防部指导中写到:自主和半自主武器应该能够听得懂指挥官或操作人员下令开火的合适命令。规划中要求武器要做到足够机动灵活,尽量避免执行计划外行动或让未授权使用者操控机器。

但是指导似乎的的确确放弃人工智能武器,而选用人类精确定位目标:有人监控自主武器系统可以用于选择目标并向目标开火,但目标不可为人类,以应对拦截美国国内可能发生的袭击行动,这些行动经常是时敏目标或密集目标。

英国政府的态度则与美国相反,英国并不打算采用全自主武器。今年初英国外交部部长AlistairBurt向国会做陈述说英国军队的武器控制权始终掌握在人类手中,以此保证武器由人类监督由人类掌管,并由人类负责使用武器。但是随后Burt的言辞又让人寻味:英国单方面做出承诺目前阶段绝不部署致命自助武器系统,但是这不表明英国会签署暂缓研发和使用自主机器人武器的条约。

ICRAC主席NorlSharker是英国谢菲尔德大学研究人工智能和机器人的一名教授。这位教授看过了自主武器的军方计划书后大为震惊,因为军方显然完全过分预估了这项技术,他们对自主机器人的看法更像是科幻小说的描写。

ICRAC提议禁止研发和制造自主机器人武器的目的并不是抵抗自主机器人。我家里用的吸尘器机器人就是自主机器人,我研究自主机器人的开发已经有30个年头了。ICRAC真正希望是禁止机器人拥有杀戮功能。自主机器人一旦运行,就会自主寻找目标并打击目标,Sharkey说:打击目标的意思是指杀死目标。把机器人设计成自己选择自己认为合适的目标进行打击,这就是ICRAC要阻止的。

对Sharkey来说机器人根本不会遵循基本的战争法。机器人无法区分战斗人员和平民,也无法分辨出哪些人是伤兵或者那些建筑是符合战争法中规定的可打击目标。没有任何人工智能机器人武器可以做到完全分辨目标,根本不可能。Sharkey博士指着英国制造的可以区分人和汽车的机器人说这太机器人可以分辨人和汽车,但却分不清对面站着的是一只跳舞的狗熊还是一条两条后腿站立的狗。

机器人武器也不能判断利弊,他说,机器人无法判断某次攻击行为造成的军事打击和平民伤亡孰重孰轻。机器人怎么可能知道?军事打击获得的战争优势都可以让博士们发表好几篇论文了,战场上有太多变数,只有身经百战的指挥官身临战场才能做出判断。

Sharkey指出最大的问题其实还是负责制度。如果某次军事行动出错,机器人无法被问责,这也是与Sharkey交流过的指挥者们真正担心的问题:如果机器人出错了,倒霉的可是指挥官们。

这对指挥官不公平,机器人随时会崩溃当机,机器人有可能被人类诱骗,可能被黑,可能由于编程中的某次出错让黑客通过计算机控制开枪,机器人的传感器可能出现故障,而这一切又应该由谁来负责呢?是制造者?软件工程师?机器人工程师?还是指挥官?在战场上一旦出错必须清楚谁该负责。

Sharkey关心的是一旦技术上的限制被突破,战争机器人极有可能逐步推广到全世界的战场。自主机器人技术并非用于战争,即便自主机器人武器被部署在战场,这项技术本身也不适合用于战争。

TAG:
免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。
扫二维码手机浏览
  • 广州子锐机器人技术有限公司
  • 地址:广州市番禺区东环街金山谷创意八街1号109
  • 电话:15889988091
  • 传真:020-82000787

Copyright © 广州子锐机器人技术有限公司版权所有 www.zr-robot.com     网站备案ICP:粤ICP备15095857号

留电回访
  • 您的姓名
  • 联系电话
  • 需要维修或帮助的产品型号及说明
  •  
24小时工业机器人维修热线:020-82000787(首次维修半价优惠)