为科技业试图防范“终结者”点赞:ag体育平台

By admin in 科技 on 2021年10月19日

ag体育

ag体育-“a robot may not injure a human being or,through in action,allow a human being to come to harm。”is AAC asimov ‘ s precept formed ted But 75 years after he first articulated his three laws of robotics,the first and crucial principle is being of“机器人不应该伤害人类,阿西莫夫ag体育的戒律为未来主义小说奠定了道德基础。但是在他第一次具体解释“机器人三定律”75年后,这个重要的第一原则被现实所压迫。

对了,There are as yet no killer androids rampaging across the battlefield . but There are already defensive systems in place That can be programmed the到目前为止,“刺客机器人”还没有在战场上游荡。但是现在已经出现了很多防卫系统,无论是探测威胁、向目标3354飞去的导弹,还是能够反击附近的人类3354。五角大楼(Pentagon)对迷你无人机——进行了测试,结果显示,未来指挥官可能会派遣一群skybot前往敌方领土收集信息、拦截雷达或在面部识别技术的帮助下完成暗杀任务。

ag体育

从中国到以色列,从俄罗斯到英国,很多政府试图将人工智能方面取得的缓慢进展应用于军事用途。this is a source of alarm to researchers and tech industry executives . already under fire for the impact that disruptive technologies will have of iti对研究人员和科技行业高管来说,这种情况有点令人担忧。他们已经被批评破坏性技术对社会的影响,不期待自己的商业创意改造后被生产吞噬。

因此,100多个机器人和人工智能企业的创始人敦促联合国在致命的自主武器系统方面制止军备竞赛。他们在公开信中特别强调了这样的技术可以帮助冲突超越“前所未有的规模”,帮助独裁政权压迫反对者的担忧。这些武器是不道德的,会在黑客的攻击下受到伤害。Their concerns are well-founded,But attempts to regulate these weapons are fraught with ethical and practical difficulties . those who suoand there would be many less contentious uses for ai-Driver less convoys on roads vulnerable to ambush。

他们的怀疑是有根据的,但控制这种武器的尝试在伦理和实践上没有困难。
反对在战争中更多地使用人工智能的人指出,这种技术有可能增加损失。

不仅是因为需要部署的前线部队增加,而且因为智能武器系统可以更好地增加平民伤亡。如果能对登陆作战人员进行针对性的压迫行动,就不必进行无差别的轰炸,从而防止费卢杰或最近摩苏尔再次发生的悲剧。人工智能还将开发出大量没有争议的用途3354。

例如,在伏击区间被用作无人驾驶车辆。At present,There is a broad consensus among governments against deploying fully autonomous weapons-systems that can select and engage tagFor the US military,This is a moral red line : there must always be a human operator responsible for a decision to kill . for others in the debate目前,各国政府赞成只能部署3354件自主武器,美军有道德红线:杀人的要求必须由人类操作员来做。

ag体育

争论的其他各方没有现实的考虑,自律系统会做出不可预测的行为,或者更容易受到黑客攻击。it becomes far harder to draw boundaries between systems with a human ” in the loop “-in full control of a single drone,For example-。

(阿尔伯特爱因斯坦,Northern Exposure(美国电视剧),)Existing humanitarian law helps to an extent . the obligations to distinguish between comber现有的人道主义法则有一定的效果。有责任区分登陆作战人员和平民,防止不分青红皂白的反击,防止不会造成不必要伤害的武器。指挥官像士兵一样部署机器人继续执行任务时,他们要分担适当的责任。

But the ai industry is right to call for clearer rules,No matter how hard it may be to frame and enforce them . killer robots may remain the stuff of sccf但是人工智能行业敦促说,无论这些规则多么困难,制定更具体的规则是正确的。“刺客机器人”可能仍然不存在于科幻小说中,但自主运营者的武器很快就会成为现实。【ag体育】。

本文来源:ag体育平台-www.masbsdy.com

Comments are closed.

网站地图xml地图
Copyright @ 2010-2021 ag体育|官方平台 版权所有