| 设为主页 | 保存桌面
97
021-80392064-802
您好,欢迎光临Murphy摩菲专营店,我们将竭诚为您服务 点击这里给我发消息

Murphy摩菲专营店

Murphy压力表,Murphy温度表,Murphy液位仪表,Murphy传感器,Mur...

  • 联系人:郭经理
  • 电话:021-80392064-802
  • 邮件:548700770@qq.com
  • 手机:13124847480
  • 传真:021-80392064
经销品牌
企业档案
上海佳武自动化科技有限公司

郭经理 女士  

经营范围:Murphy压力表,Murphy温度表,Murphy液位仪表,Murphy传感器,Murphy控制阀,Murphy振动开关

所在地区:上海

新闻分类
  • 暂无分类
联系方式
  • 联系人:郭经理
  • 电话:021-80392064-802
  • 邮件:548700770@qq.com
  • 手机及微信:13124847480
  • 传真:021-80392064
您当前的位置:首页 » 新闻中心 » 未来战场使用智能自动化武器会很危险?
新闻中心
未来战场使用智能自动化武器会很危险?
发布时间:2016-03-24        浏览次数:158        返回列表

未来战场使用智能自动化武器会很危险?

自动武器投入战场将很大程度人类战士的负担和危险,但目前专家提出,这样做将更加危险和不安全。近期召开的 次国际会议中,研究人员表示,智能化自动武器可以被不道德行为利用,甚至成为黑客的操控平台。


不同于人类可以完全控制的无人机,未来自动武器将自动选择和攻击目标。该问题在今年1月份瑞士召开的 经济论坛上重点讨论。美国新南威尔士大学人工智能专家托比-沃尔什(Toby Walsh)教授指出,自动武器是我们2015年关注的 个焦点,我们普遍认为当前并不具备制造伦理机器人的能力,尤其令人担忧的是,近年来 各国纷纷开始将机器人投入战场,我们并不认为现在能够制造出伦理机器人。

为了制造 个“伦理机器人”,研究人员将对机器人系统编程特殊规则,避免它们失去控制。例如:科幻小说作家艾萨克-阿西莫夫(Isaac Asimov)撰写的 部短篇科幻小说《环舞》,小说中提出控制机器人行为的三条定律,定律 是机器人不能伤害人类,或者遇到人类被伤害时不能坐视不管;定律二是机器人必须遵守人类指令,除非遇到指令与定律 相冲突;定律三是机器人在不违反前两条定律的前提下必须要保护好自己。

专家认为,这三条定律将有助于研制道德规范化机器人, 终设计师将使用这些定律设计机器人。部分专家表示,谈及“人工智能机器人反叛”为时过早。新美国安全中心伦理自动项目主管保罗-夏伦(Paul Scharre)说:“当前 大多数自动化武器并未投入使用,多数自动化武器系统仍处于‘发射后不管’的阶段,甚至设计的 进系统也不能智能化选择目标。”

夏伦在 经济论坛上发言指出,虽然自动化武器在战争中并未禁止使用,但是它们如果未来投入战场,能否遵循公认的交战规则将是 个很大的挑战。 终即使自动化机器人合法和遵循伦理道德,它们也是非常危险的,故障失控和敌方黑客侵入,都将使自动化武器系统具有巨大威胁。尤其是自动化武器的安全系统被黑客侵入并改写,这将成为战场上的灾难,伴随着武器系统变得更加自动化,黑客攻击潜在的威胁日益增大,不论是否这个武器平台仍被人类所控制。

未来战场使用智能自动化武器会很危险?