标题 简介 类型 公开时间
关联规则 关联知识 关联工具 关联文档 关联抓包
参考1(官网)
参考2
参考3
详情
[SAFE-ID: JIWO-2024-1128]   作者: tomcat 发表于: [2017-11-22]

本文共 [449] 位读者顶过


人工智能(AI)已经从一个科幻小说式的探索领域发展到一个蓬勃发展的科技领域,在这个领域里,不可能的事情正在成为可能。为了确保人工智能发展的未来仍然具有伦理和社会意识,美国电气和电子工程师协会(IEEE)宣布了三项新的人工智能伦理标准。 [出自:jiwo.org]

IEEE 自称为“世界上最大的技术进步技术专业组织”。根据最近发布的一份新闻稿,他们的人工智能标准将优先考虑人类,因为他们承诺要跟上该领域不断发展的脚步。这些新标准将成为一份题为《伦理一致的设计:将人类福祉与人工智能和自主系统优先考虑的愿景》的 IEEE 文档的一部分。这份文件将继续随着时代的变迁而不断变化,鼓励那些推动技术进步的人考虑这样的进步可能会如何影响伦理方面的担忧。

Satoshi Tadokoro 是 IEEE 机器人和自动化协会的主席,他解释了为什么他们在发布会上制定了这样的标准:“机器人和自动系统将为社会带来重大创新。最近,公众越来越关注可能发生的社会问题,以及可能产生的巨大潜在利益。不幸的是,在这些讨论中,可能会出现一些来自虚构和想象的错误信息”。Tadokoro 继续说道:“IEEE 将基于科学和技术的公认事实来引入知识和智慧,以帮助达成公共决策,使人类的整体利益最大化 ”。三大人工智能标准将作为一个单独的项目引入,每个项目由专家领导。

第一个标准:“机器化系统、智能系统和自动系统的伦理推动标准”。探讨了“推动”,在人工智能世界里,它指的是影响人类行为的微妙行动。

第二个标准:“自动和半自动系统的故障安全设计标准”。包含了自动技术,如果它们发生故障,可能会对人类造成危害。就目前而言,最明显的问题是自动驾驶汽车。

第三个标准:“道德化的人工智能和自动系统的福祉衡量标准”。阐述了进步的人工智能技术如何有益于人类的益处。

这些标准的实施可能比我们想象的要早,因为像 OpenAI 和 DeepMind 这样的公司越来越快地推进人工智能的发展,甚至创造出能够自我学习又扩大 “智能” 领域的人工智能系统。专家们认为,这样的人工智能会破坏世界稳定,导致大规模的失业和战争,甚至转向创造“杀人武器”。

最近,联合国的重要讨论促使人们开始认真思考,需对将人工智能技术当作武器使用进行更严格的监管。这三个标准项目有望能够规范人工智能的发展,而不是阻碍进步,但是我们所了解的社会也并未被我们努力创造的东西所破坏。

评论

暂无
发表评论
 返回顶部 
热度(449)
 关注微信