| 加入桌面 | 手机版 | 无图版
高级搜索 标王直达
排名推广
排名推广
发布信息
发布信息
会员中心
会员中心
 
当前位置: 首页 » 方太 » 北京 » 平谷区 » 正文

谷歌给AI定七条规则,包括不开发武器AI、纳入隐私设计原则等

放大字体  缩小字体 发布日期:2018-06-08  浏览次数:73
核心提示:  面对内部数千员工的抗议,以及外部学术界的批评和媒体的曝光,谷歌周四终于发布使用AI的七项原则,承诺不会将其人工智能用于
  面对内部数千员工的抗议,以及外部学术界的批评和媒体的曝光,谷歌周四终于发布使用AI的七项原则,承诺不会将其人工智能用于会造成“整体伤害”的武器、技术和非法监视。   涉及AI的七项原则包括对社会有益,避免制造或加强不公平的偏见,提前测试安全性,对人负责,保证隐私,坚持科学高标准以及从主要用途、技术独特性等方面来考虑。   这七项原则是为了平息外界对谷歌Maven项目(Project Maven)的关注。Maven是美国国防部将人工智能应用于无人机的举措。   该项目于去年9月开展,根据合同,国防部将使用谷歌AI技术来分析无人机镜头。这是谷歌云业务负责人黛安·格林(Diane Greene)推动的一项重要举措,即向政府提供云服务,该业务利润丰厚,而目前由亚马逊和微软公司统治。   但是,该项目在内部开展不久后,便遭到谷歌内部员工的抵制。4000多名员工联名上书,要求取消Maven项目合同,理由是谷歌有避免军事工作的历史,以及对自动武器的担忧。   随着事件不断发酵,以及媒体不断披露细节,黛安于上周五宣布,一旦该合同失效,将不会继续合作。黛安称,“这是一项为期18个月的合同,因此它将于2019年3月结束”,过期将不再续约。   周四,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)在一篇博客文章称,谷歌不会在可能造成“整体伤害”的武器、技术和非法监视领域设计或部署AI。他称,“在存在重大伤害风险的情况下,我们只会在收益远超风险的情况下继续,并且会纳入适当的安全限制;不会部署故意导致或直接影响人身伤害的武器或其他技术;不会违反国际规范,部署收集或使用信息进行监视的技术,也不会部署违反国际法和人权原则的技术。”   但谷歌并不会放弃政府这块大蛋糕,谷歌正在云计算部门投入巨资,皮查伊的声明也表示,谷歌将继续追求这些合同。   在划定七项原则之后,皮查伊表示,将继续与政府和军队合作, “我们希望明确的是,虽然我们不开发用于武器的AI,但我们将继续与政府和军队在诸多领域合作”,包括网络安全、培训、军人招募、退伍军人医疗、搜索和救援。“这些合作非常重要,我们将积极寻找更多方式以促进这些组织的重要工作,并确保服役人员和平民的安全。”   谷歌的七项原则也是AI发展的分水岭。谷歌这样的科技巨头在开发软件和服务方面具有领先优势,计算机成本下降和性能方面的突破使AI在过去几年扩展到更多的行业,如汽车,医疗保健,但AI在军事等方面的应用也引起了学术界和谷歌内部员工的担忧。   据路透社报道,一位谷歌官员周四表示,尽管Maven项目工作重点放在非攻击性任务上,但(工作性质)太接近武器装备了。不仅是谷歌,此前,也有公民自由组织联名向亚马逊 CEO 贝索斯上书,抗议该公司将人脸识别技术出售给警方。   皮查伊在文中表示,AI如何开发和使用,将会对未来社会产生重大影响。“作为人工智能领域的领导者,我们感到深深的责任感。所以我们宣布了七项原则来指导我们今后的工作。这些不是理论概念;是具体的标准,将积极主导我们的研究和产品开发,并会影响我们的业务决策。”   谷歌大脑( Google Brain)联合创始人Jeff Dean在推特上转发该博文称,除了AI原则,谷歌正在提供技术实践以实际履行这些原则。   不过,也有评论认为谷歌做的还很不够,The New School的副教授彼得·阿萨罗(Peter Asaro)在推特上表示,“这些原则是一个好的开始,但希望能够看到谷歌在AI监控、隐私、安全、不公平偏见,AI和自主武器等领域制定规范方面发挥积极主导作用,而不是仅仅遵循现状。   附谷歌AI应用的七项原则:   1.对社会有益   新技术的应用范围越来越广,越来越影响到整个社会。AI的进步将对包括医疗保健、安全、能源、运输、制造和娱乐在内的广泛领域产生重大影响。当我们考虑AI技术的潜在发展和应用时,我们将考虑一系列的社会和经济因素,并将在我们认为整体收益远超过可预见的风险和弊端的情况下继续推进。   AI还增强了我们理解大规模内容含义的能力。我们将努力使用AI来随时提供高质量和准确的信息,同时继续尊重所在国家的文化、社会和法律准则。我们将继续仔细评估何时可以在非商业基础上让大家使用我们的技术。   2.避免制造或加强不公平的偏见   AI算法和数据集可以反映、加强或减少不公平的偏见。我们承认,区分公平和不公平的偏见并不总是很简单,并且在不同的文化和社会中是不同的。我们将努力避免对人们造成不公正的影响,特别是与种族、民族、性别、国籍、收入、性取向、能力以及政治或宗教信仰等敏感特征有关的人。   3.提前测试安全性   我们将继续开发和应用强大的安全和保障措施,以避免造成引起伤害的意外结果。我们将设计我们的AI系统,使其保持适当的谨慎,并根据人工智能安全研究的最佳实践开发它们。在适当的情况下,我们将在有限的环境中测试AI技术,并在部署后监控其操作。   4.对人负责   我们将设计能够提供反馈、相关解释和说明的AI系统。我们的AI技术将受到人类适当的指导和控制。   5.纳入隐私设计原则   我们将在开发和使用AI技术时融入隐私原则。我们将提供通知和同意的机会,鼓励具有隐私保护措施的架构,并对数据的使用提供适当的透明度和控制。   6.坚持科学卓越的高标准   技术创新植根于科学的方法和开放式调查的承诺,学术严谨,诚信和合作。人工智能工具有可能在生物学、化学、医学和环境科学等关键领域开拓科学研究和知识的新领域。我们致力于促进人工智能的发展,追求高标准的科学卓越。   我们将与广大股东合作,通过科学严谨和跨学科的方式来全面促进该领域的发展。我们将通过发布教育材料,以及通过发布可以促进更多人开发AI应用的最佳实践和研究来分享AI知识。   7.从主要用途、技术独特性等方面来提供技术   许多技术有多种用途。我们将努力限制可能有害或被滥用的应用程序。在开发和部署AI技术时,我们将根据以下因素评估可能的用途:   主要目的和用途:技术和应用的主要目的和可能的用途,包括解决方案与有害用途的相关性或适用程度   普遍与独特:我们的技术是独一无二的还是更普遍适用的   规模:这项技术的使用是否会产生重大影响   谷歌参与的性质:我们是否提供通用工具,为客户集成工具还是开发定制解决方案
 
 
[ 方太搜索 ]  [ ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐方太
点击排行
 
 
购物车(0)    站内信(0)     新对话(0)