歧视、造假、思维控制:人工智能在道德面前急踩刹车 |
珠江路在线
2021年9月9日
【
转载
】天龙影院
|
本文标签:人工智能,道德,谷歌 |
北京 工夫9月9日上午 信息,据报导,上一年9月,谷歌的云计算部门考量 使用人工智能协助一家金融公司决定向谁借钱 。
通过数周的内部 探讨后,他们 回绝了客户的提议,认为该 名目在道德上过于冒险,因为人工智能技术可能会在种族和性别等因素上连续偏见 。
自上一年年头以来,因为 担心对文化因素不够敏感,谷歌还抛弃了 综合情感的新型人工智能 性能,微软也 制约了摹仿声音的软件,IBM则 回绝了客户对高级面部 鉴别系统的 申请 。
依据对这三大美国科技巨头人工智能伦理负责人的采访,全部这些技术都是公司的高管小组或 其余领导人亲手 干涉的 。
这是媒体首次披露他们针对这些技术行使的否决权和审议过程,这也反映出整个行业涌现出一股新生力量, 能够在 谋求利润 丰富的人工智能系统与加大社会责任考量中间达成 均衡 。
“有机会,也有损害,我们的工作是最大限度地添加机会,并最大限度地削减损害 。” 特雷西·皮佐·弗雷 (Tracy Pizzo Frey)说,他是谷歌云的两个道德委员会成员,还是谷歌人工智能社会责任负责人 。
但推断起来并非易事 。
例如,微软的首席人工智能责任官娜塔莎·克兰普顿(Natasha Crampton) 示意,微软的语音摹仿技术 能够让聋哑人再一次“发声”,但同时也会加大政治深度造假等风险, 因而必须在二者中间找到 均衡点 。
激进人士 示意,可能对社会产生 宽泛影响的决定不应 独自在企业内部决定 。他们认为,道德委员会不可能做到真正独立,他们的公开透明度受到竞争压力的 制约 。
欧洲公民 自由联盟的宣传负责人贾斯查·加拉斯基(Jascha Galaski)认为外部监督是 将来的趋向,美国和欧洲政府 确切正在为这个方才起步的领域 制订 规定 。
假如企业的人工智能伦理委员会“真的变得独立透明——这都是十分乌托邦主义的——那可能好于任何 其余解决 方案,但我认为这不 事实 。”加拉斯基说 。
两家公司 示意,他们 欢送对人工智能的 使用 模式进行明确监管,这关于客户和公众的 信念都至关主要 。从这丝毫来讲,这与汽车安全 规定 类似 。他们说,在具体行事过程中 充足考量各种责任,也 相符他们的经济利益 。
但是,他们 指望任何 规定都能足够灵便,从而跟上创新 步调及其造成的最新 窘境 。
IBM 示意,该公司的人工智能伦理委员会正在考量许多复杂问题,包含如何监管一个新兴领域:将计算机与大脑相连的植入物和可穿戴 设施 。
IBM首席 隐衷官克里斯蒂娜·蒙哥马利(Christina Montgomery) 示意,这种神经技术 能够协助残疾人操纵身体运动,但也存在许多隐忧,例如黑客有可能借此操纵人的 思维 。
情绪 鉴别
科技公司 抵赖,就在5年前,当他们方才推出聊天机器人和照片标记等人工智能服务时, 几乎没有任何道德保障,不得不通过后续更新解决滥用问题或有偏见的 后果 。
但随着人工智能因为失败而面临越来越多的政治和公众审查,微软(2017年)、谷歌(2018年)和IBM(2018年)相继分成立了道德委员会,从一开始就新服务进行审查 。
谷歌 示意,上一年9月,当一家金融服务公司认为人工智能比 其余 步骤更 合适评估人们的信用时,它便陷入了“放贷 窘境” 。
该 名目 仿佛十分 合适谷歌云,谷歌的人工智能技术有助于检测 异样交易, 因而吸引了德意志银行、汇丰银行和纽约梅隆银行等客户 。
谷歌云估计基于人工智能的信用评分可能会成为一个每年价格数十亿美元的市场,他们 指望在其中站稳脚跟 。
但是,皮佐·弗雷 透露,该部门的道德委员会由大概20名负责审查潜在交易的经理、社会科学家和工程师构成,他们在上一年10月的会议上 统一投票反对该 名目 。
该委员会总结道,人工智能系统需求从过去的数据和模式中学习, 因而有可能摹仿世界各地对有色人种和 其余边缘群体的卑视性做法 。
更主要的是,在内部被称作“柠檬水”(Lemonaid)的委员会 制订了一项政策,规定在此类问题得到解决之前,抛弃全部与 信用 有关的金融服务交易 。
“柠檬水”过去一年驳回了三项 类似的提议,其中包含一家信用卡公司和一家商业贷款机构,而皮佐·弗雷和负责销售的 共事向来渴望就这个问题 制订更 宽泛的规定 。
谷歌还 示意,该公司的云计算业务还有第二个名为“冰茶”(Ice Tea)伦理委员会,他们今年正在审查2015年公布的一项服务,将人们的照片按欢跃、悲哀、愤慨和 惊异四种表情分类 。
在此之前,谷歌总公司的道德委员会,即高级技术审查委员会(ATRC)方才作出裁决,禁止推出与 鉴别情感有关的新服务 。
谷歌责任创新团队的 独创人兼负责人珍·吉耐(Jen Gennai) 示意,由十多位高管和工程师构成的ATRC明确认定,推断情绪的技术不够敏感,其中一个缘由是,在不同文化中,面部线索与具体 感想存在着不同的关联 。
吉耐和皮佐·弗雷 示意,“冰茶”已经封杀了云工具的对13种情绪推断,包含 难堪和满足,而且可能很快会 彻底抛弃这项服务,转而采纳一种新系统,届时只会对皱眉和微笑等动作进行 形容,而不加以解读 。
声音和 脸孔
与此同时,微软人工智能高管克兰普顿 示意,微软开发的软件 能够利用一个简短的样本重现某人的声音,但该公司的敏感用法委员会花了两年多 工夫,针对与此有关的道德问题进行 争论,并 征询了公司总裁布拉德·史密斯(Brad Smith) 。
她说,该委员会包含人权、数据科学和工程等领域的专家,他们最后为Custom Neural Voice今年2月全面公布开了绿灯 。但对它的其 使用设置了 制约,包含确认受试者的允许申明,而且依据公司的 有关政策培训了一个“负责任的人工智能冠军”(Responsible AI Champs)团队 。
IBM的人工智能委员会大概包含20 名部门领导,在新冠疫情初期,当客户要求定制面部 鉴别技术,以 鉴别发烧状况和面部 遮蔽物时,他们陷入了 窘境 。
该委员会联席主席蒙哥马利 示意,他们 回绝了这个要求,认定人工 审查足以削减对 隐衷的 进犯,因为照片不会被保留到任何人工智能数据库中 。
6个月后,IBM 宣告 停留提供面部 鉴别服务 。
壮志未酬
为了 掩护 隐衷和 其余 自由,欧盟和美国的立法者 指望加大对人工智能系统的操纵 。
欧盟的人工智能法案有望于明年通过,该法案将禁止在公共 场合进行实时人脸 鉴别,并要求科技公司审查高风险 利用,例如用于 应聘、信用评分和执法的 利用 。
美国国会议员比尔·福斯特(Bill Foster)曾就算法如何加剧金融服务和住房领域的卑视 举办听证会,他 示意,针对人工智能出台新的法律将为供给商营建一个公平的市场 。
“当你要求一家公司为了社会利益削减利润时,他们会说,‘我们的股东怎么办?怎么不处罚竞争对手?’所以才需求 详尽的监管,”这位来自伊利诺伊州的民主党人说 。
“可能有些领域十分敏感,你会看到科技公司故意不去涉足,直到有明确的 规定浮现 。”
事实上,一些人工智能的 遍及可能会被搁置,直到企业能在不投入大量工程资源的状况下 应答道德风险 。
在谷歌云上一年10月 回绝为金融公司定制人工智能服务后,“柠檬水”委员会告诉销售团队,该部门的 指标是有朝一日能开发与信贷 有关的 利用程序 。
谷歌云在发给员工的政策中 示意,首先,必须通过探究来打击不公平的偏见,以此匹配谷歌云通过“高度敏感”的技术 遍及金融 包容性的雄心壮志 。
“在那之前,我们 无奈部署解决 方案 。”