您现在的位置:首页 >> 数码

面试你的不是人?纽约计划约束人工智能「面试官」

时间:2024-12-09 12:23:02

「我们未能律条文缺少有关您面试结果的具体反馈。」

在澳大利亚,越来越多的雇佣利用计算机系统(AI)推进管理人员时序。但应征者仅仅并不知道 AI 管理人员用以为何拒绝接受他们的文稿,或者如何分析他们的音频面试。当他们落选时,多半并不需要收到这样一封冷冰冰的邮件,不并不知道自己到底为什么落选。

▲ 特写来自:unsplash

这每每令人不安,AI 在我们的职业生涯之前究竟起到怎样的决定权?

,11 年末底,新泽西州议会以 38 得票数对 4 得票数:如果 AI 管理人员系统设计不会通过亚太区审核,将被强制使用。亚太区审核将检查 AI 管理人员系统设计没用群体或性取向性取向歧视,允许应征者选择人工审查等替代设计方案,AI 开发小组还需公开发表不够多过去不透明的细微。

有趣的是,专责亚太区审核的是 AI 开发小组,时才会被处罚的是雇佣,如果他们使用了未曾通过亚太区审核的 AI 管理人员系统设计,每项违规蓄意高于处罚 1500 美元。

支持者说明,该法律条文案将为多样的解法律条文打开一扇墙壁。解法律条文多半根据应征者的说话或写作方式则对战技和个性透过名列,但机械能否准确公正地判断性格特征和情绪信号格外怀疑,这一过程未曾来会不够加透明。

至少,并不知道「因为解法律条文有种族主义而被拒绝接受」就是有意义的,牛津所大学高效率法律条文大学教授 Sandra Wachter 曾经表示:

反性取向歧视法律条文主要是由跟进驱动的,如果他们不并不知道时有发生在自己身上的事情,就没可以抱怨被革除了兼职机会。

初创母公司 Pymetrics 也非常支持这一法律条文案,他们主张借助 AI 通过游戏等方法律条文面试,并说明其符合公平尽快。与此同时,不合时宜的 AI 面试设计方案将被扫进垃圾堆。AI 管理人员系统设计缺少商 HireVue 在明年初已开始逐步淘汰其头部用以,这项用以被文学批评统称「不可知论」,让人诉说有关群体主义的颅相学论点。

对法律条文案的反对观点,都是是成于「这远远不够」。民主与高效率之前心主席 Alexandra Givens 说明,议程实际上只是尽快雇佣满足澳大利亚民权运动法律条文的现有尽快——强制因群体、少数民族或性取向而导致各有不同影响的管理人员蓄意,但忽略了针对残障或岁数的种族主义。

▲ 特写来自:unsplash

而一些计算机系统医学专家和小数公民权利活动家担心,法律条文案只是让 AI 开发小组自证他们遵从了基本尽快,也只是为的政府控管的机构和立法律条文者设定单薄新标准,具体如何「审核种族主义」非常清晰。

格外注意的是,种族主义在面试之前并不少见,主要诱因成在喂养解法律条文的抽取,但它们多半被置放「黑箱」之之前,普通应征者没法眼见。

几年前,亚马逊转用了文稿用以,因为它偏向让成年人担任高效率岗位。大多诱因在于,它将应征者的条件与母公司内外的成年人高效率供给透过比较;;也,如果解法律条文从群体和性取向差异已经普遍存在的行业之前获取块根,那么它只是在巩固种族主义。

这种种族主义并不只是管理人员之前。明年 4 年末,南加州所大学一项属于自己研究表明,Facebook 准备以可能违反《反性取向歧视法律条文》的方式则展览海报,成年人不够确实碰到糖果送货司机管理人员海报,而女性不够确实碰到购物海报。

▲ 特写来自:unsplash

直觉上,AI 性取向歧视就是被生命社会生活培养的,个人的种族主义蓄意甚至是下意识的,我们自己不一定断定。如果将餐馆种族主义较少的母公司与种族主义相当严重的母公司比较,一般就是两种诱因——前者在有意扫除种族主义不足之处花钱得不够好,后者不够擅长收集并不合理的现状并使它们永久化。

所以,之前性观点说明新泽西州议程最好的大多是它的公开发表尽快,让人们并不知道自己准备被 AI 风险评估、如何被 AI 风险评估以及他们的数据实情是哪里。

▲ 简介:

1.

2.

酿酒不是唯一的水果。

#欢迎注意爱范儿对外微信大众号:爱范儿(微信号:ifanr),不够多精彩内容第一时间为您宣上。

| · ·

止泻药饭前吃还是饭后吃
感冒嗓子痛
脉血康治脑缺血吗
发烧怎么退烧
类风湿晨僵如何治疗
家用血糖仪怎么选
艾得辛艾拉莫德片的效果好不好
牙疼有什么办法可以止痛
相关阅读