资本是逐利的,当人类的科技水平不断进步时,资本家就有意愿将其作为扩大生产,提升效率,赚取更多资本的工具。

 

从第一次工业革命,到如今工厂的智能机械手臂,一项一项的科技发明逐渐让人类的生产效率逐步提升。

 

但在以前,科技的发展方向往往是体现在解决人们的体力劳动,使用机器让工人需要承担的体力劳动减少,从而减轻工人体力的负担,使用高精度,高自动化的机器就能完成复杂的生产工作。

 

而在当下,科技给工作带来的改变已经不再局限于减轻人们的体力劳动了,大量的协同办公智能助手充斥着我们的工作场所,AI(人工智能)已经在很大程度上已经开始“接管”我们的工作。

 

面对来自AI的挑战,人类雇员能“卷得动”他们吗?难道未来要和AI成为同事了吗?更进一步,如果AI成为工作中的上级,它将如何管理人类下属的工作?

今天,丽莎和大家一起“开脑洞”,来聊一聊AI“入侵”工作的案例,其中那些不可忽视的职场法律问题。

 

 

AI真的在我身边工作了么?为什么我没有发觉?

 

很多莎粉可能会认为,我身边的同事都还是人类,哪有什么AI同事啊?

 

的确,在我们目前的工作环境中,还没有完全出现一个类似于“人型”的AI(强人工智能)同事,但其实,我们的周围现在已经无时无刻伴随着AI的辅助工作。

 

就拿丽莎律师行来说,我们的官网上其实已经有了一个虚拟的智能助手,可以帮助大家回答各类的问题,这一智能助手(弱人工智能)其实可以说是丽莎大家庭中的一员,帮助我们的律师来先期简要回答大家的问题,在后期可以帮助客户选择和指派更适合的律师。

 

同理,当我们给银行、电信公司、航空公司、保险公司等一系列服务提供者拨打客服电话或联系他们网络客服时,首先接入的则是他们的智能客服助手,引导我们解决问题或转入人工客服。

 

其实,上述所说这两种案例都是AI在当下的日常生活中承担的“工作职责”,它的确提高了公司工作效率,减少所需的人员配置。但是,这一类的AI只能被称为“弱人工智能”,因为他们的功能有限,并不能完美解决所有问题。

 

但是,随着科技的不断进步,强人工智能已经逐步踏入我们的工作场所。

 

在美国,世界第一批人工智能实习生已经被聘用,并与106人一起进行为期3个月的工作。这一批进入实习的AI有两个,一个名叫Aiden,另一个名字叫Aiko。是的,你没有看错,它们拥有自己的名字,甚至还有自己的样貌。

 

他们将加入美国技术营销机构Codeword,Aiden进入了编辑团队,向高级编辑汇报工作,Aiko进入了设计团队,向高级艺术总监汇报工作。

 

也就是说,它们的工作已经不是简简单单地模式化工作,而是真正具有创意性的工作,并且和其他实习生一样,它们也需要接受定期的绩效评估。

 

这也就意味着,AI(强人工智能)真正开始进入到了我们的工作岗位中,并且很有可能替代人类去完成一些复杂性的,具有创意性的工作。

 

或许,在他们“强大”的工作和学习能力下,人类有可能被AI“卷得”一无是处。

 

 

AI进入职场,还会歧视人类?

 

是的,你没看错,AI的背后是算法,而算法是具有歧视性的(Algorithmic Bias),这一问题在学界也是一个经常被研究的问题。

 

毕竟算法是由人来设计的,编程人员有自己的主观选择和判断,他们是否会将法律、道德规则不偏不倚地编写成算法,这是值得怀疑的。

 

算法歧视的问题已经在人工智能上多次出现了,比如谷歌公司的图片软件曾将黑人的图片识别为“大猩猩”,微软在2016年3月上线的人工智能聊天机器人Tay,没过几天就变成了一个集反犹太人、性别歧视、种族歧视的聊天机器人,微软公司立即下线了这一产品。

 

上述的例子还是较为明显和直接的,其实在生活中,这样的算法歧视是“无处不在的”,那就是——大数据杀熟,可能很多人都经历过这样的事情,明明是同一张机票,同一个时间,两个账号在同一平台上所显示的价格却不同;或是同一家外卖店,同一个外卖应用,同样的配送地址和送达时间,在不同的手机上,最终的价格则是不同。

 

这也是算法歧视(AI歧视)的具体表现。其实,这样的“歧视”可谓是数不胜数的,包括它来决定你看什么新闻,推荐你听什么歌,看到什么类型的广告,甚至是决定你是否能够获得贷款,能否获得工作,能否拿到救助金等等。

 

回到AI在职场中的歧视,可能很多人在投递简历时,已经被AI歧视过一遍了。

 

在当今的招聘市场中,很多HR会使用AI来帮助自己审阅所有的简历,根据普华永道在2022年针对1,000家公司的一项调查发现,四分之一到六分之一的公司在招聘时使用了人工智能,甚至AI可以给这些简历进行打分和评级,HR可以利用其快速缩短招聘流程。

 

在这一过程中,AI已经把应聘者分出了三六九等,直接拒绝不符合资格的应聘者,但实际上,AI在处理过程中并不一定是完全客观的,很有可能遗落了真正适合岗位的人选。

 

近年来,一些专家和记者指出,AI涉及的招聘中存在种族主义、能力歧视或性别歧视的风险,AI在招聘过程中反复歧视女性和非白人群体。

 

除此之外,很多公司在绩效考核中,也使用AI进行评价。这包括Uber,Deliveroo等雇佣大量自由职业者或零时合同的企业,也包括那些办公室白领的工作,将每一个KPI赋以权重,来进行绩效考核。

 

可以说,AI成为了管理者的工具,AI在给每一个雇员进行“评级”。

 

那么AI歧视等于法律上的歧视吗?

 

根据《2010平等法》对间接歧视的定义,当雇主以同样的方式将公司规定、标准和工作惯例适用于每一个人,但对具有某些受保护特征人群(性别、种族、残疾、年龄、性取向)的影响比其他人更加明显,使他们处于不利的位置。

 

举个例子,同样的工作量和评判标准对于年长雇员和年轻雇员的要求应该有所不同,如果以同样的标准进行评价,那么则是一种间接的歧视。

 

因此,当公司通过AI对员工的表现进行评价时,AI可能会产生歧视性的偏见,对于统计结果和最后的评判来说,可能构成歧视的风险。

 

但是,并不是所有的AI最后得出的结论都具有歧视性的偏见,因为这其中包含了很多要素和特殊背景,需要根据具体的情况来判定是否存在歧视的问题。

 

但需要注意是的,AI所带来的歧视,最后需要承担责任的还是雇主,因为不论是雇员的行为还是AI的结论,都是雇主意志的延伸。

 

因此,对于雇主来说,在使用AI工具来帮助您管理时,需要考虑以下3个规则:

 

1.让业务目标依附于AI:

 

对于AI,使用它应该由业务指标来驱动,从职能、团队或项目的开始,明确定义它的用途,不要偏离实际的出发点。

 

2.让专家帮助了解新技术:

 

如果计划打算使用AI,则需要雇佣经验丰富的员工并培训新员工来使用这一技术。违规不当使用可能造成意外的后果,这对使用的结果会造成偏差和影响。

 

3.与信誉良好的服务提供商服务:

 

AI可以帮助您快速地进行分析,但是基础的数据从何而来?经过了怎样的检查?是否经历了AI偏见和违规测试?您的数据是否受到保护?这些问题对于使用者来说是至关重要的,因此需要与信誉良好的服务提供商合作。

 

这样一来,我们能够通过使用AI来节省时间、简化流程、有效地获取知识并提供精湛的见解,另一方面,减少使用AI可能带来的偏差和歧视,最后造成间接性歧视的法律风险。

 

好的,关于“AI进入职场”的话题就先说到这里,如果您对于文章内容,如英国公司法、英国劳工法方面有问题,或者其他英国法律方面有任何疑问,都可以进一步咨询丽莎律师行。

 

任何英国税务方面的问题,也欢迎联系咨询丽莎会计行。

 

觉得丽莎的文章不错?请不要吝于点赞和转发!您的支持是丽莎继续前进的动力,我们将尽力为莎粉们提供最新最全的实用信息。

 

> 📱 丽莎的“掌上律师”服务 📱 <

 

 

如果莎粉们对于丽莎的“掌上律师”服务有任何疑问,或者想要了解如何使用丽莎APP,莎粉们可点击这里 ↓

 

《您的掌上律师行:如何使用丽莎APP?》

 

丽莎以简易图表,一步一步带您使用丽莎律师行的专属APP。

 

您和我们只有一键之隔。委托我们,您完全可以更加省时省力。对于住得远的莎粉,您更可以省下车费和舟车劳顿。丽莎只想为您做得更好。您说,我们做!委托丽莎,从来没有如此简单过!

 

如果莎粉们对于丽莎的“掌上律师”服务有任何疑问,或者有其他法律问题,都可以直接联系丽莎律师行(www.lisaslaw.co.uk),或者通过我们旗下官网《丽莎知道》微信公众号(UK-LISA)官方微博(www.weibo.com/lisaslaw)咨询丽莎。

 

丽莎律师行:位于伦敦,辐射全球。您可信赖的英国华人律师行。

 

丽莎律师行联络邮箱:info@lisaslaw.co.uk

联络电话:020 7928 0276

联络微信号:lisaslaw003

《丽莎知道》官方微博:www.weibo.com/lisaslaw;手机版:www.weibo.cn/lisaslaw

扫一扫,《丽莎知道》微信公众号:

 

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *