首页 > 热点聚焦 > 正文阅览
标亮 聚焦命中
下载 收藏 打印 分享

下载格式:

  • 全文:
保留字段信息

论“网约工”劳动权益的数据法保护路径

一、问题的缘起

过去几年,平台经济在世界范围内迅速发展壮大,带动了相关的灵活用工。数据显示,2017年我国共享经济的服务提供者人数为7000万人,至2020年已上升到8400万人。[1]2021年在欧盟范围内共有超过2800万人通过数字平台提供劳务,预计2025年其规模可达4300万人。[2]如何在促进平台经济健康发展、维持市场有序竞争和创新活力的同时,保障“网约工”的劳动权益,实现更充分、更高质量的就业,是各国都面临的挑战,诚如学者所言,几乎没有哪种用工模式像平台用工这样在全球得到了如此广泛的关注,引发了如此激烈的讨论。[3]本文所讨论的“网约工”是指通过网络平台向消费者等第三方提供有偿劳务的人员,亦称“平台经济从业者”或者“平台工人”;研究的平台是指参与劳务交易的组织型平台,不涉及只起到居间作用的自治型平台;聚焦的是“网约工”的劳动权益保护,涉及就业、工时、收入、职业健康安全等方面的权益。

我国法学界对平台用工的研究基本集中在劳动法的范畴内,多以讨论平台企业及其关联方与“网约工”的法律关系和规制路径为主。对于争议最大的平台与众包型网约工之间的劳动关系认定问题,目前有“劳动关系”“非标准劳动关系”“类劳动关系”“劳务关系”等观点,分别对应“劳动法调整”“特别立法调整”“转型三分法调整”“民法调整”。[4]这些研究的价值颇值肯定,但也陷入了先确定身份属性再讨论法律调整的路径依赖。还有从具体问题入手,聚焦“网约工”某项劳动权益的保障,比如工作时间、劳动报酬、社会保险等的尝试,[5]也基本都在劳动法的框架内探讨如何适用现行规定来实现保护,或者如何改造现行机制来达到目的,依然未跳出劳动法的思维惯性。然而,劳务提供者的问题并不等于劳动法问题,不能仅孤立地从劳动法的角度来认识市场配置劳动力资源的现象,而应坚持问题、需求导向及实用主义原则,从更宏观的视角出发讨论法律适用和制度完善问题。[6]

平台聚合了数据、算法和资源,可以为虚拟空间的生产经营提供技术和商业服务底层架构,所以能够高效匹配需求与供给、促进交易,同时得以汇集和产生海量数据,再通过算法的计算分析使生产经营更为高效。[7]平台对“网约工”的管理很大程度上依赖着算法,仔细观察平台用工的各个方面可发现,各项指令和规则都已被代码化,算法系统代替了人类主管、数字命令代替了上级指挥。而数据利用又是算法运行的基础,平台用工的各个环节都伴随着持续的、大规模的“网约工”个人信息处理。算法管理和数据处理给平台用工带来了新的问题,比如,“网约工”对算法的运行机制和决策原理一无所知,怎样才能保障算法管理的透明?如何实现“算法取中”,合理确定考核要素,适当放宽配送时限等要求,避免“网约工”劳动强度过大?怎样应对平台用工中自动化决策蕴含的就业歧视?“网约工”遭遇消费者“差评”而致影响工作机会或收入时能否要求删除,又或者应该向平台主张更正补充权?为了保住通过完成订单获得的“声誉资本”(Reputationskapital),“网约工”在跳槽时能否主张可携带权转移用户评价?要解决上述问题,仅依赖劳动法的调整是不够的。数据法作为数据权利配置和数据行为规制的法律,聚焦各部门法在数据领域衍生的共性问题,以探索数据全生命周期中的各种法律问题为己任。[8]平台用工的数字化运行使得数据法的介入不可避免,而在“网约工”劳动权益保护的语境下研究数据法规制,应主要关注算法管理下自动化决策的纠偏和劳动数字化中各项数据权的实现,努力使两法相互配合、共同发力,达到保护“网约工”劳动权益的目的。

二、平台用工中劳动法保护路径之局限

(一)“网约工”身份属性的多元化

平台经济涉及多个行业、多种岗位,比如交通出行、物流配送、家政服务、数据标注、网络直播等,不同类型平台的组织经营和用工模式存在差异,而同类型平台的用工模式也会随组织经营的需求改变而变化,由此,“网约工”的身份属性呈现多元化,不可能完全被劳动法所覆盖。

就劳动关系的认定标准而言,我国理论界和实务界普遍认可从属性理论。[9]据此“网约工”的劳动者身份基本可分成三类:第一类“网约工”具有明显的人格从属性,应该被认定为劳动者,比如专送骑手处于外卖平台及其代理商的严密管理和精准控制之下,工作时间上需接受站点考勤,甚至需要参加晨会和培训,配送范围限于所属站点的区域,订单完成过程中的运动状态、送餐路线、配送时间等受到监控,除了受到平台调度,还要接受站点管理。[10]第二类“网约工”对平台体现出较弱的人格从属性,而经济从属性较为明显,能否认定为劳动者目前争议很大,比如众包骑手可以自行决定是否接单、何时接单,配送范围可以是开通众包业务城市的任何区域,可在多家外卖平台工作,但在配送过程中同样需遵守平台设定的规则、听从系统的调遣,需要依赖平台的系统及其提供的信息来完成订单、获得收入,以此工作为生。[11]第三类“网约工”对平台没有人格从属性,属于自雇者,其中部分存在经济从属性的自雇者在域外法下可能被认定为类雇员、依赖型承包人,比如部分网络主播在工作时间、地点、内容等方面都较为自由,但是依赖于平台的基础设施、流量入口、用户资源和其他支持,而且必需亲自履行合同,部分甚至签订了独家合作协议,处于明显的契约弱势地位。[12]当然,无论“网约工”是否为严格意义上的劳动者,都是通过平台提供劳务来获取生活资料的人,其劳动权益理应得到保护。[13]

2021年7月21日,人社部等七部委发布的《关于维护新就业形态劳动者劳动保障权益的指导意见》(人社部发[2021]56号)确认了“网约工”身份属性的多元化,其第2条将“网约工”分为“符合确立劳动关系情形”“不完全符合确立劳动关系情形”“依托平台自主开展经营活动”三类。按照该意见的思路,将来对于第二类“网约工”不会直接全面适用现行劳动法,而是在某些方面给予针对性安排,比如“健全最低工资和支付保障制度,推动将不完全符合确立劳动关系情形的新就业形态劳动者纳入制度保障范围”(该意见第5条)。对于第三类“网约工”则基本上“按照民事法律调整双方的权利义务”,也会在公平就业、劳动安全卫生、职业伤害保障等方面给予基本保障。

(二)现行劳动法无法解决的新问题

即使我们把所有“网约工”认定为劳动者,用现行劳动法的机制也无法妥善解决平台用工中出现的新问题。诞生于工业化大生产时代的劳动法,一开始主要的适用场景是工厂流水线,主要的保护对象是蓝领工人,虽然随着后来生产组织方式的变革、第三产业的崛起和白领职员的壮大,劳动法有了一些弹性化、灵活化的改进,[14]但是在进入数字化时代后还是显得有些捉襟见肘,尤其是在面对平台经济带来的冲击时存在明显的制度供给不足。[15]平台用工与传统用工的差异导致了现行劳动法机制的适用面临诸多新问题,需要通过革新劳动法来解决。比如,通过数字技术的应用,平台用工中的管理和控制更加隐蔽,更多用激励调度来替代指挥命令,工作时间和工作地点的安排方面也更灵活,而传统的人格从属性标准重点考察的是劳动者是否在工作时间、工作地点、工作内容和履行方式上听从用人单位的安排,将来可能需要调整认定劳动关系的从属性标准。还有一些问题则需要劳动法和数据法相互配合加以解决:第一,平台用工中的算法管理涉及的进入退出、订单分配、行为监控、绩效评估、奖励惩罚等,[16]已经很大程度上取代了人工管理,而现行劳动法中缺失与算法、智能化系统、自动化决策直接相关的条款,那些针对人工管理设计的保护机制很容易被自动化监控和决策系统绕开。第二,相较于传统用工,平台用工中工作设备、工作过程和工作内容更加数字化,“网约工”多采用线上线下相结合的方式提供劳务,部分工作甚至只在线上远程完成,劳务提供过程中伴随着大量的个人数据处理,而现行劳动法中仅有《劳动合同法》第8条与之相关,且仅限定了用人单位可以处理的劳动者个人信息范围。第三,平台用工的任务化,使“网约工”的流动更为频繁,而且平台往往让其直接面对外部第三方,将评价其工作的权力交由消费者。用户评价不仅代表着“网约工”的声誉资本,还直接与其接单机会、收入水平等挂钩,评价的准确性和可流转性对“网约工”而言至关重要,而现行劳动法一般只关注用人单位内部的绩效评估。

以劳动规章制度为例,作为人工管理中普遍使用的重要工具,按照《劳动合同法》第4条第2款之规定,其制定、修改需经过劳资协商,即“用人单位在制定、修改或者决定有关劳动报酬、工作时间、休息休假、劳动安全卫生、保险福利、职工培训、劳动纪律以及劳动定额管理等直接涉及劳动者切身利益的规章制度或者重大事项时,应当经职工代表大会或者全体职工讨论,提出方案和意见,与工会或者职工代表平等协商确定。”但是,规章制度应该是成文的、稳定的、公开的,平台算法则多为不成文的、变动的、隐秘的,将平台算法本身理解为该规定中的“规章制度”较为牵强,最多只能通过法律解释把平台引入算法进行用工管理界定为“重大事项”。更合适的方式也许是在将来直接修法让劳资协商机制覆盖算法管理,在算法规制中引入“网约工”个体与平台之外的第三方“工会”,建立“网约工”集体利益代表机构的知情和协商机制,[17]《关于维护新就业形态劳动者劳动保障权益的指导意见》第10条已表达了这种思路。也正是因为传统劳动法机制在数字化时代的滞后,德国在2021年12月10日专门修改了《企业组织法》来回应人工智能等新科技对劳资共决制度造成的冲击。[18]根据该法第90条,雇主计划在企业中引入人工智能应用的,需提前告知企业职工委员会并听取其意见,双方应该就相关措施对雇员的影响进行协商,尤其应该关注人工智能的应用将会对工作方式和工作要求造成怎样的变化,以此确保人性化的工作安排。第95条则增加了第2a 款,规定雇主使用人工智能用于制定招录、调岗、裁员时的人员筛选规则的,必需取得企业职工委员会的同意。

(三)数据法保护路径的必要性

平台用工的方方面面都被高度数字化,平台所处理的“网约工”个人信息不仅包括与订单完成直接相关的职业经历、工作时间、行踪轨迹、等级评分等数据,也可能涉及医疗健康、家庭状况、生活地域、作息习惯等信息,对于平台处理了自己哪些信息以及可能导致的权益损害,“网约工”往往并不知晓也难以拒绝或阻止。欧盟《通用数据保护条例》和我国《个人信息保护法》等立法的颁行正是为了解决数据的保护问题。这场由数据信息与人工智能结合引发的被分类、评价、比较、看透的“控制革命”,[19]亟须规制算法。就自动化监控和自动化决策系统在平台用工中的核心地位及其带来的黑箱、操纵、歧视等风险,欧盟委员会意识到仅适用《通用数据保护条例》的相关规定还不足以保护“网约工”的劳动权益,于是在2021年12月9日公布了《关于改善平台用工工作条件的指令(提案)》,专设第三章来规制算法管理,意图确保算法管理的公平性、透明度和问责制,在第10条还特意明确了关于算法管理的规定也适用于没有劳动者身份的“网约工”。

数据法保护路径有其独特的优势。首先,有利于解决“网约工”的痛点问题,不至于影响平台经济的发展壮大。由于确认劳动关系意味着适用劳动法保护,尤其是社保费用的负担将带来明显的成本上升,所以劳动法保护路径要考虑平台发展与“网约工”保护之间的平衡,常常会面临要就业还是要权益、要发展还是要保护的两难选择。[20]相较之下,平台原本也要履行《个人信息保护法》第五章等规定的各种义务,强调劳动用工场景中的数据合规并不会给其造成额外负担,不会产生妨碍就业之顾虑,在经济下行压力较大时更易被各方接受。而且用数据法进行调整也有利于促进平台之间、“网约工”之间的正当竞争,保持平台与“网约工”都重视的灵活和弹性。其次,数据法保护并不以存在劳动关系为前提,可在一定程度上绕开“网约工”的身份认定问题。目前关于平台与“网约工”之间法律关系的争论较大,除了直接纳入现行劳动法或民法调整外,其他规制路径都需要立法才能实现,针对平台用工制定专门规定还容易一些,而借鉴域外经验从现在的“二分法”转型为“三分法”将会全面冲击我国劳动法的整体构造,需要进行严谨的论证和推进。然而,由于平台用工的数字化,无论“网约工”是否具有劳动者身份,都不得不屈从于平台的算法权力,他们的行为和绩效也始终处于数据化的记录、比较和分析之中。[21]作为一个新兴领域,尽管数据法尤其是算法规制立法仍处于起步阶段,[22]但数据保护立法已初具规模,可将劳动用工场景纳入其中。最后,由于算法管理和数据处理的主体是平台,“网约工”通过数据法的保护路径可直接向平台主张权利,要求实力雄厚的平台担责。[23]即使在“网约工”被认定为劳动者的场景下,由于平台在用工链条上插入了代理商、外包公司、劳务派遣机构等第三方主体,即使确认存在劳动关系,名义上的用人单位也可能是第三方主体而非平台,按照现行劳动法规定,很难让背后的平台担责。[24]

(四)劳动法与数据法共同发力的可能性

基于上述分析,将来应该双管齐下,一方面要继续革新改进劳动法来应对平台用工带来的冲击,另一方面也要探索适用数据法保护“网约工”劳动权益的路径。劳动法与数据法对于平台用工的适用相互之间并不排斥,可以共同发力、相互配合。劳动法是调整劳动关系以及与劳动关系密切联系的其他社会关系的部门法,[25]而数据法是规范数据活动的领域法,数据法作为领域法并不是要取代部门法,而是主张打破部门法的桎梏,从问题出发秉持实用主义的研究立场,使用交叉研究方法全面回应数字时代的法律难题。[26]劳动法和数据法之间的差异很明显,但也有共性,即都调整不平等关系,也都具有公私法元素融合的特征,两者之间不是并列平行的关系,而是可能交叉相融,这种交叉在规制平台用工的算法管理和数据处理时体现得尤为明显。面对平台这一数据处理者和算法权力拥有者时,“网约工”与一般民事主体在大多数情况下并无不同,少许的区别主要体现在以下两点:其一,“网约工”与平台之间存在着结构性的力量失衡,两者之间既有事实上的资强劳弱,也有某种法律上的从属性,比如消费者可能因个人信息保护方面的顾虑而放弃使用或选择其他应用程序,而“网约工”在激烈的竞争中不太可能放弃工作机会,因此知情同意规则可能失灵,需要特殊的制度安排。[27]其二,一般民事主体的数据法保护主要致力于避免信息业者直接利用个人信息营利而伤害其人格尊严和财产安全,而“网约工”的数据权益则会影响其平等就业、报酬、休息、职业安全等劳动权益,平台对“网约工”进行算法管理和数据处理也可能涉及维持营业秩序、提高工作效率、确保服务质量、履行合规要求等多种目的。[28]实际上,我国立法者已经意识到了两法在用工领域共同发力的必要性和可能性。比如,2021年12月31日,国家互联网信息办公室等部门公布《互联网信息服务算法推荐管理规定》,其中第20条规定:“算法推荐服务提供者向劳动者提供工作调度服务的,应当保护劳动者取得劳动报酬、休息休假等合法权益,建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法。”《个人信息保护法》第13条第1款所列举的个人信息处理的合法性基础之一是“按照依法制定的劳动规章制度和依法签订的集体合同实施人力资源管理所必需”。在地方立法中,《上海市促进人工智能产业发展条例》第69条也提到:“用人单位在使用人工智能技术辅助劳动纪律管理、劳动者工作调度、招聘和晋升决策等应用中,应当符合法律、法规和伦理规范,不得设置歧视性条件,保护劳动者合法权益。”但更多的还是以消费者保护为典型场景设计的,数据法的理论研究对劳动用工场景的关注十分有限,未来还需继续挖掘其潜能。

三、算法管理中黑箱、压榨与歧视的规制

所谓算法,是指人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制,可以进行自动化决策,也可以用来辅助决策。[29]在平台用工中,算法被广泛地用于筛选、调度、监督、评价,甚至操纵“网约工”。算法先根据市场需求迅速核算出用工数量并匹配到可能合适的“网约工”人群,用不同的方法激励其抢单或命令其接单,在分配订单后,通过智能设备等监控其任务的完成,甚至可能在工作过程中进行实时干预,最后通过监控到的履行情况和顾客的评价来评估绩效、计算报酬、施以奖惩,而相关评估和决策结果又可能影响“网约工”之后的接单机会和报酬水平。[30]虽然因经营模式、行业岗位不同,算法管理的强度和密度有差异,但是都可能出现算法不透明、“网约工”被压榨、自动化决策歧视等问题。[31]所以,对算法管理一禁了之显非良策,需要做的应是对自动化决策的纠偏。

(一)算法透明的保障

在人工管理中,涉及劳动用工的各方面基本都有白纸黑字的规章制度可循,由人类主管作出决策、下达指令,员工有疑问、有意见也可找其沟通商议。虽然在人工管理中下属也未必知晓上司的决策标准和裁量因素,但是同为人,其思维逻辑和行事方式总是更容易被理解。然而,算法管理下相关的规则被写成了看不懂的代码,决策大多数由系统自动作出,即使算法是用来辅助决策的,人类出于惰性本能和责任推卸也容易依赖系统。“网约工”既不知道自己的哪些个人信息被收集处理、哪些工作表现被评估、哪些举止言行被监视,也不知道系统如何工作运转、筛选采用何种标准、决策考虑哪些因素及其权重比例为何。平台与“网约工”之间有着巨大的信息鸿沟,面对算法的不透明,“网约工”即使被盘剥、被歧视往往也浑然不知,更难谈就此提出质疑、寻求救济了,所以揭开算法的神秘面纱对于预防算法压榨和算法歧视至关重要。

要打破算法“黑箱”,须明确规定平台的算法信息披露义务。《个人信息保护法》第17条第1款规定了个人信息处理者的主动告知义务,但更多关注个人信息的处理目的、处理方式及处理的个人信息种类、保存期限等,并不直接涉及利用个人信息进行自动化决策的决策原理和运行机制。虽然《个人信息保护法》第24条第1款要求个人信息处理者保证自动化决策的透明度和结果公平公正,但是该条款重在强调原则,没有设立具体的算法信息披露义务,第3款倒是针对性地赋予了个人要求个人信息处理者就“通过自动化决策方式作出对个人权益有重大影响的决定”予以说明的权利,但是该算法解释权需由“网约工”事后向平台主张行使,获得的是个人权益遭受损害后的个案性解释,[32]更多的是为了让受到影响的“网约工”了解作出该算法决策的具体原因,得以排查某个具体的算法决策是否带有歧视和误判,并不能让其他“网约工”在事前获得关于算法原理、目的、机制的系统性解释。《互联网信息服务算法推荐管理规定》第16条“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等”的规定,主要不是针对劳动用工场景设计的。

故此,可考虑借鉴欧盟《关于改善平台用工工作条件的指令(提案)》第6条,明确平台的算法信息披露义务:平台使用自动化系统监控、评估“网约工”工作表现的,或者使用自动化系统作出或辅助作出明显影响“网约工”工作条件(包括但不限于进入市场、收入、职业安全和卫生、工时、晋升、合同身份、账户的限制、暂停与注销)的决策的,有义务在开始用工时、系统发生重大变化时或者“网约工”要求的任何时候,以书面或电子形式告知其被监控和评估的事实、被监控的行为种类、系统作出的决策种类、作决策所依据的标准以及各标准的权重;对于作出限制使用、暂停与注销账号、拒付报酬、改变合同身份或其他有类似效果的决策时,平台还须给出具体理由;除了“网约工”,上述信息也应被提供给“网约工”的集体利益代表以及劳动主管部门。结合我国现行法的规定,将来可以按照以下设想规定平台的算法信息披露义务:(1)平台应该披露与进入退出、订单分配、报酬构成及支付、工作时间、奖惩等直接涉及“网约工”权益的算法的相关信息;(2)平台无需公布源代码、数据组、架构设置等算法本身的细节,但是应该主动告知算法设计的目的意图和相关功能、算法处理的个人信息种类及其来源、算法评估的参考因素和主要标准、算法根据信息处理结果实施的行为;(3)平台应该在开始用工时、系统发生重大变化时,向“网约工”及其集体利益代表、劳动行政部门披露相关信息。[33]此安排能够有效保障算法目标、结果和影响的透明,[34]“网约工”能够借此知晓算法对自己权益的影响,平台也不需要披露可能泄露商业秘密的信息,从而较好地平衡了各方利益。

(二)算法压榨的预防

算法并不中立,平台作为算法的设计者和应用者必定会将其商业逻辑和经营理念嵌入其中。若不加限制,平台当然会追求提高效率、降低成本、利润最大化,也会努力优化消费者的体验,却不大会考虑“网约工”的工作时长、劳动强度、收入保障、职业安全等。我们之所以会看到“外卖骑手困在系统里”的现象,就是因为平台使用的“实时智能配送系统”在最大限度地挖掘骑手的潜能:为了让平台有充足的运力,系统会调动尽量多的骑手在线接单,导致骑手长时间在线,而等待接单的时间是没有报酬的,骑手也不是完全处于放松状态;为了提高配送速度和效率,系统会不断缩短同一距离订单的配送时间,也会让骑手同时完成多项订单配送,在巨大的时间压力下,骑手只能频频违反交规、上演“生死时速”;消费者的差评和投诉可能导致骑手受到罚款、降级、暂停接单甚至封号的惩罚,为了改善消费者的感受,其不得不付出情感劳动,达到安抚取悦顾客的目的;这种剩余价值的压榨还可能愈发残酷,因为在系统的要求和惩戒的威胁之下,骑手会越跑越快,显示的数据就是配送时长越来越短,而用这种数据“喂养”的算法又会提出新的加速要求。[35]

预防压榨必须使“网约工”的劳动权益保障成为算法的核心指标之一。根据市场监管总局等部门2021年7月26日公布的《关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》(国市监网监发[2021]38号),网络餐饮平台应该优化算法规则,不得将“最严算法”作为考核要求,要通过“算法取中”等方式,适当放宽配送时限,还应优化订单分派机制、合理安排配送路线、科学确定订单饱和度、管控在线工作时长(第2、3条)。但是要落实上述要求,除了让劳资协商机制覆盖算法管理,充分听取“网约工”及其集体利益代表的意见外,还应从算法设计源头入手将“网约工”劳动权益保护的理念嵌入其中,就像欧盟《通用数据保护条例》第25条所强调的“通过设计及默认方式保护数据”那样,把相关的法律规范及法律原则“翻译”成设计解决方案或计算机代码,从而自动实现算法在劳动用工方面的合规。[36]比如,通过算法中设定工作时间上限或休息时间下限,对等待接单的时间进行合理折算,强制在线时间过长的“网约工”切换到下线状态,[37]以有效避免“网约工”过劳。另外,从源头上看,“网约工”的个人信息是平台进行算法管理的“原材料”,从结果上看,平台又是针对性地将算法运用在“网约工”个体身上,如果任由平台使用自动化监控系统对“网约工”各方面的信息进行收集,运用算法技术进行分析、预测,再配合以相应的考核、奖惩,那么就会出现前述算法不断试探底线、“网约工”疲于应对的现象。[38]所以,适当限制平台对“网约工”个人信息的处理也是预防算法压榨的重要路径,比如,将“网约工”的个人同意作为处理其个人信息的合法性基础有着“自愿性”存疑的困境,有必要重视“订立或履行合同所必需”或集体合意等替代性的合法性来源,[39]还需要根据具体场景判断平台对“网约工”个人信息的处理是否合法,诸如为避免员工出勤不出力而通过智能手环监控其心率、督促其工作的做法,恐怕就是违法的。

为了确保平台能够在算法设计和应用过程中始终坚持劳动伦理,还需要信赖事前评估、事中审计、事后追责等制度支持。对此,《个人信息保护法》第54~56条及第七章的相关条款已有规定,只是这些规定更侧重数据保护,将来可通过法律解释将算法规制的相关要求纳入其中。比如,按照前述条款平台利用“网约工”的个人信息进行自动化决策的,应当事前进行个人信息保护影响评估,评估内容包括对个人权益的影响及安全风险,也就是说,平台需要评估自动化决策系统对“网约工”劳动权益的影响及职业安全方面的风险。《互联网信息服务算法推荐管理规定》第8条也体现了这种理念,即算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置违反法律法规或违背伦理道德的算法模型。更有针对性的方案是在平台用工的相关立法中引入类似欧盟《关于改善平台用工工作条件的指令(提案)》第7条那样的条款,即规定平台有义务定期检查、评估自动化监控和自动化决策系统对“网约工”工作条件的影响,包括评估系统对“网约工”身心健康和职业安全的威胁、确保系统可以预防相关工作环境的典型风险、采取其他合理的预防和保护措施,尤其要注意避免自动化监控和自动化决策系统导致的“网约工”身心压力过大。

(三)算法歧视的应对

在平台对“网约工”做出行为数字化、画像预测与评估的三个阶段,由于输入算法的数据本身可能就是歧视性选择的结果,系统设定的挑选特征和评估标准也容易带有歧视,人类社会的偏见被带入算法模型中,而且这种歧视还可能通过机器学习进一步放大。[40]比如,某个“网约工”由于算法歧视被贴上了“绩效低的单亲妈妈”的标签,之后系统分配订单任务时就容易将其边缘化,导致其错失展现自己、提升技能的机会,形成低绩效的标签固化。还有一些算法歧视甚至难以被觉察和证实,在“意大利户户送有限责任公司算法歧视案”中,按照外卖平台的算法设置,骑手获得订单的机会取决于可靠性与参与度两个参数,此系统设置表面上看客观中立,但是骑手因参加罢工、生病或照顾未成年家人而取消订单的,算法并不会考虑这些特殊情况进行调整,导致他们在获得工作机会方面受到了消极影响,法院认为此举构成了间接歧视。[41]虽然此案中“网约工”是在任务分配上被歧视了,但在实践中算法歧视还可能出现在招聘录用、绩效考核、晋升评估、解雇决策等平台用工的各环节。[42]

如何应对算法歧视?首先,需从算法设计入手,比如对用来训练算法的数据集进行预处理,解决因过采样、欠采样、重采样导致的数据不均衡问题,避免特定群体“网约工”因此陷入劣势,又或者对问题模型进行修改,在确保完成既定预测任务的同时尽量剔除敏感特征,从而达到非歧视与预测准确度之间的平衡。[43]其次,避免平台对“网约工”的透视对于预防算法歧视也至关重要,因为算法可通过数字画像来精准分析“网约工”特征并预测其行为。比如,通过对网页浏览记录和购物交易信息的分析,平台能够判断出“网约工”已经怀孕或者正在备孕的情况,从而给予歧视对待。[44]对此,欧盟《关于改善平台用工工作条件的指令(提案)》第6条第5款特别强调,平台不得处理与合同履行无关的“网约工”个人信息,尤其是关于“网约工”情绪和心理状态、私人谈话信息及非工作时间产生的个人信息。最后,算法歧视是现实生活中人类歧视在系统中的再现,所以根本上还是要努力减少现有劳动力市场上的各种不平等,比如应对女性就业中的算法歧视,关键得在国家、企业、女性从业者及其伴侣之间公平地分配生育成本,消除性别歧视产生的根源。[45]

应对算法歧视等不公平、不合理的自动化决策还需引入人工干预和审查机制。任何与个人权益有重大关联的决定都不应完全由机器决定,这既是从伦理上确保对人格尊严的尊重,也是确保算法决策公平合理的要求,[46]以及在平台内部为“网约工”设置及时沟通和有效救济的关键途径。因为在算法管理下,“网约工”遭遇不利对待时常常难以联系上具体的负责人,只能在软件自带的系统里进行反馈或者向平台发送电子邮件,获得的大多是根据关键词生成的自动回复,[47]既缺乏人类共情,也难以切实解决问题。根据《个人信息保护法》第24条第3款的规定,“网约工”有权拒绝平台仅通过自动化决策的方式作出对其个人权益有重大影响的决定,该项免受自动化决策约束的权利凸显了保护人的主体性的宗旨。但是在拒绝之后,对于可能带有歧视性的算法决策还是需要通过人工干预和审查机制来纠偏。将来可就重大决策引入类似欧盟《关于改善平台用工工作条件的指令(提案)》第8条那样的规定,即平台使用自动化系统作出或辅助作出明显影响“网约工”工作条件的决策的,有义务指派专门的联系人负责讨论事实、澄清原因等沟通事宜,“网约工”认为权益受损的,可要求平台安排人工重新审查该决策。同样地,应对算法歧视也需要事前评估、事中审计、事后追责的制度支持。

四、劳动数字化里各项数据权的实现

劳动数字化在平台用工中贯彻得尤为彻底,“网约工”的劳务提供过程无一不伴随着大量的数据处理。面对此种挑战,一要适当限制平台对“网约工”个人信息的处理,在劳动基准相关立法中就个人信息保护作出专门规定,通过国家对平台的监督、强制和惩罚来实现个人信息的公权力保护;[48]二要让“网约工”能够主张相应的数据权与平台抗衡,《个人信息保护法》赋予个人信息主体的多项具体权利属于手段性权利或救济性权利,旨在保护包括个人信息权益在内的个人权益,[49]当然也包括劳动权益。需注意的是,数据是算法运行的基础材料,而算法是数据处理的核心机制,所以数据保护与算法规制密不可分、相辅相成,数据保护过严将阻碍算法技术的发展,算法规制缺位也会导致数据保护的落空。[50]平台用工中,其实两者在功能上是可以相互补充的,因为算法黑箱、剥削和歧视问题往往涉及“网约工”群体,算法规制主要依靠监管机构的主动介入,更有可能通过事前评估、事中审计机制来达到目的;而“网约工”往往是在个体权益受到侵犯的情况下主张知情权、删除权、可携带权等数据权,基本上在用工关系结束后才进行事后追责;反过来,行政监管还能以“网约工”个体主张数据权为契机发现整体问题,对平台用工中的算法滥用和数据侵权进行调查处理并采取预防措施。

(一)“黑箱”与知情权、算法解释权

在算法管理和数据处理过程中平台都存在或多或少的不透明,甚至会故意利用信息不透明带来的权力。[51]知情权是对抗这种“黑箱”的重要手段,也是行使其他数据权的前提条件,算法解释权则是针对信息处理者使用自动化系统处理个人信息而设置的一种特殊的知情权。正如有学者指出的那样,职场监控已升级到5.0版本,与前几代监控手段相比,智能监控对于员工的个人信息处理范围更广、程度更深、冒犯性更强、隐蔽性更高,平台通过强大的自动化监控系统可轻而易举地获得“网约工”的数字画像,从而达到选择、影响、操控对方的目的,[52]而“网约工”对此却知之甚少。

为了缩小与平台之间巨大的信息鸿沟,“网约工”可向平台主张《个人信息保护法》第44条规定的知情权,要求平台告知用何种设备和技术监视记录了自己哪些言行举止,监控的目的是预防调查偷盗、提高工作效率还是保障劳动安全,相关信息会被平台进行哪些后续处理以及保存多久等。为了避免完全沦为被决策、被操纵的客体,“网约工”还可主张《个人信息保护法》第24条第3款规定的算法解释权,就算法作出的罚款、降级、暂停接单、封号等对其个人权益有着重大影响的具体决定要求平台说明情况。涉及平台通过算法作出哪些决策及其考量因素、排名机制和抽成机制大致如何运行、系统分配订单时依据哪些标准及其权重等,只依靠前述条款难以获取相关信息,在法律明确规定平台的算法信息披露义务之前,[53]可能需要挖掘《个人信息保护法》第48条的潜力,虽然该条款直接指向的是“个人信息处理规则”,但可尝试作扩大解释,即平台使用算法进行个人信息处理的,应就算法给出系统性解释,[54]“网约工”可据此获得对算法基本原理、目的意图和运行机制的系统性解释。

(二)“差评”与删除权、更正补充权

平台将部分监督和评价“网约工”的权利交给了消费者,消费者的评价会影响“网约工”的劳动报酬、工作机会、奖励惩罚等权益。比如,平台消费者可根据司机驾驶是否安全平稳、有无绕路、服务态度如何、车内是否整洁等对其进行评价,该评价关系司机能否获得相应的奖励补贴,也会影响其以后派单的优先权,严重情况下还可能导致暂停接单或封号的后果。[55]实践中,骑手因差评被平台扣罚收入从而与消费者发生暴力冲突的新闻并不少见。那么,遭遇差评时“网约工”能否向平台或消费者主张《
······

© 北大法宝:(www.pkulaw.cn)专业提供法律信息、法学知识和法律软件领域各类解决方案,是全国目前数据最丰富、内容最权威、功能最强、更新最快、用户最多的综合法律信息平台。劳动法宝为您提供丰富的参考资料,正式引用法规条文时请与标准文本核对。