自动化决策助力个保法落地

安策数据加密保护-个保法语境下算法自动化决策的含义与联系

安策为个保法语境下自动化决策解释图
安策为个保法语境下自动化决策解释图

       围绕数据安全和个人信息保护,解读规则,推广标准,积累实践,研究热点,与公众沟通,以务实、科学、中立的态度,成为中国数据安全发展的观察者、记录者和倡导者。

       自动化决策、用户肖像、算法由于相互复杂、交叉关系,往往导致数据处理者对其理解和合规管理的混淆,但这组概念是个人信息保护法、互联网信息服务算法推荐管理规定等明确规范的数据处理活动,引起监管机构的高度关注,引入备案、评估等监管手段,企业将算法自动化决策用于准确营销、生成合成、检索过滤、推荐排序、生产调度等场景将面临越来越高的合规风险。因此,明确自动化决策、用户肖像和算法的意义和边界,掌握相关概念的法律规定,明确企业的义务和合规措施,对指导我们做好算法自动化决策的合规管理具有积极的指导意义。

自动化决策、用户肖像、算法的含义

(1)三者在保法语境下的含义

       自动化决策:2020年国标《个人信息安全规范》首次明确“自动决策机制”的定义:“个人信息控制器业务运营中使用的信息系统具有自动决策机制,可对个人信息主体权益产生重大影响(如自动决定个人信用调查和贷款金额,或面试官自动筛选等)”。在2021111日实施的《个人信息保护法》中,自动决策(通过计算机程序自动分析,评估个人行为习惯、兴趣或经济、健康、信用状况等)和《个人信息安全规范》“自动决策机制”略有差异,删除了个保法对自动化决策的定义“对数据主体有显著影响”其表达更接近将用户肖像应用于个性化推荐或精准营销,更关注消费者权益的公平公正,这与立法时间和法律利益的差异有关。

用户肖像:《个人信息安全规范》也明确了“用户画像”的含义,指“通过收集、收集、分析个人信息,对职业、经济、健康、教育、个人偏好、信用、行为等特定自然人的个人特征进行分析或预测,形成个人特征模型。”与自动化决策相比,用户肖像更强调形成个人特征模型的过程。本规范还将用户肖像分为直接用户肖像和间接用户肖像,直接使用特定自然人的个人信息,形成自然人的特征模型,称为直接用户肖像;使用来自特定自然人以外的个人信息,如自然人群体的数据,形成自然人的特征模型,称为间接用户肖像。为了准确评估个人信用状况,可以使用直接用户肖像,送商业广告目的,应使用间接用户肖像。

算法:我国法律法规不针对“算法”明确定义,但我们通常所说的算法主要是《互联网信息服务算法推荐管理条例》中提到的“算法推荐”本法规将涉及用户权益的算法推荐类型明确为利用生成合成、个性化推送、排序选择、检索过滤、调度决策等算法技术向用户提供信息。

2)通过典型场景了解用户肖像、自动决策和算法

        智能互联汽车企业自动收集驾驶员数据,确定驾驶员驾驶危险等级的用户肖像,并根据驾驶危险等级进一步自动上升30%,实施下一年的商业保险费。在这种情况下,我们可以清楚地捕捉到用户肖像和自动化决策的过程,而算法就像背后的鬼魂,贯穿于数据处理活动:数据处理者使用挖掘算法收集用户的原始数据,使用分类、聚类、相似度算法统计分析形成事实标签,然后使用推荐算法、机器学习等算法建模分析形成模型标签,通过预测算法模型形成预测标签,最终支持自动化决策的实施。通过对典型场景的分析,我们在一定程度上揭示了三者的定位和关系,即用户肖像和自动化决策倾向于业务场景,算法作为支持业务需求实现的底层计算过程。

()三者在保法语境下的关系

       在2021813日第十三届全国人大常委会第三十次会议记者会上,全国人大常委会法工委发言人臧铁伟说:“自动化决策,包括用户肖像、算法推荐等。在充分告知个人信息处理相关事项的前提下,应当取得个人同意,不得以个人不同意为由拒绝提供产品或服务。个人不得通过自动化决策对交易价格等交易条件实施不合理的差别待遇。要求个人信息处理者通过自动化决策向个人推送信息、商业营销,同时提供不针对个人特征的选择,或者拒绝个人。”可以看出,从个人信息保护立法者的初衷来看,自动化决策包括用户肖像和算法推荐。明确这种关系对我们的算法备案和个人信息保护影响评估有基本指导。

       同时,通过对典型案例的研究可以看出,个人保护语境下的自动化决策排除了非个人特征分析场景下的机器决策行为,并非所有算法都支持自动化决策,如深度合成、排序等算法不属于自动化决策范畴;算法本质上是代码技术层面算法模型的分割,自动化决策是业务,可能由N个算法共同决定,自动化决策是业务导向,更倾向于场景和业务,算法是更精细的底层计算模块和培训模型;统计分析收集到的数据形成用户肖像,自动化决策算法也可以帮助形成用户肖像。因此,如何评价自动化决策本质上是一个法律标准,但如何解释自动化决策的实现(算法)是一个技术问题。实际上,企业可能没有特别区分自动化决策与算法的关系,可以统一管理算法作为自动化决策,但从标准和合规的角度进一步理顺其关系。

4)算法的风险和监管目标

        一般认为算法本身没有好坏之分,但它带来了很多风险,主要体现在算法的自动决策活动最终会影响用户,影响用户的权益。因此,算法的威胁来自于算法的使用。例如,如果外卖系统中的设计师将节省时间作为参数,出时间水(参数决定输出),如微软聊天机器人Tay网上第一天就学会了脏话和种族歧视(输入决定输出)。由于这些特点和设计师的偏见,算法带来了算法歧视、算法操纵、算法共谋、算法归化等诸多风险,也导致了算法垄断、信息茧、回声效应和大数据杀戮,甚至深度合成算法带来了技术伦理、网络欺诈等风险。算法支持自动化决策的实施,可能侵犯用户在个人信息收集和处理过程中的个人权利,包括用户的知情权和选择权,影响公平公正,影响舆论指导、网站秩序和社会安全。算法带来的风险基本上在于设计师背后的想法。可以看出,规范算法自动化决策的核心规范算法构建者,保证输入数据、使用算法模型和要解决的问题的合规性。与直接管理无法控制的人的思想相比,选择算法“思想的外化”监管显然更具可操作性。关注算法的“模型”“参数”“输入”等核心,可以在一定程度上解开算法黑箱。

围绕数据安全和个人信息保护,解读规则,推广标准,积累实践,研究热点,都成为行业许多人的工作重点,今天我们就来聊下个保法语境下算法自动化决策的含义与联系。

- -安策数据安全治理加密保护的好帮手。本文关注自动化决策助力个保法落地
密钥管理图

自动化决策助力个保法落地在信息安全中经常被关注

本栏目主要了解最新信息安全行业资讯,包括加密狗,身份认证,加密机,以及软件加密,动态口令,以提升数据安全实践能力。

安全资讯最新发布

安策让数据安全与防勒索同时搞定
或许就差一次交流?

无需准备,沟通其实很简单!

立即开聊

与我们一起实践安全的客户代表