指南:人工智能与香港个人私隐合规

alfred leung YTL LLP

人工智能系统在企业与金融科技领域的快速融合,在带来重大机遇的同时也伴随着复杂的法律和声誉风险。在香港,《个人资料(私隐)条例》构成了基础监管框架,而个人资料私隐专员公署近期发布的人工智能(AI): - 个人资料保障模范框架 (《框架》)为机构在采购、实施及使用涉及个人资料的人工智能系统时,提供了基于风险管控的实用指引。 

本指南深入剖析该《框架》,并系统阐述金融科技创业者及企业机构为使其人工智能项目符合《个人资料(私隐)条例》规定之法定责任而必须考量的关键步骤。

第一部分:人工智能应用的核心治理与策略

合规始于高层承诺与健全的治理架构。

  • 建立人工智能策略与清单:最高管理层必须明确机构使用人工智能的伦理原则,并界定不可接受的用途。应建立人工智能清单以落实管治措施。
  • 治理架构: 设立向董事会汇报的人工智能治理委员会(或类似机构)。该委员会须由最高管理层成员领导,并由具备法律、合规(包括资料保障主任)、数据科学及网络安全专业知识的跨部门团队组成。
  • 采购尽职审查: 采购人工智能解决方案时,须在合约中明确定义《个人资料(私隐)条例》下的「资料使用者」与「资料处理者」角色。
  • 资料处理者协议: 机构必须采取合约或其他方式,防止人工智能供应商/资料处理者未经授权查阅、处理、删除、遗失或使用个人资料(保障资料原则第4(2)条)。
  • 跨境传输: 若人工智能解决方案涉及在香港境外(例如通过云端平台)处理个人资料,机构(作为资料使用者)必须确保符合《个人资料(私隐)条例》对资料传输的规定。
  • 培训: 为所有相关人员(特别是人工审核人员及法律/合规团队)提供数据保护法律、内部人工智能政策及人工智能系统相关风险的充分培训。

第二部分:风险评估与人工监督(基于风险的方法)

进行全面且持续的风险评估是人工智能生命周期的必要环节。

  • 风险评估重点: 评估必须系统化识别、分析及评价风险,尤其关注数据隐私与伦理相关风险。需考量的关键因素包括:
  • 数据量、敏感度与质量: 数据量是否充足但不过量(保障资料原则第1条)?数据是否准确(保障资料原则第2条)?是否包含敏感个人资料(如财务数据、生物特征数据)?
  • 潜在影响: 评估对个人合法权益、就业、财务前景及服务资格所产生影响的严重程度与持续时间。
  • 确定监督层级: 人工介入程度须与识别风险相称。
  • High-Risk Systems: 需采取「人在回路」模式,由人工主体保持对决策过程的控制权以减低错误或不当输出。示例如信用评估或职位申请审核。
  • 权衡缓解措施: 记录平衡竞争性伦理准则的理由,例如当决策对客户产生重大影响时,应以可解释性优先于高预测准确度。

第三部分:数据处理与系统管理

重点在于通过技术与操作管控确保系统可靠性及安全性。

  • 数据最小化(保障资料原则第1条): 机构应适时采用匿名化、假名化或合成数据等技术定制模型,确保仅使用必要数据。
  • 测试与验证: 部署前需进行严格测试(尤其针对定制模型),确保可靠性、稳健性与公平性:
    • 运用合适指标测试公平性与准确性。
    • 使用「保留数据」测试防止模型过度拟合训练集。
    • 实施管控措施防止人工智能输出泄露个人资料。
  • 持续监控与安全:
    • 依据数据最小化原则,监控及记录输入/提示以防止滥用并便于审计。
    • 监测「模型偏移」或「模型衰减」(准确度退化)并及时微调或重新训练模型。
    • 制定人工智能事件应变计划,在发生错误或故障时迅速暂停系统并启动备用方案。
    • 实施安全措施(如红队测试)降低对抗性攻击(如数据投毒)风险。
    • 确保人工智能系统输出的可追溯性与可审计性(例如通过事件记录)。

第四部分:透明度与持份者参与

有效沟通是建立信任的关键。

  • 信息提供(保障资料原则第1条及第5条): 机构须清晰显著披露人工智能系统的使用。
    • 须告知资料当事人其个人资料的使用目的(如人工智能训练)及可能传输资料的当事人类别(如人工智能供应商)
  • 可解释人工智能(XAI): 对产生重大个人影响的系统,机构在可行情况下应说明:
    • 人工智能参与决策过程的程度。
    • 个人资料如何使用及其关联性。
    • 导致个别决策/输出的主要因素(局部可解释性。
  • 资料当事人权利与反馈: 机构须建立渠道供个人提出反馈、寻求解释及要求人工介入,同时须支持资料当事人的查阅与改正权(保障资料原则第6条)。
  • 语言规范: 与持份者的沟通须采用通俗易懂的日常语言。

金融科技创始人及法务团队常见问题

以下是根据《人工智能(AI):个人资料保障模范框架》整理的部分常见问题解答:

问题

回复

我们的金融科技初创公司如何在保障AI训练准确性的同时,最小化隐私风险?

核心原则是遵循数据最小化原则(保障资料原则第1条)。建议优先采用匿名化、假名化或合成数据进行模型开发。所有收集处理的个人资料必须严格遵循合法限定目的,确保数据必要、适度且不过量。

我们的AI系统用于自动化信贷决策,需要何种程度的人工监督?

信贷评估作为对个人权益产生重大影响的高风险应用,必须采用"人在回路"监管模式,由具备资质的复核人员对AI输出结果保留最终决策权,并赋予其调查及推翻AI结论的权限。

我们计划采用现成的AI模型,是否仍需设立人工智能治理委员会?

人工智能治理委员会对所有AI系统的负责任使用至关重要。该机构需负责:监督采购流程合规性;验证供应商合规资质;管理系统持续使用风险。

在数据安全方面,我们需对AI供应商设定哪些合约义务?

必须通过合约明确要求作为资料处理者的供应商遵守保障资料原则第4(2)条(安全原则),强制其实施有效防护措施,防止个人资料遭受未授权/意外查阅、处理、删除、遗失或使用。

关于AI系统使用,我们需要向客户披露哪些具体信息?

依据保障资料原则第1(3)条及第5条,必须在使用个人资料前告知;使用目的(例如"用于AI驱动的信用评分");资料可能传输的当事方类别(例如"第三方AI模型供应商XYZ公司")。上述内容需完整载入收集个人资料声明(PICS)。

化解法律风险的关键行动要点

为应对香港人工智能监管环境的持续演进,企业及金融科技初创机构应立即落实以下措施:

  1. 完善治理架构: 设立具有董事会监督权限的跨部门人工智能治理委员会,明确权责边界与汇报机制。

  2. 实施专项评估: 对所有新增及现存的高风险系统强制推行人工智能专项隐私影响评估(DPIA),建立动态评估机制。

  3. 强化合约管理: 在所有人工智能供应商协议中嵌入符合保障资料原则第4(2)条的严格数据处理条款,明确安全责任边界。

  4. 提升信息透明度: 以简明语言更新隐私政策与收集声明,完整披露人工智能系统的运作逻辑、数据用途及可能影响。

  5. 落实监督机制: 对产生重大个人影响的AI决策系统部署"人在回路"控制节点,确保人工介入权限与纠错能力。

欢迎联系我们的律师团队,确保您的业务完全符合香港法规要求。

best lawyer hong kong solicitor alfred leung

梁延达,合伙人

alfredleung@hkytl.com | +852 3468 7202

请填写以下表格,安排保密咨询。