admin 管理员组

文章数量: 1184232

数据去重概述

标准去重

SF提供了2种路径去重:

  1. Duplicate Rule + Match Rule (通过标准的View Duplicates组件去重)
  2. Duplicate Record Set (需要关联DuplicateRuleId,在详情页上通过Compare and Merge action去重)

在#2中,创建记录时尽管我们需要关联DuplicateRuleId,但是我们也可以根据自己规则来装配Dupilicate Record Items。比如Match Rule中没有涉及到Email用作去重字段,但是我们可以在Apex中通过SOSL包含Email字段来查找重复记录。

注意:一次去重记录个数2-3条

自定义去重

去重分为两个过程:

  • Detect Duplicates (简单)
  • Merge (单条数据简单 - 通过UI呈现,用户手动比较合并;批处理复杂 - 可借助第三方专业产品)

单条数据操作去重

通过apex trigger,不论在创建 / 更新阶段,很容易使用SOQL来查询duplicates,然后通过addError把duplicates json data展示给用户。

如果追求更好体验,可以自定义LWC来展示自定义match rule下的duplicates给用户手动去重。

批量数据操作去重

在SF内通过batch实现,对于复杂的match rule,实现挑战大,特别是针对LDV有技术风险 - 超限制。

因此,第三方产品往往会借助其他技术栈 / 中间件来处理。

我面临的挑战

在SF中,我们标准和自定义去重都用到了,下图中自定义组件Potential Duplicates

本文标签: potential find Duplicate Records Merge