admin 管理员组文章数量: 1184232
数据去重概述
标准去重
SF提供了2种路径去重:
- Duplicate Rule + Match Rule (通过标准的View Duplicates组件去重)
- Duplicate Record Set (需要关联DuplicateRuleId,在详情页上通过Compare and Merge action去重)
在#2中,创建记录时尽管我们需要关联DuplicateRuleId,但是我们也可以根据自己规则来装配Dupilicate Record Items。比如Match Rule中没有涉及到Email用作去重字段,但是我们可以在Apex中通过SOSL包含Email字段来查找重复记录。
注意:一次去重记录个数2-3条
自定义去重
去重分为两个过程:
- Detect Duplicates (简单)
- Merge (单条数据简单 - 通过UI呈现,用户手动比较合并;批处理复杂 - 可借助第三方专业产品)
单条数据操作去重
通过apex trigger,不论在创建 / 更新阶段,很容易使用SOQL来查询duplicates,然后通过addError把duplicates json data展示给用户。
如果追求更好体验,可以自定义LWC来展示自定义match rule下的duplicates给用户手动去重。
批量数据操作去重
在SF内通过batch实现,对于复杂的match rule,实现挑战大,特别是针对LDV有技术风险 - 超限制。
因此,第三方产品往往会借助其他技术栈 / 中间件来处理。
我面临的挑战
在SF中,我们标准和自定义去重都用到了,下图中自定义组件Potential Duplicates
本文标签: potential find Duplicate Records Merge
版权声明:本文标题:Find Potential Duplicate and Merge Records 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.roclinux.cn/b/1765519053a3388745.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论