javascript如何数组去重_有哪些高效方式

推荐使用[...new Set(arr)]去重,简洁高效,适用于字符串、数字等基本类型;含对象需用filter+indexOf或reduce+includes;大数据量推荐Set辅助的filter方案。

JavaScript 数组去重有多种方式,高效与否取决于数据规模、元素类型(是否含对象)、是否需保持顺序,以及浏览器兼容性要求。现代写法简洁且性能好,老环境则需兼顾兼容性。

用 Set 快速去重(推荐,适合基础类型)

Set 自动过滤重复值,配合扩展运算符或 Array.from 转回数组,代码最简、性能优秀,适用于字符串、数字等基本类型:

  • const unique = [...new Set(arr)]
  • const unique = Array.from(new Set(arr))

注意:Set 对象元素视为不同({a:1}{a:1} 不去重),不适用于含对象的数组。

filter + indexOf(兼容老浏览器,保持顺序)

利用 indexOf 返回首次出现索引,只保留“第一次出现的位置”,天然保序,兼容 IE9+:

  • const unique = arr.filter((item, i) => arr.indexOf(item) === i)

缺点是时间复杂度 O(n²),大数据量时略慢;但逻辑清晰,适合中小数组或需兼容旧环境的场景。

reduce + includes(语义清晰,兼容性较好)

reduce 累积结果数组,每次检查新元素是否已存在,可读性强,支持 IE11+:

  • const unique = arr.reduce((acc, cur) => acc.includes(cur) ? acc : [...acc, cur], [])

注意:对大数组,includes 查找也是 O(n),整体仍是 O(n²);若追求性能,可改用 Set 辅助判断(见下条)。

Map / Set 辅助的高性能方案(大数据量首选)

当数组很长(如上万项),需避免嵌套循环时,可用 Set 记录已见元素,单次遍历完成:

  • const seen = new Set(); const unique = arr.filter(item => !seen.has(item) && seen.add(item))

这本质是“空间换时间”,时间复杂度降为 O(n),适合处理大量基础类型数据。

基本上就这些。日常开发优先用 [...new Set(arr)];要兼容老浏览器或需定制逻辑(比如按对象某个字段去重),再选 filter 或 reduce 配合判断。去重本身不复杂,但选错方法容易在大数据下拖慢页面。