如何实现一个完美的深拷贝库?

博文小编

2023-01-10

【本文原创:颜海镜】

lodash里的cloneDeep函数可以用来解决深拷贝的场景,但你有没有思考过lodash里的cloneDeep函数是如何实现的呢?

虽然我们可以直接使用lodash,但是学习深拷贝函数的实现原理仍然是非常有意义的,深拷贝也是一道非常经典的前端面试题,其可以考察面试者的很多方面,比如基本功、代码能力、逻辑能力。

深拷贝看似简单,但要想实现一个完美的深拷贝却并不容易,通过笔者的面试考察经验来看 ,只有 50%的人能够实现基础版本,能实现完美版本的竟然不到1%,这是因为深拷贝存在很多坑,比如:

你知道使用JSON.stringify来实现深拷贝是有bug的吗?

你会使用循环实现深拷贝吗?

如果拷贝的对象存在循环引用该怎么破解?

如果你回答不上来上面的问题,那么继续往下阅读吧,本文将破解深拷贝的谜题,由浅入深,环环相扣,总共涉及4种深拷贝方式,每种方式都有自己的特点和个性。

深拷贝 VS 浅拷贝

开始之前先科普一下什么是深拷贝,和深拷贝有关系的另一个术语——浅拷贝又是什么意思呢?

其实深拷贝和浅拷贝都是针对引用类型来说的,JS中的变量类型分为值类型(基本类型)和引用类型;对值类型进行复制操作会对值进行一份拷贝,而对引用类型赋值,则会进行地址的拷贝,最终两个变量指向同一份数据。示例代码如下。

引用类型会导致a和b指向同一份数据,此时如果对其中一个进行修改,就会影响到另外一个,有时这可能不是我们想要的结果,如果对这种现象不清楚的话,还可能造成不必要的bug。

最简单的深拷贝

深拷贝的问题其实可以分解成两个问题:浅拷贝+递归。什么意思呢?假设我们有如下数据:

使用递归实现深拷贝的示例代码如下:

大部分人都能写出上面的代码,但如果问上面的代码有什么问题的话,就很少有人答得上来了。聪明的你能找到问题吗?

其实上面的代码问题太多了,比如:

没有对参数做检验

判断是否对象的逻辑不够严谨

没有考虑数组的兼容

其实这三个都是小问题,递归方法最大的问题在于爆栈,当数据的层次很深时就会栈溢出。

下面的代码可以生成指定深度和每层广度的代码,这段代码我们后面还会再次用到。

当clone层级很深的时候就会出现栈溢出,但数据的广度不会造成溢出。

其实大部分情况下不会出现这么深层级的数据,但这种方式还有一个致命的问题,就是循环引用。比如:

关于循环引用的问题,有两种解决思路:一种是循环检测,一种是暴力破解。

关于循环检测大家可以自己思考下;关于暴力破解,我们会在下面的内容中进行详细讲解。

一行代码的深拷贝

有些同学可能见过用系统自带的JSON来做深拷贝的例子,下面来看一下代码实现:

其实我第一次见到这个方法的时候由衷表示佩服,利用工具达到目的是非常聪明的做法!

下面来测试一下cloneJSON有没有溢出的问题,看起来cloneJSON内部也是使用递归的方式:

既然使用了递归,那么为什么存在循环引用时,并没有因为死循环而导致栈溢出呢?原来是JSON.stringify内部做了循环引用的检测,正是我们上面提到破解循环引用的第一种方法:循环检测

破解递归爆栈

其实破解递归爆栈的方法有两条路:第一种方法是消除尾递归,但在这个例子中行不通;第二种方法就是干脆不用递归,改用循环。当我提出用循环来实现时,基本上90%的前端都是写不出来代码的,下面来介绍一下实现思路。

举个例子,假设有如下的数据结构:

其实只要把数据横过来看,就非常明显地发现这就是树!

用循环遍历一棵树需要借助一个栈,当栈为空时就遍历完了,栈里面会存储下一个需要拷贝的节点。

首先我们往栈里放入种子数据,key用来存储一个父元素的子元素拷贝对象。

然后遍历当前节点下的子元素,如果是对象,就放到栈里,否则直接拷贝。

改用循环后,再也不会出现爆栈的问题了,但是对于循环引用依然无力应对!

破解循环引用

有没有一种办法可以破解循环引用呢?别着急,我们先来看另一个问题,上面的三种方法都存在的一个问题就是引用丢失,这在某些情况下也许是不能接受的。

举个例子,假如一个对象a下面的两个键值都引用同一个对象b,经过深拷贝后,a的两个键值会丢失引用关系,从而变成两个不同的对象o(╯□╰)o:

如果我们发现一个新对象就把这个对象和它的拷贝存下来,每次拷贝对象前,都先看一下这个对象是不是已经拷贝过了,如果拷贝过了,就不需要拷贝了,直接用原来的,这样我们就能够保留引用关系了✧(≖ ◡ ≖✿)嘿嘿~~

但是代码怎么写呢?o(╯□╰)o

别急,往下看!

其实和循环的代码大体一样,不一样的地方我用//==========标注出来了。

引入一个数组uniqueList用来存储已经拷贝的数组,每次循环遍历时,先判断对象是否在uniqueList中了,如果在的话就不执行拷贝逻辑了。

find是一个抽象的函数,其实就是遍历uniqueList

下面来验证一下效果:

接下来再说一下如何破解循环引用。

等一下,上面的代码好像可以破解循环引用,赶紧验证一下:

惊不惊喜,(^__^) 嘻嘻……

看起来完美的cloneForce是不是就没有问题呢?

cloneForce有两个问题:

第一个问题,所谓成也萧何,败也萧何,如果保持引用不是你想要的,那就不能用cloneForce

第二个问题,cloneForce象数量很多时会出现很大的问题,如果数据量很大不适合使用cloneForce

性能对比

上面的内容还是有点难度的,下面我们来点更有难度的,对比一下不同方法的性能。

我们先来做实验。通过数据可以看出影响性能的原因有两个:一个是深度,一个是每层的广度。

我们采用固定一个变量,只让一个变量变化的方式来测试性能。

测试的方法是在指定的时间内计算深拷贝执行的次数,次数越多,证明性能越好。

下面的runTime是测试代码的核心片段。在下面的例子中,我们可以测试在2秒内运行clone(createData(500, 1)的次数。

下面来做第一个测试,将广度固定在100,深度由小到大变化,记录1秒内执行的次数。

将上面的数据做成表格可以发现一些规律:

随着深度变小,相互之间的差异在变小

clone和cloneLoop的差别并不大

cloneLoop > cloneForce > cloneJSON

我们先来分析一下各个方法的时间复杂度问题,对于各个方法要做的相同的事情,这里就不计算了,比如循环判断是否为对象等。

clone时间 = 创建递归函数 + 每个对象处理时间

cloneJSON时间 = 循环检测 + 每个对象处理时间 * 2 (递归转字符串 + 递归解析)

cloneLoop时间 = 每个对象处理时间

cloneForce时间 = 判断对象是否在缓存中 + 每个对象处理时间

cloneJSON的速度只有clone的50%。这很容易理解,因为其会多进行一次递归时间。

由于cloneForce要判断对象是否在缓存中,因此会导致速度变慢。我们来计算一下判断逻辑的时间复杂度,假设对象的个数是n,则其时间复杂度为O(n2),对象的个数越多,cloneForce的速度会越慢。

关于clone和cloneLoop这里有一点问题,看起来实验结果和推理结果不一致,其中必有蹊跷。

接下来做第二个测试,将深度固定在10000,广度固定为0,记录2秒内执行的次数。

排除宽度的干扰,来看看深度对各个方法的影响:

随着对象的增多,cloneForce的性能低下凸显

cloneJSON的性能也大打折扣,这是因为循环检测占用了很多时间

cloneLoop的性能高于clone,可以看出递归新建函数的时间和循环对象比起来可以忽略不计

下面我们来测试一下cloneForce的性能极限,这次我们测试运行指定次数需要的时间:

通过测试发现,其时间成指数级增长,当对象个数大于万级别,就会有300ms以上的延迟。

总结

尺有所短,寸有所长,无关乎好坏优劣,其实每种方法都有自己的优缺点和适用场景,人尽其才,物尽其用,方是真理!

下面对各种方法进行对比,希望给大家提供一些帮助。

本文出自《现代JavaScript库开发:原理、技术与实战》一书!

如今,本书已全面上线,如果你也想开发属于自己的JavaScript库,提升开发技能,精进自身开发技术,一定不可以错过本书哦~~

如今,本书已全面上线,如果你也想开发属于自己的JavaScript库,提升开发技能,精进自身开发技术,一定不可以错过本书哦~~
https://item.jd.com/13596805.html


粉丝专享五折优惠,快快扫码抢购吧!

读者评论

相关博文

  • 社区使用反馈专区

    陈晓猛 2016-10-04

    尊敬的博文视点用户您好: 欢迎您访问本站,您在本站点访问过程中遇到任何问题,均可以在本页留言,我们会根据您的意见和建议,对网站进行不断的优化和改进,给您带来更好的访问体验! 同时,您被采纳的意见和建议,管理员也会赠送您相应的积分...

    陈晓猛 2016-10-04
    5421 735 3 7
  • 迎战“双12”!《Unity3D实战核心技术详解》独家预售开启!

    陈晓猛 2016-12-05

    时隔一周,让大家时刻挂念的《Unity3D实战核心技术详解》终于开放预售啦! 这本书不仅满足了很多年轻人的学习欲望,并且与实际开发相结合,能够解决工作中真实遇到的问题。预售期间优惠多多,实在不容错过! Unity 3D实战核心技术详解 ...

    陈晓猛 2016-12-05
    3299 36 0 1
  • czk 2017-07-29
    5866 28 0 1