大众号:尤而小屋
作者:Peter
修改:Peter
咱们好,我是Peter~
今日给咱们同享一篇关于深度学习在Li电池RUL、SOH和电池热办理中的研究进展与使用的文献总述。文献根本信息介绍:
本文体系介绍了Deep Learning深度学习的不同办法在锂电池剩余使用寿命(RUL)、健康状况(SOH)和电池热办理(BTM)猜测中的使用。本文总述从猜测功能、长处和缺陷等方面评估了不同的深度学习办法来进行电池估计和猜测。
此外,本文还讨论了上述使用中影响充放电循环、杂乱环境、动态条件和不同电池类型的不同算法的特色、成就、局限性和改善方向。
锂电池作业原理和老化机理
BMS结构原理和功用特色
深度学习在锂电池RUL-SOH-BTM进展和使用全体图
Different methods of DL for BMS(电池办理体系)
BMS:battery management system 电池办理体系。
循环神经网络Recurrent Neural Network-RNN
循环神经网络的根本结构是在处理单元之间既有内部的反馈衔接又有前馈衔接,这种结构使其具有回忆的才能,类似于人一样。这种才能使得RNN能够处理一些卷积神经网络(CNN)和传统神经网络无法处理的问题.
RNN的首要使用是处理和猜测序列数据。它能够借助循环核(cell)从时间维度提取信息,并将提取的特征送入后续网络进行猜测等操作。循环核具有回忆力,经过不一起间的参数同享,完成了对时间序列的信息提取。
在RNN中,隐层的权重是同享的,这意味着同一组权重被多次复用,然后进步了模型的功率和表达才能。
以LSTM为代表:
长短期回忆模型(Long Short-Term Memory,LSTM)是一种改善的循环神经网络结构,旨在处理传统RNN面对的梯度消失和梯度爆破问题。
LSTM经过引进回忆单元(memory cell)和门控单元(gating unit)来完成在时间维度上的长期依赖。回忆单元用于存储前史信息,而门控单元则操控回忆单元的写入和读取。
LSTM模型的结构包含三个部分:
- 输入门(input gate): 输入门操控当时输入和前一时间的输出对回忆单元的影响
- 忘记门(forget gate): 忘记门操控前一时间的回忆单元对当时时间的影响
- 输出门(output gate): 输出门操控当时时间的回忆单元对输出值的影响
LSTM模型的长处在于:
能够更好地处理长期序列,防止梯度消失和梯度爆破问题。 具有较强的回忆才能,能够较好地捕捉前史信息对当时使命的影响。 能够经过不同的参数设置来操控回忆的长度,然后习惯不同的使命需求。
门控单元GRU:
门控单元(Gated Recurrent Unit,GRU)是一种结合了LSTM和传统RNN特色的循环神经网络结构,旨在处理传统RNN面对的梯度消失和梯度爆破问题。
GRU经过引进门控单元来完成在时间维度上的信息交换和选择。门控单元经过sigmoid函数操控信息的写入和读取。
GRU模型的结构包含三个部分:
- 重置门(reset gate):重置门操控前一时间的状况信息对当时时间的影响
- 更新门(update gate):更新门操控当时时间的输入信息对状况的影响
- 输出门(output gate):输出门操控当时时间的状况信息对输出的影响。
GRU模型的长处在于:
能够更好地处理长期序列,防止梯度消失和梯度爆破问题。 能够依据使命需求灵活地调整信息的写入和读取办法,进步模型的习惯性和功率。 结构相对简单,参数较少,练习功率较高。
深度神经网络Deep Neural Network-DNN
深度神经网络(Deep Neural Network,DNN)是一种多层神经网络,由多个传统神经网络组成。
DNN的根本结构是堆叠多个神经网络层,每一层负责从输入数据中提取不同层次的特征。每一层网络的输出作为下一层网络的输入,然后完成对数据的逐层特征提取和表明。
在DNN中,每个神经网络层能够由多个神经元组成。每个神经元接收输入数据,并经过激活函数(activation function)对数据进行处理和改换。常见的激活函数有sigmoid、tanh、ReLU等。
DNN的练习进程一般采用反向传达算法(backpropagation algorithm),经过最小化丢失函数(loss function)来调整网络的参数,以进步网络的猜测准确性和泛化才能。
卷积神经网络Convolutional Neural Network-CNN
CNN是一种由卷积层(convolutional layer)、池化层(pooling layer)、全衔接层(fully connected layer)组成的神经网络。其中,卷积层和池化层一般替换堆叠,构成网络的骨干部分。
- 卷积层是CNN的中心部分,用于从输入数据中学习部分特征。卷积操作经过同享权值的办法,减小了网络的参数数量,一起能够捕捉到数据的空间结构。
- 池化层则用于下降数据的维度,减少计算量并进步网络的泛化才能。常见的池化操作有最大池化(max pooling)和均匀池化(average pooling)等。
- 全衔接层则是将网络中的所有节点进行全衔接,用于对数据进行分类或回归。
CNN被广泛使用于计算机视觉、图画处理等使命中,如图画分类、方针检测、图画切割等。经过捕捉图画的部分特征和空间结构,CNN能够完成对图画的鲁棒性和高效分类。
深度相信网络Deep Belief Network-DBN
深度相信网络(Deep Belief Network,DBN)是一种根据深度学习的概率生成模型,经过练习其神经元间的权重,咱们能够让整个神经网络依照最大概率来生成练习数据。
DBN是一种多层神经网络,由多个限制玻尔兹曼机(Restricted Boltzmann Machine,RBM)组成。每个RBM包含一个可见层(visible layer)和一个隐层(hidden layer),且每层之间的衔接是全衔接的。
DBN的学习进程是分层无监督的,即逐层练习每一层的参数,以减小网络的全体误差。在练习进程中,能够经过预练习(pre-training)来优化网络的参数,然后进步网络的表达才能和泛化才能。
除了作为非监督学习模型,DBN还能够作为特征提取器使用。经过对输入数据进行逐层的练习和特征提取,能够得到不同层次的特征表明,然后更好地捕捉数据在不同层次的特征和相关性。
生成对立网络Generative Adversarial Networks-GAN
生成对立网络(Generative Adversarial Network,GAN)是一种深度学习模型,首要用于生成式模型的建模和练习。
GAN由两个部分组成:
- 生成器(generator):生成器用于生成与实在数据类似的新数据
- 判别器(discriminator):判别器则用于判断生成器生成的数据是否与实在数据类似。
在GAN的练习进程中,生成器和判别器经过对立的办法进行优化。生成器的方针是生成愈加实在的数据,而判别器的方针则是进步对生成器生成的数据的鉴别才能。
GAN的长处在于其能够生成与实在数据类似的新数据,并且具有很强的鲁棒性和表现力
剩余使用寿命Remaining Useful Life-RUL
锂电池RUL猜测流程图
RNN methods
不同的循环神经网络在RUL的使用
RNN-RUL
DNN methods
不同的DNN网络在RUL的使用
DNN-RUL
CNN methods
不同的CNN网络在RUL的使用
CNN-RUL
DBN methods
不同DBN网络在RUL的使用
DBN-RUL
GAN methods
不同GAN网络在RUL的使用
GAN-RUL
健康状况 State of Health-SOH
根据深度学习的Li电池SOH猜测流程:
锂电池SOH猜测流程
RNN methods
RNN-SOH
CNN methods
CNN-SOH
DNN methods
DNN-SOH
DNN-SOH
电池热办理battery thermal management-BTM
CNN methods
CNN-BTM
RNN methods
RNN-methods
other methods
DL-BTM
DL在RUL-SOH-BTM中的使用文献、办法比照:
summary
Application
电池办理关于确保产品可靠、安全运行至关重要。因而,高效的BMS在保护电池及其相关体系免受损害或过充,以及进步电池功能方面扮演着至关重要的人物,首要包含准确监测、充电和放电操控、热办理、电池安全和保护。
application
材料获取
最后给咱们提供下论文:
1、原论文地址:www.sciencedirect.com/science/art…
2、论文获取办法,大众号【尤而小屋】,后台回复:锂电池与深度学习