- 作者:韩信子@ShowMeAI
- 教程地址:www.showmeai.tech/tutorials/3…
- 本文地址:www.showmeai.tech/a算法是指什么rticle-det…
- 声明:版权python保留字所有,转载请联系平台与作算法分析的目的是者并注明出处
- 收藏ShowMeAI查看更多精彩内容
本系列为 斯坦福CS231n 《深度学习与计算机视觉(Deep Learning for Computer Vision)》的全套学习笔记,对应的课程视频可以在 这里 查看。更多资料获取方式见文末。
引言
之前了解到的都是监督学习(Super架构师vised Learning):我们有数据x和标签y矩阵乘法,目标是学习到一个函数可以将数据x映射到标签y,标签可以有很多形式。
典型的有监督学习有:分类问题中输入一张图片,输出图片的分类;目标检测中输入一张图片,输出目标物体的边框;语义分割中,给每个像素都打上标签。
CS231n第13讲给大家介绍的是无监督学习(Unsupervise算法d Learning)以及生成模型的一些知识。
本篇重点
- 无监督学习
- 生成模型
- P矩阵的秩ixel RNN/CNN
- 变分自编码器(VAE)
- 生成对抗网络(GAN)
1.无监督学习
无监督学习在我们只有一些没有标签的训练数据的情况下,学习数据中隐矩阵转置含的结构。无监督学习由于没有标签,数据获取也很容易。典型的无监督学习包括下述算法:
1.1 聚类(k-Means)
关于聚类算法的详细知识也可以参考ShowMeAI的下述文章
- 图解机器学习教程 中的文章详解 聚类算法详解
聚矩阵游戏类(Clustering算法分析的目的是)是找到数据的分组,组内数据在某种度量方式下是相似的。随机初始k个中心位置,将每个样本矩阵的秩分配到最近的中心位置,然后根据分配的样本更新中心位置。重复这个过程直至收敛(中心位置不再变化)。
1.2 PCA(主成分分析)
关于PCA降维算法的详细知识也可以参考ShowMeAI矩阵的下述文章
- 图解机器学习教程 中的文章详解 降维算法详解
数据降维(Dimensionality reduction):找出一些投影方向(轴),在这些轴架构图怎么制作上训练数据投影的方矩阵的迹差最大矩阵乘法。这些轴就是数据内潜在的结构。我们可以用这些轴来减少数据维度,数据矩阵转置在每个保留下来的维度上都有很大的方差。
1.3 特征学习(Feature Learning)
我们还有一些特征学习的方法,比如自编码(Autoencod算法ers):
1.4 密度估计( Density Estimation)
密度估计( Density Estimation)算法的五个特性也是一种无监督算法,我们会估计数据的内在分布情况,比如下图上方有一些一维和二维的点,我们用高斯函数来拟合这一密度分布,如下图所示:
2.生成模型(Generative Models)
生成模架构师和程序员的区别型是一种无监算法工程师督学习方法。它对应的python怎么读任务是:根据一批由真实分布p-矩阵相乘怎么算data(x) 产生的训练数据,通过训练学习,得矩阵到一个可以以近似于真实的分布p-model(矩阵和行列式的区别x) 来产生新样本的模型。
为什么生成模型重要,因为其可以支撑一系列问题的python怎么读解决:生成样本,着色问题,强化学习应用,隐式表征推断等。
下图左边为生成的图片,中间生成的人脸,还可以做超分辨率或者着色之类python123平台登录的任务。
生成模型分为「显式」和「隐式」的生成模型,往下分又可以分成很多子类。如下图所示。
我们在本篇内容中主要讨论3种模矩阵计算器型:PixelRNN / CNN,变分自动编码器属于显示密度模型,生成对抗网络(GAN)属于隐式密度估计模型python保留字。
2.1 PixelRNN 和 PixelCNN
PixelRNN 和 PixelCNN 使用概率链式法则来计算一张图片出现的概率。其中每一项为给定前 i−1i-1 个像素点后第 ii 个像素点的条件概率分布。这个分布通过算法设计与分析神经网络 RNN算法的时间复杂度取决于 或 CN矩阵的秩N 来建模,再通过最大化图片 xx 的似然概率来学习出 RNN 或 CNN 的参数。算法的特征
条件python语言概率公式为:
其中:
- p(x)p(x): 图像x的似然概率
- p(xi∣x1,…,xi−1)p(x_{i} mid x_{1}, ldots, x_{i-1}): 条件概率
PixelRNN 中,从左上角开始定义「之前的像素」。由于 RNN 每个时间步的输出概率都依赖于算法导论之前所有输入,因此能够用来表示上面的条件概率分布。
我们训练这个 RNN 模型时,一次前向传播需要从左上到右下串行走矩阵和行列式的区别一遍,然后根据上面的公式求出似然,并最大化似然以对参数做一轮更新。因此训练非常矩阵游戏耗时。
PixelCNN中,架构图模板使用算法的五个特性一个CNN来接收之前算法是指什么的所有像素,并预测下一个像素的出现概率:
对比 PixelRNN 和 PixelCNN,后者在训练时可以并行计算公式中的每一项,然后进行参数更新,因此训练速度远快于 PixelRNN。
不过,在测试阶段,我们会发现PixelRNN和PixelCNN都要从左上角开始逐个像素点地生成图算法的时间复杂度取决于片,实际应用阶段生成图像的速度是很慢的。
PixelRNN 和 PixelCNN 能显式地计算似然 p(x)p(x),是一种可优化的显式密度模型矩阵乘法,该方法架构是什么意思给出了一个很好的评估度量,可以通过计算的数据的似然来度量出生成样本有多好。
2.2 变分自编码器(VAE)
PixelCNN定义了一个易于处矩阵和行列式的区别理算法工程师的密度函数,我们可以直接优化训练数python编程据的似然;而我们下面介绍到的变分自编码器方法中,密度函数就不易处理了,我们要通过附加的隐变量 zz 对密度函数进行建模:
我们数据的似然 p(x)p(x) 是等式右边的积分形式,即对所有可能的 zz 值取期望,但它是无法直接优化的,我们只能找出一个似然函数的下界然后再对该下界进行优python可以做什么工作化。
1) 自算法编码器
自编码器是为了无监督地学习出样本的特征表示,原理如下:
如上图,自编码器由编码器和解码器组成算法是指什么,编码器将样本 xx 映射到特征 zz,解码器再 xx 将特征 zz 映射到重构样本。我们设定损失函数为 xx 与重构样本之间的 L2 损失,训练出编码器python是什么意思和解码器的参数,希望能够使 zz 解码后恢复出原来的 xx。
编码器
编码器可以有多种形式,常用的是神经网络。最先提出的是非线性层的线性组合,然后有了深层的全连接网络(MLP),后来又使用 CNN,我们通过神经网络对输入矩阵乘法数据 xx 计算和矩阵游戏映射,得到特征 zz,zz 的维度通矩阵的秩常比 xx 更小。这种降维压缩可以压缩保留 xx 中最重要的特征。
解码器
解码器主要是为了重构数据,它输出一些跟 xx 有相架构是什么意思同维度的结果并尽量拟合 xx 。解码器一般使用和编码器相同类型的网络(与编码器对称)。
训练好完整的网络后,我们会把解码器的部分去掉,使用训练好的编码器实矩阵相乘怎么算现特征映射。
通过编码器得到输入数据的特征,编码器顶部有一个分类器,如果是分类问题我们可以用它来输出一个类标签,在这里使用了外部标签和标准的损失函数如 Softmax矩阵的秩。
无标签数据得到的模型,可以帮助我们得到普适特征(比如上述自编码器映射得到的特征),它们作为监督学习的输入是非常有效架构的(有些场景矩阵转置下监督学习可python可以做什么工作能只有很少架构图的带标签的训练数据,少量的数据很难训练模型,可能会出现过拟合等其他一些问题),通过上述方式架构图得到的特征可以很机器学习好地初始化下游监督学习任务的网络。
自编码器具有重构数据、学习数据特征、初始化一个python123平台登录监督模型的能力。这些学习到的特征具有能捕捉训练数据中蕴含的变矩阵化因素的能力。我们获得了一个含有训练数据中变化因子的隐变量 zz 。矩阵相乘怎么算
2) VAE的思想
VAE模型的思路是,如果我们无法直接获得样本 xx 的分布,那么我们可以假设存在一个 xx 对应的隐式表征 zz , zz 的分布是一个先验分算法的特征布(比如高斯分布或其他简单的分布)。
举例来说,如果我们想要生成微笑的人脸, zz 代表的是眉毛的位置,嘴角上扬的弧度,它经过解码网架构是什么意思络后,能够映射得到 xx 的近似真实分布。那在样本生成阶段,我们可以通过标准正态分布采样得到 z矩阵相乘怎么算z ,然后解码得到样本近似分python可以做什么工作布,再在此分布上采样来生成样本。
对于这个采样过程,真实的参数是 ∗theta ast ,是有关于先验假设和条件概率分布的参数,我们的目的在于获得一个python123样本生成式模型,从而利用它来生成新的数据,真实参数是我们想要估计并得出的。
我们表示这个生成式模型的方法是:选一个简单的关于 zz 的先验分布,例如高斯分布,对于给定 zz 的 xx 的条件概率分布 p(x∣z)p(x midpython怎么读 z) 很复杂,我们会使用神经网络来对 p(x∣z)p(x mid z) 进行建模。
3) 如何训练VAE
我们的目标是:从一堆样本中学习出解Python码网络的参数,使得在标准高斯分布上采样得到的 z机器学习z ,经过解码后得到的 xx 的分布,刚好近似于 xx 的真实矩阵转置分布。
我们通过「最大化样算法导论本 xx 的似然 P(x)P(x)」矩阵乘法来达到上述目标。 在已经给定隐变量 zz 的情况下,写出 xx 的分布 pp 并对所有可能的 zz 值取期望,因为 zz 值是连矩阵的秩续的算法设计与分析所以表达式是一个积分:
问题是利用求导来直接求最大化的似然,很不好解。
第一项是 zz 的分布 p(z)p(z) ,这里将它简单地设定为高斯分布,所以很容易求;p(x∣z)p(x mid z) 是一个指定的神经网络解码器,也容易得到。
但是计算所有的 zz 对应的 p(x∣架构师z)p(x mid z) 很困难,所以无法计算该积分。这样也导致 p(z∣x)p(z mid x) 是难解的。
解决方法是,在使用神经网络解码器来定义一个对 p(x∣z)p(x mid z) 建模神经网络的同时,额外定义一个编码器 q(z∣x)q(z mid x) ,将输入 xx 编码为 zz ,从而得到似然 p(z∣x)p(z mid x) 。
也就是矩阵的乘法运算说我们定义算法的五个特性该网络来估计出 p(z∣x)p(z mid x) ,这个后验密度分布项仍然是难解的,我们用该附加网络来估计该后验分布,这将使我们得到一个数据似然的下界,该下界易解也能优化。
在变分自编码器中我们想得到一个生成数据的概率模型,将输入数据 xx 送入编码器得到一些特征 zz ,然后通过解码器网络把 zz 映射到图像 xx 。
我们这里有编码器网络和解码器网络,将一切参数随机化。参数是 phi 的编码器网络 q(z∣算法分析的目的是x)架构图怎么画q(z mid x) 输出一个均值和一个对角协方差矩阵;解码器网算法工程师络输入 zz ,输出均值和关于 xx 的对角协方差矩阵。为了得到给定 xx 下的 zz 和给定 zz 下的 xx ,我们会从这些架构分布(pp和qq算法工程师)中采样,现在我们的编矩阵计算器码器和解码器网络所架构图模板给出的分别是 zz 和 xx 的条件概率分布,并从这些分布中采样从而获得值算法是指什么。
下面是推导过程:
这里引入了一个分布 q(z∣x)q(z mid x) ,就是编码网络。这里我们暂时只把它当作一个符号,继续推导即可:
对第一项,我们有:
这样我们就得到了 VAE 的核心等式:
注意到这个式子的第三项中,含有 p(z∣x)p(z mid x) ,而
由于这个积分无法求解出来,因此矩阵乘法我们python基础教程没办法求第三项的梯度。幸运的是,由于第三项是一个KL散度,其恒大于等于 00,因此前两项的和是似然的一个下矩阵乘法界。因此我们退而求其次,来最大化似然的下界,间接达到最大化似然的目的。
现在我们引入编码器网络来对 q(z∣x)q(python编程z mid x) 建模,我们的训练框架架构图如下:
如何得到下界:
① 第1项是对所有采样的 zz 取期望, zz 是 xx 经过编码器网络采样得到,对 zz 采样然后再求所有 zz 对应的 p(x∣z)p(x mid z) 。让 p(x∣z)p(x mid z) 变大,就是最大限度地重构数据。
② 第2项是让KL的散度变小,让我们的近似后验分布和先验分布变得相似,意味着我们想让隐变量z遵循我们期望的分布类型。
这个框架就非常矩阵相乘怎么算类似于自编码器。
其中最大化下架构是什么意思界的第一项表示我们要能从解码器最大概率地重构出 xx ,这一步等价于去最小化与样本 xx 的均方误差。最小化下界的第二项则限架构图定了 zz 要遵循我们事先给它指定的分机器学习布。
公式是我们要优化及最大化的下界,前向传播按如上流程处理,对输入数据 xx ,让小批量的数据传递经过编码器网络的到 q(z∣x)q(算法z mid x) ,通过 q(z∣x)q(z mid x) 来计算 KL 项,然后根据给定 xx 的 zz 分布对 zz 进行采样,由此获得了隐变量的样本,这些样本可以根据 xx 推断获得;然后把 zz 传递给第二个解码器网络,通过解码器网络 xx 在给定 zz 的条件下的两个参数,均值和协方差,最终可以在给定 zz 的条件下从这算法工程师个分布中采样得到 xx 。
训练时需要获得该分python语言布,损失项是给定 zz 条件下对训练像素值取对数,损失函数要做的是最大化被重构的原始输入数据的似然;对于每一个小批量的输入我们都计算这一个前向传播过程,取得所有我们需要的项,他们都矩阵的迹是可微分的,接下来把他们全部反向传播回去并获得梯度,不断更新我们的参数,包括生成器和解码器网络的参数 theta 和 phi 从而最大化训练数据的似然。
训练好变分自编码器,当生成数据时只需要用解码算法的特征器网络,我们在训练阶段就对 zz 采样,而不用从后验分布中采样,在生成阶段会从真实的生成过程中采样。先从设定好架构工程师的先验python怎么读分布中采样,接下来对数据 xx 采样。
需要注意的是,这个框架里面,梯度无法通过「采样」这个算子反向传播到编码器网络,因此我们使用一种叫做重采样的 trick。即将 zz 采样的算法的空间复杂度是指算子分解为:
这样梯度不需要经过采样算子就能回流到编架构图模板码器网络中。
4架构图怎么制作) VAE的优缺点
总结一下,VAE 是在原来的自编码器上加了随机成分,我们使用VAE不是直接取得确定的输入 xx 然后算法的时间复杂度取决于获得特征 zz 最后再重构 xx ,而是采用随机分布和采样的思想,这样我们就能生成数据。 为了训练模型矩阵的迹 VAEs,我们定义了一个难解的密度分布,我们推导出一个下界然后优化下界,下架构是什么意思界是变化的算法的有穷性是指,「变分」指算法设计与分析的是用近似来解决算法工程师这些难解的表达式,这是模型被称为变分自动编码器的原因。
Vpython可以做什么工作AEs优架构师点
VAEs 就生成式模型来说是一种有据可循的方法,它使得查询推断称为可能,如此一来便能够推断出像 q(z∣x)q(z mid x架构师和程序员的区别) 这样的分布,这些东西对其他任务来说会是很有用的特征表征。
VAEs缺点
最大化似然下界思想是架构工程师OK的,但是不像 PixelRNN 和 PixelCNN 那样精准评估。而 VApython123平台登录E 相对后续会讲到的GAN等方法,生成的图像结果矩阵转置更模糊。
2.3 生成对抗网络(Generative Adve架构师工资rsarial Nets, GAN)
1) GAN的核心思路
我们之前的 PixelCNN 和 PixelRNN 定义了一个易于处理的密度函数,通过密度函数优化训练数据的似架构图怎么制作然;VAEs有一个额外定义的隐变量 zz ,有了 zz 以后获得了很多的有利性质但是我们也有了一个难解的密度函数,对于该函数我们不能直接优化,我们推到了一个似然函数的下界,然后对它进行优化。
现在我们放弃显式地对密度函数建模,我们想要得到的是从分布中采样并获得质量良好的样本架构师和程序员的区别。GANs 中不再在显式的密度函数上花费精力,而是采用一个博弈论的方法,并且模型将会习得从训练分布中生成数据,具体的实现是基于「生成器」和「判别器」这一对博弈玩家。
相比变分自编码器,GAN 的核心思路非常简单。
在 GAN 中我们定义了两个网络:「生成器」和「判别器」。
- 判别器负责辨别哪些样本是生成器生成的假样本,哪些是从真实训练集中抽出来的真样本。
- 生成器负责利用随机噪声 zz 生成假样本,它的职责是生成尽可能真的样本以骗过判别器。
这种对抗形式的目标可以写成如下形式:
现在我们有两个玩家,通过一个 mi矩阵的迹nmaxminpython编程 max 博python编程弈公式联合训练这两个网络,该 minmaxmin max 目标函数就是如图所示的公式,我们的目标是:
- 让目标函数在 gtheta_ g 上取得最小值,同时要在 dtheta_ d 上取得最大值。
- 其中:gtheta_g 是生成器网络g的参数,dtheta_d指的是判别器网络的参数。
公式中各项的含义:
- 第1项是在架构图怎么画训练数据的分布上 log(D(x))log(D(x)) 的期望,log(D(x))log(D(xpython编程)) 是判别器网络在输入为真实数据(训练数据)时的输出,该输出是真实数据矩阵转置从分布 p-data 中采样的似然概率;
- 第2项是对 zz 取期望, zz 是从 p(z)p(z) 中采样获得的,这意味着从生成器网python保留字络中采样,同时 D(G(z))D(G(z)) 这一项代表了以生成的伪数据为输入判别器网路的输出,也就python可以做什么工作是判别器网络对于架构师生成网络生成的数据给出的判定结果。
对该过程的解释:我们的判别器的目的是最大化目标函数也就架构是什么意思是在 dtheta_d 上取最大值,这样一来 D(x)D(x) 就会接近1,也就是使判别结果接近真,因而该值对于真实数据应该相当高,这样一来 D(G(z))D(python123平台登录G(z)) 的值也就是判别器对伪造数据输出就会相应减小,我们希望这一值接近于 00。
如果我们能最大化这一结果,就意味着判别器能够很好的区别真实数据和伪造数据。
对于生成器来说,我们希望它架构师工资最小化该目标函数,也就是python123让 D(G(z))D(G(z)) 接近矩阵转置 11,如果 D(G(z))D(算法的五个特性G(z)) 接近 11,那么用 11 减去它就会很小,判别器网络就会把伪python123造数据视为真实数据,也就意味着我们的生成器在生成真实样本。
从数据准备上看,整个过程是一个无监督学习,我们无需人工给每个图片python基础教程打上标签。具体网络学习时候,我们会把生成器生成的图矩阵的秩片标记为 00(对应假图片),训练集标记为 11(都是真图片)。
判别器的损失函数会使用上述信息,判别器是一个分类器,我们希望它能经矩阵游戏过训练获得分辨能力:对生成器生成的图片输出 00,而对真实图片输出 11。
训练方法
对于GAN,我python安装教程们最初能想到的训练方式如下:
① 对判别器进行梯度上升,学习到 dtheta_d 来最大化该目标函数;
② 对生成器进行梯度下降矩阵相乘怎么算, gtheta算法的时间复杂度取决于_g 进行梯度下降最小化目标函数(此时目标函数如下的部分,因为只有矩阵转置它与 gtheta_g 有关)
不断在上述 ① 和 ② 之间重复。
这里有个trick:python怎么读我们观察生成器的损失函数形状如下:
发现当生成器效果不好(D(G(z)D(G(z) 接近 00)时,梯度非常平缓;当生成器效果好(D(G(z)D(G(z)接近11)时,梯矩阵的乘法运算度很陡峭。这就与我们期望的相反了,我们希望在生成器效果不好的时候梯度更陡峭,这样能学到更多。因矩阵的迹此我们使用下面的目标函数来替代原来的生成器损失:
这样就使得在生成器效python保留字果不好算法的五个特性时具有较大的梯度。此外,联合训练两个网络很有挑战,交替训练的方式不可能一次训练两个网络,还有损失函数的函数空架构图怎么制作间会影响训练的动态过程。
在每一个训练迭代期都先训练判别器网络,然后训练生成器网络,GAN 的总体训练过程如下:
-
训练判别器
- 对于判别器网络的k个训练步,先从噪声先验分布 zz 中采样得到一个小批量样本,接着从训练数据 xx 中采样获得小批量的真矩阵实样本,下面要做的将噪声样本传给生成器网络,并在生成器的输出端获得生成的图像。
-
此矩阵的逆时我们有了一个小批量伪造图像和小批量真实图像,我们有这些小批量数据在判别器生进行一次梯架构师度计算,接下来利用梯度信息更新判别器参数,按照以上步骤迭代矩阵游戏几次来训练判别器。
-
训练生成器
- 在这一步采样获得一个小批量噪声样本,将它传入生成器,对生成器进行反向传播,来优化目标函数。
训练 GAN 的过程会交替进行上述两个步骤。
训练完毕后python123,就可以用生成python怎么读器来生成比较逼真的样本了。
2) GAN的探索
- 传矩阵的迹统的GAN生成的样本还不是很好,这篇论文在GAN中使用了CNN架构,取得了惊艳的生成效果:[Radford et al, “Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks”, ICLR 2016]
- Wasserstein GAN 一定程度解决了GANpython安装教程训练中两个网络如何平衡的问题。
- 用GAN来做text -> ima矩阵乘法ge
3) GAN的优缺点以及热Python门研究方向
GAN 的优点
- GAN通过一种博弈的方法来训架构师工资练,通过两个玩家的博弈从训练算法的时间复杂度取决于数据的分布中学会生成数据。
- GAN可python可以做什么工作以生成目前最好的样本,还可以做很多其他的事情。
GAN架构师证书 的缺点
- GAN没有显式的密度函数(它是利用样本来隐式表矩阵达该函数)
- GAN不好训练且不稳定,python安装教程我们并不是直接优化目标函数,我们要努力地平衡两个网络。
GAN 的热门研究方法
- 更好的损失函数设计,更稳定的训练方式(例如Wapython安装教程sserstein GAN, LSGAN及其他)
- 条件GAN,GAN的各种应算法的五个特性用领域探索
3.拓展学习
可以点击 B站 查看视频的【双语字幕】版本
- 【课程学习指南】斯坦福CS231n | 深度学习与计算机视觉
- 【字幕+资料下载】斯坦福CS231n | 深度学习与计算机视觉 (2017全16讲)
- 【python语言CS231n进阶课】密歇根EECS498 | 深度学习与计算机视觉
- 【矩阵的逆深度学习教程】吴恩达专项课程 全套笔记解读
- 【Stanford官网】CS231n: Deep Lea架构图rning for Computer Vpython123平台登录ision
4.要点总结
本篇讲了三种目前最常用生成模型:
- PixelCNN 和 PixelRNN 他们是显式密度模型,该模型优化的是一个显式的似然函数并产生良好的样本,但是效率很低,它是一个顺序的生成过程。
- VAE 优化的是一个似然函数的下界,它会产生一个有用的隐式表征,可以用它来算法的五个特性进行查询推断,生成的样本也不是特别好。
- GAN 是目前能生成最好样本的算法的五个特性模型,但是训练需要技巧且不稳定,查询推断上也有一些问题。算法导论
- 还有一些将模型的优点结合起来做的研究。
ShowM矩阵和行列式的区别eAI 斯坦福 CS231n 全套解读
- 深度学习与计算机python123视觉教程(1) | CV引言与基础 @CS231n
- 深度学习与计算机视觉教程(2) | 图像分类与机器学习基础 @CS231n
- 深度学习算法的空间复杂度是指与计算机视觉教程(3python是什么意思) | 损失函数与最优化 @CS231n
- 深度学习与计算机视觉教程(4) | 神经网络与反向传播 @CS231n
- 深度学习与计算机视觉教程(5) | 卷积神经网络 @CS231n
- 深度学习与计算机视觉教程(6) | 神经网算法工程师络训练技矩阵相乘怎么算巧 (上) @CS231n
- 深度学习与计算机视觉教程(7) | 神经网络训练技巧 (下) @CS231n
- 深度学习与计算机视算法的特征觉教程(8) | 常见深度学习框架介绍 @CS231n
- 深度学习与计算机视觉教程(9算法的时间复杂度取决于) | 典型CNN架构 (Alexnet, VGG, GooglPythonenet, Restnet等) @CSpython123平台登录231n
- 深度学习与计算机视觉教程(10) | 轻量化架构师CNN架构 (SqueezeNet, Shuff算法的五个特性leNet, Mobpython编程ileNet等) @CS231n
- 深度学算法导论习与计算机视觉教程(11) | 循环神经网络及视觉应用 @CS231n
- 深度学习与计算机视觉教程(12) | 目标检测 (两阶段, R-CNN系列) @CS231n
- 深度学习与计算机视觉教程(13) | 目标检测 (SSD, YOLO架构图怎么制作系列) @CS231n
- 深度学习与计算机视觉教程(14) | 图像算法分析的目的是分割 (FCN, SegNet, U-Net, PSP算法分析的目的是Net, DeepL算法是指什么ab, RefineNet) @CS231n
- 深度学习与计算机视矩阵游戏觉教程(15) | 视觉模型可视化与可解释性 @CS231n
- 深度学习与计算机视觉教程(16) | 生成模型 (PixelRNN, Pixelpython可以做什么工作CNN, VAE, GAN) @CS231架构图怎么制作n
- 深度学习与计算机视觉教程(17) | 深度强化学习 (马尔可夫决策过程, Q-Learning, DQN) @CS231n
- 深度学习与计算机视算法导论觉教程(18) | 深度强化学习 (梯度策略, Actor-Critic, DD算法是指什么PG, A3算法分析的目的是C) @CS231n
ShowMeAI 系列教程推荐
- 大厂技术实现:推荐与广告计算解决矩阵方案
- 大厂技术实现:计算机算法分析的目的是视觉解决方案
- 大厂技术实现:自然语机器学习言处理行业解决方案
- 图解Python编程:从入门到精通系列python可以做什么工作教程
- 图解数据分析:从入门到精通系列教程
- 图解AI数学基础:从入门到精通系列教程
- 图解大算法的时间复杂度取决于数据技术:从入门到精通系列教程
- 图解机器学习算法:从入门到精通系列教程
- 机器学习实战:手把手教你玩转机器学习系列
- 深度学习教程:吴恩达专项课程 全套笔记解读
- 自然语言处理教程:斯坦福CS224n课程 课程带学与全套笔记解读
- 深度学习与计算机视觉架构是什么意思教程:斯坦福CS231n 全套笔记解读