标签: 机器学习
-
机器学习基础-监督学习-线性回归之最小二乘法
最小二乘法是一种常用的线性回归办法,用于拟合数据并找到最优的模型参数。它经过最小化实践观测值与模型猜测值之间的残差平方和来确认最优参数。以下是对最小二乘法的详细解说,包含公式和代码示例。
-
机器学习基础-监督学习-线性回归之梯度下降法
梯度下降法(Gradient Descent)是一种常用的优化算法,用于求解丢失函数的最小值。它经过迭代更新模型参数,沿着丢失函数梯度的反方向逐步调整参数,直到到达最优解。下面是梯度下降法的详细解说,包括算法原理、公式以及示例代码。
-
强化学习从基础到进阶–案例与实践[8]:近端策略优化(proximal policy optimization,PPO)算法
强化学习从基础到进阶–事例与实践[8]:近端战略优化(proximal policy optimization,PPO)算法
-
机器学习基础-监督学习-目标函数之感知器损失(Perceptron Loss)
感知器丢失(Perceptron Loss)是一种用于二分类问题的方针函数,基于感知器算法(Perceptron Algorithm)。感知器算法是一种简略的线性分类算法,其方针是找到一个线性超平面,将正负样本正确地分开。
-
机器学习基础-监督学习-目标函数之平均绝对误差(Mean Absolute Error,MAE)
均匀绝对误差(Mean Absolute Error,MAE)是一种用于衡量回归问题中猜测值与实在值之间均匀绝对差异的目标函数。它能够衡量猜测值与实在值之间的均匀误差巨细,具有较好的鲁棒性。下面详细解说 MAE,并供给一个示例代码和公式。