在 PyTorch 中,使用 torch.utils.data.DataLoader 类可以实现批量的数据集加载,在我们训练模型中非常常用,其功能也确实比较强度大。由于其参数比较多,我们将会对其用法进行详解。 1. 基本...
目前业界公认的最好的激活函数是 swish 和 mish 函数,在保持原结构不变的基础上,直接将模型的激活函数换成 HardSwish 或 Mish 函数,都会使得模型的性能有所提升。 下图为 HardSwish 和 M...
ReLU(Linear rectification function,修正线性单元)在图像处理任务中使用最广泛的激活函数,它虽然具有一定的优势,但是也存在一些不足,由此出现了一些变种函数,例如:SoftPlus、Leak...
激活函数主要用来向神经网络中加入非线性因素,以解决线性模型表达能力不足的问题,它对神经网络有着极其重要的作用。我们的网络参数在更新时,使用的反向传播算法(BP),这就要求我们的激活函数必须可微。sigmoid 激活函数在...
线性回归是机器学习中的基础算法之一,通过最小化预测值和真实值之间的误差来拟合数据。在本教程中,我们将使用 PyTorch 从零开始构建一个线性回归模型,并拆解成关键部分,以便更好地理解 PyTorch 的使用方式。 1....
自动微分(Autograd)模块对张量做了进一步的封装,具有自动求导功能。自动微分模块是构成神经网络训练的必要模块,在神经网络的反向传播过程中,Autograd 模块基于正向计算的结果对当前的参数进行微分计算,从而实现网...
在很多领域需要进行向量相似度的计算。本篇文章主要介绍一些常见的方法: 曼哈顿距离 欧几里得距离 切比雪夫距离 闵可夫斯基距离 标准欧式距离 余弦相似度 点积相似度 1. 曼哈顿距离 曼哈顿距离指的是两个向量在各个维度上的...
下一个质心选取概率计算公式: 由计算结果,可以看到当以 6 为第一个质心时,1、2、3、4 被选择为下一个质心的概率更高,而 5、7、8 被选择为下一个质心的概率很低。 简言之:kmeans++ 算法有很高的概率选择距离...
TF-IDF(Term Frequency – Inverse Document Frequency)是一种用于信息检索与文本挖掘的常用技术。 通过 TF-IDF 我们可以实现: 1. 算法公式 TF-IDF...
1. KD 树构建 KD 树的构建需要确定两个问题: 选择使用那个维度作为分裂点: 随机选择 顺序选择 方差最大的维度 确定以当前维度那个值作为分裂点: 中位数 注意:如果中位数对应的不是一个具体的样本点,可以任意选择前...
在自然语言处理(NLP)任务中,自动评估文本生成质量是一个核心问题。例如,在机器翻译、自动摘要、文本生成等任务中,我们需要度量生成文本与参考文本的相似度。Rouge(Recall-Oriented Understudy ...
期望最大化算法(Expectation Maximization,EM) 是一种基于不完整、包含隐变量观测数据进行统计模型参数估计的方法。 我们知道,统计模型中的参数都需要根据观测数据集(训练数据)来进行估计。但是,在有...