TextCNN 网络是使用卷积神经网络来解决 NLP 任务的一种网络模型,它利用了了多分支的卷积核来对文本进行特征提取,所以也可以叫多分支的卷积神经网络。 在做图像处理时,我们一般都是使用多通道的相同的 kernel s...
在带有注意力机制的 Encoder-Decoder 模型中存在很多注意力机制,本篇文章根据原始论文对 Bahdanau 注意力计算方法和 Luong 注意力计算方法进行总结。 Bahdanau Attention Luo...
PGN 网络可用于文本生成,文本生成任务是从序列到序列的模型,马上就想到了 Seq2Seq 架构的模型。当我们要实现一个文本摘要的文本生成任务时,基本思路是什么样的呢? 输入一串文本到编码器,提取句子的语义表示向量 由解...
jieba 和 textrank4zh 两个工具很方便实现关键词提取,textrank4zh 还能够进行关键句子抽取实现抽取式文本摘要。 jieba 和 textrank4zh 工具关键词的提取是基于 TextRank ...
池化层 (Pooling) 降低维度, 缩减模型大小,提高计算速度. 另外一个作用可以缓解卷积层对位置的敏感性. 池化层主要有两种: 最大池化 平均池化 1. 池化层计算 最大池化: max(0, 1, 3, 4) ma...
在计算机视觉领域, 往往我们输入的图像都很大,使用全连接网络的话,计算的代价较高. 另外图像也很难保留原有的特征,导致图像处理的准确率不高. 卷积神经网络(Convolutional Neural Network)是含有...
实现的步骤如下: 构建词典 构建数据对象 构建文本生成模型 编写训练函数 编写预测函数 1. 构建词典 我们在进行文本生成任务之前,首先就要构建词典,通过词典实现将词到索引的映射,或者通过索引到词的映射。我们构建词典使用...
自然语言是用来表达含义的系统,词是其基本单元。在计算机处理中,我们需要把自然语言中的词进行数值化,才能够让计算机识别处理。 最简单的将词进行词嵌入的方法是:one hot 编码。根据词的数量 N,构建一个全 0 的向量,...
网络参数初始化的优劣在极大程度上决定了网络的最终性能。比较推荐的初始化方式有 He 初始化是,将参数初始化为服从高斯分布或均匀分布的较小随机整数,同时对参数方差加以规范化。 处于稳定状态下的神经网络,其参数和数据均值为 ...
神经网络模型一般都是靠随机梯度下降算法进行训练和参数更新。网络的收敛效果很大程度上受到网络参数初值的影响。不合理的网络参数初始化,可能会导致 “梯度消失” 或者 “梯度爆炸”...
传统的梯度下降优化算法中,可能会碰到以下情况: 碰到平缓区域,梯度值较小,参数优化变慢 碰到 “鞍点” ,梯度为 0,参数无法优化 碰到局部最小值 对于这些问题, 出现了一些对梯度下降算法的优化方...
神经网络的训练有时需要几天、几周、甚至几个月,为了在每次使用模型时避免高代价的重复训练,我们就需要将模型序列化到磁盘中,使用的时候反序列化到内存中。 PyTorch 提供了两种保存模型的方法: 直接序列化模型对象 存储模...