MediaPipe 是 Google 开源的跨平台、可定制化机器学习解决方案框架,专注于快速构建和部署实时多媒体(图像、视频、音频)处理应用,尤其在人体视觉分析任务(人脸识别、姿态检测、手势识别等)上...
GBDT(Gradient Boosting Decision Tree,梯度提升树)本质上是一个二分类模型。它通过不断迭代地拟合前一轮模型的负梯度,逐步提升模型的预测精度。在二分类任务中,GBDT ...
nn.Identity 是 PyTorch 中的一个层,它的作用是不做任何改变地传递输入数据。它在前向传播时会返回输入数据本身,而不对其进行任何处理或变换。 这样的一个实现,在大多数人看来似乎没有什么...
AlexNet 是 2012 年 ImageNet 竞赛冠军获得者 Hinton 和他的学生 Alex Krizhevsky 设计的。AlexNet 把CNN 的基本原理应用到了很深很宽的网络中。主要...
在自然语言处理(NLP)任务中,自动评估文本生成质量是一个核心问题。例如,在机器翻译、自动摘要、文本生成等任务中,我们需要度量生成文本与参考文本的相似度。Rouge(Recall-Oriented U...
线性回归是机器学习中的基础算法之一,通过最小化预测值和真实值之间的误差来拟合数据。在本教程中,我们将使用 PyTorch 从零开始构建一个线性回归模型,并拆解成关键部分,以便更好地理解 PyTorch...
卷积核(Convolution Kernel)是卷积神经网络(CNN)中的核心组件之一,通常用于图像处理和深度学习模型中。它是一个小的矩阵,用于对输入图像进行卷积操作,从而提取图像中的特征。卷积核通过...
Albert(A Lite Bert For Self-Supervised Learning Of Language Representations)是对 Bert 的改进,其主要思想就是用更少的参...
命名实体识别(Named Entity Recognition,简称 NER)是自然语言处理(NLP)中的一项重要任务,旨在从非结构化文本中识别并分类具有特定意义的实体,如人名、地名、机构名、时间表达...
当看到 weight decay 时,从字面意思看是权重参数衰减,很容易让人觉得它和 L2 正则化是等价的,因为 L2 正则化也能让权重变小。但实际上,两者的概念和实现位置并不相同。 L2 正则化通常...
书接上回,上篇文章介绍了 7 种学习率的调整策略,PyTorch 1.11 版本中共有 14 种,本篇文章接着介绍剩下的 7 种学习率调整策略。 lr_scheduler.CosineAnnealin...
torch.optim.lr_scheduler 提供了动态调整学习率的方法。在使用的时, Learning Rate Scheduler 一般在优化器的更新参数之后调用。另外,我们也可以在程序中使用...
PEGASUS 是一种编码器-解码器模型,接下来我们基于开源的 PEGASUS 预训练模型来微调自己的生成式文本摘要模型。感谢 https://huggingface.co/IDEA-CCNL 给开源...
STL-10 是一个用于图像识别和生成任务的数据集,训练集共计 5000 张图片,测试集共计 8000 张,另外包含 100000 张无标签图像,适用于无监督和半监督学习。图像尺寸为 96×96,适合...
伯努利朴素贝叶斯(Bernoulli Naive Bayes)分类器是一种基于贝叶斯定理的概率分类器,常用于处理文本分类等离散数据。它假设特征之间是条件独立的,并且每个特征都遵循伯努利分布,即每个特征...
Sobel 算子是一种常用的图像处理工具,它描述了图像中每个像素点处的亮度或颜色值变化方向和强度。它通常用于分析图像的边缘、纹理、形状和其他特征。 在二维图像中,梯度通常是两个分量的矢量,分别表示在水...
AUC(Area Under the Curve)是一种常用二分类评估方法,它指的是 ROC 曲线(Receiver Operating Characteristic Curve)下的面积。 1. R...
循环神经网络(Recurrent Neural Network, RNN)是一类用于处理序列数据的神经网络。 什么是序列数据?序列数据是指按照一定顺序排列的数据集合,其中的每个元素被称为序列的一个项。...
长短期记忆网络(Long Short-Term Memory,LSTM)是一种特殊的循环神经网络(RNN),与传统的 RNN 相比,在处理涉及较长距离时间依赖的任务中表现出更强的能力。 1. 算法原理...
门控循环单元(Gated Recurrent Unit, GRU)是一种改进的循环神经网络(RNN)架构,旨在解决传统 RNN 在处理长序列时面临的梯度消失问题。GRU 由 KyungHyun Cho...
自动混合精度是一种能够提升训练效率的方法。它通过减少训练过程中的显存使用,从而提高 batch_size 大小,加快模型训练。在 PyTorch 中张量默认使用的是 float32 类型,如果我们能够...
本文将从零开始,详细讲解如何使用递归神经网络(RNN/GRU/LSTM)实现文本情感分类。我们将基于 PyTorch 从头构建一个模型,并应用于情感分析任务。内容涵盖数据预处理、构建词汇表、分词器、模...
Qwen2.5-0.5B-Instruct 是阿里云 Qwen 团队开发的 Qwen2.5 系列语言模型中的一个指令微调模型,参数规模为 0.5B,类型为因果语言模型,经过了预训练(Pretraini...
AutoAWQ(Automatic Aware Quantization)是一个基于 AWQ(Activation-aware Weight Quantization for LLM) 算法的自动化量...
近年来,随着大型语言模型(LLM)的发展,基于文本语义的图像检索技术取得了显著进步。这些模型通过理解复杂的自然语言描述,能够更准确地捕捉文本的语义,从而提高检索的精度和效率。 基于文本语义的图像检索是...
对抗生成网络(Generative Adversarial Network)是一种深度学习模型,它通过两个神经网络生成器(Generator)和判别器(Discriminator)之间的对抗过程进行训...
变分自编码器(VAE)是一种深度生成模型。它主要由 编码器(Encoder) 和 解码器(Decoder) 两部分组成: 1. 基本思想 假设模型想要知道如何生成一张图像,首先得知道该图像的分布,例如...
在 Transformer 模型中,输入的词向量是没有顺序信息的,比如:我爱你 和 你爱我 两个含义不同句子,在注意力计算时,每个 Token 的表示是相同的,即:模型理解这两个句子的含义是相同的,这...
对联是中国传统文化中的一项独特艺术形式,它不仅要求上下句字数相同,还要对仗工整、意义相对。随着人工智能和自然语言处理技术的进步,如何让机器自动生成符合对联规律的文本,变得越来越有趣也越来越可行。接下来...
冀公网安备13050302001966号