书接上回,上篇文章介绍了 7 种学习率的调整策略,PyTorch 1.11 版本中共有 14 种,本篇文章接着介绍剩下的 7 种学习率调整策略。 lr_scheduler.CosineAnnealin...
torch.optim.lr_scheduler 提供了动态调整学习率的方法。在使用的时, Learning Rate Scheduler 一般在优化器的更新参数之后调用。另外,我们也可以在程序中使用...
STL-10 是一个用于图像识别和生成任务的数据集,训练集共计 5000 张图片,测试集共计 8000 张,另外包含 100000 张无标签图像,适用于无监督和半监督学习。图像尺寸为 96×96,适合...
PEGASUS 是一种编码器-解码器模型,接下来我们基于开源的 PEGASUS 预训练模型来微调自己的生成式文本摘要模型。感谢 https://huggingface.co/IDEA-CCNL 给开源...
伯努利朴素贝叶斯(Bernoulli Naive Bayes)分类器是一种基于贝叶斯定理的概率分类器,常用于处理文本分类等离散数据。它假设特征之间是条件独立的,并且每个特征都遵循伯努利分布,即每个特征...
Sobel 算子是一种常用的图像处理工具,它描述了图像中每个像素点处的亮度或颜色值变化方向和强度。它通常用于分析图像的边缘、纹理、形状和其他特征。 在二维图像中,梯度通常是两个分量的矢量,分别表示在水...
局部敏感哈希索引(Locality-Sensitive Hashing,LSH)是一种用于高维数据检索的技术,特别适用于近似最近邻搜索(Approximate Nearest Neighbor Sea...
AUC(Area Under the Curve)是一种常用二分类评估方法,它指的是 ROC 曲线(Receiver Operating Characteristic Curve)下的面积。 1. R...
门控循环单元(Gated Recurrent Unit, GRU)是一种改进的循环神经网络(RNN)架构,旨在解决传统 RNN 在处理长序列时面临的梯度消失问题。GRU 由 KyungHyun Cho...
长短期记忆网络(Long Short-Term Memory,LSTM)是一种特殊的循环神经网络(RNN),与传统的 RNN 相比,在处理涉及较长距离时间依赖的任务中表现出更强的能力。 1. 算法原理...
循环神经网络(Recurrent Neural Network, RNN)是一类用于处理序列数据的神经网络。 什么是序列数据?序列数据是指按照一定顺序排列的数据集合,其中的每个元素被称为序列的一个项。...
自动混合精度是一种能够提升训练效率的方法。它通过减少训练过程中的显存使用,从而提高 batch_size 大小,加快模型训练。在 PyTorch 中张量默认使用的是 float32 类型,如果我们能够...
Gradio 包含很多预构建的组件,可作为交互界面的输入或输出控件,用一行代码即可在 Interface 或 Blocks 中使用。这些组件包括预处理步骤和后处理步骤: 每个组件还支持某些事件,这些事...
1. 进度条 2. 会话保持 Gradio 会话保持(Session State)是指在用户会话过程中,保存用户请求的数据。这对于需要跟踪用户状态、或在用户交互中保留上下文的应用程序非常有用。 3. ...
Blocks 是 Gradio 库中的一个用来自定义构建交互式 web app 的模块。它相较于 Interface 而言,更加底层,能够用来构建更复杂的应用。ChatInterface 可用来便捷构...
ChatInterface 是 Gradio 提供的一个专门用于构建聊天应用的类,它可以帮助你创建一个交互式的对话系统,支持用户输入和模型的实时响应。这个接口非常适合构建聊天机器人、问答系统或其他对话...
Gradio 是一个用于构建机器学习模型交互式界面的 Python 库。它的主要目标是简化机器学习模型的部署和展示,使非技术用户能够轻松地与模型进行交互。 官方文档:https://www.gradi...
在 Gradio 中,Interface 是用于构建和展示机器学习模型。通过 Interface,你可以轻松地创建一个交互式的 Web 界面,让用户能够输入数据并查看模型或函数的输出,而不需要编写复杂...
Qwen2.5-0.5B-Instruct 是阿里云 Qwen 团队开发的 Qwen2.5 系列语言模型中的一个指令微调模型,参数规模为 0.5B,类型为因果语言模型,经过了预训练(Pretraini...
AutoAWQ(Automatic Aware Quantization)是一个基于 AWQ(Activation-aware Weight Quantization for LLM) 算法的自动化量...
本文将从零开始,详细讲解如何使用递归神经网络(RNN/GRU/LSTM)实现文本情感分类。我们将基于 PyTorch 从头构建一个模型,并应用于情感分析任务。内容涵盖数据预处理、构建词汇表、分词器、模...
近年来,随着大型语言模型(LLM)的发展,基于文本语义的图像检索技术取得了显著进步。这些模型通过理解复杂的自然语言描述,能够更准确地捕捉文本的语义,从而提高检索的精度和效率。 基于文本语义的图像检索是...
对抗生成网络(Generative Adversarial Network)是一种深度学习模型,它通过两个神经网络生成器(Generator)和判别器(Discriminator)之间的对抗过程进行训...
本教程介绍了 FastAPI 的基本使用,包括接口定义、数据模型、数据校验、依赖注入、中间件及接口文档。通过示例代码,展示了如何快速构建高性能 API 服务,适用于入门学习和实际开发。 GitHub:...
在 Transformer 模型中,输入的词向量是没有顺序信息的,比如:我爱你 和 你爱我 两个含义不同句子,在注意力计算时,每个 Token 的表示是相同的,即:模型理解这两个句子的含义是相同的,这...
在 Python 中,不可序列化对象 指的是无法直接使用 pickle 等序列化模块转换为可存储或传输格式的对象。常见的不可序列化对象包括: 下面,我们介绍两种方法来处理包含这些不可序列化对象的序列化...
变分自编码器(VAE)是一种深度生成模型。它主要由 编码器(Encoder) 和 解码器(Decoder) 两部分组成: 1. 基本思想 假设模型想要知道如何生成一张图像,首先得知道该图像的分布,例如...
在自然语言处理(NLP)里,中英翻译是个常见的任务。但中文和英文在 语法、词序、表达方式 上差别很大,所以想要让机器做好翻译并不容易。不过,随着大模型技术的发展,这个难题已经比以前简单了很多。 现在,...
对联是中国传统文化中的一项独特艺术形式,它不仅要求上下句字数相同,还要对仗工整、意义相对。随着人工智能和自然语言处理技术的进步,如何让机器自动生成符合对联规律的文本,变得越来越有趣也越来越可行。接下来...