https://docs.python.org/3.8/c-api/ 导出函数: setup.py 文件: Python 调用文件: 程序运行结果:
我们简单介绍下,C/C++ 编写的扩展函数,导入到 Python 中使用。步骤如下: 编写使用 Python/C API 编写 C/C++ 函数 编写 setup.py 文件 编译安装 C/C++ 扩展程序 程序环境:M...
在 Python 中使用 ctypes 模块可以很轻松定义 C 类型的变量,以及调用 C/C++ 函数. 1. 基础类型变量 程序输出结果: 2. 指针类型变量 程序输出结果: 3. Python 调用 C 函数 编写 ...
神经网络的训练有时需要几天、几周、甚至几个月,为了在每次使用模型时避免高代价的重复训练,我们就需要将模型序列化到磁盘中,使用的时候反序列化到内存中。 PyTorch 提供了两种保存模型的方法: 直接序列化模型对象 存储模...
Transformer 是谷歌在 2017 年的论文 《Attention Is All you Need》中提出的一种新架构,它在多项 NLP 任务上效果很不错,训练速度也比 RNN 更快。目前 Transformer...
PyTorch 提供了两种损失函数的使用方法:函数形式、模块形式,函数形式的损失函数定义在 torch.nn.functional 库中,使用时传入神经网络的预测值和目标值来计算损失,模型形式是通过构建一个模块的实例对象...
1. pad_sequence pad_sequence 函数通过填充的方式,将同一个 batch 中的 sequences 通过默认填充 0 的方式,变成最长 sequence 的长度,如下所示: 上图中,有 3 个句...
在 NLP 任务中主要处理带有序列关系的文本数据,这就需要了解循环(递归)神经网络。下图是一个简单的循环神经网络: 网络中包含一个神经元,但是它具有不同的时间步,能够提取出句子的顺序信息,将其展开如下图所示: h 表示 ...
我们都知道增加网络的宽度和深度可以很好提高网络的性能,深的网络一般都比浅的的网络效果好。比如,一个深的网络 A 和一个浅的网络 B,那 A 的性能至少都能跟 B一样,为什么呢? https://arxiv.org/abs...
在训深层练神经网络时,由于模型参数较多,在数据量不足的情况下,很容易过拟合。Dropout 就是在神经网络中一种缓解过拟合的方法。 我们知道,缓解过拟合的方式就是降低模型的复杂度,而 Dropout 就是通过减少神经元之...
BP (Back Propagation)算法也叫做误差反向传播算法,它用于求解模型的参数梯度,从而使用梯度下降法来更新网络参数。它的基本工作流程如下: 通过正向传播得到误差,所谓正向传播指的是数据从输入到输出层,经过层...
在 PyTorch 中,使用 torch.utils.data.DataLoader 类可以实现批量的数据集加载,在我们训练模型中非常常用,其功能也确实比较强度大。由于其参数比较多,我们将会对其用法进行详解。 1. 基本...
在 C++11 标准中引入的 default 关键字,主要用于在类的声明中显式指定编译器生成默认的特殊成员函数实现。这些特殊成员函数包括: 1. 默认构造 https://en.cppreference.com/w/cp...
《垃圾邮件识别器》(六)数据处理
2017-12-09阅读(5930)
Faiss 向量检索库
2023-10-06阅读(4871)
《垃圾邮件识别器》(一)准备工作
2017-12-14阅读(4854)
《垃圾邮件识别器》(四)算法理论
2017-12-11阅读(4047)
《垃圾邮件识别器》(七)训练评估
2017-12-09阅读(4041)
jieba 工具使用
2019-02-13阅读(3771)
《垃圾邮件识别器》(五)Scikit-Learn
2017-12-10阅读(3740)
Windows Protobuf 编译安装
2024-05-27阅读(3731)
《垃圾邮件识别器》内容摘要
2017-12-15阅读(3235)
《垃圾邮件识别器》(二)Tkinter
2017-12-13阅读(3118)
向量数据库 milvus 使用
2023-03-11阅读(3051)
BERT
2022-05-04阅读(3048)
C++ 运行时类型识别(RTTI)
2020-12-25阅读(2905)
权重衰减(Weight Decay)
2022-05-28阅读(2865)
《垃圾邮件识别器》(三)界面搭建
2017-12-12阅读(2856)
《垃圾邮件识别器》(八)收尾工作
2017-12-08阅读(2821)
XGBoost 解决多分类问题
2023-03-30阅读(2820)
最新评论