Machine Learning torchtracer:一个管理 PyTorch AI 实验项目的工具 在使用 pytorch 框架进行机器学习(尤其是深度学习)实验时,经常需要考虑如何保存以下实验数据: - 模型的 checkpoints - 每次训练的 hyper-parameters - 训练过程中的各种变化参数及其图像(loss, accuracy, learning-rate 等) 除此之外,[Keras](https://keras.io/) 之类的其他框架在 fit 时会有一个表示训练进度的进度条,而 pytorch 原生并没有。
Tech 在 pytorch 中建立自己的图片数据集 通常情况下,待处理的图片数据有两种存放方式: 所有图片在同一目录下,另有一份文本文件记录了标签。 不同标签的图片放在不同目录下,文件夹名就是标签。 对于这两种情况,我们有不同的解决方法。
Tech 使用 Spatial Pyramid Pooling 让 CNN 接受可变尺寸的图像 在传统 CNN 中,由于 Fully-Connected 层的存在,输入图像的尺寸受到了严格限制。通常情况下,我们需要对原始图片进行裁剪(crop)或变形(warp)的操作来调整其尺寸使其适配于 CNN。然而裁剪过的图片可能包含不了所需的所有信息,而改变纵横比的变形操作也可能会使关键部分产生非期望的形变。由于图片内容的丢失或失真,模型的准确度会受到很大的影响。
Tech 卷积神经网络入门 传统神经网络模型不能很好适应整张2维图片。比如一张 32×32×3(长32-宽32-RGB) 的彩色图片,在传统模型中第一层输入为了读入整张图片就需要 32×32×3 = 3072 个神经元,也就是有 3027 组参数,在这个简单的小图数据集(比如 CIFAR-10)好像看上去还能接受,但是一旦图片变成 200×200 的分辨率,就有 120,000 组参数了,这显然是训练时难以接受的。
Tech LSTM - 你还记得吗?该忘的就忘了吧。 一时兴起,来推导一下 LSTM(Long Short Term Memory - 长短期记忆)…… 在处理序列型数据时,我们常常使用循环神经网络(RNN),这正是 LSTM 的前身。