PyTorch入门学习(一)Dataset类代码实战
本笔记跟随字母站UP主我是土堆《PyTorch深度学习快速入门教程》,作为随堂笔记。本节课学习Dataset类代码实战,包括但不限于数据处理以及工具的使用。
本笔记跟随字母站UP主我是土堆《PyTorch深度学习快速入门教程》,作为随堂笔记。本节课学习Dataset类代码实战,包括但不限于数据处理以及工具的使用。
跟随字母站李沐大神《动手学深度学习v2》课堂笔记。学习N维数组相关知识、数据操作及数据预处理。
补充对于assert、torch.nn.Parameter() 、.item()、numpy.pad、torch.meshgrid、torch.stack函数的知识。
补充对于tensor的维度变换知识,包括view、reshape、squeeze、unsqueeze、expand、repeat及转置的知识。
本笔记跟随字母站UP主霹雳吧啦Wz《卷积神经网络基础》,作为随堂笔记。学习Transformer中的Self-Attention以及Multi-Head Attention。
本笔记跟随字母站UP主霹雳吧啦Wz《卷积神经网络基础13.1和13.2》,作为随堂笔记。学习Apple 2021年发表的MobileViT。
本笔记跟随字母站UP主霹雳吧啦Wz《卷积神经网络基础13.1和13.2》,作为随堂笔记。看ConvNeXt对标Swin Transformer怎么给卷积神经网络拉回场子。
本笔记跟随字母站UP主霹雳吧啦Wz《卷积神经网络基础12.2》,作为随堂笔记。学习使用Pytorch搭建Swin-Transformer网络(学到人傻了,后续需要不断完善这篇博文)
本笔记跟随字母站UP主霹雳吧啦Wz《卷积神经网络基础12.1》,作为随堂笔记。本节课学习Swin-Transformer网络的具体结构,包括Patch partition,Windows Multi-head Self-Attention(W-MSA), Shifted Windows Multi-head Self-Attention(SW-MSA), 相对位置偏执(relative position bias)等。
本笔记跟随字母站UP主霹雳吧啦Wz《卷积神经网络基础11.2》,作为随堂笔记,使用pytorch搭建Vision Transformer(vit)模型。
本笔记跟随字母站UP主霹雳吧啦Wz《卷积神经网络基础11.1》,作为随堂笔记。本节课学习Vision Transformer(vit)网络详解
本笔记跟随字母站UP主霹雳吧啦Wz《卷积神经网络基础10.2》,作为随堂笔记,使用pytorch搭建EfficientNetV2网络。