• Zhang
  • 🇬🇧 EN
  • Weekly
  • About
  • Categories
Be yourself and don't go with the flow.

VoVNet论文解读

【2021-09-20】Youngwan Lee* 作者于 2019 年发表的论文 An Energy and GPU-Computation Efficient Backbone Network for Real-Time Object Detection. 是对 DenseNet 网络推理效率低的改进版本。

densenet 论文解读

【2021-09-15】在 DenseNet 中,让网络中的每一层都直接与其前面层相连,实现特征的重复利用。同时把网络的每一层设计得特别“窄”(特征图/滤波器数量少),即只学习非常少的特征图(最极端情况就是每一层只学习一个特征图),达到降低冗余性的目的。

resnet 网络详解

【2021-09-10】残差网络(ResNet)的提出是为了解决深度神经网络的“退化”(优化)问题。

ShuffleNetv2 论文详解

【2021-05-18】ShuffleNet v2 论文最大的贡献在于看到了 GPU 访存带宽(内存访问代价 MAC)对于模型推理时间的影响,而不仅仅是模型复杂度:FLOPs 和参数量 Params 对于推理时间的影响,并由此提出了 4 个轻量级网络设计的原则和一个新颖的 卷积 block 架构-ShuffleNet v2。

RepVGG 论文详解

【2021-05-10】RepVGG 是为 GPU 和专用硬件设计的高效模型,追求高速度、省内存,较少关注参数量和理论计算量。在低算力设备上,可能不如 MobileNet 和 ShuffleNet 系列适用。

MobileNetv1 论文详解

【2021-05-02】MobileNet 论文的主要贡献在于提出了一种深度可分离卷积架构(DW+PW 卷积),先通过理论证明这种架构比常规的卷积计算成本(Mult-Adds)更小,然后通过分类、检测等多种实验证明模型的有效性。

Pytorch基础-tensor数据结构

【2021-03-07】torch.Tensor 是一种包含单一数据类型元素的多维矩阵,类似于 numpy 的 array,本文详细介绍了 Tensor 的数据类型、属性以及如何创建。

Pytorch基础-张量数学运算

【2021-03-03】PyTorch 张量数学运算就是对张量的元素值完成数学运算,常用的张量数学运算包括:标量运算、向量运算、矩阵运算。

resnetv2 论文解读

【2021-03-01】resnetv2 的主要贡献在于通过理论分析和大量实验证明使用恒等映射(identity mapping)作为快捷连接(skip connection)对于残差块的重要性。

Pytorch 基础-张量结构操作

【2021-03-01】Pytorch 中张量的结构操作就是改变张量本身的结构,本文详细介绍了常使用的张量结构操作:维度变换(tranpose、view 等)、合并分割(split、chunk等)、索引切片(index_select、gather 等)的意义。
  • <
  • 1
  • …
  • 10
  • 11
  • 12
github Twitter RSS github 2015~2025