当前位置: 首页 > news >正文

苏州seo网站公司门店装修设计公司

苏州seo网站公司,门店装修设计公司,中山网站建设咨询,太原在建Title: BiFormer: Vision Transformer with Bi-Level Routing AttentionPaper: https://arxiv.org/pdf/2303.08810.pdfCode: https://github.com/rayleizhu/BiFormer 一、前言 众所周知#xff0c;Transformer相比于CNNs的一大核心优势便是借助自注意力机制的优势捕捉长距离… Title: BiFormer: Vision Transformer with Bi-Level Routing AttentionPaper: https://arxiv.org/pdf/2303.08810.pdfCode:  https://github.com/rayleizhu/BiFormer 一、前言 众所周知Transformer相比于CNNs的一大核心优势便是借助自注意力机制的优势捕捉长距离上下文依赖。正所谓物极必反在原始的 Transformer 架构设计中这种结构虽然在一定程度上带来了性能上的提升但却会引起两个老生常态的问题 内存占用大 计算代价高 因此有许多研究也在致力于做一些这方面的优化工作包括但不仅限于将注意力操作限制在 inside local windows, e.g., Swin transformer and Crossformer; axial stripes, e.g., Cswin transformer; dilated windows, e.g., Maxvit and Crossformer; Figure 1. Vanilla attention and its sparse variants. 让我们先简单的看下上图其中图(a)是原始的注意力实现其直接在全局范围内操作导致高计算复杂性和大量内存占用而对于图(b)-(d)这些方法通过引入具有不同手工模式的稀疏注意力来减轻复杂性例如局部窗口、轴向条纹和扩张窗口等而图(e)则是基于可变形注意力通过不规则网格来实现图像自适应稀疏性 总的来说作者认为以上这些方法大都是通过将 手工制作 和 与内容无关 的稀疏性引入到注意力机制来试图缓解这个问题。因此本文通过双层路由(bi-level routing)提出了一种新颖的动态稀疏注意力(dynamic sparse attention )以实现更灵活的计算分配和内容感知使其具备动态的查询感知稀疏性如图(f)所示。 此外基于该基础模块本文构建了一个名为BiFormer的新型通用视觉网络架构。由于 BiFormer 以查询自适应的方式关注一小部分相关标记而不会分散其他不相关标记的注意力因此它具有良好的性能和高计算效率。最后通过在图像分类、目标检测和语义分割等多项计算机视觉任务的实证结果充分验证了所提方法的有效性。 二、方法 Bi-Level Routing Attention 为了缓解多头自注意力(Multi-Head Self-Attention, MHSA)的可扩展性问题先前的一些方法提出了不同的稀疏注意力机制其中每个查询只关注少量的键值对而非全部。然而这些方法有两个共性问题 要么使用手工制作的静态模式无法自适应 要么在所有查询中共享键值对的采样子集无法做到互不干扰 为此作者探索了一种动态的、查询感知的稀疏注意力机制其关键思想是在粗糙区域级别过滤掉大部分不相关的键值对以便只保留一小部分路由区域这不就把冗余的信息干掉了吗老铁们。其次作者在这些路由区域的联合中应用细粒度的token-to-token注意力。 整个算法的伪代码流程如下所示 可以看到整个模块主要包含三个组件即 Region partition and input projection Region-to-region routing with directed graph Token-to-token attention 简单梳理下。假设我们输入一张特征图通过线性映射获得QKV其次我们通过领接矩阵构建有向图找到不同键值对对应的参与关系可以理解为每个给定区域应该参与的区域最后有了区域到区域路由索引矩阵 我们便可以应用细粒度的token-to-token注意力了。 具体的实现还是有些复杂可以参考代码慢慢理解这里看的也是云里雾里的。 Bi-Level Routing Attention 上面是 BRA 模块的示意图。从图中可以看出该方法是通过收集前 k 个相关窗口中的键值对并利用稀疏性操作直接跳过最不相关区域的计算来节省参数量和计算量。值得一提的是以上操作涉及 GPU 友好的密集矩阵乘法利于服务器端做推理加速。 BiFormer 基于BRA模块本文构建了一种新颖的通用视觉转换器BiFormer。如上图所示其遵循大多数的vision transformer架构设计也是采用四级金字塔结构即下采样32倍。 具体来说BiFormer在第一阶段使用重叠块嵌入在第二到第四阶段使用块合并模块来降低输入空间分辨率同时增加通道数然后是采用连续的BiFormer块做特征变换。需要注意的是在每个块的开始均是使用  的深度卷积来隐式编码相对位置信息。随后依次应用BRA模块和扩展率为  的 2 层 多层感知机(Multi-Layer Perceptron, MLP)模块分别用于交叉位置关系建模和每个位置嵌入。 上表展示了不同模型变体的网络宽度和深度。其中FLOP是基于  输入计算的。 三、实验 Table 2. Comparison of different backbones on ImageNet-1K. 所有模型都在分辨率为  的图像上进行训练和评估。其中星号表示该模型是使用标记标签进行训练的。据笔者所知这是在没有额外训练数据或训练技巧所能取得的最佳结果。此外使用基于标记的蒸馏技术BiFormer-S的准确率可以进一步提高到 ! 可以看到本文方法貌似对小目标检测效果比较好。这可能是因为BRA模块是基于稀疏采样而不是下采样一来可以保留细粒度的细节信息二来同样可以达到节省计算量的目的。 为了进一步了解双层路由注意力的工作原理作者将路由区域和注意力响应进行可视化。从图中我们可以清楚地观察到语义相关区域已被成功定位。例如在第一个场景中的街景所示如果查询位置在建筑物或树上则对应的路由区域覆盖相同或相似的实体。而在第二个室内场景中当我们将查询位置放在鼠标上时路由区域包含主机、键盘和显示器的一部分即使这些区域彼此不相邻。这意味着双层路由注意力可以捕获远距离对上下文依赖。 四、总结 本文提出了一种双层路由注意力模块以动态、查询感知的方式实现计算的有效分配。其中BRA模块的核心思想是在粗区域级别过滤掉最不相关的键值对。它是通过首先构建和修剪区域级有向图然后在路由区域的联合中应用细粒度的token-to-token注意力来实现的。值得一提的是该模块的计算复杂度可压缩至 最后基于该模块本文构建了一个金字塔结构的视觉Transformer——BiFormer它在四种流行的视觉任务、图像分类、目标检测、实例分割和语义分割方面均表现出卓越的性能。
http://icebutterfly214.com/news/18987/

相关文章:

  • mongodb报错Sort exceeded memory limit of 104857600 bytes
  • 【Linux dbus】2-dbus发送消息(以创建方法调用为例)的过程
  • test first
  • Java项目常用异常处理场景与实战指南
  • 100小时学会SAP—问题8:财务凭证行项目BSEG及对应的六张表
  • 树剖
  • 10-25
  • Day14综合案例一--热词
  • 在React中实现路由跳转
  • 2025 11 4+11 5
  • ASP.NET Core Blazor 核心功能三:Blazor与JavaScript互操作——让Web开发更灵活
  • NOIP2025模拟2 改题记录
  • 网页打包EXE/APK/IPA出现乱码时怎么回事?
  • Ai元人文:个人阐述疏漏声明与系统性术语修正说明
  • NOIP 2022 T3 建造军营 小结
  • [KaibaMath]1019 关于收敛数列拉链定理的证明
  • deepseek-ocr部署
  • 郑州西亚斯学院举办智能体创新大赛
  • CSP 2025 游记总结
  • 如何选择一个人工智能项目
  • 从编码到部署:5大AI工具盘活你的全栈开发流程
  • 2025年智能家居产品品牌推荐排行 top 5
  • Web3 去魅:写给程序员和普通人的技术解读
  • 2025 年安全触边厂家最新推荐榜:聚焦品质服务商,结合权威测评与市场口碑的全面选购指南防爆灵敏安全触边/无人车安全触边公司推荐
  • 国家育儿补贴怎么领?领多少?AiPy 计算器帮你一键查询(附计算器生成教程)
  • Day12背景属性---拆封写法与复合写法
  • 2025 年胰岛素泵厂家排行榜权威发布,实力厂家技术与口碑全景解析及选购指南软针植入 / 平衡式留置针 / 无异物感胰岛素泵公司推荐
  • 2025年冷链食品冷库供货厂家权威推荐榜单:食品级冷库/食品速冻冷库/保鲜食品冷库源头厂家精选
  • 在 Ubuntu 中创建一个拥有 root 权限的 mjroot 用户并禁用root用户
  • 低功耗LCD段码液晶驱动 VKL144A/B LCD驱动厂家