当前位置: 首页 > news >正文

如何解决一堆向量的问题?10、Self-attention - -一叶知秋

接CNN

如何解决一堆向量的问题?

输入

一个单词一个编码,一句话是一堆向量

image-20251025125204312

声音信号是一堆向量

image-20251025125119619

一个图也是一堆向量

image-20251025125324458

image-20251025125419360

输出

输入多少,输出多少(Sequence labeling)

image-20251025125641156

输入很多,输出一个

image-20251025125742125

输入很多,但不知道输出多少,让机器自己决定

image-20251025125902222

输入多少,输出多少(Sequence labeling)

self-attention 会考虑所有的上下文,得到特定的向量

FC 是 fully connected

image-20251025130454441

self-attention 可以叠加很多次

image-20251025130620140

self-attention 是怎么运作的

image-20251025131555744

计算\(\alpha\)

\(w^q和W^k\)是两个矩阵,输入分别和\(w^q和W^k\)相乘得到矩阵q和k,q和k相乘得到\(\alpha\)

image-20251025131130382

计算完之后知道哪个和a1是最有关联性的 ,然后根据这个关联性抽取资讯

假如a1和a2关联性最大,最后得到的b1可能和a2比较接近

image-20251025131819192

完成上面的计算是一次性完成的(用矩阵)

image-20251027145723283

image-20251027145808618

同时可能有很多的特征\(q\)

image-20251027145900129

可以给每个输入加上一个位置positional Encoding

image-20251027150217300

Self-attention也可以做图像

如果把\(Self-attention\)加上一些限制就是CNN

image-20251027150335507

Self-attention VS RNN

RNN 会考虑前一个的输出,把前一个的输出当作下一个输入的一部分,而Self-attention是考虑全体

但是内存等有限,不可能全部一次性放入内存,则分批次

image-20251027150430055

Self-attention 也可以用在图上

只考虑有联系的,互相之间有路径可走的

image-20251027150747321

http://icebutterfly214.com/news/127/

相关文章:

  • 洞悉过往,一目了然:浅述视频融合平台EasyCVR如何实现海量视频录像的智能检索与高效回看
  • 2025年国内外五款AI编程工具深入对比与推荐排行
  • CSPS 前后的话
  • 2025 年 10 月云仓 ERP,云仓 saas 系统,云仓代发系统公司最新推荐,技术实力与市场口碑深度解析
  • iOS混淆实战用多工具组合把IPA加固做成可复用的工程能力(iOS混淆 IPA加固 无源码混淆
  • cyclonessd ROS2 lidar topic 数据丢帧 系统配置
  • 2025 年 10 月 WMS 系统,WMS 软件,wms 仓储管理系统公司最新推荐,聚焦资质、案例、售后的优质机构深度解读
  • Go语言测试全攻略:从单元测试到模糊测试
  • 2025 年 10 月进销存 erp,供应链 erp,零售 ERP 公司最新推荐,聚焦资质、案例、售后的五家机构深度解读!