当前位置: 首页 > news >正文

如何解决一堆向量的问题?10、Self-attention - -一叶知秋

接CNN

如何解决一堆向量的问题?

输入

一个单词一个编码,一句话是一堆向量

image-20251025125204312

声音信号是一堆向量

image-20251025125119619

一个图也是一堆向量

image-20251025125324458

image-20251025125419360

输出

输入多少,输出多少(Sequence labeling)

image-20251025125641156

输入很多,输出一个

image-20251025125742125

输入很多,但不知道输出多少,让机器自己决定

image-20251025125902222

输入多少,输出多少(Sequence labeling)

self-attention 会考虑所有的上下文,得到特定的向量

FC 是 fully connected

image-20251025130454441

self-attention 可以叠加很多次

image-20251025130620140

self-attention 是怎么运作的

image-20251025131555744

计算\(\alpha\)

\(w^q和W^k\)是两个矩阵,输入分别和\(w^q和W^k\)相乘得到矩阵q和k,q和k相乘得到\(\alpha\)

image-20251025131130382

计算完之后知道哪个和a1是最有关联性的 ,然后根据这个关联性抽取资讯

假如a1和a2关联性最大,最后得到的b1可能和a2比较接近

image-20251025131819192

完成上面的计算是一次性完成的(用矩阵)

image-20251027145723283

image-20251027145808618

同时可能有很多的特征\(q\)

image-20251027145900129

可以给每个输入加上一个位置positional Encoding

image-20251027150217300

Self-attention也可以做图像

如果把\(Self-attention\)加上一些限制就是CNN

image-20251027150335507

Self-attention VS RNN

RNN 会考虑前一个的输出,把前一个的输出当作下一个输入的一部分,而Self-attention是考虑全体

但是内存等有限,不可能全部一次性放入内存,则分批次

image-20251027150430055

Self-attention 也可以用在图上

只考虑有联系的,互相之间有路径可走的

image-20251027150747321

http://www.fuzeviewer.com/news/127/

相关文章:

  • MCS-51中断系统
  • 触控感应芯片电容式触摸IC 4通道触控方案VK36N4D
  • 测试领域,苏州永创-STD2000X-半导体分立器件电参数测试仪系统能测试哪些元器件和参数 - FORCREAT
  • 2025年AI IDE的深入对比与推荐排行:从好用到生成效果的转变
  • 20232411 2025-2026-1 《网络与系统攻防技术》实验三实验报告
  • 2025 年 10 月进销存管理系统,进销存软件,进销存管理软件公司最新推荐,技术实力与市场口碑深度解析!
  • 常用数据管理工具与平台汇总
  • 2025年10月美国投资移民机构推荐榜:权威机构综合对比分析
  • 2025 年企业级 GPU 服务器,8 卡风扇 GPU 服务器,大模型训练 GPU 服务器厂家最新推荐,技术实力与市场口碑深度解析
  • 揭秘 MCP Streamable HTTP 协议亲和性的技术内幕
  • 2025年10月EB5投资移民中介评测榜:客观数据支撑的专业推荐
  • 2025年10月EB5投资移民中介评价报告:五强机构深度解析
  • 2025年氨水换热器源头厂家权威推荐榜单:板式换热器/缠绕管换热器/螺旋板换热器源头厂家精选
  • 权威媒体:得帆信息连续两年领跑iPaaS市占率