Python 基于pytorch实现多头自注意力机制代码;Multiheads-Self-Attention代码实现




import torch
import torch.nn as nn
 
class MultiheadSelfAttention(nn.Module):
    def __init__(self, emb_dim, heads):
        super(MultiheadSelfAttention, self).__init__()
        self.emb_dim = emb_dim
        self.heads = heads
        self.dropout = nn.Dropout(0.1)
        self.key_projection = nn.Linear(emb_dim, emb_dim)
        self.query_projection = nn.Linear(emb_dim, emb_dim)
        self.value_projection = nn.Linear(emb_dim, emb_dim)
        self.output_projection = nn.Linear(emb_dim, emb_dim)
 
    def forward(self, query, key, value, mask=None):
        batch_size = query.shape[0]
        query_len = query.shape[1]
        key_len = key.shape[1]
 
        # Linear projection
        query = self.query_projection(query)
        key = self.key_projection(key)
        value = self.value_projection(value)
 
        # Split by heads
        query = query.view(batch_size, query_len, self.heads, -1)
        key = key.view(batch_size, key_len, self.heads, -1)
        value = value.view(batch_size, key_len, self.heads, -1)
 
        # Transpose for calculation
        query = query.transpose(2, 3)
        key = key.transpose(2, 3)
 
        # Calculate score
        score = torch.matmul(query, key)
        score = score / (self.emb_dim ** 0.5)
 
        # Masking
        if mask is not None:
            mask = mask.unsqueeze(1).repeat(1, self.heads, 1, 1)
            score.masked_fill_(mask == 0, -1e10)
 
        # Context
        context = torch.softmax(score, dim=-1)
        context = self.dropout(context)
 
        # Output
        output = torch.matmul(context, value)
        output = output.transpose(2, 3)
        output = output.contiguous()
        output = output.view(batch_size, query_len, self.emb_dim)
        output = self.output_projection(output)
 
        return output
 
# 示例用法
emb_dim = 512
heads = 8
attention = MultiheadSelfAttention(emb_dim, heads)
query = torch.randn(10, 8, emb_dim)  # 假设batch size为10,序列长度为8
key = value = query  # 这里,我们使用相同的输入作为key和value
output = attention(query, key, value)
print(output.shape)  # 输出: torch.Size([10, 8, 512])

这段代码定义了一个名为MultiheadSelfAttention的类,它实现了多头自注意力机制。类中包含了线性投影层和多头注意力的计算方法。在forward方法中,输入通过线性投影层,然后按照头数进行分割并转置,计算得分,应用掩码(如果提供),执行软最大值函数,再进行反转置操作以获得输出,最后通过线性投影层输出。这个类可以用于处理文本数据中的自注意力,

最后修改于:2024年08月16日 10:30

评论已关闭

推荐阅读

Vue中使用mind-map实现在线思维导图
2024年08月04日
VUE
Web前端最全Vue实现免密登录跳转的方式_vue怎么样不登录返回首页,最强技术实现
2024年08月04日
VUE
vue3 项目搭建教程(基于create-vue,vite,Vite + Vue)
2024年08月04日
VUE
Vue-颜色选择器实现方案——>Vue-Color( 实战*1+ Demo*7)
2024年08月04日
VUE
Vue项目卡顿慢加载?这些优化技巧告诉你!_vue数据多渲染卡顿
2024年08月04日
VUE
vue中的keep-alive详解与应用场景
2024年08月04日
VUE
Vue、React实现excel导出功能(三种实现方式保姆级讲解)
2024年08月04日
vue-office/docx插件实现docx文件预览
2024年08月04日
VUE
java调用js文件的两种方法(支持V8引擎)
2024年08月04日
JavaScript:解决计算精度问题/mathjs/bignumber.js/big.js/decimal.js
2024年08月04日
两周从爬虫小白变大神 _yjs_js_security_passport
2024年08月04日
JS笔记(对象、函数、数组)
2024年08月04日
Markdown.js:强大的纯JavaScript Markdown解析器
2024年08月04日
Vue项目:js模拟点击a标签下载文件并重命名,URL文件地址下载方法、请求接口下载文件方法总结。
2024年08月04日
vue 父组件怎么获取子组件里面的data数据
2024年08月04日
VUE
个人开发实现AI套壳网站快速搭建(Vue+elementUI+SpringBoot)
2024年08月04日
el-table 表格封装并改造实现单元格可编辑
2024年08月04日
none
nodejs环境下创建vue项目、SSH密钥登陆!!!
2024年08月04日
vue+quill+element-ui实现视频、图片上传及缩放保姆级教程,轻松使用富文本
2024年08月04日
【three.js】22. Imported Models导入模型
2024年08月04日