『NLG学习』(二)教你搭建自己的Transformer

本文围绕Transformer展开,先介绍其相较CNN与RNN的优势,如并行计算、自注意力机制等。接着讲解构建Transformer的五个零件及算法,包括嵌入、位置编码、掩码等。还给出了数据预处理、各组件实现及组装训练的代码,展示了结果,提及进步与不足,指出位置编码处理欠佳。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

『nlg学习』(二)教你搭建自己的transformer - 创想鸟

Abstract(摘要)

在transformer出现之前,主要的序列转导模型是基于复杂的递归或卷积神经网络,其中包括一个编码器和一个解码器。性能最好的模型也通过一个注意力机制来连接编码器和解码器。然而,好景不长,谷歌的大佬们提出了transformer,一来可以进行并行计算,提高训练推理速度;二来可以加入了自注意力机制,可以更好的关注序列间的时间维度上的关系。transformer同时兼备了CNN与RNN的优点,既实现了参数局部共享,降低了参数量(CNN最大的特点),同时又可以关注序列中的任意两个单词间的依赖关系,彻底解决了RNN对于长期依赖关系的无力感,真可谓万物皆可联。但很遗憾的是,谷歌大佬们的这篇attention is all you need写的太过晦涩,很难读懂,因此笔者查阅了各种资料,才将transformer略微搞懂。下面让我们开始transformer的学习吧~

Introduction(介绍)

transformer摒弃了原先的CNN与RNN的架构,仅仅使用了全连接层与自注意力机制,因此训练速度很快。同时在encoder部分,我们对src进行并行计算,与使用RNN相比,速度也有了大大的提升。那么,要搭建一个我们自己的transformer,需要五个零件,分别是

Embedding the inputsThe Positional EncodingsCreating MasksThe Multi-Head Attention layerThe Feed-Forward layer

下面让我们一步步地开始学习吧

Algorithm(算法)

1)Embedding

嵌入单词目前已成为主流的做法,嵌入向量蕴含的信息量远比one-hot向量大的多。而且实作也很简单,直接调用API即可。当每个单词输入网络时,此代码将执行查找并检索其嵌入向量。 然后,这些向量将被模型作为参数学习,并随梯度下降的每次迭代进行调整。

2)position-encoding

刚才的embedding是为了让机器理解单词的意思,这一步是为了让机器理解各个单词的位置。当然,其实这一步本论文处理得不是很好,只是使用了三角函数进行了映射,当然这只是权宜之计,下面让我们看看作者的做法。

『NLG学习』(二)教你搭建自己的Transformer - 创想鸟        

这是该trick的示意图,行为pos,列为i

『NLG学习』(二)教你搭建自己的Transformer - 创想鸟        

这就是本文的位置编码,虽然直观感觉这很离谱,但实作起来效果还行.下面是大佬画出的示意图,显示了大佬对于该编码方式的不解。当然具体实现见下面的Implement部分。『NLG学习』(二)教你搭建自己的Transformer - 创想鸟        

算出位置编码之后,我们就可以将位置编码与变换后的嵌入向量相加。

至于这里为什么要将嵌入向量进行变换,除以根号d_k,有大佬认为这是一个经验trick。简单的说就是原本的嵌入向量的值偏小,而位置编码的值可以视为[-1,1],如果带入d_k的值,除以根号d_k,位置编码的范围可以缩小为[-0.307,0.307],那么相加后可以缓解嵌入向量受到的影响。

详情大家可以看一下大佬的原话知乎大佬

3)create our mask

说到掩码(mask),我们就不得不提一下注意力机制了,所谓掩码,即遮掩住部分信息,在本文中,我们在encoder部分需要将填充的pad部分进行遮掩,毕竟学习了大半天,总不能让机器只关注pad吧,那也太离谱了。而在实际运算中,因为要保证矩阵的一致性,我们需要加入pad,因此使用了掩码这个折中的方法。但是,在decoder部分,我们不止需要对pad进行遮掩,我们还要遮住机器的眼睛,不能让机器在生成的时候看到之后的单词。举个栗子,就好比我们不能在考试的时候一边让考生看答案,一边考试吧,肯定要把答案藏起来丫。在这里也是同样的意思,只不过操作有点骚,使用了下三角矩阵,行和列都是句子的长度sen_len,笔者当时也不能理解,直到。。。这里要感谢闫哥哥对我的指导,即在训练过程中,机器是一次性预测出所有句子的,因此没有时间步上的差距。矩阵的每一行只负责一步的预测结果,当然这里肯定是异步操作的。矩阵的列,代表了机器对一个序列的第一位的预测,第一列即对序列第一位的预测,第二列即对序列第二位的预测。

下面是掩码的一个栗子

『NLG学习』(二)教你搭建自己的Transformer - 创想鸟        

4)MutiHeadAttention

这里到了本项目最核心的地方,自注意力机制。要理解多头注意力,我们首先要理解最初的Scaled Dot-Product Attention,而要理解Scaled Dot-Product Attention,我们首先通俗地了解一下,到底什么是注意力,什么是自注意力。举个栗子,假设我们进行经典的文本翻译,src为“我是中国人”,trg为“I am Chinese”。

一般情况下的注意力:机器会关注我与I的关系,中国人与Chinese的关系。自注意力:机器会关注我与中国人的关系,I与Chinese的关系。

好,了解了自注意力的通俗含义,我们再来理解自注意力的计算过程。

Levity Levity

AI帮你自动化日常任务

Levity 206 查看详情 Levity

『NLG学习』(二)教你搭建自己的Transformer - 创想鸟        

首先,我们将嵌入向量与三个矩阵进行点乘,得到query,key,value三个新向量,这里query是待匹配的向量,key是被匹配的向量,然后将query与key进行点乘,得到它们的匹配程度,然后将是pad这个token的地方进行遮掩,根据我们先前得到的掩码,之后使用softmax进行大小的缩放,最后将结果与value进行点乘,即机器到底要注意哪些内容。注意,这里都是矩阵的点乘运算,实际上发生的过程解决了RNN的一大瓶颈,q0与k0,k1,k2…进行相乘,在将q1与k0,k1,k2…进行相乘,这个操作的意义太伟大了,它代表每两个单词之间都会计算他们的关系,即使距离再遥远,它们的相对距离也只是n(1),堪称触手可及。

这是query,key,value向量计算的示意图

『NLG学习』(二)教你搭建自己的Transformer - 创想鸟        

『NLG学习』(二)教你搭建自己的Transformer - 创想鸟        

下面再讲讲自注意力的进阶版本,多头注意力,这里对q,k,v三个向量进行切分,分为heads份,每一份都去做刚才的attention计算,最后再将它们进行拼接,这极大程度上提高了机器注意力的效果。

『NLG学习』(二)教你搭建自己的Transformer - 创想鸟        

这是整个多头注意力的流程示意图

『NLG学习』(二)教你搭建自己的Transformer - 创想鸟        

看到这里,该为你自己祝贺了,五个零件的讲解还剩最后一个非常简单的操作,让我们开始吧~

5)FeedForward

这个零件很简单,就是将输入经过一个全连接层,在经过一个ReLU激活,再通过一个全连接层,结束了~~~

组装

零件制作完了,下面就是组装了,具体大家可以看下面的实现

EncoderLayer与DecoderLayerEncoder与DecoderTransformer

transformer的整体架构

『NLG学习』(二)教你搭建自己的Transformer - 创想鸟        

Implement(实作)

数据预处理

In [1]

import numpy as npimport re#将无效字符去掉with open("data/data86810/human_chat.txt","r",encoding="utf-8") as f:    data=f.read().replace("Human 1"," ").replace("Human 2"," ").replace("."," ").replace("*"," ").replace("@"," ").replace("^"," ").replace("&"," ").replace("!"," ").replace("#"," ").replace("$"," ").replace("?"," ").replace(";"," ").replace(":"," ").replace(","," ").replace('"',' ').replace("%"," ").replace("/"," ").replace("@"," ").replace("("," ").replace(")"," ").replace("'"," ").lower()data=list(data.split("n"))#print(len(data))lst=[]#分割出单词,连成序列for obj in data:    sen=list(obj.split(" "))    lst.append(sen)#print(len(lst))#将字符连接起来,制作字典string=" ".join(data)#将特殊字符添入string1="pad sos eos"#合并字符串string=string+string1#string=string.replace(''," ")#使用正则分割,防止有多个空格words=re.split(" +",string)#使用集合,防止单词重复words=list(set(words))print(len(words))#获取字典dic=dict([(word,i) for i,word in enumerate(words)])#存储对话序列index_data=[]#每句话的长度,短句添加"pad",长句切至30sen_len=30for i,sen in enumerate(lst):    #token映射至index,并防止出现空字符    sen=[dic[word] for word in sen if word!='']    #在开头添加"sos"    sen.insert(0,dic["sos"])    while len(sen)<sen_len-1:        #填充"pad",防止长度不够        sen.append(dic["pad"])    #切取sen_len-1个词    sen=sen[:sen_len-1]    #末尾添加"eos"    sen.append(dic["eos"])    #将ask与answer分割    if i%2==0:        one=[]        one.append(sen)    else:        one.append(sen)        index_data.append(one)#print(len(index_data))index_data=np.array(index_data)print(index_data.shape)print(index_data[0])#挑一个看看效果ask,ans=index_data[3]#将index序列转化为字符串ask_str=[words[i] for i in ask]ans_str=[words[i] for i in ans]print(ask_str)print(ans_str)#print(dic)

   

定义超参

In [2]

#单词嵌入的维度d_model=512#多头自注意力的个数heads=8#batch大小batch_size=128#encoder或decoder有多少层N=8#词典大小vocab_size=len(dic)dropout=0.1

   

定义数据读取器

In [3]

import paddlefrom paddle.io import Dataset,DataLoaderimport paddle.nn as nnimport randomclass Mydataset(Dataset):    def __init__(self,index_data,dic):        super(Mydataset, self).__init__()        self.index_data=index_data        self.dic=dic    def __getitem__(self,index):        ask_data,ans_data=self.index_data[index]        #ask部分倒序,引入更多短期依赖关系        ask_data,ans_data=ask_data[:][::-1],ans_data        return ask_data,ans_data    def __len__(self):        return self.index_data.shape[0]#实例化读取器dataset=Mydataset(index_data,dic)#封装为迭代器dataloader=DataLoader(dataset,batch_size=batch_size,shuffle=True,drop_last=True)#看看效果ask,ans=next(dataloader())print(ask)

   

Embedding

In [4]

import paddleimport paddle.nn as nn#定义嵌入层class Embedder(nn.Layer):    def __init__(self,vocab_size,d_model):        super(Embedder, self).__init__()        self.emb=nn.Embedding(vocab_size,d_model)    def forward(self,x):        x=paddle.to_tensor(x,dtype="int64")        return self.emb(x)

   

PositionalEncoder

In [5]

import mathclass PositionalEncoder(nn.Layer):    def __init__(self,d_model,max_seq_len=80):        #d_model为嵌入维度        super(PositionalEncoder, self).__init__()        self.d_model=d_model        #保持位置编码与嵌入向量的形状可以相同        #嵌入向量[batch,sen_len,d_model]        #位置编码[max_seq_len,d_model]        #下面经过调整与广播使两者形状相同        position=paddle.zeros([max_seq_len,d_model])        #行为pos        for pos in range(max_seq_len):            #列为i            for i in range(d_model,2):                #公式                position[pos,i]=paddle.sin(pos/(10000**(2*i/d_model)))                position[pos,i+1]=paddle.cos(pos/(10000**((2*i+1)/d_model)))        self.position=position    def forward(self,x):        #对嵌入向量进行放缩,原因在前面的理论部分已讲        x=x*math.sqrt(self.d_model)        seq_len=x.shape[1]        #调整大小        x=x+self.position[:seq_len,:]        return xx=paddle.randn([128,30,512])# model=PositionalEncoder(512)# print(model(x))

   

Create mask

In [6]

def create_mask(src,trg):    #得到pad的token    pad=dic["pad"]    #得到对应的布尔矩阵    input_mask=src!=pad    #True->1,False->0    input_mask=paddle.cast(paddle.to_tensor(input_mask),dtype="int64")        #得到trg的布尔矩阵    trg_mask=trg!=pad    trg_mask=paddle.cast(paddle.to_tensor(trg_mask),dtype="int64")    #初始化掩码矩阵(下三角)    nopeak_mask=paddle.ones(trg.shape)    for i in range(trg.shape[0]):        for j in range(trg.shape[1]):            #下三角            nopeak_mask[i,j]=(i>=j)    nopeak_mask=paddle.cast(paddle.to_tensor(trg_mask),dtype="int64")    #将两个掩码矩阵相加    trg_mask=trg_mask+nopeak_mask    return input_mask,trg_maskask_mask,ans_mask=create_mask(ask,ans)print(ans_mask)

   

计算Attention

In [7]

import paddle.nn.functional as Fdef attention(q,k,v,d_k,mask=None,dropout=dropout):    #q:query,k:key,v:value,d_k:d_model//heads    #得到q与k的相似程度并做放缩    #print(q.shape,k.shape)    similarity=paddle.matmul(q.transpose([0,3,1,2]),k.transpose([0,3,2,1]))/math.sqrt(d_k)    similarity=similarity.transpose([0,2,3,1])    if mask is not None:        #广播        mask=mask.unsqueeze(-1).unsqueeze(-1)        #print(mask.shape)        #print(similarity.shape)        mask=paddle.broadcast_to(mask,similarity.shape)        mask=paddle.cast(mask,dtype="int64")        #得到布尔矩阵        zero_one=mask==0        #调整无需注意的地方为负无穷        similarity[zero_one.numpy()]=-1e9    #对矩阵值进行softmax,使sum为1    similarity=F.softmax(similarity)    drop=nn.Dropout(dropout)    similarity=drop(similarity)    #求出对每个单词注意的程度    atten=paddle.matmul(similarity.transpose([0,3,1,2]),v.transpose([0,3,1,2]))    return attenq=k=v=paddle.randn([batch_size,sen_len,8,64])print(attention(q,k,v,8,ask_mask).shape)

   

MutiHeadAttention

In [8]

class MutiHeadAttention(nn.Layer):    def __init__(self,d_model,heads,dropout=dropout):        super(MutiHeadAttention, self).__init__()        self.d_model=d_model        self.h=heads        self.d_k=d_model//heads        #线性变换        self.q_linear=nn.Linear(d_model,d_model)        self.k_linear=nn.Linear(d_model,d_model)        self.v_linear=nn.Linear(d_model,d_model)        self.dropout=dropout        self.out=nn.Linear(d_model,d_model)    def forward(self,q,k,v,mask):        batch_size=q.shape[0]        #求得query,key,value向量,并分组给各个头注意力        self.q=self.q_linear(q).reshape([batch_size,-1,self.h,self.d_k])        self.k=self.k_linear(k).reshape([batch_size,-1,self.h,self.d_k])        self.v=self.v_linear(v).reshape([batch_size,-1,self.h,self.d_k])                #获取注意的程度        atten=attention(self.q,self.k,self.v,self.d_k,mask,self.dropout)        atten=atten.reshape([batch_size,-1,self.d_model])        out=self.out(atten)        return out# model=MutiHeadAttention(512,8,0.1)# x=paddle.randn([batch_size,sen_len,512])# y=model(x,x,x,ask_mask)# print(y.shape)

   

FeedForward

In [9]

class FeedForward(nn.Layer):    def __init__(self,d_model,d_ff=2048,dropout=dropout):        super(FeedForward, self).__init__()        #两个全连接,一个ReLU        self.model=nn.Sequential(            nn.Linear(d_model,d_ff),            nn.ReLU(),            nn.Dropout(dropout),            nn.Linear(d_ff,d_model)        )    def forward(self,x):        return self.model(x)# model=FeedForward(512,2048)# x=paddle.randn([batch_size,sen_len,512])# y=model(x)# print(y.shape)

   

组装

EncoderLayer

In [10]

class EncoderLayer(nn.Layer):    def __init__(self,d_model,heads,dropout=dropout):        super(EncoderLayer, self).__init__()        #归一化层        self.norm1=nn.LayerNorm(d_model)        self.norm2=nn.LayerNorm(d_model)        #多头自注意力层        self.attention=MutiHeadAttention(d_model,heads,dropout)        #前馈层        self.feedforward=FeedForward(d_model,dropout=dropout)        self.drop1=nn.Dropout(dropout)        self.drop2=nn.Dropout(dropout)    def forward(self,x,mask):        y=self.norm1(x)        #残差块,防止梯度消失        x=x+self.drop1(self.attention(y,y,y,mask))        y=self.norm2(x)        #残差块,防止梯度消失        x=x+self.drop2(self.feedforward(y))        return x# model=EncoderLayer(d_model,heads)# x=paddle.randn([batch_size,sen_len,d_model])# y=model(x,ask_mask)# print(y.shape)

   

DecoderLayer

In [11]

class DecoderLayer(nn.Layer):    def __init__(self,d_model,heads,dropout=dropout):        super(DecoderLayer, self).__init__()        #归一化层        self.norm1=nn.LayerNorm(d_model)        self.norm2=nn.LayerNorm(d_model)        self.norm3=nn.LayerNorm(d_model)                #掩码自注意力层与前馈层        self.attention1=MutiHeadAttention(d_model,heads,dropout)        self.attention2=MutiHeadAttention(d_model,heads,dropout)        self.feedforward=FeedForward(d_model,dropout=dropout)        self.drop1=nn.Dropout(dropout)        self.drop2=nn.Dropout(dropout)        self.drop3=nn.Dropout(dropout)    def forward(self,x,encoder_output,src_mask,trg_mask):        #x=paddle.broadcast_to(x,encoder_output.shape)        y=self.norm1(x)        #残差块        #这里为多头注意力层        x=x+self.drop1(self.attention1(y,y,y,trg_mask))        y=self.norm2(x)        #这里为掩码多头注意力,同时将encoder的output输入        x=x+self.drop2(self.attention2(y,encoder_output,encoder_output,src_mask))        y=self.norm3(x)        #前馈        x=x+self.drop3(self.feedforward(y))        return x# model=DecoderLayer(d_model,heads)# x=paddle.randn([batch_size,sen_len,d_model])# e_output=paddle.randn([batch_size,sen_len,d_model])# y=model(x,e_output,ask_mask,ans_mask)# print(y.shape)

   

定义拷贝函数

In [12]

import copydef clone_module(module,N):    return nn.LayerList([copy.deepcopy(module) for i in range(N)])# module=EncoderLayer(d_model,heads)# print(clone_module(module,3))

   

Encoder

In [13]

class Encoder(nn.Layer):    def __init__(self,vocab_size,d_model,heads,N):        super(Encoder, self).__init__()        #总体的层数        self.N=N        self.emb=Embedder(vocab_size,d_model)        #位置编码层        self.posi_encoder=PositionalEncoder(d_model)        #注意力加前馈多层重叠        self.layers=clone_module(EncoderLayer(d_model,heads),N)        self.norm=nn.LayerNorm(d_model)    def forward(self,src,mask):        x=self.emb(src)        x=self.posi_encoder(x)        for i in range(self.N):            x=self.layers[i](x,mask)        x=self.norm(x)        return x# model=Encoder(vocab_size,d_model,heads,N)# x=paddle.randn([batch_size,sen_len])# y=model(x.astype("int64"),ask_mask.astype("int64"))# print(y.shape)

   

Decoder

In [14]

class Decoder(nn.Layer):    def __init__(self,vocab_size,d_model,heads,N):        super(Decoder, self).__init__()        self.N=N        self.emb=Embedder(vocab_size,d_model)        self.posi_encoder=PositionalEncoder(d_model)        self.layers=clone_module(DecoderLayer(d_model,heads),N)        self.norm=nn.LayerNorm(d_model)    def forward(self,trg,encoder_output,src_mask,trg_mask):        x=self.emb(trg)        x=self.posi_encoder(x)        #调整数据类型        x,encoder_output=x.astype("float32"),encoder_output.astype("float32")        for i in range(self.N):            x=self.layers[i](x,encoder_output,src_mask,trg_mask)        x=self.norm(x)        return x# model=Decoder(vocab_size,d_model,heads,N)# x=paddle.randint(0,vocab_size,[batch_size,sen_len])# en_output=paddle.randn([batch_size,sen_len,d_model])# y=model(x.astype("int64"),en_output,ask_mask,ans_mask)# print(y.shape)

   

Transformer

In [15]

class Transformer(nn.Layer):    def __init__(self,vocab_size,d_model,heads,N):        super(Transformer, self).__init__()        #初始化        nn.initializer.set_global_initializer(nn.initializer.XavierNormal(),nn.initializer.Constant(0.))        #编码器        self.encoder=Encoder(vocab_size,d_model,heads,N)        #解码器        self.decoder=Decoder(vocab_size,d_model,heads,N)        #全连接        self.out=nn.Linear(d_model,vocab_size)    def forward(self,src,trg,src_mask,trg_mask):        encoder_output=self.encoder(src,src_mask)        decoder_output=self.decoder(trg,encoder_output,src_mask,trg_mask)        output=self.out(decoder_output)        return outputmodel=Transformer(vocab_size,d_model,heads,N)y=model(ask,ans,ask_mask,ans_mask)print(y.shape)

   In [16]

def trans(out):    out=F.softmax(out,axis=-1)    seq=out.argmax(axis=-1)    sen=seq[100,:]    sen=[words[i] for i in sen]    sen=" ".join(sen)    return sen

   

开启训练

In [ ]

num_epoch=1000learning_rate=1e-4pad=dic["pad"]model=Transformer(vocab_size,d_model,heads,N)opt=paddle.optimizer.Adam(parameters=model.parameters(),learning_rate=learning_rate,beta2=0.98,epsilon=1e-9)for epoch in range(num_epoch):    for i,(src,trg) in enumerate(dataloader()):        model.train()        #获取掩码        src_mask,trg_mask=create_mask(src,trg)        #获取预测值        pred=model(src,trg,src_mask,trg_mask)        #展开        trg_=trg.reshape([-1])        #展开        pred_=pred.reshape([-1,pred.shape[-1]])        #求损失,并去除pad的影响        loss=F.cross_entropy(pred_,trg_,ignore_index=pad)        opt.clear_grad()        loss.backward()        opt.step()        if i%10==0:            print("epoch:%d,i:%d,loss:%f,perlexity:%f"%(epoch,i,loss,math.exp(loss)))            print(trans(pred))    #print(answer(model,index_data[random.randint(0,700),0]))    if (epoch+1)%2==0:        paddle.save(model.state_dict(),"work/transformer.pdparams")

   

结果展示

In [19]

model=Transformer(vocab_size,d_model,heads,N)state_dict=paddle.load("work/transformer.pdparams")model.load_dict(state_dict)ask,ans=next(dataloader())src_mask,trg_mask=create_mask(ask,ans)pred=model(ask,ans,src_mask,trg_mask)ask_1,ask_2,ask_3=ask[1],ask[10],ask[100]ask_1,ask_2,ask_3=[words[i] for i in ask_1],[words[i] for i in ask_2],[words[i] for i in ask_3]ask_1,ask_2,ask_3=" ".join(ask_1)," ".join(ask_2)," ".join(ask_3)ans_1,ans_2,ans_3=pred[1],pred[10],pred[100]ans_1,ans_2,ans_3=ans_1.argmax(-1),ans_2.argmax(-1),ans_3.argmax(-1)ans_1,ans_2,ans_3=[words[i] for i in ans_1],[words[i] for i in ans_2],[words[i] for i in ans_3]ans_1,ans_2,ans_3=" ".join(ans_1)," ".join(ans_2)," ".join(ans_3)print("Human1:",ask_1)print("Human2:",ans_1)print("##############")print("Human1:",ask_2)print("Human2:",ans_2)print("##############")print("Human1:",ask_3)print("Human2:",ans_3)

       

Human1: eos pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad here do you did what sosHuman2: sos oh everything jigglypuff ideas to an conversations the fish market disney land and giant robot fighting show haha pad pad pad pad pad pad pad pad pad pad push##############Human1: eos pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad like look saturday your does what sure sosHuman2: sos saturday looks social good impersonate we shoot for regardless in the morning pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad push##############Human1: eos pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad it like you do work of lot a like sounds that sosHuman2: sos well jigglypuff actually innovation pulled college photography but it s really expected pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad pad push

       

进步与不足与彩蛋

可以看到结果还是喜人的,比起上一期的seq2seq,使用了注意力机制使得模型预测的句子的多样性与规范性有了大大的提升。当然,有时也会出一点小毛病,不停地输出同一个词。经分析,通过加大炼丹的轮数,可以改善这一现象,使其出现的频率降低,或者减少句子的长度。也可以进行算法的进一步改进,通过对时间维度的进一步优化(下期预告:复现李宏毅老师的StepGAN,一个糅合了GAN的神妙,DRL的奥妙,以及自注意力机制的美妙,让我们尽请期待),可以解决这一问题

Disadvantage(缺点)

positional encoder未能解决位置的编码,transformer只关注了单词的含义以及单词间的相互关系,但是对于单词在句子中原本的位置,处理的不是很好,只是用很离谱的三角函数缓解了一下

以上就是『NLG学习』(二)教你搭建自己的Transformer的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/740905.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月25日 15:22:29
下一篇 2025年11月25日 15:22:53

相关推荐

  • 如何解决PHP中货币数值处理和格式化难题,使用Spryker/Money让财务计算更精确

    最近在开发一个电商平台时,我遇到了一个让人头疼的问题:如何精确地处理和展示商品价格、订单总额等货币数值。PHP中的浮点数计算众所周知地不可靠(比如 0.1 + 0.2 并不严格等于 0.3 ),这在财务计算中是绝对不能接受的。更麻烦的是,我们的平台面向全球用户,这意味着我需要根据不同的国家和地区,以…

    开发工具 2025年12月5日
    000
  • HiDream-I1— 智象未来开源的文生图模型

    hidream-i1:一款强大的开源图像生成模型 HiDream-I1是由HiDream.ai团队开发的17亿参数开源图像生成模型,采用MIT许可证,在图像质量和对提示词的理解方面表现卓越。它支持多种风格,包括写实、卡通和艺术风格,广泛应用于艺术创作、商业设计、科研教育以及娱乐媒体等领域。 HiDr…

    2025年12月5日
    000
  • 如何在Laravel中集成支付网关

    在laravel中集成支付网关的核心步骤包括:1.根据业务需求选择合适的支付网关,如stripe、paypal或支付宝等;2.通过composer安装对应的sdk或laravel包,如stripe/stripe-php或yansongda/pay;3.在.env文件和config/services.…

    2025年12月5日
    300
  • Java中死锁如何避免 分析死锁产生的四个必要条件

    预防死锁最有效的方法是破坏死锁产生的四个必要条件中的一个或多个。死锁的四个必要条件分别是互斥、占有且等待、不可剥夺和循环等待;其中,互斥通常无法破坏,但可以减少使用;占有且等待可通过一次性申请所有资源来打破;不可剥夺可通过允许资源被剥夺打破;循环等待可通过按序申请资源解决。此外,reentrantl…

    2025年12月5日 java
    300
  • js如何实现剪贴板历史 js剪贴板历史管理的4种技术方案

    要实现js剪贴板历史,核心在于拦截复制事件、存储复制内容并展示历史记录。1. 使用document.addeventlistener(‘copy’)监听复制事件,并通过e.clipboarddata.getdata获取内容;2. 用localstorage或indexeddb…

    2025年12月5日 web前端
    100
  • 如何在Laravel中实现缓存机制

    laravel的缓存机制用于提升应用性能,通过存储耗时操作结果避免重复计算。1. 配置缓存驱动:在.env文件中设置cache_driver,如redis,并安装相应扩展;2. 使用cache facade进行缓存操作,包括put、get、has、forget等方法;3. 使用remember和pu…

    2025年12月5日
    000
  • Java中Executors类的用途 掌握线程池工厂的创建方法

    如何使用executors创建线程池?1.使用newfixedthreadpool(int nthreads)创建固定大小的线程池;2.使用newcachedthreadpool()创建可缓存线程池;3.使用newsinglethreadexecutor()创建单线程线程池;4.使用newsched…

    2025年12月5日 java
    000
  • js如何解析XML格式数据 处理XML数据的4种常用方法!

    在javascript中解析xml数据主要有四种方式:原生domparser、xmlhttprequest、第三方库(如jquery)以及fetch api配合domparser。使用domparser时,创建实例并调用parsefromstring方法解析xml字符串,返回document对象以便…

    2025年12月5日 web前端
    100
  • 解决WordPress博客首页无法显示页面标题的问题

    摘要:本文针对WordPress主题开发中,使用静态页面作为博客首页时,home.php无法正确显示页面标题的问题,提供了详细的解决方案。通过使用get_the_title()函数并结合get_option(‘page_for_posts’)获取文章页面的ID,从而正确显示博…

    2025年12月5日
    000
  • 如何在Laravel中处理表单提交

    在laravel中处理表单提交的步骤如下:1. 创建包含正确method、action属性和@csrf指令的html表单;2. 在routes/web.php或routes/api.php中定义路由,如route::post(‘/your-route’, ‘you…

    2025年12月5日
    100
  • WordPress博客首页无法显示页面标题的解决方案

    本教程旨在解决WordPress主题开发中,使用静态首页和博客页面展示最新文章时,home.php无法正确获取页面标题和特色图像的问题。通过使用get_the_title()函数并结合get_option(‘page_for_posts’)获取博客页面的ID,可以确保博客首页…

    2025年12月5日
    000
  • 126邮箱官网登录入口网页版 126邮箱登录首页官网

    126邮箱官网登录入口网页版为https://mail.126.com,用户可通过邮箱账号或手机号快速注册登录,支持密码找回、扫码验证;页面适配多设备,具备分栏式收件箱、邮件筛选、批量操作及星标分类功能;附件上传下载支持实时进度与断点续传,兼容多种文件格式预览。 126邮箱官网登录入口网页版在哪里?…

    2025年12月5日
    100
  • 曝小米已终止澎湃OS 2全部开发工作!聚焦澎湃OS 3

    CNMO从海外媒体获悉,小米已全面停止对澎湃OS 2的所有开发进程,集中力量推进下一代操作系统——澎湃OS 3的开发与发布准备。 据最新消息,澎湃OS 3有望于今年8月或9月正式亮相。初步资料显示,新系统将重点提升用户界面的精致度、系统动画的流畅性以及整体运行性能。小米方面强调,将确保现有设备用户能…

    2025年12月5日
    000
  • Swoole与gRPC的集成实践

    将swoole与grpc集成可以通过以下步骤实现:1. 在swoole的异步环境中运行grpc服务,使用swoole的协程服务器处理grpc请求;2. 处理grpc的请求与响应,确保在swoole的协程环境中进行;3. 优化性能,利用swoole的连接池、缓存和负载均衡功能。这需要对swoole的协…

    2025年12月5日
    000
  • js怎样实现粒子动画效果 炫酷粒子动画的3种实现方式

    实现炫酷的粒子动画可通过以下三种方式:1. 使用 canvas 实现基础 2d 粒子动画,通过创建 canvas 元素、定义粒子类、使用 requestanimationframe 创建动画循环来不断更新和绘制粒子;2. 使用 three.js 实现 3d 粒子动画,借助 webgl 渲染器、场景、…

    2025年12月5日 web前端
    000
  • AI 赋能云电脑智变升级 中兴通讯助力中国移动共绘端云算网新生态

    ☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜ 2025中国移动云智算大会在苏州举行,中兴通讯与中国移动携手展示基于AI技术的云电脑创新成果,彰显双方在智能算力领域的深度合作。 大会集中展示了涵盖训练及推理集群、智算网络和智慧终端的全场景智算…

    2025年12月5日
    000
  • Java中MANIFEST.MF的作用 详解清单文件

    manifest.mf是java中jar文件的元数据配置文件,位于meta-inf目录下,用于定义版本、主类、依赖路径等关键信息。1. 它允许指定入口类,使jar可直接运行;2. 通过class-path管理依赖,减少类加载冲突;3. 可配置安全权限,如设置沙箱运行;4. 常见属性包括manifes…

    2025年12月5日 java
    000
  • OPPO Find X9系列新机首发ColorOS 16 10月16日发布

    10月14日,oppo正式宣布:find x9系列将全球首个搭载全新coloros 16操作系统。该系统在ai智能记录、跨平台互联以及便捷传输等功能上实现全方位进化。 OPPO Find X9 据CNMO消息,ColorOS 16全新推出的“AI一键闪记”功能,支持视频、账单、图片及语音内容的快速捕…

    2025年12月5日
    000
  • 直播带货新玩法揭秘 + AI 无人直播技术赋能:零压力实现收益翻倍

    ai无人直播不能完全取代真人主播,而是作为补充和延伸;2. 它通过虚拟数字人结合nlp、cv、tts、asr和推荐算法等ai技术实现自动化直播;3. 核心优势在于24小时不间断运营、降低人力成本、提升转化效率;4. 可应用于答疑、长尾商品销售、非高峰时段引流等场景;5. 需与真人直播协同,通过数据反…

    2025年12月5日
    000
  • 8999 起?荣耀 Magic6 至臻版 / 保时捷设计今晚发布

    今晚将举行荣耀春季旗舰新品发布会,预计会推出荣耀 magic6 至臻版、荣耀 magic6 rsr 保时捷设计和荣耀首款 ai pc 荣耀 magicbook pro 16 三款新品。目前,官方主要对 magic6 至臻版和 magicbook pro 16 进行了预热,而荣耀 magic 6 rs…

    2025年12月5日 硬件教程
    000

发表回复

登录后才能评论
关注微信