【NLP+Android】AI 对联 APP

该项目是对联生成系统的升级版本,从简单界面可视化升级为Android APP。项目用Seq2seq框架,先处理对联数据,建立语料库和字典,划分数据集并封装。接着搭建Encoder、AttentionLayer等网络组件,定义损失函数和超参数后训练模型。还涉及模型预测及动态图转静态图,最后进行Android开发,生成opt模型并编写相关代码实现功能。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

【nlp+android】ai 对联 app - 创想鸟

项目简介

该项目是我之前精品项目使用Seq2seq框架搭建对联生成系统的升级版本。在之前的项目中,我仅实现了简单的界面可视化,现在升级到了Android APP,嘿嘿!

安卓代码及APP下载地址:点我

APP界面如下图所示:

【NLP+Android】AI 对联 APP - 创想鸟        

In [1]

import ioimport osimport numpy as npimport paddleimport paddlenlpfrom functools import partialfrom paddle.static import InputSpec

   

1.数据处理

In [2]

data_in_path="/home/aistudio/data/data110057/fixed_couplets_in.txt"data_out_path="/home/aistudio/data/data110057/fixed_couplets_out.txt"

   In [3]

def openfile(src):    with open(src,'r',encoding="utf-8") as source:        lines=source.readlines()    return lines

   In [4]

data_in=openfile(data_in_path)data_out=openfile(data_out_path)

   In [5]

print(len(data_in))print(len(data_out))print(data_in[0])print(data_out[0])print(len(data_in[0]))

       

744915744915腾 飞 上 铁 , 锐 意 改 革 谋 发 展 , 勇 当 千 里 马 和 谐 南 供 , 安 全 送 电 保 畅 通 , 争 做 领 头 羊 37

       In [6]

def delete_newline_and_space(lista):     newlist=[]    for i in range(len(lista)):        newlist.append([""]+lista[i].strip().split()+[''])    return newlist

   In [7]

data_in_nospace=delete_newline_and_space(data_in)data_out_nospace=delete_newline_and_space(data_out)print(data_in_nospace[0])print(data_out_nospace[0])

       

['', '腾', '飞', '上', '铁', ',', '锐', '意', '改', '革', '谋', '发', '展', ',', '勇', '当', '千', '里', '马', '']['', '和', '谐', '南', '供', ',', '安', '全', '送', '电', '保', '畅', '通', ',', '争', '做', '领', '头', '羊', '']

       

计算最长的对联长度couplet_maxlen,并将该长度+2作为向量长。不足进行填充。

In [8]

couplet_maxlen=max([len(i) for i in data_in_nospace])couplet_maxlen

       

34

               

1.1 建立语料库、字符转id的字典和id转字符的字典

字符主要指的是汉字,当然还有标点

有个问题: 输入输出的语料库是二者分别建立一个,还是二者一起建立一个?

在这里建立一个统一的语料库进行实验。(毕设的时候我是分开建的,不知道哪个做法正确)

In [9]

def bulid_cropus(data_in,data_out):    crpous=[]    for i in data_in:        crpous.extend(i)    for i in data_out:        crpous.extend(i)    return crpous

   In [10]

def build_dict(corpus,frequency):    # 首先统计不同词(汉字)的频率,使用字典记录    word_freq_dict={}    for ch in corpus:        if ch not in word_freq_dict:            word_freq_dict[ch]=0        word_freq_dict[ch]+=1        # 根据频率对字典进行排序    word_freq_dict=sorted(word_freq_dict.items(),key=lambda x:x[1],reverse=True)            word2id_dict={}    id2word_dict={}        # 按照频率,从高到低,开始遍历每个单词,并赋予第一无二的 id    for word,freq in word_freq_dict:        if freq>frequency:            curr_id=len(word2id_dict)            word2id_dict[word]=curr_id            id2word_dict[curr_id]=word        else:             # else 部分在 使 单词 指向unk,对于汉字,我们不设置unk,令frequency=0            word2id_dict[word]=1    return word2id_dict,id2word_dict

   In [11]

word_frequency=0word2id_dict,id2word_dict=build_dict(bulid_cropus(data_in_nospace,data_out_nospace),word_frequency)

   

词汇量大小

In [12]

word_size=len(word2id_dict)id_size=len(id2word_dict)print("汉字个数:",word_size,"n id个数:",id_size)

       

汉字个数: 9017  id个数: 9017

       In [13]

with open("word2id.txt",'w',encoding='utf-8') as w2i:    for k,v in word2id_dict.items():        w2i.write(str(k)+","+str(v)+'n')with open("id2word.txt",'w',encoding='utf-8') as w2i:    for k,v in id2word_dict.items():        w2i.write(str(k)+","+str(v)+'n')

   In [14]

print(word2id_dict[''])print(word2id_dict[''])

       

10

       

创建 tensor

In [15]

def getensor(w2i,datalist,maxlength):    in_tensor=[]    for lista in datalist:        in_samll_tensor=[]        for li in lista:            in_samll_tensor.append(w2i[li])#         if len(in_samll_tensor)<maxlength:#             in_samll_tensor+=[w2i['']]*(maxlength-len(in_samll_tensor))        in_tensor.append(in_samll_tensor)    return in_tensor

   In [16]

in_tensor=getensor(word2id_dict,data_in_nospace,couplet_maxlen)out_tensor=getensor(word2id_dict,data_out_nospace,couplet_maxlen)

   

转成数字,带上shape属性

In [17]

in_tensor=np.array(in_tensor)out_tensor=np.array(out_tensor)

   

1.2 划分训练集、验证集、测试集 ,按照8:1:1 固定划分

In [18]

train_in_tensor=in_tensor[:595933]val_in_tensor=in_tensor[595933:670424]test_in_tensor=in_tensor[670424:]train_out_tensor=out_tensor[:595933]val_out_tensor=out_tensor[595933:670424]test_out_tensor=out_tensor[670424:]

   In [19]

print(len(train_in_tensor),len(test_in_tensor),len(val_in_tensor))

       

595933 74491 74491

       

1.3 封装数据集为可直接进行训练的dataset

In [20]

# 1.继承paddle.io.Datasetclass Mydataset(paddle.io.Dataset):        # 2. 构造函数,定义数据集大小    def __init__(self,first,second):        super(Mydataset,self).__init__()        self.first=first        self.second=second            # 3. 实现__getitem__方法,定义指定index时如何获取数据,并返回单条数据(训练数据,对应的标签)    def __getitem__(self,index):        return self.first[index],self.second[index]        # 4. 实现__len__方法,返回数据集总数目    def __len__(self):        return self.first.shape[0]

   In [21]

train_tensor=Mydataset(train_in_tensor,train_out_tensor)val_tensor=Mydataset(val_in_tensor,val_out_tensor)test_tensor=Mydataset(test_in_tensor,test_out_tensor)

   

数据加载

In [22]

BATCH_SIZE=64padid=word2id_dict['']

   In [23]

def prepare_input(inputs,padid):    src,src_length=paddlenlp.data.Pad(pad_val=padid,ret_length=True)([inputsub[0] for inputsub in inputs])    trg,trg_length=paddlenlp.data.Pad(pad_val=padid,ret_length=True)([inputsub[1] for inputsub in inputs])    #src=src.astype(paddle.get_default_dtype())    trg_mask =(trg[:,:-1]!=padid).astype(paddle.get_default_dtype())    return src,src_length,trg[:,:-1],trg[:,1:,np.newaxis],trg_mask

   In [24]

def create_data_loader(dataset):    data_loader=paddle.io.DataLoader(dataset,batch_sampler=None,batch_size=BATCH_SIZE,collate_fn=partial(prepare_input, padid=padid))    return data_loader

   In [25]

train_loader=create_data_loader(train_tensor)val_loader=create_data_loader(val_tensor)test_loader=create_data_loader(test_tensor)

   In [26]

# j=0# for i in train_loader:#     print(len(i))#     for ind,each in enumerate(i):#         print(ind,each.shape,each)#         #print(ind,each.shape)#     j+=1#     if j==2:#         break

   In [ ]


   In [27]

# for i in train_loader:#     x,x_length,y,_,_= i#     break# # print(x)

   

2.网络搭建

主要参考的是官方的项目,直达:https://aistudio.baidu.com/aistudio/projectdetail/1321118?shared=1

2.1 Encoder

In [28]

class Encoder(paddle.nn.Layer):    def __init__(self,vocab_size,embedding_dim,hidden_size,num_layers):        super(Encoder,self).__init__()                self.embedding=paddle.nn.Embedding(vocab_size,embedding_dim)        self.lstm=paddle.nn.LSTM(input_size=embedding_dim,                                hidden_size=hidden_size,                                num_layers=num_layers,                                dropout=0.2 if num_layers>1 else 0)                # src_length 的形状为[batch_size],作用是控制inputs中的time_step超过[batch_size]的不再更新状态,就是那些填充    def forward(self,src,src_length):        inputs=self.embedding(src)  # [batch_size,time_steps,embedding_dim]        encoder_out,encoder_state=self.lstm(inputs,sequence_length=src_length) # out[batch_szie,time_steps,hidden_size] state:[[num_layers*1,batch_size,hidden_size],[num_layers*1,batch_size,hidden_size]]        # encoder_out,encoder_state=self.lstm(inputs)        return encoder_out,encoder_state

   In [29]

# encoder=Encoder(word_size,256,128,2)# #paddle.summary(encoder,[(64,18),(64)],dtypes='int64')# out,state=encoder(x,x_length)# print(out.shape)# print(state)

   

2.2 注意力层

In [30]

class AttentionLayer(paddle.nn.Layer):    def __init__(self,hidden_size):        super(AttentionLayer,self).__init__()        self.attn1=paddle.nn.Linear(hidden_size,hidden_size)        self.attn2=paddle.nn.Linear(hidden_size+hidden_size,hidden_size)    def forward(self,decoder_hidden_h,encoder_output,encoder_padding_mask):                encoder_output=self.attn1(encoder_output) # [batch_size,time_steps,hidden_size]                # decodr_hidden_h 的形状 [batch_size,hidden_size],是lstm公式中的ht.        # unsqueeze之后[batch_size,1,hidden_size]        # transpose_y=True,后两维转置 [batch_size,hidden_size,time_steps]        # matmul之后的 形状 [batch_size,1,time_steps]        a=paddle.unsqueeze(decoder_hidden_h,[1])        # print(a.shape)        # print(encoder_output.shape)        attn_scores=paddle.matmul(a,encoder_output,transpose_y=True)                        # 注意力机制中增加掩码操作,在padding 位加上个非常小的数:-1e9        if encoder_padding_mask is not None:            # encoder_padding_mask的形状为[batch_size,1,time_steps]            attn_scores=paddle.add(attn_scores,encoder_padding_mask)        # softmax操作,默认是最后一个维度,axis=-1,形状不变        attn_scores=paddle.nn.functional.softmax(attn_scores)         # [batch_size,1,time_steps]*[batch_size,time_steps,hidden_size]-->[batch_size,1,hidden_size]        # squeeze之后:[batch_size,hidden_size]        attn_out=paddle.squeeze(paddle.matmul(attn_scores,encoder_output),[1])                # concat之后 [batch_size,hidden_size+hidden_size]        attn_out=paddle.concat([attn_out,decoder_hidden_h],1)        # 最终结果[batch_size,hidden_size]        attn_out=self.attn2(attn_out)        return attn_out

   

2.3 解码器单元

In [31]

class DecoderCell(paddle.nn.RNNCellBase):    def __init__(self,num_layers,embedding_dim,hidden_size):        super(DecoderCell,self).__init__()        self.dropout=paddle.nn.Dropout(0.2)        self.lstmcells=paddle.nn.LayerList([paddle.nn.LSTMCell(            input_size=embedding_dim+hidden_size if i==0 else hidden_size,            hidden_size=hidden_size        ) for i in range(num_layers)])        self.attention=AttentionLayer(hidden_size)        def forward(self,decoder_input,decoder_initial_states,encoder_out,encoder_padding_mask=None):        #forward 函数会执行squence_len次 ,每次的decoder_input 为[batch_size,embeddding_dim]        # 状态分解 states [encoder_final_states,decoder_init_states]        # encoder_final_states [num_layes,batch_size,hiden_size] ???        # decoder_init_states [] ???        encoder_final_states,decoder_init_states=decoder_initial_states        #num_layers=len(encoder_final_states[0])        #decoder_init_states=lstm_init_state        # ???        new_lstm_states=[]        # decoder_input: [batch_size,embedding_dim]        # print("decodercell ",decoder_input.shape)        inputs=paddle.concat([decoder_input,decoder_init_states],1)        # print("concant之后",inputs.shape)        for i ,lstm_cell in enumerate(self.lstmcells):            # inputs 的形状为 [batch_size,input_size]  input_size:输入的大小            state_h,new_lstm_state=lstm_cell(inputs,encoder_final_states[i])            inputs=self.dropout(state_h)            new_lstm_states.append(new_lstm_state)                state_h=self.attention(inputs,encoder_out,encoder_padding_mask)        # print(state_h.shape)        return state_h,[new_lstm_states,state_h]

   

2.4 解码器

解码器由embedding+解码器单元+线性输出层组成

In [32]

class Decoder(paddle.nn.Layer):    def __init__(self,vocab_size,embedding_dim,hidden_size,num_layers):        super(Decoder,self).__init__()        self.embedding=paddle.nn.Embedding(vocab_size,embedding_dim)        self.lstm_attention=paddle.nn.RNN(DecoderCell(num_layers,embedding_dim,hidden_size))        self.fianl=paddle.nn.Linear(hidden_size,vocab_size)    def forward(self,trg, decoder_initial_states,encoder_output,encoder_padding_mask):        # trg 的形状为 [batch_size,sequence_length]        # embedding 之后, [batch_size,sequence_length,embedding_dim]        inputs=self.embedding(trg)        # print("embedding 后的 输入维度",inputs.shape)                # decodr_out [batch_szie,hidden_size]        decoder_out,_ = self.lstm_attention(inputs,                                         initial_states=decoder_initial_states,                                         encoder_out=encoder_output,                                         encoder_padding_mask=encoder_padding_mask)        # predict [batch_size,sequence_len,word_size]        predict=self.fianl(decoder_out)        # print("最后的维度",decoder_out.shape)        return predict

   

2.5 组装Seq2Seq

In [33]

class Seq2Seq(paddle.nn.Layer):    def __init__(self, vocab_size,embedding_dim,hidden_size,num_layers,eos_id):                super(Seq2Seq,self).__init__()        self.hidden_size=hidden_size        self.eos_id=eos_id        self.num_layers=num_layers        self.INF= 1e9        self.encoder=Encoder(vocab_size,embedding_dim,hidden_size,num_layers)        self.decoder=Decoder(vocab_size,embedding_dim,hidden_size,num_layers)            def forward(self,src,src_length,trg):        # encoder_output 的形状为[batch_size,sequence_len,hidden_size]        # encoder_final_state ([num_layers*1,batch_size,hidden_size],[num_layers*1,batch_size,hidden_size]])  tuple类型        encoder_output,encoder_final_state=self.encoder(src,src_length)        encoder_final_states=[(encoder_final_state[0][i],encoder_final_state[1][i]) for i in range(self.num_layers)]        #print(encoder_final_states[0])        # [batch_size,hidden_size] 初始化为0        #lstm_init_state= self.decoder.lstm_attention.cell.get_initial_states(batch_ref=encoder_output,shape=[self.hidden_size])               decoder_initial_states=[encoder_final_states,                                self.decoder.lstm_attention.cell.get_initial_states(batch_ref=encoder_output,shape=[self.hidden_size])]        src_mask=(src!=self.eos_id).astype(paddle.get_default_dtype())        encoder_mask=(src_mask-1)*self.INF        encoder_padding_mask=paddle.unsqueeze(encoder_mask,[1])        predict=self.decoder(trg,decoder_initial_states,encoder_output,encoder_padding_mask)        return predict

   

2.6 自定义交叉熵损失函数及超参数

In [34]

class CrossEntropy(paddle.nn.Layer):    def __init__(self):        super(CrossEntropy,self).__init__()    def forward(self,pre,real,trg_mask):        # 返回的数据类型与pre一致,除了axis维度(未指定则为-1),其他维度也与pre一致        # logits=pre,[batch_size,sequence_len,word_size],猜测会进行argmax操作,[batch_size,sequence_len,1]        # 默认的soft_label为False,lable=real,[bacth_size,sequence_len,1]        cost=paddle.nn.functional.softmax_with_cross_entropy(logits=pre,label=real)                # 删除axis=2 shape上为1的维度        # 返回结果的形状应为 [batch_size,sequence_len]        cost=paddle.squeeze(cost,axis=[2])        # trg_mask 的形状[batch_size,suqence_len]        # * 这个星号应该是对应位置相乘,返回结果的形状 [bathc_szie,sequence_len]        masked_cost=cost*trg_mask        # paddle.mean 对应轴的对应位置求平均, 在这里返回结果为 [sequence_len]        # paddle.sum 求解方法与paddle.mean一致,最终返回的结果应为[1]        return paddle.sum(paddle.mean(masked_cost,axis=[0]))

   In [35]

epochs=20eos_id=word2id_dict['']num_layers=2dropout_rate=0.2hidden_size=128embedding_dim=256max_grad_norm=5lr=0.001log_freq=200model_path='./train_model/train_model'

   In [36]

s2s=Seq2Seq(word_size,embedding_dim,hidden_size,num_layers,eos_id)

       

W0609 11:31:02.978509  1421 device_context.cc:404] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 11.2, Runtime API Version: 10.1W0609 11:31:02.982554  1421 device_context.cc:422] device: 0, cuDNN Version: 7.6.

       In [37]

model=paddle.Model(s2s)# model.parameters() 返回一个包含所有模型参数的列表optimizer=paddle.optimizer.Adam(learning_rate=lr,parameters=model.parameters())# 困惑度ppl_metric=paddlenlp.metrics.Perplexity()model.prepare(optimizer,CrossEntropy(),ppl_metric)

   

2.7 训练并保存

#eval_freq 多少个epoch评估一次 #save_freq 多少个epoch保存模型一次

model.fit(train_data=train_loader, eval_data=val_loader, epochs=epochs, eval_freq=1, save_freq=2, save_dir=model_path, log_freq=log_freq, verbose=2, callbacks=[paddle.callbacks.VisualDL(‘./log’)])

#保存用于预测的模型 #model.save(“./infer_model/infer_model”,False)

3.模型预测

3.1 定义预测模型

In [38]

class Seq2SeqInfer(Seq2Seq):    def __init__(self,word_size,embedding_dim,hidden_size,num_layers,bos_id,eos_id,beam_size,max_out_len=couplet_maxlen):        self.bos_id=bos_id        self.beam_size=beam_size        self.max_out_len=max_out_len        self.num_layers=num_layers        super(Seq2SeqInfer,self).__init__(word_size,embedding_dim,hidden_size,num_layers,eos_id)        self.beam_search_decoder=paddle.nn.BeamSearchDecoder(            self.decoder.lstm_attention.cell,            start_token=bos_id,            end_token=eos_id,            beam_size=beam_size,            embedding_fn=self.decoder.embedding,            output_fn=self.decoder.fianl)        def forward(self,src,src_length):        encoder_output,encoder_states=self.encoder(src,src_length)        encoder_final_state=[(encoder_states[0][i],encoder_states[1][i]) for i in range(self.num_layers)]        # 初始化decoder的隐藏层状态        decoder_initial_states=[encoder_final_state,                                self.decoder.lstm_attention.cell.get_initial_states(batch_ref=encoder_output,shape=[self.hidden_size])]                src_mask=(src!=self.eos_id).astype(paddle.get_default_dtype())        encoder_padding_mask=(src_mask-1.0)*self.INF        encoder_padding_mask=paddle.unsqueeze(encoder_padding_mask,[1])        # 扩展tensor的bacth维度        encoder_out=paddle.nn.BeamSearchDecoder.tile_beam_merge_with_batch(encoder_output,self.beam_size)        encoder_padding_mask=paddle.nn.BeamSearchDecoder.tile_beam_merge_with_batch(encoder_padding_mask,self.beam_size)        seq_output,_=paddle.nn.dynamic_decode( decoder=self.beam_search_decoder,                                               inits= decoder_initial_states,                                               max_step_num= self.max_out_len,                                               encoder_out=encoder_output,                                               encoder_padding_mask=encoder_padding_mask)                return seq_output

   In [39]

def pre_process(seq,bos_idx,eos_idx):    #print(bos_idx,eos_idx)    # 结束位置    eos_pos=len(seq)-1    for i ,idx in enumerate(seq):        #print(i,idx[0])        if idx==eos_idx: # 遇到结束标志            eos_pos=i            break    seq=[idx[0] for idx in seq[:eos_pos] if (idx !=bos_idx) ]    return seq

   

3.2 预测超参数

In [40]

beam_size=1bos_id=word2id_dict['']eos_id=word2id_dict['']max_out_len=couplet_maxlenprint(bos_id)

       

0

       

3.3 动态图转静态图

In [41]

x=paddle.to_tensor([[0  , 566, 566, 489, 42 , 165, 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  ]],dtype=paddle.int32)y=paddle.to_tensor([7],dtype=paddle.int32)print(x)print(y)

       

Tensor(shape=[1, 34], dtype=int32, place=CUDAPlace(0), stop_gradient=True,       [[0  , 566, 566, 489, 42 , 165, 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  ]])Tensor(shape=[1], dtype=int32, place=CUDAPlace(0), stop_gradient=True,       [7])

       In [42]

s2si=Seq2SeqInfer(word_size,embedding_dim,hidden_size,num_layers,bos_id,eos_id,beam_size,max_out_len)dd=paddle.load('./trained_model/10.pdparams')s2si.load_dict(dd)net=paddle.jit.to_static(s2si)out=net(x,y)out

       

Tensor(shape=[1, 6, 1], dtype=int64, place=CUDAPlace(0), stop_gradient=False,       [[[4 ],         [24],         [11],         [75],         [7 ],         [1 ]]])

               In [43]

paddle.jit.save(net, './trained_model/net')

   

4.Android 开发

4.1 opt模型生成及优化

! pip install paddlelite==2.11-rc

! paddle_lite_opt –model_file=./trained_model/net.pdmodel –param_file=./trained_model/net.pdiparams –optimize_out=./trained_model/v1_opt·

4.2 下载预编译的预测库

可以参考官方文档 Java完整示例

我使用的是2.11-rc版本

4.3 主代码展示

package com.baidu.paddle.lite;import android.content.Context;import android.support.v7.app.AppCompatActivity;import android.os.Bundle;import android.util.Log;import android.view.View;import android.widget.Button;import android.widget.EditText;import android.widget.TextView;import java.io.BufferedOutputStream;import java.io.BufferedReader;import java.io.File;import java.io.FileInputStream;import java.io.FileOutputStream;import java.io.FileReader;import java.io.IOException;import java.io.InputStream;import java.io.InputStreamReader;import java.io.OutputStream;import java.util.Date;import java.util.HashMap;import java.util.Map;public class MainActivity extends AppCompatActivity {    public static final String TAG = "MainActivity";    private Button bt;    private EditText et;    public Map word_id_map = new HashMap();    public Map id_word_map = new HashMap();    @Override    protected void onCreate(Bundle savedInstanceState) {        super.onCreate(savedInstanceState);        setContentView(R.layout.activity_main);        //bt=(Button)findViewById(R.id.bt1);//        String path2="assets/word2id.txt";//        String path2="assets/id2word.txt";        String np1 = copyFromAssetsToCache("word2id.txt", this);        String np2 = copyFromAssetsToCache("id2word.txt", this);        try {            word_id_map=readTxtToObject(np1);        } catch (IOException e) {            e.printStackTrace();        }        try {            id_word_map=readTxtToObject(np2);        } catch (IOException e) {            e.printStackTrace();        }    }    public void click(View v){        int id=v.getId();        switch (id) {            case R.id.bt1:                Log.i("指定onClick属性方式","bt1点击事件");                et=(EditText) findViewById(R.id.text_in);                String ss=et.getText().toString();//                Log.i("指定onClick属性方式",ss);//                Log.i("指定onClick属性方式", String.valueOf(ss.length()));//                Log.i("指定onClick属性方式",word_id_map.toString());                int[] buffer1 = new int[]{0  , 1, 1, 1, 1 , 1, 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  ,                        1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1 };                for(int i=0;i<ss.length();i++) {                    //Log.i("指定onClick属性方式1", ss.substring(i, i+1));                    //Log.i("指定onClick属性方式", word_id_map.get(ss.substring(i, i+1)));                    buffer1[i+1]= Integer.parseInt(word_id_map.get(ss.substring(i, i+1)));                    if(i==34){                        break;                    }                }                //long[] dims1 = {1, ss.length()};                long[] dims1 = {1, 34};                String re="";                Tensor output=runModel("v1_opt.nb", dims1, buffer1, this);                long[] out = output.getLongData();                for(int i=0  ;i<out.length;i++){                    if( out[i]==1 || i==ss.length()){                        break;                    }                    Log.i("指定onClick属性方式1", String.valueOf(out[i]));                    re+=id_word_map.get(String.valueOf(out[i]));                }                TextView textView = findViewById(R.id.text_view);                textView.setText(re);                break;            case R.id.bt2:                et=(EditText) findViewById(R.id.text_in);                textView=(TextView)findViewById(R.id.text_view);                textView.setText("");                et.setText("");            default:                break;        }    }    public static Map readTxtToObject(String ppath) throws IOException {        Map map = new HashMap();        File f=new File(ppath);        BufferedReader reader=new BufferedReader(new FileReader(f));        String lineTxt=null;        while((lineTxt=reader.readLine())!=null){            String[] names = lineTxt.split(" ");            map.put(names[0],  names[1]);        }        return map;    }    public static String getVersionInfo(String modelName, Context context) {        String modelPath = copyFromAssetsToCache(modelName, context);        //Log.d(TAG,modelPath);        System.out.println(modelPath);        MobileConfig config = new MobileConfig();        config.setModelFromFile(modelPath);        PaddlePredictor predictor = PaddlePredictor.createPaddlePredictor(config);        return predictor.getVersion();        //return modelPath;    }    public static String copyFromAssetsToCache(String modelPath, Context context) {        //context.getCacheDir():获取应用缓存目录        String newPath = context.getCacheDir() + "/" + modelPath;        //创建file对象        File desDir = new File(newPath);        try {                // context.getAssets().open() 打开assets目录下的文件                // Inputstream 字节输入流的最顶层父类                InputStream stream = context.getAssets().open(modelPath);                // 创建BufferedOutputStream字节缓冲输出流                OutputStream output = new BufferedOutputStream(new FileOutputStream(newPath));                byte data[] = new byte[1024];                int count;                while ((count = stream.read(data)) != -1) {                    output.write(data, 0, count);                }                output.flush();//刷新缓冲输出流                output.close();//关闭流                stream.close();        } catch (Exception e) {            throw new RuntimeException(e);        }        return desDir.getPath();    }    public static Tensor runModel(String modelName, long[] dims1, int[] inputBuffer1,Context context) {//    public static Tensor runModel(String modelName, long[] dims1, int[] inputBuffer1,//        long[] dims2, int[] inputBuffer2, Context context) {        String modelPath = copyFromAssetsToCache(modelName, context);        MobileConfig config = new MobileConfig();        config.setModelFromFile(modelPath);        config.setPowerMode(PowerMode.LITE_POWER_HIGH);        config.setThreads(1);        PaddlePredictor predictor = PaddlePredictor.createPaddlePredictor(config);//        System.out.println(predictor);//        System.out.println(predictor.getVersion());        Tensor input1 = predictor.getInput(0);        input1.resize(dims1);        input1.setData(inputBuffer1);        predictor.run();        Tensor output = predictor.getOutput(0);       return output;    }    public static Tensor setInputAndRunNaiveModel(String modelName, Context context) {        long[] dims1 = {1, 34};        int[] inputBuffer1 = new int[]{0  , 566, 566, 489, 42 , 165, 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  ,                1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1  , 1 };        return runModel(modelName, dims1, inputBuffer1, context);    }    public static String getSecond(String first,Context context){        String result="";        return result;    }}

   

4.4 界面布局代码展示

                        

   

以上就是【NLP+Android】AI 对联 APP的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/49371.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月8日 11:42:50
下一篇 2025年11月8日 11:43:12

相关推荐

  • 怎样用免费工具美化PPT_免费美化PPT的实用方法分享

    利用KIMI智能助手可免费将PPT美化为科技感风格,但需核对文字准确性;2. 天工AI擅长优化内容结构,提升逻辑性,适合高质量内容需求;3. SlidesAI支持语音输入与自动排版,操作便捷,利于紧急场景;4. Prezo提供多种模板,自动生成图文并茂幻灯片,适合学生与初创团队。 如果您有一份内容完…

    2025年12月6日 软件教程
    000
  • Pages怎么协作编辑同一文档 Pages多人实时协作的流程

    首先启用Pages共享功能,点击右上角共享按钮并选择“添加协作者”,设置为可编辑并生成链接;接着复制链接通过邮件或社交软件发送给成员,确保其使用Apple ID登录iCloud后即可加入编辑;也可直接在共享菜单中输入邮箱地址定向邀请,设定编辑权限后发送;最后在共享面板中管理协作者权限,查看实时在线状…

    2025年12月6日 软件教程
    100
  • REDMI K90系列正式发布,售价2599元起!

    10月23日,redmi k90系列正式亮相,推出redmi k90与redmi k90 pro max两款新机。其中,redmi k90搭载骁龙8至尊版处理器、7100mah大电池及100w有线快充等多项旗舰配置,起售价为2599元,官方称其为k系列迄今为止最完整的标准版本。 图源:REDMI红米…

    2025年12月6日 行业动态
    200
  • Linux中如何安装Nginx服务_Linux安装Nginx服务的完整指南

    首先更新系统软件包,然后通过对应包管理器安装Nginx,启动并启用服务,开放防火墙端口,最后验证欢迎页显示以确认安装成功。 在Linux系统中安装Nginx服务是搭建Web服务器的第一步。Nginx以高性能、低资源消耗和良好的并发处理能力著称,广泛用于静态内容服务、反向代理和负载均衡。以下是在主流L…

    2025年12月6日 运维
    000
  • Linux journalctl与systemctl status结合分析

    先看 systemctl status 确认服务状态,再用 journalctl 查看详细日志。例如 nginx 启动失败时,systemctl status 显示 Active: failed,journalctl -u nginx 发现端口 80 被占用,结合两者可快速定位问题根源。 在 Lin…

    2025年12月6日 运维
    100
  • 华为新机发布计划曝光:Pura 90系列或明年4月登场

    近日,有数码博主透露了华为2025年至2026年的新品规划,其中pura 90系列预计在2026年4月发布,有望成为华为新一代影像旗舰。根据路线图,华为将在2025年底至2026年陆续推出mate 80系列、折叠屏新机mate x7系列以及nova 15系列,而pura 90系列则将成为2026年上…

    2025年12月6日 行业动态
    100
  • TikTok视频无法下载怎么办 TikTok视频下载异常修复方法

    先检查链接格式、网络设置及工具版本。复制以https://www.tiktok.com/@或vm.tiktok.com开头的链接,删除?后参数,尝试短链接;确保网络畅通,可切换地区节点或关闭防火墙;更新工具至最新版,优先选用yt-dlp等持续维护的工具。 遇到TikTok视频下载不了的情况,别急着换…

    2025年12月6日 软件教程
    100
  • Linux如何优化系统性能_Linux系统性能优化的实用方法

    优化Linux性能需先监控资源使用,通过top、vmstat等命令分析负载,再调整内核参数如TCP优化与内存交换,结合关闭无用服务、选用合适文件系统与I/O调度器,持续按需调优以提升系统效率。 Linux系统性能优化的核心在于合理配置资源、监控系统状态并及时调整瓶颈环节。通过一系列实用手段,可以显著…

    2025年12月6日 运维
    000
  • 曝小米17 Air正在筹备 超薄机身+2亿像素+eSIM技术?

    近日,手机行业再度掀起超薄机型热潮,三星与苹果已相继推出s25 edge与iphone air等轻薄旗舰,引发市场高度关注。在此趋势下,多家国产厂商被曝正积极布局相关技术,加速抢占这一细分赛道。据业内人士消息,小米的超薄旗舰机型小米17 air已进入筹备阶段。 小米17 Pro 爆料显示,小米正在评…

    2025年12月6日 行业动态
    000
  • 「世纪传奇刀片新篇」飞利浦影音双11声宴开启

    百年声学基因碰撞前沿科技,一场有关声音美学与设计美学的影音狂欢已悄然引爆2025“双十一”! 当绝大多数影音数码品牌还在价格战中挣扎时,飞利浦影音已然开启了一场跨越百年的“声”活革命。作为拥有深厚技术底蕴的音频巨头,飞利浦影音及配件此次“双十一”精准聚焦“传承经典”与“设计美学”两大核心,为热爱生活…

    2025年12月6日 行业动态
    000
  • 荣耀手表5Pro 10月23日正式开启首销国补优惠价1359.2元起售

    荣耀手表5pro自9月25日开启全渠道预售以来,市场热度持续攀升,上市初期便迎来抢购热潮,一度出现全线售罄、供不应求的局面。10月23日,荣耀手表5pro正式迎来首销,提供蓝牙版与esim版两种选择。其中,蓝牙版本的攀登者(橙色)、开拓者(黑色)和远航者(灰色)首销期间享受国补优惠价,到手价为135…

    2025年12月6日 行业动态
    000
  • Vue.js应用中配置环境变量:灵活管理后端通信地址

    在%ignore_a_1%应用中,灵活配置后端api地址等参数是开发与部署的关键。本文将详细介绍两种主要的环境变量配置方法:推荐使用的`.env`文件,以及通过`cross-env`库在命令行中设置环境变量。通过这些方法,开发者可以轻松实现开发、测试、生产等不同环境下配置的动态切换,提高应用的可维护…

    2025年12月6日 web前端
    000
  • JavaScript动态生成日历式水平日期布局的优化实践

    本教程将指导如何使用javascript高效、正确地动态生成html表格中的日历式水平日期布局。重点解决直接操作`innerhtml`时遇到的标签闭合问题,通过数组构建html字符串来避免浏览器解析错误,并利用事件委托机制优化动态生成元素的事件处理,确保生成结构清晰、功能完善的日期展示。 在前端开发…

    2025年12月6日 web前端
    000
  • VSCode终端美化:功率线字体配置

    首先需安装Powerline字体如Nerd Fonts,再在VSCode设置中将terminal.integrated.fontFamily设为’FiraCode Nerd Font’等支持字体,最后配合oh-my-zsh的powerlevel10k等Shell主题启用完整美…

    2025年12月6日 开发工具
    000
  • JavaScript响应式编程与Observable

    Observable是响应式编程中处理异步数据流的核心概念,它允许随时间推移发出多个值,支持订阅、操作符链式调用及统一错误处理,广泛应用于事件监听、状态管理和复杂异步逻辑,提升代码可维护性与可读性。 响应式编程是一种面向数据流和变化传播的编程范式。在前端开发中,尤其面对复杂的用户交互和异步操作时,J…

    2025年12月6日 web前端
    000
  • 环境搭建docker环境下如何快速部署mysql集群

    使用Docker Compose部署MySQL主从集群,通过配置文件设置server-id和binlog,编写docker-compose.yml定义主从服务并组网,启动后创建复制用户并配置主从连接,最后验证数据同步是否正常。 在Docker环境下快速部署MySQL集群,关键在于合理使用Docker…

    2025年12月6日 数据库
    000
  • Xbox删忍龙美女角色 斯宾塞致敬板垣伴信被喷太虚伪

    近日,海外游戏推主@HaileyEira公开发表言论,批评Xbox负责人菲尔·斯宾塞不配向已故的《死或生》与《忍者龙剑传》系列之父板垣伴信致敬。她指出,Xbox并未真正尊重这位传奇制作人的创作遗产,反而在宣传相关作品时对内容进行了审查和删减。 所涉游戏为年初推出的《忍者龙剑传2:黑之章》,该作采用虚…

    2025年12月6日 游戏教程
    000
  • 如何在mysql中分析索引未命中问题

    答案是通过EXPLAIN分析执行计划,检查索引使用情况,优化WHERE条件写法,避免索引失效,结合慢查询日志定位问题SQL,并根据查询模式合理设计索引。 当 MySQL 查询性能下降,很可能是索引未命中导致的。要分析这类问题,核心是理解查询执行计划、检查索引设计是否合理,并结合实际数据访问模式进行优…

    2025年12月6日 数据库
    000
  • VSCode入门:基础配置与插件推荐

    刚用VSCode,别急着装一堆东西。先把基础设好,再按需求加插件,效率高还不卡。核心就三步:界面顺手、主题舒服、功能够用。 设置中文和常用界面 打开软件,左边活动栏有五个图标,点最下面那个“扩展”。搜索“Chinese”,装上官方出的“Chinese (Simplified) Language Pa…

    2025年12月6日 开发工具
    000
  • VSCode性能分析与瓶颈诊断技术

    首先通过资源监控定位异常进程,再利用开发者工具分析性能瓶颈,结合禁用扩展、优化语言服务器配置及项目设置,可有效解决VSCode卡顿问题。 VSCode作为主流的代码编辑器,虽然轻量高效,但在处理大型项目或配置复杂扩展时可能出现卡顿、响应延迟等问题。要解决这些性能问题,需要系统性地进行性能分析与瓶颈诊…

    2025年12月6日 开发工具
    000

发表回复

登录后才能评论
关注微信