自定义数据集OCEMOTION–中文情感分类

该内容为基于PaddleNLP和Paddle框架的OCEMOTION中文情感分类任务实现。先切分数据集为训练、测试、评估集,转换标签格式;定义数据集类处理数据,经 Jieba 切词、映射词id等处理;构建含嵌入层、LSTM编码器等的模型,配置优化器等训练模型,最终对测试集预测,输出情感分类结果。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

自定义数据集ocemotion–中文情感分类 - 创想鸟

情感分类

情感分类简单的正负,但是细分就太多了太多了。。。

sadnesshappinessdisgustlikeangersurprisefear

结果如下:

Data: 【旅游】美食:滇南地区建水的蕈芽、石屏的豆腐、蒙自的过桥米线。滇东北地区菜豆花、连渣搞、酸辣鸡等。滇西地区的大理沙锅鱼、酸辣鱼。丽江粑粑、八大碗。弥渡的卷蹄、风吹肝、腾冲的大救驾,各种凉拌野菜、松尖等。关注【游遍云南】公众微信,让您畅游云南,游遍云南公众微信号:y4000119001 Label: happinessData: 想哭, Label: sadnessData: 自己打的赌,赌的很大,不知道自己到底战绩怎样 Label: disgustData: 4…这都不是偶然的事情,这是他明白这个事实真相,对生死看得很淡薄,知道要认真努力修行,所以死了之后,自己可以作主,自己可以选择到哪一道去。如果在临终时,一慌一乱,你对身体很留恋,对家亲眷属很留恋,那你往往就到三途去了! Label: happinessData: 干了这碗香菜我们是好朋友 Label: disgustData: 韩国沉船遇难者’不愿分离’。一男生一女生害怕被水冲开分离紧捆绑在一起。[蜡烛][蜡烛][蜡烛] Label: happinessData: 那一年,cang井空还是处女,冠希还没有相机,李刚还没有儿子,菊花只是一种花,企鹅不是qq,2b我只知道是铅笔,买方便面还有调料,杯具只是用来刷牙,楼房是用来住的,黄瓜香蕉只是用来吃的,教授还不是叫兽,太阳还不叫日,领导不会写日记,鸭梨还没有这么大,肚子大了也知道是谁的我们还相信真情 Label: sadnessData: 小孩子会说谎,大孩子也会说谎,不过,美名其曰为“借口”,不努力,是因为没了目标,没了动力,习惯了堕落。。。 Label: sadnessData: 特困户的春天[拜拜] Label: sadnessData: 找院长写推荐信之前把自我介绍想过很多遍,结果院长大人没有赴约;从早到晚在实验室忙碌只为了按时完成实验,结果教授将实验计划改变;纠结了好久今天终于鼓起勇气再加一次某人的微信,结果我貌似在黑名单里面……总以为解决了自己就解决了一切,但是没想到,事情总是有想不懂到的一面。 Label: disgust

OCEMOTION:是包含7个分类的细粒度情感性分析数据集,如下所示:

0 你知道多伦多附近有什么吗?哈哈有破布耶…真的书上写的你听哦…你家那块破布是世界上最大的破布,哈哈,骗你的啦它是说尼加拉瓜瀑布是世界上最大的瀑布啦…哈哈哈”爸爸,她的头发耶!我们大扫除椅子都要翻上来我看到木头缝里有头发…一定是xx以前夹到的,你说是不是?[生病] sadness1 平安夜,圣诞节,都过了,我很难过,和妈妈吵了两天,以死相逼才终止战争,现在还处于冷战中。sadness2 我只是自私了一点,做自己想做的事情! sadness3 让感动的不仅仅是雨过天晴,还有泪水流下来的迷人眼神。happiness4 好日子 happiness

(注:id 句子 标签)

In [ ]


   

评测方案

参赛选手仅可使用单模型,先求出每个任务的macro f1,然后在三个任务上取平均值,具体计算公式如下:

##计算公式:

名称 说明 TP(True Positive) 真阳性:预测为正,实际也为正 FP(False Positive) 假阳性:预测为正,实际为负 FN(False Negative) 假阴性:预测与负、实际为正 TN(True Negative) 真阴性:预测为负、实际也为负 P(Precision) 精确率 P = TP/(TP+FP) R(Recall) 召回率 R = TP/(TP+FN) F(f1-score) F-值 F = 2PR/(P+R) macro f1 需要先计算出每一个类别的准召及其f1 score,然后通过求均值得到在整个样本上的f1 score。

https://tianchi.aliyun.com/competition/entrance/531841/information

OCEMOTION–中文情感分类

此次跟着陈硕老师走,先跑一圈

情感分析是自然语言处理领域一个老生常谈的任务。句子情感分析目的是为了判别说者的情感倾向,比如在某些话题上给出的的态度明确的观点,或者反映的情绪状态等。情感分析有着广泛应用,比如电商评论分析、舆情分析等。

自定义数据集OCEMOTION–中文情感分类 - 创想鸟
       

label_map={"sadness":'0', "happiness":'1',"disgust":'2',"like":'3',"anger":'4',"surprise":'5',"fear":'6'}

   In [ ]

# 下载paddlenlp!pip install --upgrade paddlenlp==2.0.0b4

   

数据集

OCEMOTION–数据集介绍

0 你知道多伦多附近有什么吗?哈哈有破布耶…真的书上写的你听哦…你家那块破布是世界上最大的破布,哈哈,骗你的啦它是说尼加拉瓜瀑布是世界上最大的瀑布啦…哈哈哈”爸爸,她的头发耶!我们大扫除椅子都要翻上来我看到木头缝里有头发…一定是xx以前夹到的,你说是不是?[生病] sadness1 平安夜,圣诞节,都过了,我很难过,和妈妈吵了两天,以死相逼才终止战争,现在还处于冷战中。sadness2 我只是自私了一点,做自己想做的事情! sadness3 让感动的不仅仅是雨过天晴,还有泪水流下来的迷人眼神。happiness4 好日子 happiness

自定义数据集OCEMOTION–中文情感分类 https://aistudio.baidu.com/aistudio/projectdetail/1416938

PaddleNLP和Paddle框架是什么关系?

自定义数据集OCEMOTION–中文情感分类 - 创想鸟        

自定义数据集OCEMOTION–中文情感分类 - 创想鸟
       

       Paddle框架是基础底座,提供深度学习任务全流程API。PaddleNLP基于Paddle框架开发,适用于NLP任务。

PaddleNLP中数据处理、数据集、组网单元等API未来会沉淀到框架paddle.text中。

代码中继承 class TSVDataset(paddle.io.Dataset)

使用飞桨完成深度学习任务的通用流程

数据集和数据处理
paddle.io.Dataset
paddle.io.DataLoader
paddlenlp.data

组网和网络配置

paddle.nn.Embedding
paddlenlp.seq2vec paddle.nn.Linear
paddle.tanh

paddle.nn.CrossEntropyLoss
paddle.metric.Accuracy
paddle.optimizer

model.prepare

网络训练和评估
model.fit
model.evaluate

mybatis语法和介绍 中文WORD版 mybatis语法和介绍 中文WORD版

本文档主要讲述的是mybatis语法和介绍;MyBatis 是一个可以自定义SQL、存储过程和高级映射的持久层框架。MyBatis 摒除了大部分的JDBC代码、手工设置参数和结果集重获。MyBatis 只使用简单的XML 和注解来配置和映射基本数据类型、Map 接口和POJO 到数据库记录。相对Hibernate和Apache OJB等“一站式”ORM解决方案而言,Mybatis 是一种“半自动化”的ORM实现。感兴趣的朋友可

mybatis语法和介绍 中文WORD版 2 查看详情 mybatis语法和介绍 中文WORD版

预测 model.predict

注意:建议在GPU下运行。

In [ ]

# 解压数据%cd ~!unzip data/data66630/NLP中文预训练模型泛化能力挑战赛.zip -d dataset

       

/home/aistudioArchive:  data/data66630/NLP中文预训练模型泛化能力挑战赛.zip  inflating: dataset/OCEMOTION_a.csv    inflating: dataset/OCEMOTION_train1128.csv    inflating: dataset/OCNLI_a.csv       inflating: dataset/OCNLI_train1128.csv    inflating: dataset/TNEWS_a.csv       inflating: dataset/TNEWS_train1128.csv

       In [ ]

import paddleimport paddlenlpprint(paddle.__version__, paddlenlp.__version__)

       

2.0.0 2.0.0b4

       

1.3 数据集切分

In [ ]

import osfrom sklearn.model_selection import train_test_splitimport pandas as pdimport numpy as np

   In [ ]

def break_data(target, rate=0.2):    origin_dataset = pd.read_csv("dataset/OCEMOTION_train1128.csv", delimiter="t", header=None)  # 加入参数    train_data, test_data = train_test_split(origin_dataset, test_size=rate)    train_data,eval_data=train_test_split(train_data, test_size=rate)    train_filename = os.path.join(target, 'train.txt')    test_filename = os.path.join(target, 'test.txt')    eval_filename = os.path.join(target, 'eval.txt')    train_data.to_csv(train_filename, index=False, sep="t", header=None)    test_data.to_csv(test_filename, index=False, sep="t", header=None)    eval_data.to_csv(eval_filename, index=False, sep="t", header=None)if __name__ == '__main__':    break_data(target='dataset', rate=0.2)

   In [ ]

%cd ~/dataset/

       

/home/aistudio/dataset

       In [ ]

label_map={"sadness":'0', "happiness":'1',"disgust":'2',"like":'3',"anger":'4',"surprise":'5',"fear":'6'}

   In [ ]

import pandas as pddef modify_data(target='.'):    for name in ['train','test','eval']:        source_file=os.path.join(target, name + '.txt')        target_file=os.path.join(target, name + '.csv')        data=pd.read_csv(source_file, delimiter="t", header=None)         new_data=data[[1,2]]        new_data.replace(label_map, inplace=True)        new_data.to_csv(target_file, index=False, sep="t", header=None)        new_data=None        data=Noneif __name__ == '__main__':    modify_data()

       

/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/pandas/core/frame.py:3798: SettingWithCopyWarning: A value is trying to be set on a copy of a slice from a DataFrameSee the caveats in the documentation: http://pandas.pydata.org/pandas-docs/stable/indexing.html#indexing-view-versus-copy  method=method)

       In [ ]

!head train.csv

       

以前的一位同事和女朋友在一起了很多年,马上就结婚了!今天看到他上传的结婚照,新娘竟然不是她,而是公司的另一同事......现在的情感到底都是闹那样???5那种感觉真美好如果你也对我那样就好了♥3在元旦放假的前一天我们进行考试,远旦放假回来的头一天我们又要考试...每天考考考,做为高三的学生我们容易嘛。『明天的考试只能尽力了』0其实不幸福,只是一比较就幸福了1觉得自己太聪明也就会变傻噜。1我非常讨厌加工作q但是不知道怎么拒绝,毕竟已经拒绝了微信4非诚勿扰告诉我们:身为一个中国女性,无论你再怎么学历牛x、工作拼命、容颜姣好,到了年龄嫁不出去,就不得不穿的像驻马店洗浴中心的工作人员一样,站成一排会见各种奇葩,然后在三分钟的速食相亲之后假装找到真爱。。。2为了塞spn的con还有早餐会删掉了一堆喜欢的剧集存档......波吉亚家族嘤嘤嘤嘤嘤......【看起了蓝光碟【够。0希望每天1要是我没记错的话,我qian包里好像多了两百[挖鼻]5

       In [ ]

!head test.csv

       

【旅游】美食:滇南地区建水的蕈芽、石屏的豆腐、蒙自的过桥米线。滇东北地区菜豆花、连渣搞、酸辣鸡等。滇西地区的大理沙锅鱼、酸辣鱼。丽江粑粑、八大碗。弥渡的卷蹄、风吹肝、腾冲的大救驾,各种凉拌野菜、松尖等。关注【游遍云南】公众微信,让您畅游云南,游遍云南公众微信号:y40001190011想哭,0自己打的赌,赌的很大,不知道自己到底战绩怎样04...这都不是偶然的事情,这是他明白这个事实真相,对生死看得很淡薄,知道要认真努力修行,所以死了之后,自己可以作主,自己可以选择到哪一道去。如果在临终时,一慌一乱,你对身体很留恋,对家亲眷属很留恋,那你往往就到三途去了!6干了这碗香菜我们是好朋友1韩国沉船遇难者'不愿分离'。一男生一女生害怕被水冲开分离紧捆绑在一起。[蜡烛][蜡烛][蜡烛]1那一年,cang井空还是处女,冠希还没有相机,李刚还没有儿子,菊花只是一种花,企鹅不是qq,2b我只知道是铅笔,买方便面还有调料,杯具只是用来刷牙,楼房是用来住的,黄瓜香蕉只是用来吃的,教授还不是叫兽,太阳还不叫日,领导不会写日记,鸭梨还没有这么大,肚子大了也知道是谁的我们还相信真情1小孩子会说谎,大孩子也会说谎,不过,美名其曰为“借口”,不努力,是因为没了目标,没了动力,习惯了堕落。。。3特困户的春天[拜拜]1找院长写推荐信之前把自我介绍想过很多遍,结果院长大人没有赴约;从早到晚在实验室忙碌只为了按时完成实验,结果教授将实验计划改变;纠结了好久今天终于鼓起勇气再加一次某人的微信,结果我貌似在黑名单里面......总以为解决了自己就解决了一切,但是没想到,事情总是有想不懂到的一面。2

       In [ ]

!head eval.csv

       

我告诉自己,要独立,要坚强,要勇敢,要活的漂亮,要让自己永远善良。1人的自信无缘就是来自二种情况一是有钱二是有本事你们说是吗?????????????218.粗一我们是一个学校同宿舍你是我上铺哟老是欺负我!!!是同胞啊嘿嘿内涵你懂。是品味不错的妹子还是大富逼!!总是给我礼物小惊喜啊啥的比如好吃的还有轻松熊本子还有美国带回来的杂志,射射你噜。看样子大学你是要粗国念噜别忘了我啊有空寄明信片啊好吃的好玩的给我不谢!!有缘再见咯高中加油!!3这说什么好呢?学校终于给放假啦!!开心死我了!!哈哈1愿沐儿天天开心~1如果你给不了幸福她,就请你不要伤害她,这样对彼此的伤害会更大。0前排的电车单车都倒地,纠结很久还是决定一辆辆扶起。一电车突然亮灯,一男生走过来,我赶紧解释不是我弄的!男生我知道。心里有点好奇,这哥们太善解人意了,抬头一看那男生,原来刚才走在后面的人不就是他么。倒车的时候,路太窄,我不小心又撞到后面的车,那哥们看了我一眼,继续心疼他的车...0我说那样的话真该死。0害怕失败,容易恐惧,逃避竞争。0当发现一些不该发现的事的时候,她就会下楼,说,还是睡觉吧。5

       In [ ]

train_data=pd.read_csv("train.csv", delimiter="t", header=None) print("train_data length: ",train_data.size)test_data=pd.read_csv("test.csv", delimiter="t", header=None)  print("test_data length: ",test_data.size)eval_data=pd.read_csv("eval.csv", delimiter="t", header=None)  print("eval_data length: ",eval_data.size)df1=train_data[1].value_counts()print(df1)

       

train_data length:  45196test_data length:  14126eval_data length:  113000    78871    57762    27503    26424    26405     5446     359Name: 1, dtype: int64

       In [ ]

%cd ~/dataset/

       

/home/aistudio/dataset

       In [1]

print(label_map)

   

自定义数据集

映射式(map-style)数据集需要继承paddle.io.Dataset

__getitem__: 根据给定索引获取数据集中指定样本,在 paddle.io.DataLoader 中需要使用此函数通过下标获取样本。

__len__: 返回数据集样本个数, paddle.io.BatchSampler 中需要样本个数生成下标序列。

In [ ]

class SelfDefinedDataset(paddle.io.Dataset):    def __init__(self, data):        super(SelfDefinedDataset, self).__init__()        self.data = data    def __getitem__(self, idx):        return self.data[idx]    def __len__(self):        return len(self.data)            def get_labels(self):        return ['0','1','2','3','4','5','6']def txt_to_list(file_name):    res_list = []    for line in open(file_name):        res_list.append(line.strip().split('t'))    return res_listtrainlst = txt_to_list('train.csv')devlst = txt_to_list('eval.csv')testlst = txt_to_list('test.csv')# 通过get_datasets()函数,将list数据转换为dataset。# get_datasets()可接收[list]参数,或[str]参数,根据自定义数据集的写法自由选择。# train_ds, dev_ds, test_ds = ppnlp.datasets.ChnSentiCorp.get_datasets(['train', 'dev', 'test'])train_ds, dev_ds, test_ds = SelfDefinedDataset.get_datasets([trainlst, devlst, testlst])

   In [ ]

label_list = train_ds.get_labels()print(label_list)for i in range(10):    print (train_ds[i])

       

['0', '1', '2', '3', '4', '5', '6']['以前的一位同事和女朋友在一起了很多年,马上就结婚了!今天看到他上传的结婚照,新娘竟然不是她,而是公司的另一同事......现在的情感到底都是闹那样???', '5']['那种感觉真美好如果你也对我那样就好了♥', '3']['在元旦放假的前一天我们进行考试,远旦放假回来的头一天我们又要考试...每天考考考,做为高三的学生我们容易嘛。『明天的考试只能尽力了』', '0']['其实不幸福,只是一比较就幸福了', '1']['觉得自己太聪明也就会变傻噜。', '1']['我非常讨厌加工作q但是不知道怎么拒绝,毕竟已经拒绝了微信', '4']['非诚勿扰告诉我们:身为一个中国女性,无论你再怎么学历牛x、工作拼命、容颜姣好,到了年龄嫁不出去,就不得不穿的像驻马店洗浴中心的工作人员一样,站成一排会见各种奇葩,然后在三分钟的速食相亲之后假装找到真爱。。。', '2']['为了塞spn的con还有早餐会删掉了一堆喜欢的剧集存档......波吉亚家族嘤嘤嘤嘤嘤......【看起了蓝光碟【够。', '0']['希望每天', '1']['要是我没记错的话,我qian包里好像多了两百[挖鼻]', '5']

       

数据处理

为了将原始数据处理成模型可以读入的格式,本项目将对数据作以下处理:

首先使用jieba切词,之后将jieba切完后的单词映射词表中单词id。

自定义数据集OCEMOTION–中文情感分类 - 创想鸟        

使用paddle.io.DataLoader接口多线程异步加载数据。

其中用到了PaddleNLP中关于数据处理的API。PaddleNLP提供了许多关于NLP任务中构建有效的数据pipeline的常用API

API 简介

paddlenlp.data.Stack堆叠N个具有相同shape的输入数据来构建一个batch,它的输入必须具有相同的shape,输出便是这些输入的堆叠组成的batch数据。paddlenlp.data.Pad堆叠N个输入数据来构建一个batch,每个输入数据将会被padding到N个输入数据中最大的长度paddlenlp.data.Tuple将多个组batch的函数包装在一起

更多数据处理操作详见: https://github.com/PaddlePaddle/PaddleNLP/blob/develop/docs/data.md

In [ ]

# 下载词汇表文件word_dict.txt,用于构造词-id映射关系。from utils import load_vocab, convert_example# !wget https://paddlenlp.bj.bcebos.com/data/senta_word_dict.txt# 加载词表vocab = load_vocab('./senta_word_dict.txt')for k, v in vocab.items():    print(k, v)    break

       

[PAD] 0

       In [ ]

import numpy as npfrom functools import partialimport paddle.nn as nnimport paddle.nn.functional as Fimport paddlenlp as ppnlpfrom paddlenlp.data import Pad, Stack, Tuplefrom paddlenlp.datasets import MapDatasetWrapperfrom utils import load_vocab, convert_example

   

构造dataloder

下面的create_data_loader函数用于创建运行和预测时所需要的DataLoader对象。

paddle.io.DataLoader返回一个迭代器,该迭代器根据batch_sampler指定的顺序迭代返回dataset数据。异步加载数据。

batch_sampler:DataLoader通过 batch_sampler 产生的mini-batch索引列表来 dataset 中索引样本并组成mini-batch

collate_fn:指定如何将样本列表组合为mini-batch数据。传给它参数需要是一个callable对象,需要实现对组建的batch的处理逻辑,并返回每个batch的数据。在这里传入的是prepare_input函数,对产生的数据进行pad操作,并返回实际长度等。

In [ ]

# Reads data and generates mini-batches.def create_dataloader(dataset,                      trans_function=None,                      mode='train',                      batch_size=1,                      pad_token_id=0,                      batchify_fn=None):    if trans_function:        dataset = dataset.apply(trans_function, lazy=True)    # return_list 数据是否以list形式返回    # collate_fn  指定如何将样本列表组合为mini-batch数据。传给它参数需要是一个callable对象,需要实现对组建的batch的处理逻辑,并返回每个batch的数据。在这里传入的是`prepare_input`函数,对产生的数据进行pad操作,并返回实际长度等。    dataloader = paddle.io.DataLoader(        dataset,        return_list=True,        batch_size=batch_size,        collate_fn=batchify_fn)            return dataloader# python中的偏函数partial,把一个函数的某些参数固定住(也就是设置默认值),返回一个新的函数,调用这个新函数会更简单。trans_function = partial(    convert_example,    vocab=vocab,    unk_token_id=vocab.get('[UNK]', 1),    is_test=False)# 将读入的数据batch化处理,便于模型batch化运算。# batch中的每个句子将会padding到这个batch中的文本最大长度batch_max_seq_len。# 当文本长度大于batch_max_seq时,将会截断到batch_max_seq_len;当文本长度小于batch_max_seq时,将会padding补齐到batch_max_seq_len.batchify_fn = lambda samples, fn=Tuple(    Pad(axis=0, pad_val=vocab['[PAD]']),  # input_ids    Stack(dtype="int64"),  # seq len    Stack(dtype="int64")  # label): [data for data in fn(samples)]train_loader = create_dataloader(    train_ds,    trans_function=trans_function,    batch_size=128,    mode='train',    batchify_fn=batchify_fn)dev_loader = create_dataloader(    dev_ds,    trans_function=trans_function,    batch_size=128,    mode='validation',    batchify_fn=batchify_fn)test_loader = create_dataloader(    test_ds,    trans_function=trans_function,    batch_size=128,    mode='test',    batchify_fn=batchify_fn)

   

模型搭建

使用LSTMencoder搭建一个BiLSTM模型用于进行句子建模,得到句子的向量表示。

然后接一个线性变换层,完成二分类任务。

paddle.nn.Embedding组建word-embedding层ppnlp.seq2vec.LSTMEncoder组建句子建模层paddle.nn.Linear构造二分类器

自定义数据集OCEMOTION–中文情感分类 - 创想鸟
       

       图1:seq2vec示意图
       除LSTM外,seq2vec还提供了许多语义表征方法,详细可参考:seq2vec介绍In [ ]

class LSTMModel(nn.Layer):    def __init__(self,                 vocab_size,                 num_classes,                 emb_dim=128,                 padding_idx=0,                 lstm_hidden_size=198,                 direction='forward',                 lstm_layers=1,                 dropout_rate=0,                 pooling_type=None,                 fc_hidden_size=96):        super().__init__()        # 首先将输入word id 查表后映射成 word embedding        self.embedder = nn.Embedding(            num_embeddings=vocab_size,            embedding_dim=emb_dim,            padding_idx=padding_idx)        # 将word embedding经过LSTMEncoder变换到文本语义表征空间中        self.lstm_encoder = ppnlp.seq2vec.LSTMEncoder(            emb_dim,            lstm_hidden_size,            num_layers=lstm_layers,            direction=direction,            dropout=dropout_rate,            pooling_type=pooling_type)        # LSTMEncoder.get_output_dim()方法可以获取经过encoder之后的文本表示hidden_size        self.fc = nn.Linear(self.lstm_encoder.get_output_dim(), fc_hidden_size)        # 最后的分类器        self.output_layer = nn.Linear(fc_hidden_size, num_classes)    def forward(self, text, seq_len):        # text shape: (batch_size, num_tokens)        # print('input :', text.shape)                # Shape: (batch_size, num_tokens, embedding_dim)        embedded_text = self.embedder(text)        # print('after word-embeding:', embedded_text.shape)        # Shape: (batch_size, num_tokens, num_directions*lstm_hidden_size)        # num_directions = 2 if direction is 'bidirectional' else 1        text_repr = self.lstm_encoder(embedded_text, sequence_length=seq_len)        # print('after lstm:', text_repr.shape)        # Shape: (batch_size, fc_hidden_size)        fc_out = paddle.tanh(self.fc(text_repr))        # print('after Linear classifier:', fc_out.shape)        # Shape: (batch_size, num_classes)        logits = self.output_layer(fc_out)        # print('output:', logits.shape)                # probs 分类概率值        probs = F.softmax(logits, axis=-1)        # print('output probability:', probs.shape)        return probsmodel= LSTMModel(        len(vocab),        len(label_list),        direction='bidirectional',        padding_idx=vocab['[PAD]'])model = paddle.Model(model)

   

模型配置和训练

In [ ]

optimizer = paddle.optimizer.Adam(        parameters=model.parameters(), learning_rate=5e-5)loss = paddle.nn.CrossEntropyLoss()metric = paddle.metric.Accuracy()model.prepare(optimizer, loss, metric)

   In [ ]

# 设置visualdl路径log_dir = './visualdl'callback = paddle.callbacks.VisualDL(log_dir=log_dir)

   In [53]

model.fit(train_loader, dev_loader, epochs=20, save_dir='./checkpoints', save_freq=5, callbacks=callback)

   In [54]

results = model.evaluate(dev_loader)print("Finally test acc: %.5f" % results['acc'])

       

Eval begin...The loss value printed in the log is the current batch, and the metric is the average value of previous step.step 10/45 - loss: 1.6787 - acc: 0.4602 - 56ms/stepstep 20/45 - loss: 1.6627 - acc: 0.4582 - 46ms/stepstep 30/45 - loss: 1.7386 - acc: 0.4547 - 43ms/stepstep 40/45 - loss: 1.7037 - acc: 0.4514 - 41ms/stepstep 45/45 - loss: 1.7308 - acc: 0.4526 - 37ms/stepEval samples: 5650Finally test acc: 0.45257

       In [59]

label_map={0:"sadness", 1:"happiness",2:"disgust",3:"like",4:"anger" ,5:"surprise",6:"fear"}results = model.predict(test_loader, batch_size=128)[0]predictions = []for batch_probs in results:    # 映射分类label    idx = np.argmax(batch_probs, axis=-1)    idx = idx.tolist()    labels = [label_map[i] for i in idx]    predictions.extend(labels)# 看看预测数据前5个样例分类结果for idx, data in enumerate(test_ds.data[:10]):    print('Data: {} t Label: {}'.format(data[0], predictions[idx]))

       

Predict begin...step 56/56 [==============================] - ETA: 4s - 85ms/ste - ETA: 4s - 88ms/ste - ETA: 3s - 72ms/ste - ETA: 3s - 64ms/ste - ETA: 2s - 60ms/ste - ETA: 2s - 56ms/ste - ETA: 2s - 54ms/ste - ETA: 2s - 52ms/ste - ETA: 1s - 51ms/ste - ETA: 1s - 50ms/ste - ETA: 1s - 49ms/ste - ETA: 1s - 48ms/ste - ETA: 1s - 47ms/ste - ETA: 1s - 46ms/ste - ETA: 1s - 46ms/ste - ETA: 1s - 46ms/ste - ETA: 0s - 45ms/ste - ETA: 0s - 45ms/ste - ETA: 0s - 45ms/ste - ETA: 0s - 45ms/ste - ETA: 0s - 45ms/ste - ETA: 0s - 44ms/ste - ETA: 0s - 44ms/ste - ETA: 0s - 44ms/ste - ETA: 0s - 44ms/ste - ETA: 0s - 43ms/ste - ETA: 0s - 41ms/ste - 40ms/step          Predict samples: 7063Data: 【旅游】美食:滇南地区建水的蕈芽、石屏的豆腐、蒙自的过桥米线。滇东北地区菜豆花、连渣搞、酸辣鸡等。滇西地区的大理沙锅鱼、酸辣鱼。丽江粑粑、八大碗。弥渡的卷蹄、风吹肝、腾冲的大救驾,各种凉拌野菜、松尖等。关注【游遍云南】公众微信,让您畅游云南,游遍云南公众微信号:y4000119001  Label: happinessData: 想哭,  Label: sadnessData: 自己打的赌,赌的很大,不知道自己到底战绩怎样  Label: disgustData: 4...这都不是偶然的事情,这是他明白这个事实真相,对生死看得很淡薄,知道要认真努力修行,所以死了之后,自己可以作主,自己可以选择到哪一道去。如果在临终时,一慌一乱,你对身体很留恋,对家亲眷属很留恋,那你往往就到三途去了!  Label: happinessData: 干了这碗香菜我们是好朋友  Label: disgustData: 韩国沉船遇难者'不愿分离'。一男生一女生害怕被水冲开分离紧捆绑在一起。[蜡烛][蜡烛][蜡烛]  Label: happinessData: 那一年,cang井空还是处女,冠希还没有相机,李刚还没有儿子,菊花只是一种花,企鹅不是qq,2b我只知道是铅笔,买方便面还有调料,杯具只是用来刷牙,楼房是用来住的,黄瓜香蕉只是用来吃的,教授还不是叫兽,太阳还不叫日,领导不会写日记,鸭梨还没有这么大,肚子大了也知道是谁的我们还相信真情  Label: sadnessData: 小孩子会说谎,大孩子也会说谎,不过,美名其曰为“借口”,不努力,是因为没了目标,没了动力,习惯了堕落。。。  Label: sadnessData: 特困户的春天[拜拜]  Label: sadnessData: 找院长写推荐信之前把自我介绍想过很多遍,结果院长大人没有赴约;从早到晚在实验室忙碌只为了按时完成实验,结果教授将实验计划改变;纠结了好久今天终于鼓起勇气再加一次某人的微信,结果我貌似在黑名单里面......总以为解决了自己就解决了一切,但是没想到,事情总是有想不懂到的一面。  Label: disgust

       代码解释In [ ]


   

以上就是自定义数据集OCEMOTION–中文情感分类的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/768226.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月26日 04:07:13
下一篇 2025年11月26日 04:19:58

相关推荐

  • php中PDO库是什么

    PDO是PHP中用于统一访问多种数据库的抽象层,通过更换DSN即可切换数据库,无需重写操作语句;支持预处理防止SQL注入,推荐设置ERRMODE_EXCEPTION模式便于错误捕获,结合try-catch使用更安全稳定。 PDO(PHP Data Objects)是 PHP 中用于访问数据库的一个轻…

    2025年12月13日
    000
  • 解决Symfony异步邮件立即发送问题:基于Cron的调度策略

    本教程探讨了Symfony中异步邮件发送的常见挑战,特别是当配置Messenger期望延迟发送,但邮件却立即发出的情况。文章解释了`MailerInterface::send()`的同步特性,并提出了一种基于数据库存储、Symfony控制台命令结合Cron任务的解决方案。这种方法将邮件创建与发送解耦…

    2025年12月13日
    000
  • 后端静态文件服务配置:实现前端安全高效访问服务器资源

    本文将指导开发者如何解决前端应用无法直接通过后端服务器的本地文件路径访问资源的问题。核心方案是配置后端服务以安全、高效地提供静态文件,从而允许前端通过http请求正确加载图片、文档等服务器存储的资源,避免直接暴露文件系统结构。 理解问题:前端为何无法直接访问后端本地文件路径 在Web开发中,前端应用…

    2025年12月13日
    000
  • php怎么安装源码_php源码安装依赖与环境配置指南

    必须预先配置编译环境与依赖库,否则PHP源码编译将失败。首先安装GCC、make、autoconf等工具链并验证版本;接着安装openssl-devel、libcurl4-openssl-dev、zlib1g-dev、libpcre3-dev等核心开发库;根据需要安装libjpeg-dev、mari…

    2025年12月13日
    000
  • 网页php源码怎么_网页php源码查看与嵌入方法

    要查看或嵌入PHP源码需通过服务器本地访问、代码编辑器打开、版本控制系统获取、在.php文件中嵌入代码,或使用include/require语句包含外部文件,确保运行环境支持PHP解析。 如果您想查看网页中的PHP源码或将其嵌入到自己的项目中,需要注意的是PHP作为服务器端脚本语言,通常不会直接在浏…

    2025年12月13日
    000
  • php源码怎么换图片_php源码换图片路径与样式设置法【教程】

    更换网页图片需根据实现方式选择修改方法:一、直接替换img标签src属性;二、更新PHP变量中的路径值;三、修改CSS background-image的url;四、通过PHP常量统一管理路径;五、同步替换srcset或picture标签中的多分辨率图片。每步均需确保新路径正确且资源可访问。 如果您…

    2025年12月13日
    000
  • php二进制加密代码怎么解密_用PHP解析二进制加密数据教程【技巧】

    首先判断二进制数据的编码类型,常见包括base64、PHP序列化、gz压缩和异或加密;通过分析数据特征或尝试解码识别。若为base64编码,使用base64_decode还原二进制流;若含s:、a:、O:等标识,则调用unserialize反序列化;若数据被压缩,使用gzinflate或gzunco…

    2025年12月13日
    000
  • php怎么改源码_php改源码逻辑调整与保存调试法【教程】

    要修改PHP程序行为需先理解源码结构,定位关键逻辑后调整条件、函数或数组处理,保存为UTF-8编码;再搭建本地环境测试,利用var_dump和error_log调试;最后通过Git备份并安全部署。 如果您需要修改PHP程序的行为或修复功能异常,通常需要调整其源码逻辑并确保修改后能正确保存与调试。以下…

    2025年12月13日
    000
  • php+源码+怎么部署_php+源码部署服务器与配置法【教程】

    首先搭建服务器环境,安装Apache、PHP和MySQL;接着上传PHP源码至Web根目录并解压,设置正确权限;然后配置数据库连接信息,创建数据库并导入数据;之后配置Apache虚拟主机,启用站点并重启服务;最后通过浏览器访问项目地址,检查错误日志并排查问题确保正常运行。 如果您获得了PHP源码项目…

    2025年12月13日
    000
  • php源码文件怎么保存_php源码文件保存格式与备份操作【教程】

    正确保存和备份PHP源码需遵循标准格式与多级备份策略。一、保存时使用.%ignore_a_1%名,UTF-8无BOM编码,以 如果您需要对PHP源码文件进行保存或备份,以确保代码的完整性和可恢复性,则必须遵循正确的文件格式和操作流程。以下是具体的处理方法: 一、正确保存PHP源码文件格式 保存PHP…

    2025年12月13日
    000
  • php源码怎么弄_php源码获取与基础操作方法【教程】

    获取PHP源码可通过GitHub克隆、官网下载压缩包或包管理器安装;源码结构包含Zend引擎、扩展模块等核心目录,编译需配置工具链并执行buildconf、configure、make步骤,最终生成PHP二进制文件用于调试与测试。 如果您希望学习PHP编程或对现有PHP项目进行调试与修改,则需要获取…

    2025年12月13日
    000
  • php怎么获取源码_php获取源码渠道与安全方法

    答案:获取PHP源码的合法方式包括本地开发环境访问、版本控制系统克隆、授权范围内利用服务器备份文件、运行时函数输出及解密工具还原。具体为:①通过XAMPP等环境部署项目并用IDE查看;②从GitHub等平台git clone开源项目;③在授权下检测并下载.bak等备份文件;④使用highlight_…

    2025年12月13日
    000
  • php源码怎么二次开发_二次开发php源码入门法

    一、搭建本地开发环境,安装XAMPP等集成工具,配置Apache与PHP,开启错误报告;二、分析源码结构,定位入口文件index.php和config.php,理清模块依赖;三、备份原始代码并使用Git进行版本控制,创建功能分支;四、修改控制器与视图文件,添加新功能如导出CSV,注册路由并添加注释;…

    2025年12月13日
    000
  • 怎么查看php网页源码_查看php网页源码抓取与显示法【技巧】

    无法直接查看PHP网页源码,因服务器已执行代码并返回HTML。可通过本地环境运行、利用授权漏洞测试、修改服务器配置阻止解析或克隆版本控制仓库获取源码。其中,本地部署XAMPP等工具可直接读取文件;存在文件包含漏洞时可用php://filter读取编码后源码;配置AddType text/plain …

    2025年12月13日
    000
  • php怎么找源码_php找源码渠道与安全获取技巧

    可通过开源平台如GitHub、官方渠道、Composer、技术社区及本地服务器安全获取PHP源码。首先选择可信来源,优先下载高星项目或官网发布版本,并核对哈希值确保完整性;其次利用Composer安装依赖查看第三方库代码,或参与社区交流获取实战项目资源;最后可登录部署服务器直接浏览现有系统源码结构,…

    2025年12月13日
    000
  • php安装源码怎么修改_php安装源码修改配置与重装法【教程】

    首先修改PHP源码目录下的build-defs.h.in或configure.ac文件,保存后运行./buildconf –force重新生成configure脚本;接着通过执行./configure –help查看可选参数,并根据需求编写如–prefix、&#8…

    2025年12月13日
    000
  • 怎么获取php网站源码_获取php网站源码合法渠道与步骤【指南】

    可通过开源平台、授权申请、购买市场或版本控制合法获取PHP网站源码:首先在GitHub或官网下载开源项目并确认许可证;其次联系网站所有者提交正式请求,签署协议后获取授权;再次从Codecanyon等平台购买并下载含源码的模板;最后若拥有权限,可用Git克隆仓库并检出历史版本,确保全过程合规。 如果您…

    2025年12月13日
    000
  • php源码怎么保存_php源码保存格式与备份方法技巧

    应以.php扩展名和UTF-8编码保存PHP文件,规范目录结构,通过手动压缩、Git版本控制或定时脚本实现本地与云端备份,确保代码安全可恢复。 如果您在开发或维护PHP项目时需要确保代码的安全性和可恢复性,合理的保存格式与备份策略至关重要。以下是关于PHP源码保存与备份的具体操作方法: 一、选择合适…

    2025年12月13日
    000
  • 别人的php源码怎么用_别人的php源码用部署与合规法【指南】

    拿到PHP源码后需先确认授权、搭建环境、审查代码并合规使用,确保来源合法、配置正确、无安全风险后方可运行。 拿到别人的PHP源码后,不能直接运行或上线使用。正确的方式是理解代码结构、部署到合适环境,并确保使用过程合法合规。以下是具体操作步骤和注意事项。 一、确认源码来源与授权 在使用任何第三方PHP…

    2025年12月13日
    000
  • php laravel框架自带命令的实现

    Laravel通过Artisan创建自定义命令,使用php artisan make:command SendEmails生成命令类,位于app/Console/Commands目录;在Kernel.php的$commands数组中注册后,可通过php artisan send:emails运行;通…

    2025年12月13日
    000

发表回复

登录后才能评论
关注微信