【AI达人特训营】PaddleNLP实现聊天问答匹配

【飞桨领航团】AI达人特训营:PaddleNLP实现聊天问答匹配

1. 项目背景

本项目是ai达人特训营的选题,目测该选题来自这个比赛:房产行业聊天问答匹配

背景: 贝壳找房是以技术驱动的品质居住服务平台,“有尊严的服务者、更美好的居住”,是贝壳的使命。在帮助客户实现更美好的居住过程中,客户会和服务者(房产经纪人)反复深入交流对居住的要求,这个交流发生在贝壳APP上的IM中。
IM交流是双方建立信任的必要环节,客户需要在这个场景下经常向服务者咨询许多问题,而服务者是否为客户提供了感受良好、解答专业的服务就很重要,贝壳平台对此非常关注。因此,需要准确找出服务者是否回答了客户的问题,并进一步判断回答得是否准确得体,随着贝壳平台规模扩大,需要AI参与这个过程。

任务:
赛题任务:给定IM交流片段,片段包含一个客户问题以及随后的经纪人若干IM消息,从这些随后的经纪人消息中找出一个是对客户问题的回答。
任务要点:

数据来自一个IM聊天交流过程;选取的客户问题之前的聊天内容不会提供;提供客户问题之后的经纪人发送的内容;如果在这些经纪人发送内容之间原本来穿插了其他客户消息,不会提供;这些经纪人发送内容中有0条或多条对客户问题的回答,把它找出来。

结果:

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

【AI达人特训营】PaddleNLP实现聊天问答匹配 - 创想鸟        

说明:比赛已经比较久了,现在只能获取长期公开赛的评分排名,而且没什么人,不过用来学习文本匹配思路还是不错的。

2. 数据集

2.1 数据说明

一共有三份数据:训练集、测试集和提交示例。

训练集包含客户问题文件和经纪人回复两个文件,涉及6000段对话(有标签答案)。

测试集包含客户问题文件和经纪人回复两个文件,涉及14000段对话(无标签答案)。

2.2 数据示例

解压训练集和测试集

In [1]

!unzip data/data144231/train.zip -d ./data && unzip data/data144231/test.zip -d ./data

       

Archive:  data/data144231/train.zip   creating: ./data/train/  inflating: ./data/train/train.query.tsv    inflating: ./data/train/train.reply.tsv  Archive:  data/data144231/test.zip   creating: ./data/test/  inflating: ./data/test/test.query.tsv    inflating: ./data/test/test.reply.tsv

       

查看数据示例

In [2]

import pandas as pdtrain_query = pd.read_csv("data/train/train.query.tsv", sep='t', header=None)train_query.columns = ['query_id', 'sentence']# query 文件有 2 列,分别是问题 Id 和客户问题,同一对话 Id 只有一个问题,已脱敏print(train_query.head())train_reply = pd.read_csv("data/train/train.reply.tsv", sep='t', header=None)train_reply.columns = ['query_id', 'reply_id', 'sentence', 'label']# reply 文件有 4 列,分别是:# 对话id,对应客户问题文件中的对话 id # 经纪人回复 Id,Id 对应真实回复顺序# 经纪人回复内容,已脱敏# 经纪人回复标签,1 表示此回复是针对客户问题的回答,0 相反print(train_reply.head())# 训练集文件结构与测试集相同,只不过 reply 文件没有回复标签test_query = pd.read_csv("data/test/test.query.tsv", sep='t', header=None, encoding='gb18030')test_query.columns = ['query_id', 'sentence']print(test_query.head())test_reply = pd.read_csv("data/test/test.reply.tsv", sep='t', header=None, encoding='gb18030')test_reply.columns = ['query_id', 'reply_id', 'sentence']print(test_reply.head())

       

   query_id            sentence0         0            采荷一小是分校吧1         1                毛坯吗?2         2  你们的佣金费大约是多少和契税是多少。3         3             靠近川沙路嘛?4         4      这套房源价格还有优惠空间吗?   query_id  reply_id                     sentence  label0         0         0  杭州市采荷第一小学钱江苑校区,杭州市钱江新城实验学校。      11         0         1                           是的      02         0         2                         这是5楼      03         1         0                   因为公积金贷款贷的少      04         1         1                           是呢      0   query_id      sentence0         0  东区西区?什么时候下证?1         1          小学哪个2         2          看哪个?3         3     面积多少,什么户型4         4    什么时候能够看房呢?   query_id  reply_id      sentence0         0         0        我在给你发套1         0         1     您看下我发的这几套2         0         2    这两套也是金源花园的3         0         3           价钱低4         0         4  便宜的房子,一般都是顶楼

       

3. ERNIE 系列模型

原文:

ERNIE: Enhanced Representation through Knowledge IntegrationERNIE 2.0: A Continual Pre-training Framework for Language UnderstandingERNIE 3.0: Large-scale Knowledge Enhanced Pre-training for Language Understanding and Generation

ERNIE 1.0

首先对原始的MLM任务进行改进,引入了Entity-level masking和Phrase-level masking,帮助模型学习更多的词汇短语知识,这个任务也成为了后续中文预训练模型的标配:

【AI达人特训营】PaddleNLP实现聊天问答匹配 - 创想鸟        

Entity-level masking 和 Phrase-level masking

同时引入了DLM(Dialogue Language Model)对NSP任务进行了优化,在预测Mask token的同时判断输入的多轮对话(QRQ、QRR、QQR三种模式)是否真实。

【AI达人特训营】PaddleNLP实现聊天问答匹配 - 创想鸟        

Dialogue Language Model

ERNIE 2.0

首先是框架上的闭环化,把各种下游任务持续加入模型中提升效果:

【AI达人特训营】PaddleNLP实现聊天问答匹配 - 创想鸟        

ERNIE 2.0

其次引入更多预训练任务,细节参见原论文。

ERNIE 3.0

3.0版本首先延续了之前有效的预训练任务。

其次3.0版本提出了海量无监督文本与大规模知识图谱的平行预训练方法 (Universal Knowledge-Text Prediction)。将5千万知识图谱三元组与4TB大规模语料中相关的文本组成pair,同时输入到预训练模型之中进行联合掩码训练:

【AI达人特训营】PaddleNLP实现聊天问答匹配 - 创想鸟        

Universal Knowledge-Text Prediction

语料库 4TB,我的天!!!

小鸽子助手 小鸽子助手

一款集成于WPS/Word的智能写作插件

小鸽子助手 55 查看详情 小鸽子助手

结构上,ERNIE 3.0框架分为两层。第一层是通用语义表示网络,该网络学习数据中的基础和通用的知识。第二层是任务语义表示网络,该网络基于通用语义表示,学习任务相关的知识。在学习过程中,任务语义表示网络只学习对应类别的预训练任务,而通用语义表示网络会学习所有的预训练任务。

【AI达人特训营】PaddleNLP实现聊天问答匹配 - 创想鸟        

ERNIE 3.0模型框架

本项目使用 3.0 版本预训练模型。

4. 解题思路

由于回答是不连续的,所以可以将问题和答案一一对应,组成 query-reply-pair,然后进行文本分类,分别判断是否是针对问题的回答。

【AI达人特训营】PaddleNLP实现聊天问答匹配 - 创想鸟        

虽然对话是不连续的,但是是同一个对话,不同的回答可能相互支撑,提供部分信息,所以,第二种思路就是将同一个问题的所有回答都拼接在当前回答后面,然后同时对每一个回答进行判断。

【AI达人特训营】PaddleNLP实现聊天问答匹配 - 创想鸟        

在思路 2 的基础上,还可以把 [CLS] 对应的输出拿出来,预测所有候选 reply 中是否存在可以匹配的回答。

本项目采用思路 1 作为 baseline 。

5. Talk is cheap, show me the code

首先安装最新版本的 paddlenlp

In [ ]

!pip install paddlenlp --upgrade

   

上述安装过程可能会报错,大概是parl包的版本依赖问题,对于本项目来说无伤大雅。

训练、测试代码都写在 query_reply_pair.py 文件中,有详细注释。

注意:

你可能需要在 main() 中的 args 列表下,修改训练参数。为了便于展示结果,避免输出信息过长,下面的结果是在 num_train_epochs = 0.5 的参数下输出的,为了更好的结果,这里可能需要修改,项目开头展示的成绩是 num_train_epochs = 5.0 的结果。

运行脚本:

In [4]

!python query_reply_pair.py

       

[2022-06-22 10:04:10,523] [    INFO] - using `logging_steps` to initialize `eval_steps` to 100[2022-06-22 10:04:10,523] [    INFO] - ============================================================[2022-06-22 10:04:10,523] [    INFO] -      Model Configuration Arguments      [2022-06-22 10:04:10,523] [    INFO] - paddle commit id              :590b4dbcdd989324089ce43c22ef151c746c92a3[2022-06-22 10:04:10,523] [    INFO] - export_model_dir              :None[2022-06-22 10:04:10,523] [    INFO] - model_name_or_path            :ernie-3.0-medium-zh[2022-06-22 10:04:10,524] [    INFO] - [2022-06-22 10:04:10,524] [    INFO] - ============================================================[2022-06-22 10:04:10,524] [    INFO] -       Data Configuration Arguments      [2022-06-22 10:04:10,524] [    INFO] - paddle commit id              :590b4dbcdd989324089ce43c22ef151c746c92a3[2022-06-22 10:04:10,524] [    INFO] - max_seq_length                :128[2022-06-22 10:04:10,524] [    INFO] - test_query_path               :data/test/test.query.tsv[2022-06-22 10:04:10,524] [    INFO] - test_reply_path               :data/test/test.reply.tsv[2022-06-22 10:04:10,524] [    INFO] - train_query_path              :data/train/train.query.tsv[2022-06-22 10:04:10,524] [    INFO] - train_reply_path              :data/train/train.reply.tsv[2022-06-22 10:04:10,524] [    INFO] - raw train dataset example: {'query': '东区西区?什么时候下证?', 'reply': '我在给你发套'}.[2022-06-22 10:04:11,911] [    INFO] - We are using  to load 'ernie-3.0-medium-zh'.[2022-06-22 10:04:11,911] [    INFO] - Already cached /home/aistudio/.paddlenlp/models/ernie-3.0-medium-zh/ernie_3.0_medium_zh_vocab.txt[2022-06-22 10:04:11,934] [    INFO] - We are using  to load 'ernie-3.0-medium-zh'.[2022-06-22 10:04:11,934] [    INFO] - Already cached /home/aistudio/.paddlenlp/models/ernie-3.0-medium-zh/ernie_3.0_medium_zh.pdparamsW0622 10:04:11.936193  1093 gpu_context.cc:278] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 11.2, Runtime API Version: 10.1W0622 10:04:11.939395  1093 gpu_context.cc:306] device: 0, cuDNN Version: 7.6.feature train dataset example: {'input_ids': [1, 481, 1535, 7, 96, 10, 59, 225, 940, 2, 1852, 404, 99, 481, 1535, 131, 7, 96, 18, 958, 409, 2485, 225, 121, 4, 1852, 404, 99, 958, 409, 102, 257, 79, 412, 18, 225, 12043, 2], 'token_type_ids': [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1], 'label': 1}.[2022-06-22 10:04:16,960] [    INFO] - ============================================================[2022-06-22 10:04:16,960] [    INFO] -     Training Configuration Arguments    [2022-06-22 10:04:16,960] [    INFO] - paddle commit id              :590b4dbcdd989324089ce43c22ef151c746c92a3[2022-06-22 10:04:16,961] [    INFO] - _no_sync_in_gradient_accumulation:True[2022-06-22 10:04:16,961] [    INFO] - adam_beta1                    :0.9[2022-06-22 10:04:16,961] [    INFO] - adam_beta2                    :0.999[2022-06-22 10:04:16,961] [    INFO] - adam_epsilon                  :1e-08[2022-06-22 10:04:16,961] [    INFO] - current_device                :gpu:0[2022-06-22 10:04:16,961] [    INFO] - dataloader_drop_last          :False[2022-06-22 10:04:16,961] [    INFO] - dataloader_num_workers        :4[2022-06-22 10:04:16,961] [    INFO] - device                        :gpu[2022-06-22 10:04:16,961] [    INFO] - disable_tqdm                  :False[2022-06-22 10:04:16,961] [    INFO] - do_eval                       :True[2022-06-22 10:04:16,961] [    INFO] - do_export                     :False[2022-06-22 10:04:16,961] [    INFO] - do_predict                    :True[2022-06-22 10:04:16,961] [    INFO] - do_train                      :True[2022-06-22 10:04:16,961] [    INFO] - eval_batch_size               :128[2022-06-22 10:04:16,961] [    INFO] - eval_steps                    :100[2022-06-22 10:04:16,961] [    INFO] - evaluation_strategy           :IntervalStrategy.STEPS[2022-06-22 10:04:16,961] [    INFO] - fp16                          :False[2022-06-22 10:04:16,961] [    INFO] - fp16_opt_level                :O1[2022-06-22 10:04:16,961] [    INFO] - gradient_accumulation_steps   :1[2022-06-22 10:04:16,961] [    INFO] - greater_is_better             :True[2022-06-22 10:04:16,962] [    INFO] - ignore_data_skip              :False[2022-06-22 10:04:16,962] [    INFO] - label_names                   :None[2022-06-22 10:04:16,962] [    INFO] - learning_rate                 :5e-05[2022-06-22 10:04:16,962] [    INFO] - load_best_model_at_end        :True[2022-06-22 10:04:16,962] [    INFO] - local_process_index           :0[2022-06-22 10:04:16,962] [    INFO] - local_rank                    :-1[2022-06-22 10:04:16,962] [    INFO] - log_level                     :-1[2022-06-22 10:04:16,962] [    INFO] - log_level_replica             :-1[2022-06-22 10:04:16,962] [    INFO] - log_on_each_node              :True[2022-06-22 10:04:16,962] [    INFO] - logging_dir                   :work/query_reply_pair/runs/Jun22_10-04-10_jupyter-532817-4195533[2022-06-22 10:04:16,962] [    INFO] - logging_first_step            :False[2022-06-22 10:04:16,962] [    INFO] - logging_steps                 :100[2022-06-22 10:04:16,962] [    INFO] - logging_strategy              :IntervalStrategy.STEPS[2022-06-22 10:04:16,962] [    INFO] - lr_scheduler_type             :SchedulerType.LINEAR[2022-06-22 10:04:16,962] [    INFO] - max_grad_norm                 :1.0[2022-06-22 10:04:16,962] [    INFO] - max_steps                     :-1[2022-06-22 10:04:16,962] [    INFO] - metric_for_best_model         :accuracy[2022-06-22 10:04:16,962] [    INFO] - minimum_eval_times            :None[2022-06-22 10:04:16,962] [    INFO] - no_cuda                       :False[2022-06-22 10:04:16,962] [    INFO] - num_train_epochs              :0.5[2022-06-22 10:04:16,962] [    INFO] - optim                         :OptimizerNames.ADAMW[2022-06-22 10:04:16,962] [    INFO] - output_dir                    :work/query_reply_pair/test[2022-06-22 10:04:16,962] [    INFO] - overwrite_output_dir          :False[2022-06-22 10:04:16,962] [    INFO] - past_index                    :-1[2022-06-22 10:04:16,962] [    INFO] - per_device_eval_batch_size    :128[2022-06-22 10:04:16,962] [    INFO] - per_device_train_batch_size   :128[2022-06-22 10:04:16,963] [    INFO] - prediction_loss_only          :False[2022-06-22 10:04:16,963] [    INFO] - process_index                 :0[2022-06-22 10:04:16,963] [    INFO] - remove_unused_columns         :True[2022-06-22 10:04:16,963] [    INFO] - report_to                     :['visualdl'][2022-06-22 10:04:16,963] [    INFO] - resume_from_checkpoint        :None[2022-06-22 10:04:16,963] [    INFO] - run_name                      :test[2022-06-22 10:04:16,963] [    INFO] - save_on_each_node             :False[2022-06-22 10:04:16,963] [    INFO] - save_steps                    :100[2022-06-22 10:04:16,963] [    INFO] - save_strategy                 :IntervalStrategy.STEPS[2022-06-22 10:04:16,963] [    INFO] - save_total_limit              :2[2022-06-22 10:04:16,963] [    INFO] - scale_loss                    :32768[2022-06-22 10:04:16,963] [    INFO] - seed                          :42[2022-06-22 10:04:16,963] [    INFO] - should_log                    :True[2022-06-22 10:04:16,963] [    INFO] - should_save                   :True[2022-06-22 10:04:16,963] [    INFO] - train_batch_size              :128[2022-06-22 10:04:16,963] [    INFO] - warmup_ratio                  :0.0[2022-06-22 10:04:16,963] [    INFO] - warmup_steps                  :0[2022-06-22 10:04:16,963] [    INFO] - weight_decay                  :0.0[2022-06-22 10:04:16,963] [    INFO] - world_size                    :1[2022-06-22 10:04:16,963] [    INFO] - [2022-06-22 10:04:16,964] [    INFO] - ***** Running training *****[2022-06-22 10:04:16,965] [    INFO] -   Num examples = 17268[2022-06-22 10:04:16,965] [    INFO] -   Num Epochs = 1[2022-06-22 10:04:16,965] [    INFO] -   Instantaneous batch size per device = 128[2022-06-22 10:04:16,965] [    INFO] -   Total train batch size (w. parallel, distributed & accumulation) = 128[2022-06-22 10:04:16,965] [    INFO] -   Gradient Accumulation steps = 1[2022-06-22 10:04:16,965] [    INFO] -   Total optimization steps = 67.5[2022-06-22 10:04:16,965] [    INFO] -   Total num train samples = 8634.0100%|███████████████████████████████████████████| 67/67 [00:17<00:00,  4.40it/s][2022-06-22 10:04:34,326] [    INFO] - Training completed. {'train_runtime': 17.4487, 'train_samples_per_second': 494.821, 'train_steps_per_second': 3.84, 'train_loss': 0.352832708785783, 'epoch': 0.4963}100%|███████████████████████████████████████████| 67/67 [00:17<00:00,  3.84it/s][2022-06-22 10:04:34,416] [    INFO] - Saving model checkpoint to work/query_reply_pair/test[2022-06-22 10:04:36,894] [    INFO] - tokenizer config file saved in work/query_reply_pair/test/tokenizer_config.json[2022-06-22 10:04:36,895] [    INFO] - Special tokens file saved in work/query_reply_pair/test/special_tokens_map.json***** train metrics *****  epoch                    =     0.4963  train_loss               =     0.3528  train_runtime            = 0:00:17.44  train_samples_per_second =    494.821  train_steps_per_second   =       3.84[2022-06-22 10:04:36,898] [    INFO] - ***** Running Evaluation *****[2022-06-22 10:04:36,898] [    INFO] -   Num examples = 4317[2022-06-22 10:04:36,898] [    INFO] -   Pre device batch size = 128[2022-06-22 10:04:36,898] [    INFO] -   Total Batch size = 128[2022-06-22 10:04:36,898] [    INFO] -   Total prediction steps = 34100%|███████████████████████████████████████████| 34/34 [00:02<00:00, 12.31it/s]***** eval metrics *****  epoch                   =     0.4963  eval_accuracy           =     0.8826  eval_loss               =      0.283  eval_runtime            = 0:00:03.21  eval_samples_per_second =   1344.038  eval_steps_per_second   =     10.585[2022-06-22 10:04:40,112] [    INFO] - ***** Running Prediction *****[2022-06-22 10:04:40,112] [    INFO] -   Num examples = 53757[2022-06-22 10:04:40,112] [    INFO] -   Pre device batch size = 128[2022-06-22 10:04:40,112] [    INFO] -   Total Batch size = 128[2022-06-22 10:04:40,112] [    INFO] -   Total prediction steps = 420100%|█████████████████████████████████████████| 420/420 [00:51<00:00, 11.37it/s]***** test metrics *****  test_runtime            = 0:00:52.06  test_samples_per_second =   1032.496  test_steps_per_second   =      8.067100%|█████████████████████████████████████████| 420/420 [00:52<00:00,  7.95it/s]

       

训练结果可视化:

点击页面最左侧一列菜单栏中的 数据模型可视化 ,添加 logdir 然后启动服务,就可以看到训练过程的 loss 曲线等信息。

log 文件会保存在类似 work/query_reply_pair/runs/Jun22_10-01-49_jupyter-532817-4195533 这样的路径下面。

由于上面训练过程只跑了 0.5 个 epoch,曲线基本只有一个点,这里就不进行展示了。

测试集预测结果保存在 work/query_reply_pair/test/test_labels.tsv 文件中,你可以直接点开看一下结果。

In [7]

import pandas as pdfile_path = "work/query_reply_pair/test/test_labels.tsv"df = pd.read_csv(file_path, sep='t')df.head()

       

          query         reply  label0  东区西区?什么时候下证?        我在给你发套      01  东区西区?什么时候下证?     您看下我发的这几套      02  东区西区?什么时候下证?    这两套也是金源花园的      03  东区西区?什么时候下证?           价钱低      04  东区西区?什么时候下证?  便宜的房子,一般都是顶楼      0

               

生成竞赛提交文件:

In [8]

import pandas as pdsample_submit_path = "data/data144231/sample_submission.tsv"submit_path = "submit.tsv"submit = pd.read_csv(sample_submit_path, sep='t', header=None)submit.columns = ['query_id', 'reply_id', 'label']test_labels = pd.read_csv(file_path, sep='t')label = test_labels['label']submit['label'] = labelsubmit.to_csv(submit_path, sep='t', header=None, index=None)

   

根目录下 submit.tsv 文件就可以拿去提交啦,提交大概 0.75+ 的分数 (num_train_epochs = 5.0 的情况下)。

以上就是【AI达人特训营】PaddleNLP实现聊天问答匹配的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/740135.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月25日 14:45:32
下一篇 2025年11月25日 14:49:20

相关推荐

  • 怎样用免费工具美化PPT_免费美化PPT的实用方法分享

    利用KIMI智能助手可免费将PPT美化为科技感风格,但需核对文字准确性;2. 天工AI擅长优化内容结构,提升逻辑性,适合高质量内容需求;3. SlidesAI支持语音输入与自动排版,操作便捷,利于紧急场景;4. Prezo提供多种模板,自动生成图文并茂幻灯片,适合学生与初创团队。 如果您有一份内容完…

    2025年12月6日 软件教程
    000
  • Pages怎么协作编辑同一文档 Pages多人实时协作的流程

    首先启用Pages共享功能,点击右上角共享按钮并选择“添加协作者”,设置为可编辑并生成链接;接着复制链接通过邮件或社交软件发送给成员,确保其使用Apple ID登录iCloud后即可加入编辑;也可直接在共享菜单中输入邮箱地址定向邀请,设定编辑权限后发送;最后在共享面板中管理协作者权限,查看实时在线状…

    2025年12月6日 软件教程
    100
  • REDMI K90系列正式发布,售价2599元起!

    10月23日,redmi k90系列正式亮相,推出redmi k90与redmi k90 pro max两款新机。其中,redmi k90搭载骁龙8至尊版处理器、7100mah大电池及100w有线快充等多项旗舰配置,起售价为2599元,官方称其为k系列迄今为止最完整的标准版本。 图源:REDMI红米…

    2025年12月6日 行业动态
    200
  • Linux中如何安装Nginx服务_Linux安装Nginx服务的完整指南

    首先更新系统软件包,然后通过对应包管理器安装Nginx,启动并启用服务,开放防火墙端口,最后验证欢迎页显示以确认安装成功。 在Linux系统中安装Nginx服务是搭建Web服务器的第一步。Nginx以高性能、低资源消耗和良好的并发处理能力著称,广泛用于静态内容服务、反向代理和负载均衡。以下是在主流L…

    2025年12月6日 运维
    000
  • Linux journalctl与systemctl status结合分析

    先看 systemctl status 确认服务状态,再用 journalctl 查看详细日志。例如 nginx 启动失败时,systemctl status 显示 Active: failed,journalctl -u nginx 发现端口 80 被占用,结合两者可快速定位问题根源。 在 Lin…

    2025年12月6日 运维
    100
  • 华为新机发布计划曝光:Pura 90系列或明年4月登场

    近日,有数码博主透露了华为2025年至2026年的新品规划,其中pura 90系列预计在2026年4月发布,有望成为华为新一代影像旗舰。根据路线图,华为将在2025年底至2026年陆续推出mate 80系列、折叠屏新机mate x7系列以及nova 15系列,而pura 90系列则将成为2026年上…

    2025年12月6日 行业动态
    100
  • Linux如何优化系统性能_Linux系统性能优化的实用方法

    优化Linux性能需先监控资源使用,通过top、vmstat等命令分析负载,再调整内核参数如TCP优化与内存交换,结合关闭无用服务、选用合适文件系统与I/O调度器,持续按需调优以提升系统效率。 Linux系统性能优化的核心在于合理配置资源、监控系统状态并及时调整瓶颈环节。通过一系列实用手段,可以显著…

    2025年12月6日 运维
    000
  • Linux命令行中wc命令的实用技巧

    wc命令可统计文件的行数、单词数、字符数和字节数,常用-l统计行数,如wc -l /etc/passwd查看用户数量;结合grep可分析日志,如grep “error” logfile.txt | wc -l统计错误行数;-w统计单词数,-m统计字符数(含空格换行),-c统计…

    2025年12月6日 运维
    000
  • 曝小米17 Air正在筹备 超薄机身+2亿像素+eSIM技术?

    近日,手机行业再度掀起超薄机型热潮,三星与苹果已相继推出s25 edge与iphone air等轻薄旗舰,引发市场高度关注。在此趋势下,多家国产厂商被曝正积极布局相关技术,加速抢占这一细分赛道。据业内人士消息,小米的超薄旗舰机型小米17 air已进入筹备阶段。 小米17 Pro 爆料显示,小米正在评…

    2025年12月6日 行业动态
    000
  • 「世纪传奇刀片新篇」飞利浦影音双11声宴开启

    百年声学基因碰撞前沿科技,一场有关声音美学与设计美学的影音狂欢已悄然引爆2025“双十一”! 当绝大多数影音数码品牌还在价格战中挣扎时,飞利浦影音已然开启了一场跨越百年的“声”活革命。作为拥有深厚技术底蕴的音频巨头,飞利浦影音及配件此次“双十一”精准聚焦“传承经典”与“设计美学”两大核心,为热爱生活…

    2025年12月6日 行业动态
    000
  • 荣耀手表5Pro 10月23日正式开启首销国补优惠价1359.2元起售

    荣耀手表5pro自9月25日开启全渠道预售以来,市场热度持续攀升,上市初期便迎来抢购热潮,一度出现全线售罄、供不应求的局面。10月23日,荣耀手表5pro正式迎来首销,提供蓝牙版与esim版两种选择。其中,蓝牙版本的攀登者(橙色)、开拓者(黑色)和远航者(灰色)首销期间享受国补优惠价,到手价为135…

    2025年12月6日 行业动态
    000
  • 环境搭建docker环境下如何快速部署mysql集群

    使用Docker Compose部署MySQL主从集群,通过配置文件设置server-id和binlog,编写docker-compose.yml定义主从服务并组网,启动后创建复制用户并配置主从连接,最后验证数据同步是否正常。 在Docker环境下快速部署MySQL集群,关键在于合理使用Docker…

    2025年12月6日 数据库
    000
  • 《hellotalk》关闭国家地区方法

    《hellotalk》关闭国家地区方法: 1、进入 hellotalk 首页后,点击右下角的【我】,进入个人资料页面 2、在个人资料页面,点击右上角的【齿轮】图标,进入设置菜单 百度智能云·曦灵 百度旗下的AI数字人平台 102 查看详情 3、在设置页面中,找到【显示国家/地区】选项,点击其右侧的圆…

    2025年12月6日 软件教程
    000
  • Xbox删忍龙美女角色 斯宾塞致敬板垣伴信被喷太虚伪

    近日,海外游戏推主@HaileyEira公开发表言论,批评Xbox负责人菲尔·斯宾塞不配向已故的《死或生》与《忍者龙剑传》系列之父板垣伴信致敬。她指出,Xbox并未真正尊重这位传奇制作人的创作遗产,反而在宣传相关作品时对内容进行了审查和删减。 所涉游戏为年初推出的《忍者龙剑传2:黑之章》,该作采用虚…

    2025年12月6日 游戏教程
    000
  • 如何在mysql中分析索引未命中问题

    答案是通过EXPLAIN分析执行计划,检查索引使用情况,优化WHERE条件写法,避免索引失效,结合慢查询日志定位问题SQL,并根据查询模式合理设计索引。 当 MySQL 查询性能下降,很可能是索引未命中导致的。要分析这类问题,核心是理解查询执行计划、检查索引设计是否合理,并结合实际数据访问模式进行优…

    2025年12月6日 数据库
    000
  • VSCode入门:基础配置与插件推荐

    刚用VSCode,别急着装一堆东西。先把基础设好,再按需求加插件,效率高还不卡。核心就三步:界面顺手、主题舒服、功能够用。 设置中文和常用界面 打开软件,左边活动栏有五个图标,点最下面那个“扩展”。搜索“Chinese”,装上官方出的“Chinese (Simplified) Language Pa…

    2025年12月6日 开发工具
    000
  • VSCode性能分析与瓶颈诊断技术

    首先通过资源监控定位异常进程,再利用开发者工具分析性能瓶颈,结合禁用扩展、优化语言服务器配置及项目设置,可有效解决VSCode卡顿问题。 VSCode作为主流的代码编辑器,虽然轻量高效,但在处理大型项目或配置复杂扩展时可能出现卡顿、响应延迟等问题。要解决这些性能问题,需要系统性地进行性能分析与瓶颈诊…

    2025年12月6日 开发工具
    000
  • php查询代码怎么写_php数据库查询语句编写技巧与实例

    在PHP中进行数据库查询,最常用的方式是使用MySQLi或PDO扩展连接MySQL数据库。下面介绍基本的查询代码写法、编写技巧以及实用示例,帮助你高效安全地操作数据库。 1. 使用MySQLi进行查询(面向对象方式) 这是较为推荐的方式,适合大多数中小型项目。 // 创建连接$host = ‘loc…

    2025年12月6日 后端开发
    000
  • VSCode的悬浮提示信息可以自定义吗?

    可以通过JSDoc、docstring和扩展插件自定义VSCode悬浮提示内容,如1. 添加JSDoc或Python docstring增强信息;2. 调整hover延迟与粘性等显示行为;3. 使用支持自定义提示的扩展或开发hover provider实现深度定制,但无法直接修改HTML结构或手动编…

    2025年12月6日 开发工具
    000
  • php数据库如何实现数据缓存 php数据库减少查询压力的方案

    答案:PHP结合Redis等内存缓存系统可显著提升Web应用性能。通过将用户信息、热门数据等写入内存缓存并设置TTL,先查缓存未命中再查数据库,减少数据库压力;配合OPcache提升脚本执行效率,文件缓存适用于小型项目,数据库缓冲池优化和读写分离进一步提升性能,推荐Redis为主并防范缓存穿透与雪崩…

    2025年12月6日 后端开发
    000

发表回复

登录后才能评论
关注微信