基于飞桨实现乒乓球时序动作定位大赛 :B榜第12名方案

该方案基于飞桨实现乒乓球时序动作定位,获B榜第12名。采用宽4s滑窗分割视频为100帧数据,改进BMN模型,将TEM改为双分支融合输出,用DIOU-soft-NMS替代Soft-NMS避免漏检。经数据处理、模型训练与推理,A榜得分44.45754,B榜45.22373,还提出了后续改进方向。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

基于飞桨实现乒乓球时序动作定位大赛 :b榜第12名方案 - 创想鸟

基于飞桨实现乒乓球时序动作定位大赛 :B榜第12名方案

赛题介绍

在众多大规模视频分析情景中,从冗长未经修剪的视频中定位并识别短时间内发生的人体动作成为一个备受关注的课题。当前针对人体动作检测的解决方案在大规模视频集上难以奏效,高效地处理大规模视频数据仍然是计算机视觉领域一个充满挑战的任务。其核心问题可以分为两部分,一是动作识别算法的复杂度仍旧较高,二是缺少能够产生更少视频提案数量的方法(更加关注短时动作本身的提案)。

这里所指的视频动作提案是指一些包含特定动作的候选视频片段。为了能够适应大规模视频分析任务,时序动作提案应该尽可能满足下面两个需求: (1)更高的处理效率,例如可以设计出使时序视频片段编码和打分更高效的机制; (2)更强的判别性能,例如可以准确定位动作发生的时间区间。

本次比赛旨在激发更多的开发者和研究人员关注并参与有关视频动作定位的研究,创建性能更出色的动作定位模型。

数据集介绍

本次比赛的数据集包含了19-21赛季兵乓球国际比赛(世界杯、世锦赛、亚锦赛,奥运会)和国内比赛(全运会,乒超联赛)中标准单机位高清转播画面的特征信息,共包含912条视频特征文件,每个视频时长在0~6分钟不等,特征维度为2048,以pkl格式保存。我们对特征数据中面朝镜头的运动员的回合内挥拍动作进行了标注,单个动作时常在0~2秒不等,训练数据为729条标注视频,A测数据为91条视频,B测数据为92条视频,训练数据标签以json格式给出。

本赛题中的数据包含912条ppTSM抽取的视频特征,特征保存为pkl格式,文件名对应视频名称,读取pkl之后以(num_of_frames, 2048)向量形式代表单个视频特征。其中num_of_frames是不固定的,同时数量也比较大,所以pkl的文件并不能直接用于训练。同时由于乒乓球每个动作时间非常短,为了可以让模型更好的识别动作,所以需要将数据进行分割。

思路介绍

本赛题的视频数据帧数不固定,单个pkl文件包含的乒乓球动作数量也不固定,参考BMN_tabletennis的数据分割方式,使用宽4s的滑窗,把每一个视频里的动作片段提取出来,分割为4X25=100帧的数据。本项目基于BMN模型开发,借鉴TVNet中对TEM模块的改进思路,将TEM改成双分支融合后直接输出xsxe的思路。改进了删除冗余proposal的策略,将原本的Soft-NMS改进为DIOU-soft-NMS,避免漏检。

具体方案分享

整体流程框图

基于飞桨实现乒乓球时序动作定位大赛 :B榜第12名方案 - 创想鸟

BMN模型结构

基于飞桨实现乒乓球时序动作定位大赛 :B榜第12名方案 - 创想鸟

TEM模块改进

基于飞桨实现乒乓球时序动作定位大赛 :B榜第12名方案 - 创想鸟

BMN中原本的TEM实现为两个分支单独进行xs和xe的预测,考虑到一个动作的起止互相是具有强关联性的,起始时间和终止时间的特征应该共同用于预测,因此改进后的TEM模块先通过两个分支分别提取起始时间和终止时间相关的特征,再将特征进行融合最后预测输出。

DIOU-soft-NMS

原本的Soft-NMS采用IOU来表示proposal的重叠程度以判断冗余性,而预测过程中可能出现强包含关系如下图所示:

基于飞桨实现乒乓球时序动作定位大赛 :B榜第12名方案 - 创想鸟

p1与p2、p3具有相同的重叠度,但很明显p1与p2中心点重合大概率为同一动作的不同保守程度的估计,而p1与p3中心点偏离较大,可以认为是两个不同的动作。

为了避免漏检p3这样的动作,本项目采用diou来替代iou进行非极大值抑制,diou的计算公式如下:

基于飞桨实现乒乓球时序动作定位大赛 :B榜第12名方案 - 创想鸟

其中ρ(·)是两proposal中心点的欧几里得距离,c是覆盖两个proposal的最小时间长度。

代码运行与训练测试

首先解压数据集 执行以下命令解压数据集,解压之后将压缩包删除,保证项目空间小于100G。否则项目会被终止。In [1]

%cd /home/aistudio/data/!tar xf data122998/Features_competition_train.tar.gz!tar xf data123004/Features_competition_test_A.tar.gz!tar xf data123009/Features_competition_test_B.tar.gz!cp data122998/label_cls14_train.json .!rm -rf data12*
/home/aistudio/data

In [2]

import osimport sysimport jsonimport randomimport pickleimport numpy as np

解压好数据之后,首先对label标注文件进行分割。本赛题的视频数据帧数不固定,单个pkl文件包含的乒乓球动作数量也不固定,参考BMN_tabletennis的数据分割方式,使用宽4s的滑窗,把每一个视频里的动作片段提取出来,分割为4X25=100帧的数据。In [3]

source_path = "/home/aistudio/data/label_cls14_train.json"

In [ ]

import jsonwith open('/home/aistudio/data/label_cls14_train.json') as f:   data = json.load(f)f.close()

In [5]

#按照9:1划分训练 测试集l=len(data['gts'])l=int(l*0.1)val = {'gts': data['gts'][0:l], 'fps': 25}jsonString = json.dumps(val, indent=4, ensure_ascii=False)jsonFile = open('/home/aistudio/data/label_cls14_val.json', 'w')jsonFile.write(jsonString)jsonFile.close()train = {'gts': data['gts'][l:], 'fps': 25}jsonString = json.dumps(train, indent=4, ensure_ascii=False)jsonFile = open('/home/aistudio/data/label_cls14_train.json', 'w')jsonFile.write(jsonString)jsonFile.close()

In [6]

"""get instance for bmn使用winds=4的滑窗,将所有子窗口的长度之和小于winds的进行合并合并后,父窗口代表bmn训练数据,子窗口代表tsn训练数据"""import osimport sysimport jsonimport randomimport pickleimport numpy as npimport math# for table tennisbmn_window = 4dataset = "/home/aistudio/data"feat_dir = dataset + '/Features_competition_train'out_dir = dataset + '/Input_for_bmn'label_files = {    'train': 'label_cls14_train.json',    'validation': 'label_cls14_val.json'}global fpsdef gen_gts_for_bmn(gts_data):    """    @param, gts_data, original gts for action detection    @return, gts_bmn, output gts dict for bmn    """    fps = gts_data['fps']    gts_bmn = {'fps': fps, 'gts': []}    for sub_item in gts_data['gts']:        url = sub_item['url']        max_length = sub_item['total_frames']        gts_bmn['gts'].append({            'url': url,            'total_frames': max_length,            'root_actions': []        })        sub_actions = sub_item['actions']        # 跳过没有动作的片段        if len(sub_actions) == 0:            continue        # duration > bmn_window, 动作持续时间大于bmn_windows,直接删除        for idx, sub_action in enumerate(sub_actions):            if sub_action['end_id'] - sub_action['start_id'] > bmn_window:                sub_actions.pop(idx)        # 【滑动窗口,把每一个视频里的动作片段提取出来】        root_actions = [sub_actions[0]]        # before_id, 前一动作的最后一帧        # after_id, 后一动作的第一帧        before_id = 0        for idx in range(1, len(sub_actions)):            cur_action = sub_actions[idx]            duration = (cur_action['end_id'] - root_actions[0]['start_id'])            if duration > bmn_window:  # windows只能包住一个动作就包,包不住就包多个                after_id = cur_action['start_id']                gts_bmn['gts'][-1]['root_actions'].append({                    'before_id':                    before_id,                    'after_id':                    after_id,                    'actions':                    root_actions                })                before_id = root_actions[-1]['end_id']  #更新滑窗                root_actions = [cur_action]            else:                root_actions.append(cur_action)            if idx == len(sub_actions) - 1:                after_id = max_length                gts_bmn['gts'][-1]['root_actions'].append({                    'before_id':                    before_id,                    'after_id':                    after_id,                    'actions':                    root_actions                })    return gts_bmndef combile_gts(gts_bmn, gts_process, mode):    """    1、bmn_window 范围内只有一个动作,只取一个目标框    2、bmn_window 范围内有多个动作,取三个目标框(第一个动作、最后一个动作、所有动作)    """    global fps    fps = gts_process['fps']    duration_second = bmn_window * 1.0    duration_frame = bmn_window * fps    feature_frame = duration_frame    for item in gts_process['gts']:        url = item['url']        basename = os.path.basename(url).split('.')[0]        root_actions = item['root_actions']        # 把每一个视频里的动作片段提取出来        for root_action in root_actions:            segments = []            # all actions            segments.append({                'actions': root_action['actions'],                'before_id': root_action['before_id'],                'after_id': root_action['after_id']            })            if len(root_action['actions']) > 1:  #如果有多个动作,则第一个动作和最后一个动作,额外添加一次                # first action                segments.append({                    'actions': [root_action['actions'][0]],                    'before_id':                    root_action['before_id'],                    'after_id':                    root_action['actions'][1]['start_id']                })                # last action                segments.append({                    'actions': [root_action['actions'][-1]],                    'before_id':                    root_action['actions'][-2]['end_id'],                    'after_id':                    root_action['after_id']                })            # 把动作片段处理成window size大小,以适配BMN输入            for segment in segments:                before_id = segment['before_id']                after_id = segment['after_id']                actions = segment['actions']                # before_id到after_id太长了,从里面取window_size帧,要先确定一个起始点,然后动作都要包住                box0 = max(actions[-1]['end_id'] - bmn_window,                           before_id)  #确定起始点                box1 = min(actions[0]['start_id'],                           after_id - bmn_window)  #确实起始点                if box0  360:                print(b)            start_frame = round(value['start'] * fps)            end_frame = round(value['end'] * fps)            if end_frame > len(feature_video):                miss += 1                continue            feature_cut = [                feature_video[i] for i in range(start_frame, end_frame)            ]            np_feature_cut = np.array(feature_cut, dtype=np.float32)            np.save(save_cut_name, np_feature_cut)    print('miss number (broken sample):', miss)if __name__ == "__main__":    if not os.path.exists(out_dir):        os.mkdir(out_dir)    gts_bmn = {}    for item, value in label_files.items():        label_file = os.path.join(dataset, value)        gts_data = json.load(open(label_file, 'rb'))        gts_process = gen_gts_for_bmn(gts_data)        gts_bmn = combile_gts(gts_bmn, gts_process, item)    with open(out_dir + '/label.json', 'w', encoding='utf-8') as f:        data = json.dumps(gts_bmn, indent=4, ensure_ascii=False)        f.write(data)    save_feature_to_numpy(gts_bmn, out_dir + '/feature')
save feature for bmn ...miss number (broken sample): 116

In [7]

import copyimport jsonimport reimport osurl = '/home/aistudio/data/Input_for_bmn/feature/'directory = os.fsencode(url)count = 0target_set = []for file in os.listdir(directory):    filename = os.fsdecode(file)    target_name = filename.split('.npy')[0]    target_set.append(target_name)    count += 1print('Feature size:', len(target_set))with open('/home/aistudio/data/Input_for_bmn/label.json') as f:    data = json.load(f)delet_set = []for key in data.keys():    if not key in target_set:        delet_set.append(key)print('(Label) Original size:', len(data))print('(Label) Deleted size:', len(delet_set))for item in delet_set:    data.pop(item, None)print('(Label) Fixed size:', len(data))jsonString = json.dumps(data, indent=4, ensure_ascii=False)jsonFile = open('/home/aistudio/data/Input_for_bmn/label_fixed.json', 'w')jsonFile.write(jsonString)jsonFile.close()
Feature size: 19712(Label) Original size: 19828(Label) Deleted size: 116(Label) Fixed size: 19712

执行完毕后,在data/Input_for_bmn/目录中生成了新的标注文件label_fixed.json。下面开始分割训练集和测试集的数据。

执行以下脚本,分割训练集。In [8]

!rm /home/aistudio/data/Features_competition_train/*.pkl

执行后在data/Features_competition_train/npy目录下生成了训练用的numpy数据。

In [3]

import osimport os.path as ospimport globimport pickleimport paddleimport numpy as npfile_list = glob.glob("/home/aistudio/data/Features_competition_test_B/*.pkl")max_frames = 9000npy_path = ("/home/aistudio/data/Features_competition_test_B/npy/")if not osp.exists(npy_path):    os.makedirs(npy_path)for f in file_list:    video_feat = pickle.load(open(f, 'rb'))    tensor = paddle.to_tensor(video_feat['image_feature'])    pad_num = 9000 - tensor.shape[0]    pad1d = paddle.nn.Pad1D([0, pad_num])    tensor = paddle.transpose(tensor, [1, 0])    tensor = paddle.unsqueeze(tensor, axis=0)    tensor = pad1d(tensor)    tensor = paddle.squeeze(tensor, axis=0)    tensor = paddle.transpose(tensor, [1, 0])    sps = paddle.split(tensor, num_or_sections=90, axis=0)    for i, s in enumerate(sps):        file_name = osp.join(npy_path, f.split('/')[-1].split('.')[0] + f"_{i}.npy")        np.save(file_name, s.detach().numpy())    pass
W0228 15:00:00.428351   176 device_context.cc:447] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 11.0, Runtime API Version: 10.1W0228 15:00:00.432513   176 device_context.cc:465] device: 0, cuDNN Version: 7.6.

训练模型

数据集分割好之后,可以开始训练模型,使用以下命令进行模型训练。首先需要安装PaddleVideo的依赖包。

In [ ]

# 从Github上下载PaddleVideo代码# %cd ~/work/# 从Github上下载PaddleVideo代码# !git clone https://github.com/PaddlePaddle/PaddleVideo.git

In [ ]

%cd /home/aistudio/PaddleVideo/!pip install -r requirements.txt

开始训练模型。 在/home/aistudio/work/PaddleVideo/applications/TableTennis/configs/bmn_tabletennis.yaml文件中更改文件的路径

DATASET:                                            #DATASET field  batch_size: 16                                 #single card bacth size  test_batch_size: 1  num_workers: 8  train:    format: "BMNDataset"    file_path: "/home/aistudio/data/Input_for_bmn/label_fixed.json"    subset: "train"  valid:    format: "BMNDataset"    file_path: "/home/aistudio/data/Input_for_bmn/label_fixed.json"    subset: "validation"  test:    format: "BMNDataset"    test_mode: True    file_path: "/home/aistudio/work/BMN/Input_for_bmn/label_fixed.json"    subset: "validation"
PIPELINE:                                           #PIPELINE field  train:                                            #Mandotary, indicate the pipeline to deal with the training data    load_feat:      name: "LoadFeat"      feat_path: "/home/aistudio/data/Input_for_bmn/feature"    transform:                                      #Mandotary, image transfrom operator      - GetMatchMap:          tscale: 100      - GetVideoLabel:          tscale: 100          dscale: 100  valid:                                            #Mandotary, indicate the pipeline to deal with the training data    load_feat:      name: "LoadFeat"      feat_path: "/home/aistudio/data/Input_for_bmn/feature"    transform:                                      #Mandotary, image transfrom operator      - GetMatchMap:          tscale: 100      - GetVideoLabel:          tscale: 100          dscale: 100

In [ ]

%cd /home/aistudio/PaddleVideo/#!python main.py -c  configs/localization/bmn.yaml!python -B main.py  --validate -c  applications/TableTennis/configs/bmn_tabletennis.yaml

实际共训练了18个epoch。 基于飞桨实现乒乓球时序动作定位大赛 :B榜第12名方案 - 创想鸟

模型导出

将训练好的模型导出用于推理预测,执行以下脚本。

In [5]

%cd /home/aistudio/!python PaddleVideo/tools/export_model.py -c  PaddleVideo/applications/TableTennis/configs/bmn_tabletennis.yaml -p  PaddleVideo/output/BMN/BMN_epoch_00018.pdparams -o PaddleVideo/inference/BMN
/home/aistudioBuilding model(BMN)...W0228 15:04:40.308302   894 device_context.cc:447] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 11.0, Runtime API Version: 10.1W0228 15:04:40.312518   894 device_context.cc:465] device: 0, cuDNN Version: 7.6.Loading params from (PaddleVideo/output/BMN/BMN_epoch_00018.pdparams).../opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/layers/utils.py:77: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  return (isinstance(seq, collections.Sequence) andmodel (BMN) has been already saved in (PaddleVideo/inference/BMN).

推理预测

使用导出的模型进行推理预测,执行以下命令。

In [ ]

%cd /home/aistudio/PaddleVideo/!python tools/predict.py --input_file /home/aistudio/data/Features_competition_test_B/npy  --config configs/localization/bmn.yaml  --model_file inference/BMN/BMN.pdmodel  --params_file inference/BMN/BMN.pdiparams  --use_gpu=True  --use_tensorrt=False

基于飞桨实现乒乓球时序动作定位大赛 :B榜第12名方案 - 创想鸟

上面程序输出的json文件是分割后的预测结果,还需要将这些文件组合到一起。执行以下脚本:

In [6]

import osimport jsonimport globjson_path = "/home/aistudio/data/Features_competition_test_B/npy/"json_files = glob.glob(os.path.join(json_path, '*_*.json'))

In [7]

len(json_files)
8190

In [8]

submit_dic = {"version": None,              "results": {},              "external_data": {}              }results = submit_dic['results']for json_file in json_files:    j = json.load(open(json_file, 'r'))    old_video_name = list(j.keys())[0]    video_name = list(j.keys())[0].split('/')[-1].split('.')[0]    video_name, video_no = video_name.split('_')    start_id = int(video_no) * 4    if len(j[old_video_name]) == 0:        continue    for i, top in enumerate(j[old_video_name]):        if video_name in results.keys():            results[video_name].append({'score': round(top['score'], 2),                                        'segment': [round(top['segment'][0] + start_id, 2), round(top['segment'][1] + start_id, 2)]})        else:            results[video_name] = [{'score':round(top['score'], 2),                                        'segment': [round(top['segment'][0] + start_id, 2), round(top['segment'][1] + start_id, 2)]}]json.dump(submit_dic, open('/home/aistudio/submission.json', 'w', encoding='utf-8'))

最后会在用户目录生成submission.json文件,压缩后下载提交即可。

In [9]

%cd /home/aistudio/!zip submission.zip submission.json
/home/aistudioupdating: submission.json (deflated 91%)

最终A榜得分44.45754, B榜得分45.22373

总结和改进思路

尝试了SSTAP中的”Temporal feature shift”进行数据扩增,效果不增反降,可能是使用方法不对。

基于飞桨实现乒乓球时序动作定位大赛 :B榜第12名方案 - 创想鸟

BMN输出的proposal后处理方法只采用了不可学习的NMS方法,没有尝试引入Softer-nms等。

没有引入PGCN等图神经网络对Proposal进行后处理,或许可以提高效果。

以上就是基于飞桨实现乒乓球时序动作定位大赛 :B榜第12名方案的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/40206.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月6日 06:51:09
下一篇 2025年11月6日 06:51:33

相关推荐

  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • CSS元素设置em和transition后,为何载入页面无放大效果?

    css元素设置em和transition后,为何载入无放大效果 很多开发者在设置了em和transition后,却发现元素载入页面时无放大效果。本文将解答这一问题。 原问题:在视频演示中,将元素设置如下,载入页面会有放大效果。然而,在个人尝试中,并未出现该效果。这是由于macos和windows系统…

    2025年12月24日
    200
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 如何用HTML/JS实现Windows 10设置界面鼠标移动探照灯效果?

    Win10设置界面中的鼠标移动探照灯效果实现指南 想要在前端开发中实现类似于Windows 10设置界面的鼠标移动探照灯效果,有两种解决方案:CSS 和 HTML/JS 组合。 CSS 实现 不幸的是,仅使用CSS无法完全实现该效果。 立即学习“前端免费学习笔记(深入)”; HTML/JS 实现 要…

    2025年12月24日
    000
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000
  • 如何用前端技术实现Windows 10 设置界面鼠标移动时的探照灯效果?

    探索在前端中实现 Windows 10 设置界面鼠标移动时的探照灯效果 在前端开发中,鼠标悬停在元素上时需要呈现类似于 Windows 10 设置界面所展示的探照灯效果,这其中涉及到了元素外围显示光圈效果的技术实现。 CSS 实现 虽然 CSS 无法直接实现探照灯效果,但可以通过以下技巧营造出类似效…

    2025年12月24日
    000
  • 使用CSS mask属性指定图片URL时,为什么浏览器无法加载图片?

    css mask属性未能加载图片的解决方法 使用css mask属性指定图片url时,如示例中所示: mask: url(“https://api.iconify.design/mdi:apple-icloud.svg”) center / contain no-repeat; 但是,在网络面板中却…

    2025年12月24日
    000
  • 如何用CSS Paint API为网页元素添加时尚的斑马线边框?

    为元素添加时尚的斑马线边框 在网页设计中,有时我们需要添加时尚的边框来提升元素的视觉效果。其中,斑马线边框是一种既醒目又别致的设计元素。 实现斜向斑马线边框 要实现斜向斑马线间隔圆环,我们可以使用css paint api。该api提供了强大的功能,可以让我们在元素上绘制复杂的图形。 立即学习“前端…

    2025年12月24日
    000
  • 图片如何不撑高父容器?

    如何让图片不撑高父容器? 当父容器包含不同高度的子元素时,父容器的高度通常会被最高元素撑开。如果你希望父容器的高度由文本内容撑开,避免图片对其产生影响,可以通过以下 css 解决方法: 绝对定位元素: .child-image { position: absolute; top: 0; left: …

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信