Flink 流处理中 Join 操作无输出:核心问题与解决方案

Flink 流处理中 Join 操作无输出:核心问题与解决方案

flink 流处理任务在执行 join 操作时,若最终结果流未连接到任何据汇(sink),即使业务逻辑正确,也可能观察不到任何输出。本文将深入探讨 flink 的懒执行特性,并强调为 join 结果流配置适当数据汇的重要性,通过示例代码演示如何确保 flink 任务的完整执行和结果可见性。

在 Flink 流处理应用开发中,执行数据流的 Join 操作是常见的需求,尤其是在需要关联来自不同源的事件时。然而,开发者有时会遇到 Join 逻辑看似正确,但最终却没有观察到任何输出的情况。这通常不是 Join 逻辑本身的问题,而是对 Flink 任务执行模型理解不足所致。

Flink 任务执行模型概述

Flink 采用懒执行(Lazy Execution)模型。这意味着当你编写 Flink 程序的代码时,实际上只是在构建一个数据流图(Job Graph)。这个图包含了数据源(Source)、各种转换操作(Transformations,如 map、filter、join 等)以及数据汇(Sink)。只有当你在程序中显式地调用 env.execute() 方法时,这个数据流图才会被提交到 Flink 集群或本地环境执行。

一个完整的 Flink 任务必须包含以下三个核心组件:

数据源 (Source):负责从外部系统(如 Kafka、文件系统、消息队列)读取数据,将其转换为 Flink DataStream。转换操作 (Transformation):对 DataStream 进行各种处理,包括数据清洗、聚合、关联等。Join 操作就属于一种复杂的转换。数据汇 (Sink):负责将处理后的 DataStream 写回到外部系统(如 Kafka、数据库、文件系统、控制台)。

如果一个 Flink 任务缺少数据汇,即使数据流图中的所有转换操作都已定义,并且 env.execute() 也被调用,由于没有指定最终结果的去向,Flink 也不会将计算结果输出到任何地方,导致用户无法观察到任何输出。

理解 Flink 中的 Keyed Window Join

Keyed Window Join 是 Flink 中一种强大的关联操作,它允许在特定时间窗口内,基于共享的键将两个 DataStream 中的元素进行匹配。

其关键要素包括:

事件时间 (Event Time):数据记录本身携带的时间戳,用于定义窗口和进行时间语义处理。水位线 (Watermarks):一种衡量事件时间进度的机制,用于处理乱序事件并触发窗口计算。键选择器 (KeySelector):从每个数据流的元素中提取用于分组和匹配的键。对于 Join 操作,两个流的键选择器必须返回相同类型的键。窗口 (Window):定义了事件关联的时间范围。常见的有滚动窗口(Tumbling Window)、滑动窗口(Sliding Window)和会话窗口(Session Window)。

在进行 Keyed Window Join 时,需要确保:

正确分配时间戳和生成水位线:这是事件时间处理的基础,决定了窗口的边界和触发时机。键选择器的一致性:两个流的 Join 键必须能够正确匹配。窗口的定义:窗口大小和类型直接影响哪些事件能够被关联。

常见问题:Join 结果无输出的根本原因

当 Flink 的 Join 操作没有输出时,最常见且最根本的原因是缺少数据汇(Sink)

开发者可能会在 KeySelector 或 JoinFunction 内部使用 System.out.println() 来尝试调试或观察数据。然而,仅仅在这些函数内部打印,并不能替代一个完整的数据汇。System.out.println() 虽然会在任务执行到该算子时打印信息,但如果整个数据流没有最终连接到 Sink 并被 env.execute() 触发,那么即使这些中间的打印语句执行了,整个任务的“输出”依然是空的,或者这些打印语句根本不会被执行(如果数据流因为没有 Sink 而没有被完全激活)。

错误示例的分析:在原始问题提供的代码中,Join 操作 (joined_stream) 之后没有连接任何数据汇。虽然 env.execute() 被调用了,但 Flink 任务图在 joined_stream 处就断开了,没有指定这个流的去向。因此,即使 Join 逻辑本身是正确的,其结果也无处可去,用户自然看不到任何输出。

// ... 前面的数据源和转换操作 ...DataStream joined_stream = mapped_iotA.join(mapped_iotB)        .where(new KeySelector() {            @Override            public String getKey(ConsumerRecord record) throws Exception {                // 这里的打印可能在调试时出现,但不能作为最终输出                System.out.println("Key from A: " + record.key() + " Value: " + record.value());                return (String) record.key();            }        })        .equalTo(new KeySelector() {            @Override            public String getKey(ConsumerRecord record) throws Exception {                // 这里的打印可能在调试时出现,但不能作为最终输出                System.out.println("Key from B: " + record.key() + " Value: " + record.value());                return (String) record.key();            }        })        .window(TumblingEventTimeWindows.of(Time.seconds(5)))        .apply(new JoinFunction() {            @Override            public String join(ConsumerRecord record1, ConsumerRecord record2) throws Exception {                // 这里的打印只有在数据成功 Join 后才会执行                // 但如果 joined_stream 没有 Sink,最终任务仍无可见输出                System.out.println("Joined: Value1=" + record1.value() + ", Value2=" + record2.value());                return "Joined result for key: " + record1.key();            }        });// 缺少了关键的 Sink 操作!// joined_stream.print(); // 例如,将结果打印到控制台env.execute(); // 任务执行,但无处输出

配置数据汇(Sink)以观察 Join 结果

解决 Join 操作无输出问题的关键在于为最终结果流配置一个数据汇。Flink 提供了多种内置的数据汇,也可以自定义数据汇。

PicDoc PicDoc

AI文本转视觉工具,1秒生成可视化信息图

PicDoc 6214 查看详情 PicDoc

最简单且常用的调试数据汇是 print() 或 printToErr(),它们会将数据流中的元素打印到标准输出或标准错误流。

示例:使用 print() 数据汇

// ... 其他 Flink 环境和数据源配置 ...// KafkaSource iotA = ...// KafkaSource iotB = ...// DataStream iotA_datastream = env.fromSource(iotA, ...);// DataStream iotB_datastream = env.fromSource(iotB, ...);// 假设 mapped_iotA 和 mapped_iotB 已经正确定义并分配了时间戳和水位线// DataStream mapped_iotA = ...// DataStream mapped_iotB = ...// 定义 Join 操作DataStream joined_stream = mapped_iotA.join(mapped_iotB)        .where(new KeySelector() {            @Override            public String getKey(ConsumerRecord record) throws Exception {                return (String) record.key();            }        })        .equalTo(new KeySelector() {            @Override            public String getKey(ConsumerRecord record) throws Exception {                return (String) record.key();            }        })        .window(TumblingEventTimeWindows.of(Time.seconds(5))) // 5秒滚动窗口        .apply(new JoinFunction() {            @Override            public String join(ConsumerRecord record1, ConsumerRecord record2) throws Exception {                // 这里返回 Join 后的结果字符串                return "Joined Data - Key: " + record1.key() + ", Value A: " + record1.value() + ", Value B: " + record2.value();            }        });// 关键步骤:为 joined_stream 添加一个 Sinkjoined_stream.print("Joined Output").setParallelism(1); // 将结果打印到控制台,并设置并行度为1方便观察// 启动 Flink 任务执行env.execute("Flink Keyed Window Join Example");

其他常用数据汇类型:

文件系统 Sink:stream.writeAsText(“path/to/output”) 或 stream.addSink(new FileSink.forRowFormat(…))Kafka Sink:stream.addSink(KafkaSink.builder()…)自定义 Sink:实现 SinkFunction 接口,将数据写入到任何外部系统。

完整示例代码

以下是一个更完整的 Flink Keyed Window Join 示例,包含了 Kafka 数据源、时间戳分配、Join 操作和 print() 数据汇。

import org.apache.flink.api.common.eventtime.WatermarkStrategy;import org.apache.flink.api.common.functions.JoinFunction;import org.apache.flink.api.common.functions.MapFunction;import org.apache.flink.api.common.serialization.KafkaDeserializationSchema;import org.apache.flink.api.common.typeinfo.TypeInformation;import org.apache.flink.api.java.functions.KeySelector;import org.apache.flink.connector.kafka.source.KafkaSource;import org.apache.flink.connector.kafka.source.enumerator.initializer.OffsetsInitializer;import org.apache.flink.streaming.api.datastream.DataStream;import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows;import org.apache.flink.streaming.api.windowing.time.Time;import org.apache.kafka.clients.consumer.ConsumerRecord;import java.nio.charset.StandardCharsets;public class FlinkJoinOutputTutorial {    private static final String KAFKA_BOOTSTRAP_SERVERS = "localhost:9092"; // 替换为你的 Kafka 地址    public static void main(String[] args) throws Exception {        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();        env.setParallelism(1); // 设置并行度,方便观察输出        // 1. 配置 Kafka Source        KafkaSource<ConsumerRecord> createKafkaSource(String topic) {            return KafkaSource.<ConsumerRecord>builder()                    .setBootstrapServers(KAFKA_BOOTSTRAP_SERVERS)                    .setTopics(topic)                    .setStartingOffsets(OffsetsInitializer.latest())                    .setDeserializer(new KafkaDeserializationSchema<ConsumerRecord>() {                        @Override                        public boolean isEndOfStream(ConsumerRecord record) {                            return false;                        }                        @Override                        public ConsumerRecord deserialize(ConsumerRecord record) throws Exception {                            String key = record.key() != null ? new String(record.key(), StandardCharsets.UTF_8) : null;                            String value = record.value() != null ? new String(record.value(), StandardCharsets.UTF_8) : null;                            return new ConsumerRecord(                                    record.topic(), record.partition(), record.offset(),                                    record.timestamp(), record.timestampType(),                                    record.checksum(),                                    record.serializedKeySize(), record.serializedValueSize(),                                    key, value                            );                        }                        @Override                        public TypeInformation<ConsumerRecord> getProducedType() {                            return TypeInformation.of(new org.apache.flink.api.java.typeutils.TypeHint<ConsumerRecord>() {});                        }                    })                    .build();        }        KafkaSource<ConsumerRecord> iotASource = createKafkaSource("iotA");        KafkaSource<ConsumerRecord> iotBSource = createKafkaSource("iotB");        // 2. 从 Kafka Source 创建 DataStream 并分配时间戳和水位线        DataStream<ConsumerRecord> iotA_datastream = env.fromSource(iotASource,                WatermarkStrategy.<ConsumerRecord>forMonotonousTimestamps()                        .withTimestampAssigner((record, timestamp) -> record.timestamp()), "Kafka Source A");        DataStream<ConsumerRecord> iotB_datastream = env.fromSource(iotBSource,                WatermarkStrategy.<ConsumerRecord>forMonotonousTimestamps()                        .withTimestampAssigner((record, timestamp) -> record.timestamp()), "Kafka Source B");        // 3. 对数据流进行 Map 转换 (如果需要,这里简化了原始问题中的 splitValue 逻辑)        // 假设原始的 value 是 "id,data",这里我们只取 data 部分        DataStream<ConsumerRecord> mapped_iotA = iotA_datastream.map(new MapFunction<ConsumerRecord, ConsumerRecord>() {            @Override            public ConsumerRecord map(ConsumerRecord record) throws Exception {                // 模拟数据处理,例如只保留 value 的一部分                String originalValue = record.value();                String processedValue = originalValue != null && originalValue.contains(",") ? originalValue.split(",")[1] : originalValue;                return new ConsumerRecord(record.topic(), record.partition(), record.offset(), record.timestamp(),                        record.timestampType(), record.checksum(), record.serializedKeySize(), record.serializedValueSize(),                        record.key(), processedValue);            }        }).assignTimestampsAndWatermarks(WatermarkStrategy.<ConsumerRecord>forMonotonousTimestamps()                .withTimestampAssigner((record, timestamp) -> record.timestamp())); // 重新分配时间戳和水位线,确保Map后时间戳正确        DataStream<ConsumerRecord> mapped_iotB = iotB_datastream.map(new MapFunction<ConsumerRecord, ConsumerRecord>() {            @Override            public ConsumerRecord map(ConsumerRecord record) throws Exception {                String originalValue = record.value();                String processedValue = originalValue != null && originalValue.contains(",") ? originalValue.split(",")[1] : originalValue;                return new ConsumerRecord(record.topic(), record.partition(), record.offset(), record.timestamp(),                        record.timestampType(), record.checksum(), record.serializedKeySize(), record.serializedValueSize(),                        record.key(), processedValue);            }        }).assignTimestampsAndWatermarks(WatermarkStrategy.<ConsumerRecord>forMonotonousTimestamps()                .withTimestampAssigner((record, timestamp) -> record.timestamp()));        // 4. 执行 Keyed Window Join 操作        DataStream joined_stream = mapped_iotA.join(mapped_iotB)                .where(new KeySelector<ConsumerRecord, String>() {                    @Override                    public String getKey(ConsumerRecord record) throws Exception {                        return record.key(); // 使用 Kafka 消息的 key 作为 Join 键                    }                })                .equalTo(new KeySelector<ConsumerRecord, String>() {                    @Override                    public String getKey(ConsumerRecord record) throws Exception {                        return record.key(); // 两个流使用相同的 Join 键                    }                })                .window(TumblingEventTimeWindows.of(Time.seconds(5))) // 5秒的滚动事件时间窗口                .apply(new JoinFunction<ConsumerRecord, ConsumerRecord, String>() {                    @Override                    public String join(ConsumerRecord record1, ConsumerRecord record2) throws Exception {                        // Join 成功后,将两个记录的值合并成一个字符串作为结果                        return String.format("Joined! Key: %s, Topic A: %s, Value A: %s | Topic B: %s, Value B: %s",                                record1.key(), record1.topic(), record1.value(), record2.topic(), record2.value());                    }                });        // 5. 关键步骤:添加数据汇 (Sink) 以观察 Join 结果        joined_stream.print("Joined Result Stream").setParallelism(1); // 将 Join 结果打印到控制台,便于观察        // 6. 启动 Flink 任务        env.execute("Flink Keyed Window Join with Sink Example");    }}

运行此示例的注意事项:

确保 Kafka 服务器正在运行,并且在 iotA 和 iotB 主题中有数据流入,且这些数据包含相同的键和有效的事件时间戳。Kafka 消息的 Key 和 Value 应该都是字符串类型,以便 KeySelector 和 JoinFunction 正确处理。TumblingEventTimeWindows.of(Time.seconds(5)) 表示每 5 秒计算一次窗口,并且只有当两个流中具有相同 Key 的事件在同一个 5 秒窗口内(基于事件时间)到达时,才会发生 Join。WatermarkStrategy.forMonotonousTimestamps() 适用于事件时间单调递增的场景。如果数据可能乱序,应考虑使用 forBoundedOutOfOrderness(Duration.ofSeconds(X))。

Join 操作的额外注意事项

除了确保有数据汇之外,还有一些与 Join 操作本身相关的常见问题和最佳实践:

水位线策略与时间戳分配

准确性:确保 withTimestampAssigner 正确地从数据中提取事件时间戳。乱序处理:对于可能乱序的数据,使用 WatermarkStrategy.forBoundedOutOfOrderness() 并设置合理的允许乱序时间,以避免数据因迟到而被丢弃。空闲源:如果某个数据源长时间没有数据,其水位线可能停止前进,从而阻塞下游所有依赖该水位线的窗口计算。考虑使用 WatermarkStrategy.withIdleTimeout() 来处理空闲源。

键选择器的一致性

确保 where() 和 equalTo() 方法中的 KeySelector 逻辑一致,它们必须从各自的数据流中提取出相同类型且语义上匹配的键。

窗口大小与数据延迟

窗口大小:选择合适的窗口大小至关重要。过小的窗口可能导致匹配失败(事件不在同一窗口内),过大的窗口则会增加状态存储和延迟。数据延迟:Join 结果的输出

以上就是Flink 流处理中 Join 操作无输出:核心问题与解决方案的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1057930.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月2日 05:08:15
下一篇 2025年12月2日 05:08:36

相关推荐

  • 如何用dom2img解决网页打印样式不显示的问题?

    用dom2img解决网页打印样式不显示的问题 想将网页以所见即打印的的效果呈现,需要采取一些措施,特别是在使用了bootstrap等大量采用外部css样式的框架时。 问题根源 在常规打印操作中,浏览器通常会忽略css样式等非必要的页面元素,导致打印出的结果与网页显示效果不一致。这是因为打印机制只识别…

    2025年12月24日
    800
  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • Bootstrap 中如何让文字浮于阴影之上?

    文字浮于阴影之上 文中提到的代码片段中 元素中的文字被阴影元素 所遮挡,如何让文字显示在阴影之上? bootstrap v3和v5在处理此类问题方面存在差异。 解决方法 在bootstrap v5中,给 元素添加以下css样式: .banner-content { position: relativ…

    2025年12月24日
    000
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • CSS元素设置em和transition后,为何载入页面无放大效果?

    css元素设置em和transition后,为何载入无放大效果 很多开发者在设置了em和transition后,却发现元素载入页面时无放大效果。本文将解答这一问题。 原问题:在视频演示中,将元素设置如下,载入页面会有放大效果。然而,在个人尝试中,并未出现该效果。这是由于macos和windows系统…

    2025年12月24日
    200
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 如何用HTML/JS实现Windows 10设置界面鼠标移动探照灯效果?

    Win10设置界面中的鼠标移动探照灯效果实现指南 想要在前端开发中实现类似于Windows 10设置界面的鼠标移动探照灯效果,有两种解决方案:CSS 和 HTML/JS 组合。 CSS 实现 不幸的是,仅使用CSS无法完全实现该效果。 立即学习“前端免费学习笔记(深入)”; HTML/JS 实现 要…

    2025年12月24日
    000
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • Bootstrap 5:如何将文字置于阴影之上?

    文字重叠阴影 在 bootstrap 5 中,将文字置于阴影之上时遇到了困难。在 bootstrap 3 中,此问题并不存在,但升级到 bootstrap 5 后却无法实现。 解决方案 为了解决这个问题,需要给 元素添加以下样式: .banner-content { position: relati…

    2025年12月24日
    400
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000
  • 如何用前端技术实现Windows 10 设置界面鼠标移动时的探照灯效果?

    探索在前端中实现 Windows 10 设置界面鼠标移动时的探照灯效果 在前端开发中,鼠标悬停在元素上时需要呈现类似于 Windows 10 设置界面所展示的探照灯效果,这其中涉及到了元素外围显示光圈效果的技术实现。 CSS 实现 虽然 CSS 无法直接实现探照灯效果,但可以通过以下技巧营造出类似效…

    2025年12月24日
    000
  • 使用CSS mask属性指定图片URL时,为什么浏览器无法加载图片?

    css mask属性未能加载图片的解决方法 使用css mask属性指定图片url时,如示例中所示: mask: url(“https://api.iconify.design/mdi:apple-icloud.svg”) center / contain no-repeat; 但是,在网络面板中却…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信