如何用WebRTC实现浏览器端的实时视频滤镜?

答案:实现实时视频滤镜需通过WebRTC获取摄像头流,绘制到Canvas进行像素处理,再用canvas.captureStream()将处理后的流重新用于WebRTC。具体步骤包括:使用navigator.mediaDevices.getUserMedia()获取视频流并显示在video元素;将video帧通过requestAnimationFrame循环绘制到Canvas;利用Canvas 2D API或WebGL对图像数据进行灰度、模糊等滤镜处理;最后调用canvas.captureStream()生成新MediaStream,并通过RTCPeerConnection的replaceTrack()方法替换原始视频轨道,实现滤镜视频的传输。此方案可真正改变视频像素数据,支持复杂滤镜和远程发送,而CSS滤镜仅限本地视觉效果,无法传输。性能上,Canvas 2D适合简单滤镜,WebGL则凭借GPU加速胜任高分辨率和复杂算法场景。

如何用webrtc实现浏览器端的实时视频滤镜?

浏览器里实现实时视频滤镜,核心思路其实挺直接的:我们通过WebRTC获取到用户的摄像头视频流,然后把这个流的每一帧画面“借”过来,放到一个Canvas元素上。接下来,我们就可以利用Canvas的强大绘图能力或者更高级的WebGL技术,对这些像素进行实时的处理和改造,比如加个灰度、模糊、美颜,甚至是更复杂的AR效果。最后,如果需要把这个处理过的视频流再发送出去,WebRTC也能帮我们搞定,通过

canvas.captureStream()

就能实现。

解决方案

要实现浏览器端的实时视频滤镜,大致可以分解为以下几个步骤,这中间有些细节处理起来确实需要花点心思:

获取原始视频流:首先,我们需要通过WebRTC的

navigator.mediaDevices.getUserMedia()

方法来获取用户的摄像头视频流。这会返回一个

MediaStream

对象,里面包含了视频轨道(

video track

)。

const videoElement = document.createElement('video');videoElement.autoplay = true; // 自动播放videoElement.muted = true; // 通常先静音,避免回音document.body.appendChild(videoElement); // 或者添加到其他容器let localStream;async function getMediaStream() {    try {        localStream = await navigator.mediaDevices.getUserMedia({ video: true, audio: false });        videoElement.srcObject = localStream;        console.log('Got local stream:', localStream);    } catch (error) {        console.error('Error accessing media devices.', error);    }}getMediaStream();

视频流到Canvas的实时绘制:这是滤镜处理的关键一步。我们不能直接在

video

标签上做像素级的修改。所以,我们需要一个


元素作为我们的“画板”。通过

requestAnimationFrame

循环,我们把

videoElement

的当前帧画面不断地绘制到

canvas

上。


const filterCanvas = document.getElementById('filterCanvas');const ctx = filterCanvas.getContext('2d');// 等待videoElement元数据加载完毕,确保尺寸可用videoElement.onloadedmetadata = () => {    filterCanvas.width = videoElement.videoWidth;    filterCanvas.height = videoElement.videoHeight;    drawFrame(); // 开始绘制循环};function drawFrame() {    if (videoElement.paused || videoElement.ended) return;    ctx.drawImage(videoElement, 0, 0, filterCanvas.width, filterCanvas.height);    // 在这里应用滤镜    applyFilter(ctx, filterCanvas.width, filterCanvas.height);    requestAnimationFrame(drawFrame);}// 占位符,实际滤镜函数会在这里function applyFilter(context, width, height) {    // 例如:一个简单的灰度滤镜    // const imageData = context.getImageData(0, 0, width, height);    // const data = imageData.data;    // for (let i = 0; i < data.length; i += 4) {    //     const avg = (data[i] + data[i + 1] + data[i + 2]) / 3;    //     data[i] = avg;     // red    //     data[i + 1] = avg; // green    //     data[i + 2] = avg; // blue    // }    // context.putImageData(imageData, 0, 0);}

滤镜处理:这部分是核心创意所在。你可以用Canvas 2D API (

getImageData

,

putImageData

) 进行像素级的操作,实现灰度、反色、亮度调整等。对于更复杂、性能要求更高的滤镜,比如美颜、背景虚化、AR贴纸,你可能就需要动用WebGL了,它能利用GPU的并行计算能力,效率会高得多。

Canvas 2D API (CPU-based):

function applyGrayscaleFilter(context, width, height) {    const imageData = context.getImageData(0, 0, width, height);    const data = imageData.data;    for (let i = 0; i < data.length; i += 4) {        const avg = (data[i] * 0.299 + data[i + 1] * 0.587 + data[i + 2] * 0.114); // 加权平均        data[i] = avg;        data[i + 1] = avg;        data[i + 2] = avg;    }    context.putImageData(imageData, 0, 0);}// 在 drawFrame 中调用:applyGrayscaleFilter(ctx, filterCanvas.width, filterCanvas.height);

WebGL (GPU-based):WebGL的实现会复杂很多,涉及到顶点着色器(Vertex Shader)和片元着色器(Fragment Shader)。大致流程是:创建一个纹理,将视频帧上传到纹理,然后用一个简单的矩形绘制到屏幕上,在片元着色器中对每个像素进行滤镜计算。这块儿的技术深度就上来了,不是三言两语能说清的,但性能优势是巨大的。

将处理后的流重新用于WebRTC:如果你的目标是把带有滤镜效果的视频流发送给远端,那么

canvas.captureStream()

就是你的救星。它能把Canvas的实时内容封装成一个新的

MediaStream

let filteredStream;let peerConnection; // 假设你已经有了一个RTCPeerConnection实例function setupFilteredStreamForWebRTC() {    if (filterCanvas.captureStream) {        filteredStream = filterCanvas.captureStream(25); // 25fps,可以根据需要调整        console.log('Captured filtered stream from canvas:', filteredStream);        // 假设你已经通过 addTrack 添加了原始视频流        // 现在需要替换它        const senders = peerConnection.getSenders();        const videoSender = senders.find(sender => sender.track && sender.track.kind === 'video');        if (videoSender) {            const newVideoTrack = filteredStream.getVideoTracks()[0];            if (newVideoTrack) {                videoSender.replaceTrack(newVideoTrack)                    .then(() => console.log('Successfully replaced video track with filtered track.'))                    .catch(error => console.error('Error replacing video track:', error));            }        } else {            // 如果之前没有添加视频轨道,就直接添加这个新的            filteredStream.getTracks().forEach(track => peerConnection.addTrack(track, filteredStream));            console.log('Added filtered stream to peer connection.');        }    } else {        console.warn('canvas.captureStream() is not supported in this browser.');    }}// 在 getMediaStream 成功后,或者用户点击某个按钮后调用 setupFilteredStreamForWebRTC()// 确保 filterCanvas 已经有内容在绘制了

这整个流程下来,你会发现它是一个实时的数据流转换和处理过程,对浏览器的性能和JavaScript的执行效率都有一定的要求。

为什么直接在

标签上应用CSS滤镜不够用?

说实话,很多人一开始都会想到这个点,觉得CSS滤镜多方便啊,一行代码就搞定。比如

filter: grayscale(100%);

,效果立竿见影。但问题是,CSS滤镜只是在视觉层面上对元素进行了修饰,它并没有真正改变视频流的像素数据。你可以把它想象成给视频加了一层“玻璃”,玻璃上有颜色或图案,但透过玻璃看到的视频本身,其原始数据一点没变。

这就意味着:

无法发送处理后的流: 如果你的目的是把带有滤镜效果的视频通过WebRTC发送给对方,CSS滤镜就无能为力了。因为WebRTC发送的是原始的

MediaStream

数据,它并不知道你浏览器里用CSS做了什么视觉上的改变。对方接收到的仍然是未经处理的原始视频。滤镜种类和复杂性受限: CSS滤镜虽然提供了像

blur

grayscale

sepia

brightness

等基本效果,但它的能力非常有限。你无法实现像素级的复杂算法,比如人脸识别后的局部美白、背景替换、AR贴纸、或是那种需要多帧信息进行计算的动态效果。这些都超出了CSS的能力范畴。性能瓶颈: 即使是CSS滤镜,在某些复杂场景下也可能导致性能问题,尤其是在低端设备上。而我们通过Canvas或WebGL进行像素操作,虽然初期设置复杂,但却能更好地控制性能,尤其是WebGL能充分利用GPU,效率远超CSS。

所以,如果你只是想自己看看带滤镜的视频,CSS滤镜没问题。但一旦涉及到实时处理、像素级操作以及WebRTC传输,Canvas和WebGL就是必由之路了。

CPU与GPU滤镜处理:性能考量与技术选择

在浏览器端做实时视频滤镜,性能绝对是个绕不开的话题。这直接关系到用户体验,卡顿、掉帧是大家都不想看到的。这里主要就是CPU和GPU两种处理方式的选择,各有优劣。

CPU处理 (Canvas 2D API):

技术原理: 主要通过

canvas.getContext('2d')

提供的

getImageData()

putImageData()

方法。

getImageData()

会把Canvas上的像素数据读取到一个

ImageData

对象里,这是一个

Uint8ClampedArray

,里面按R、G、B、A的顺序存储着每个像素的颜色值。你可以在JavaScript里遍历这个数组,对每个像素进行计算,然后再用

putImageData()

把修改后的数据写回Canvas。优点:上手简单: 对于熟悉JavaScript的开发者来说,Canvas 2D API非常直观,学习曲线平缓。调试方便: 直接在JS里操作数组,用

console.log

就能看到数据变化,调试起来相对容易。适合简单滤镜: 像灰度、反色、亮度/对比度调整这种计算量不大的滤镜,用CPU处理是完全可以的。缺点:性能瓶颈明显: JavaScript是单线程的,即使有Web Workers也无法完全解决像素遍历的巨大开销。当视频分辨率较高(比如1080p),或者滤镜算法比较复杂(比如卷积核计算、高斯模糊),CPU会很快达到瓶颈,导致帧率下降,画面卡顿。

getImageData

putImageData

本身也有一定的开销。不适合复杂效果: 像实时美颜、背景虚化、AR增强现实这种需要大量并行计算的场景,CPU处理几乎是不可行的。

GPU处理 (WebGL):

技术原理: WebGL允许你在浏览器中使用OpenGL ES 2.0的API,直接在GPU上进行图形渲染。它通过着色器(Shaders)来定义顶点和像素的渲染方式。你将视频帧作为纹理上传到GPU,然后通过片元着色器(Fragment Shader)对每个像素并行地执行你的滤镜算法。优点:性能卓越: GPU天生就是为并行计算而生,处理大量像素数据是它的强项。对于复杂滤镜和高分辨率视频,WebGL能提供远超CPU的性能,保持高帧率。实现复杂效果: 美颜、背景虚化、AR、风格迁移等前沿的实时视觉效果,几乎都依赖于WebGL(或WebGPU)。省电: 相比于CPU满载运行,GPU在处理图形任务时通常更高效,可能更省电。缺点:学习曲线陡峭: WebGL涉及到图形学概念、GLSL着色器语言、矩阵变换等,对于前端开发者来说,学习门槛相对较高。调试困难: WebGL的调试工具不如JS调试那么直观,错误信息有时也比较晦涩。代码量大: 即使是一个简单的效果,WebGL的代码量也比Canvas 2D API多不少。

技术选择建议:

初学者或简单需求: 如果你只是想尝试一些基本的、计算量不大的滤镜,或者对图形学不熟悉,从Canvas 2D API开始是最好的选择。它能让你快速看到效果。专业开发或复杂需求: 如果你的项目需要实现高性能、复杂的实时滤镜,或者要处理高分辨率视频,那么学习并使用WebGL是必然的选择。虽然初期投入大,但长期来看,它的能力和性能优势是不可替代的。折衷方案: 有些库(如

Pixi.js

Three.js

Babylon.js

)在底层封装了WebGL,提供了更友好的API,可以作为进入WebGL世界的跳板。还有一些专门的视频处理库(如

MediaPipe

),它们提供了预训练的模型和WebAssembly/WebGL优化,能直接实现复杂效果。

我个人觉得,如果你真想在这块儿玩出花样,WebGL是绕不过去的。虽然有点儿难,但搞懂了你会发现新世界的大门。

如何将处理后的视频流重新用于WebRTC通话?

这部分其实是整个流程的“出口”,也是WebRTC和滤镜结合的关键点。当你辛苦地在Canvas上对视频帧进行了一系列处理后,你肯定希望这些带滤镜的效果能被远端的参与者看到,或者被录制下来。这里就要用到

canvas.captureStream()

这个API了。

canvas.captureStream()

方法允许你从一个


元素创建一个新的

MediaStream

对象。这个新的

MediaStream

会实时地反映Canvas上的绘制内容。你可以指定捕获的帧率,比如

canvas.captureStream(25)

表示以25帧每秒的速度捕获。

具体步骤:

创建PeerConnection:首先,你需要有一个

RTCPeerConnection

实例,这是WebRTC通话的核心。

// 假设你已经初始化了peerConnection// let peerConnection = new RTCPeerConnection();

获取处理后的Canvas流:在你的

drawFrame

循环中,确保Canvas正在实时绘制带有滤镜的视频帧。然后,调用

canvas.captureStream()

来获取这个新的视频流。

let filteredStream;const filterCanvas = document.getElementById('filterCanvas'); // 假设这是你的滤镜Canvasfunction getFilteredCanvasStream() {    if (filterCanvas.captureStream) {        filteredStream = filterCanvas.captureStream(25); // 捕获25帧/秒的Canvas内容        console.log('Canvas stream captured:', filteredStream);        return filteredStream;    } else {        console.warn('Your browser does not support canvas.captureStream().');        return null;    }}

替换或添加视频轨道:现在你有了

filteredStream

,里面包含了一个视频轨道(

MediaStreamTrack

)。你需要把它添加到你的

RTCPeerConnection

中。这里有两种常见情况:

情况一:你已经发送了原始视频流,现在想替换它。这是最常见的场景。你可能一开始就通过

getUserMedia

获取了原始摄像头流并

addTrack

到了

peerConnection

。现在,你需要找到发送原始视频流的

RTCRtpSender

,然后用

replaceTrack()

方法把旧的视频轨道替换成新的滤镜视频轨道。

function replaceVideoTrackWithFilteredStream(pc, canvasStream) {    const newVideoTrack = canvasStream.getVideoTracks()[0];    if (!newVideoTrack) {        console.error('No video track found in canvas stream.');        return;    }    const senders = pc.getSenders();    const videoSender = senders.find(sender => sender.track && sender.track.kind === 'video');    if (videoSender) {        // 找到了发送原始视频流的sender,替换它        videoSender.replaceTrack(newVideoTrack)            .then(() => console.log('Video track replaced successfully with filtered stream.'))            .catch(error => console.error('Error replacing video track:', error));    } else {        // 如果没有找到(比如还没发送过视频),那就直接添加新的        pc.addTrack(newVideoTrack, canvasStream); // 注意这里第二个参数是MediaStream        console.log('Added filtered video track to peer connection.');    }}// 假设 peerConnection 已经建立,并且 canvasStream 已经获取// replaceVideoTrackWithFilteredStream(peerConnection, getFilteredCanvasStream());
replaceTrack()

是一个非常优雅的API,它允许你在不重新协商(re-negotiation)SDP的情况下更换媒体轨道,这对于保持通话的流畅性非常重要。

情况二:你还没有发送任何视频流,现在直接发送滤镜视频流。如果你一开始就没有添加视频轨道,那么直接用

peerConnection.addTrack(newVideoTrack, canvasStream)

就可以了。

// 假设 peerConnection 已经建立// const canvasStream = getFilteredCanvasStream();// if (canvasStream) {//     canvasStream.getTracks().forEach(track => {//         peerConnection.addTrack(track, canvasStream);//     });//     console.log('Added filtered stream to peer connection.');// }

注意事项:

性能:

canvas.captureStream()

本身也会消耗一定的CPU资源。如果你的滤镜处理已经很重,再加上捕获流的开销,可能会对性能造成额外压力。确保你的滤镜处理足够高效。帧率:

canvas.captureStream(fps)

中的

fps

参数很重要。设置过高可能导致性能问题,设置过低则可能导致视频不流畅。根据实际情况和设备性能进行调整。浏览器兼容性: 尽管

canvas.captureStream()

现在已经得到了广泛支持,但在某些老旧或特定浏览器上可能仍然存在兼容性问题,最好进行特性检测。

通过这些步骤,你就能把浏览器里精心处理过的实时视频,再次无缝地

以上就是如何用WebRTC实现浏览器端的实时视频滤镜?的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1521850.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月20日 14:32:15
下一篇 2025年12月20日 14:32:24

相关推荐

  • CSS mask属性无法获取图片:为什么我的图片不见了?

    CSS mask属性无法获取图片 在使用CSS mask属性时,可能会遇到无法获取指定照片的情况。这个问题通常表现为: 网络面板中没有请求图片:尽管CSS代码中指定了图片地址,但网络面板中却找不到图片的请求记录。 问题原因: 此问题的可能原因是浏览器的兼容性问题。某些较旧版本的浏览器可能不支持CSS…

    2025年12月24日
    900
  • 如何用dom2img解决网页打印样式不显示的问题?

    用dom2img解决网页打印样式不显示的问题 想将网页以所见即打印的的效果呈现,需要采取一些措施,特别是在使用了bootstrap等大量采用外部css样式的框架时。 问题根源 在常规打印操作中,浏览器通常会忽略css样式等非必要的页面元素,导致打印出的结果与网页显示效果不一致。这是因为打印机制只识别…

    2025年12月24日
    800
  • 如何用 CSS 模拟不影响其他元素的链接移入效果?

    如何模拟 css 中链接的移入效果 在 css 中,模拟移入到指定链接的效果尤为复杂,因为链接的移入效果不影响其他元素。要实现这种效果,最简单的方法是利用放大,例如使用 scale 或 transform 元素的 scale 属性。下面提供两种方法: scale 属性: .goods-item:ho…

    2025年12月24日
    700
  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • PC端H5项目如何实现适配:流式布局、响应式设计和两套样式?

    PC端的适配方案及PC与H5兼顾的实现方案探讨 在开发H5项目时,常用的屏幕适配方案是postcss-pxtorem或postcss-px-to-viewport,通常基于iPhone 6标准作为设计稿。但对于PC端网项目,处理不同屏幕大小需要其他方案。 PC端屏幕适配方案 PC端屏幕适配一般采用流…

    2025年12月24日
    300
  • CSS 元素设置 10em 和 transition 后为何没有放大效果?

    CSS 元素设置 10em 和 transition 后为何无放大效果? 你尝试设置了一个 .box 类,其中包含字体大小为 10em 和过渡持续时间为 2 秒的文本。当你载入到页面时,它没有像 YouTube 视频中那样产生放大效果。 原因可能在于你将 CSS 直接写在页面中 在你的代码示例中,C…

    2025年12月24日
    400
  • 如何实现类似横向U型步骤条的组件?

    横向U型步骤条寻求替代品 希望找到类似横向U型步骤条的组件或 CSS 实现。 潜在解决方案 根据给出的参考图片,类似的组件有: 图片所示组件:图片提供了组件的外观,但没有提供具体的实现方式。参考链接:提供的链接指向了 SegmentFault 上的另一个问题,其中可能包含相关的讨论或解决方案建议。 …

    2025年12月24日
    800
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何优化CSS Grid布局中子元素排列和宽度问题?

    css grid布局中的优化问题 在使用css grid布局时可能会遇到以下问题: 问题1:无法控制box1中li的布局 box1设置了grid-template-columns: repeat(auto-fill, 20%),这意味着容器将自动填充尽可能多的20%宽度的列。当li数量大于5时,它们…

    2025年12月24日
    800
  • SASS 中的 Mixins

    mixin 是 css 预处理器提供的工具,虽然它们不是可以被理解的函数,但它们的主要用途是重用代码。 不止一次,我们需要创建多个类来执行相同的操作,但更改单个值,例如字体大小的多个类。 .fs-10 { font-size: 10px;}.fs-20 { font-size: 20px;}.fs-…

    2025年12月24日
    000
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • CSS mask 属性无法加载图片:浏览器问题还是代码错误?

    CSS mask 属性请求图片失败 在使用 CSS mask 属性时,您遇到了一个问题,即图片没有被请求获取。这可能是由于以下原因: 浏览器问题:某些浏览器可能在处理 mask 属性时存在 bug。尝试更新到浏览器的最新版本。代码示例中的其他信息:您提供的代码示例中还包含其他 HTML 和 CSS …

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何用 CSS 实现链接移入效果?

    css 中实现链接移入效果的技巧 在 css 中模拟链接的移入效果可能并不容易,因为它们不会影响周围元素。但是,有几个方法可以实现类似的效果: 1. 缩放 最简单的方法是使用 scale 属性,它会放大元素。以下是一个示例: 立即学习“前端免费学习笔记(深入)”; .goods-item:hover…

    2025年12月24日
    000
  • 网页使用本地字体:为什么 CSS 代码中明明指定了“荆南麦圆体”,页面却仍然显示“微软雅黑”?

    网页中使用本地字体 本文将解答如何将本地安装字体应用到网页中,避免使用 src 属性直接引入字体文件。 问题: 想要在网页上使用已安装的“荆南麦圆体”字体,但 css 代码中将其置于第一位的“font-family”属性,页面仍显示“微软雅黑”字体。 立即学习“前端免费学习笔记(深入)”; 答案: …

    2025年12月24日
    000
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 如何用 CSS 实现类似卡券的缺口效果?

    类似卡券的布局如何实现 想要实现类似卡券的布局,可以使用遮罩(mask)来实现缺口效果。 示例代码: .card { -webkit-mask: radial-gradient(circle at 20px, #0000 20px, red 0) -20px;} 效果: 立即学习“前端免费学习笔记(…

    2025年12月24日
    000
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何用纯代码实现自定义宽度和间距的虚线边框?

    自定义宽度和间距的虚线边框 提问: 如何创建一个自定义宽度和间距的虚线边框,如下图所示: 元素宽度:8px元素高度:1px间距:2px圆角:4px 解答: 传统的解决方案通常涉及使用 border-image 引入切片的图片来实现。但是,这需要引入外部资源。本解答将提供一种纯代码的方法,使用 svg…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信