车载系统软件工程师如何实现车载系统的AR导航和显示

microPython Python最小内核源码解析
NI-motion运动控制c语言示例代码解析
python编程示例系列 python编程示例系列二
python的Web神器Streamlit
如何应聘高薪职位

实现车载系统的AR导航和显示是一个复杂的任务,需要结合硬件和软件的多种技术。以下是详细分析及示例代码。

技术分析

  1. 传感器数据获取

    • GPS:用于获取车辆的地理位置。
    • IMU(惯性测量单元):用于获取车辆的姿态和运动状态。
    • 摄像头:用于获取前方道路的实时图像。
  2. 数据处理

    • 地图数据:需要高精度的地图数据来进行路径规划。
    • 计算机视觉:用于处理摄像头图像,识别道路、路标等信息。
    • 增强现实(AR):将导航信息叠加到实时图像上。
  3. 显示

    • HUD(抬头显示):将导航信息投影到挡风玻璃上。
    • 中控屏幕:在中控屏上显示AR导航图像。

实现步骤

  1. 获取传感器数据

    • 使用GPS模块获取地理位置。
    • 使用IMU传感器获取车辆的姿态和运动状态。
    • 使用摄像头获取前方道路的实时图像。
  2. 数据处理与融合

    • 通过计算机视觉算法处理摄像头图像,识别道路和路标。
    • 利用GPS和IMU数据进行位置和姿态的校正和融合。
    • 将导航路径叠加到摄像头图像上。
  3. 显示增强现实导航信息

    • 将处理后的AR导航信息显示在HUD或中控屏上。

示例代码

以下是一个简化的示例代码,展示了如何使用HTML5和JavaScript实现一个简单的AR导航界面。该示例假设已经有了一些基础的数据处理和融合算法。

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>AR Navigation</title>
    <style>
        body, html {
            margin: 0;
            padding: 0;
            overflow: hidden;
            height: 100%;
            width: 100%;
            display: flex;
            justify-content: center;
            align-items: center;
            background: black;
        }
        #videoElement {
            position: absolute;
            top: 0;
            left: 0;
            width: 100%;
            height: 100%;
            z-index: 0;
        }
        #overlayCanvas {
            position: absolute;
            top: 0;
            left: 0;
            width: 100%;
            height: 100%;
            z-index: 1;
        }
    </style>
</head>
<body>

    <video id="videoElement" autoplay></video>
    <canvas id="overlayCanvas"></canvas>

    <script>
        const video = document.getElementById('videoElement');
        const canvas = document.getElementById('overlayCanvas');
        const context = canvas.getContext('2d');

        // Access the device camera and stream to video element
        navigator.mediaDevices.getUserMedia({ video: true })
            .then((stream) => {
                video.srcObject = stream;
            })
            .catch((err) => {
                console.error("Error accessing the camera: ", err);
            });

        // Example function to draw AR navigation path
        function drawNavigationPath() {
            context.clearRect(0, 0, canvas.width, canvas.height);
            context.strokeStyle = 'red';
            context.lineWidth = 5;

            // Example path (this would be replaced by real navigation data)
            context.beginPath();
            context.moveTo(50, canvas.height - 50);
            context.lineTo(canvas.width / 2, canvas.height / 2);
            context.lineTo(canvas.width - 50, canvas.height - 50);
            context.stroke();
        }

        // Render loop
        function render() {
            drawNavigationPath();
            requestAnimationFrame(render);
        }

        video.addEventListener('play', () => {
            canvas.width = video.videoWidth;
            canvas.height = video.videoHeight;
            render();
        });
    </script>

</body>
</html>

代码说明

  1. HTML部分

    • 定义了一个video元素用于显示摄像头的实时图像。
    • 定义了一个canvas元素用于绘制AR导航信息。
  2. CSS部分

    • 设置videocanvas元素的位置和尺寸,使其覆盖整个屏幕。
  3. JavaScript部分

    • 使用navigator.mediaDevices.getUserMedia获取摄像头视频流并将其显示在video元素中。
    • 定义drawNavigationPath函数,绘制一个示例导航路径。
    • 使用requestAnimationFrame创建一个渲染循环,持续绘制导航路径。

这个示例仅展示了AR导航的基本实现思路。实际应用中需要结合更多的传感器数据和复杂的算法来实现高精度的AR导航和显示。
为了进一步完善车载系统的AR导航和显示,我们可以添加更多的功能和细节,如传感器数据处理、路径规划、以及更复杂的图像处理和增强现实显示。下面将继续扩展示例代码,添加更多功能。

扩展示例代码

在这个扩展示例中,我们将:

  1. 模拟GPS和IMU数据。
  2. 使用计算机视觉处理图像。
  3. 将导航路径叠加到实时图像上。
<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>AR Navigation</title>
    <style>
        body, html {
            margin: 0;
            padding: 0;
            overflow: hidden;
            height: 100%;
            width: 100%;
            display: flex;
            justify-content: center;
            align-items: center;
            background: black;
        }
        #videoElement {
            position: absolute;
            top: 0;
            left: 0;
            width: 100%;
            height: 100%;
            z-index: 0;
        }
        #overlayCanvas {
            position: absolute;
            top: 0;
            left: 0;
            width: 100%;
            height: 100%;
            z-index: 1;
        }
        #debugCanvas {
            position: absolute;
            top: 0;
            left: 0;
            width: 200px;
            height: 150px;
            z-index: 2;
            background: rgba(255, 255, 255, 0.5);
        }
    </style>
</head>
<body>

    <video id="videoElement" autoplay></video>
    <canvas id="overlayCanvas"></canvas>
    <canvas id="debugCanvas"></canvas>

    <script>
        const video = document.getElementById('videoElement');
        const overlayCanvas = document.getElementById('overlayCanvas');
        const debugCanvas = document.getElementById('debugCanvas');
        const overlayContext = overlayCanvas.getContext('2d');
        const debugContext = debugCanvas.getContext('2d');

        // Access the device camera and stream to video element
        navigator.mediaDevices.getUserMedia({ video: true })
            .then((stream) => {
                video.srcObject = stream;
            })
            .catch((err) => {
                console.error("Error accessing the camera: ", err);
            });

        // Simulated GPS and IMU data
        function getSimulatedGPSData() {
            return {
                latitude: 37.7749,  // Example latitude
                longitude: -122.4194 // Example longitude
            };
        }

        function getSimulatedIMUData() {
            return {
                pitch: 0, // Example pitch
                roll: 0,  // Example roll
                yaw: 0    // Example yaw
            };
        }

        // Example function to process image using computer vision
        function processImage() {
            debugContext.drawImage(video, 0, 0, debugCanvas.width, debugCanvas.height);
            let imageData = debugContext.getImageData(0, 0, debugCanvas.width, debugCanvas.height);
            // Simple edge detection (placeholder for actual CV)
            for (let i = 0; i < imageData.data.length; i += 4) {
                let r = imageData.data[i];
                let g = imageData.data[i + 1];
                let b = imageData.data[i + 2];
                let brightness = (r + g + b) / 3;
                imageData.data[i] = imageData.data[i + 1] = imageData.data[i + 2] = brightness > 128 ? 255 : 0;
            }
            debugContext.putImageData(imageData, 0, 0);
        }

        // Example function to draw AR navigation path
        function drawNavigationPath() {
            overlayContext.clearRect(0, 0, overlayCanvas.width, overlayCanvas.height);
            overlayContext.strokeStyle = 'red';
            overlayContext.lineWidth = 5;

            // Example path (this would be replaced by real navigation data)
            overlayContext.beginPath();
            overlayContext.moveTo(50, overlayCanvas.height - 50);
            overlayContext.lineTo(overlayCanvas.width / 2, overlayCanvas.height / 2);
            overlayContext.lineTo(overlayCanvas.width - 50, overlayCanvas.height - 50);
            overlayContext.stroke();
        }

        // Render loop
        function render() {
            processImage();
            drawNavigationPath();
            requestAnimationFrame(render);
        }

        video.addEventListener('play', () => {
            overlayCanvas.width = video.videoWidth;
            overlayCanvas.height = video.videoHeight;
            debugCanvas.width = video.videoWidth / 4;
            debugCanvas.height = video.videoHeight / 4;
            render();
        });
    </script>

</body>
</html>

代码说明

  1. HTML部分

    • 增加了一个debugCanvas用于调试和显示计算机视觉处理结果。
  2. CSS部分

    • debugCanvas设置了一个半透明的背景,便于观察。
  3. JavaScript部分

    • 添加了获取模拟GPS和IMU数据的函数getSimulatedGPSDatagetSimulatedIMUData
    • 添加了processImage函数,使用简单的计算机视觉算法进行图像处理(此处为简单的边缘检测)。
    • render函数中,调用processImage处理图像,并调用drawNavigationPath绘制导航路径。

进一步扩展

  1. 实际传感器数据

    • 将模拟数据替换为实际的GPS和IMU传感器数据。
    • 使用Web APIs或车载系统的SDK获取这些数据。
  2. 高级计算机视觉

    • 使用深度学习模型进行道路和障碍物检测。
    • 实现更复杂的图像处理算法,如SLAM(同步定位与地图构建)。
  3. 路径规划和导航

    • 集成高精度地图数据,进行实时路径规划。
    • 根据车辆的位置和姿态,动态调整导航路径。
  4. 用户界面优化

    • 优化HUD或中控屏幕上的显示效果。
    • 增加用户交互功能,如语音指令和手势控制。

通过以上步骤和代码,你可以实现一个基本的车载AR导航系统,并根据实际需求进行扩展和优化。

进一步扩展的详细实现

在进一步扩展中,我们将详细探讨如何获取实际传感器数据、实现更复杂的计算机视觉算法、集成路径规划和导航、以及优化用户界面。以下是每个部分的详细实现和代码示例。

1. 获取实际传感器数据

实际的车载系统可以通过车载网络(如CAN总线)或特定的API获取传感器数据。这里假设我们有一个API可以提供GPS和IMU数据。

// 假设我们有一个API可以提供GPS和IMU数据
async function fetchSensorData() {
    try {
        const response = await fetch('/api/sensor-data');
        const data = await response.json();
        return {
            gps: {
                latitude: data.latitude,
                longitude: data.longitude
            },
            imu: {
                pitch: data.pitch,
                roll: data.roll,
                yaw: data.yaw
            }
        };
    } catch (error) {
        console.error('Error fetching sensor data:', error);
    }
}
2. 高级计算机视觉

使用TensorFlow.js或其他深度学习库进行计算机视觉处理。这里我们使用TensorFlow.js进行简单的对象检测。

<!-- 在HTML文件中引入TensorFlow.js -->
<script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs"></script>
<script src="https://cdn.jsdelivr.net/npm/@tensorflow-models/coco-ssd"></script>
let model;

// 加载预训练的COCO-SSD模型
cocoSsd.load().then(loadedModel => {
    model = loadedModel;
});

// 处理图像并进行对象检测
async function processImage() {
    if (model) {
        debugContext.drawImage(video, 0, 0, debugCanvas.width, debugCanvas.height);
        const predictions = await model.detect(video);
        drawPredictions(predictions);
    }
}

// 绘制检测结果
function drawPredictions(predictions) {
    debugContext.clearRect(0, 0, debugCanvas.width, debugCanvas.height);
    predictions.forEach(prediction => {
        const [x, y, width, height] = prediction.bbox;
        debugContext.strokeStyle = 'red';
        debugContext.lineWidth = 2;
        debugContext.strokeRect(x, y, width, height);
        debugContext.fillStyle = 'red';
        debugContext.fillText(prediction.class, x, y);
    });
}
3. 路径规划和导航

通过高精度地图数据和路径规划算法(如A*算法)实现实时路径规划。

// 假设我们有一个路径规划API
async function fetchRoute(from, to) {
    try {
        const response = await fetch(`/api/route?from=${from.latitude},${from.longitude}&to=${to.latitude},${to.longitude}`);
        const route = await response.json();
        return route;
    } catch (error) {
        console.error('Error fetching route:', error);
    }
}

// 绘制导航路径
function drawNavigationPath(route) {
    overlayContext.clearRect(0, 0, overlayCanvas.width, overlayCanvas.height);
    overlayContext.strokeStyle = 'blue';
    overlayContext.lineWidth = 4;

    overlayContext.beginPath();
    route.forEach((point, index) => {
        const x = point.x * overlayCanvas.width;
        const y = point.y * overlayCanvas.height;
        if (index === 0) {
            overlayContext.moveTo(x, y);
        } else {
            overlayContext.lineTo(x, y);
        }
    });
    overlayContext.stroke();
}
4. 用户界面优化

优化HUD和中控屏幕上的显示效果,并增加用户交互功能。

<!-- 在HTML文件中增加按钮和状态显示 -->
<div id="ui">
    <button id="startNav">开始导航</button>
    <div id="status">状态: 未启动</div>
</div>

<style>
    #ui {
        position: absolute;
        top: 10px;
        left: 10px;
        z-index: 3;
        color: white;
        font-family: Arial, sans-serif;
    }
    #startNav {
        padding: 10px;
        background: rgba(0, 0, 0, 0.5);
        color: white;
        border: none;
        cursor: pointer;
    }
    #status {
        margin-top: 10px;
    }
</style>
document.getElementById('startNav').addEventListener('click', async () => {
    document.getElementById('status').innerText = '状态: 导航中...';
    const sensorData = await fetchSensorData();
    const route = await fetchRoute(sensorData.gps, { latitude: 37.7749, longitude: -122.4194 }); // Example destination
    drawNavigationPath(route);
});

完整示例代码

结合以上所有部分,以下是完整的HTML和JavaScript代码,用于实现一个更复杂的AR导航系统。

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>AR Navigation</title>
    <style>
        body, html {
            margin: 0;
            padding: 0;
            overflow: hidden;
            height: 100%;
            width: 100%;
            display: flex;
            justify-content: center;
            align-items: center;
            background: black;
        }
        #videoElement {
            position: absolute;
            top: 0;
            left: 0;
            width: 100%;
            height: 100%;
            z-index: 0;
        }
        #overlayCanvas {
            position: absolute;
            top: 0;
            left: 0;
            width: 100%;
            height: 100%;
            z-index: 1;
        }
        #debugCanvas {
            position: absolute;
            top: 0;
            left: 0;
            width: 200px;
            height: 150px;
            z-index: 2;
            background: rgba(255, 255, 255, 0.5);
        }
        #ui {
            position: absolute;
            top: 10px;
            left: 10px;
            z-index: 3;
            color: white;
            font-family: Arial, sans-serif;
        }
        #startNav {
            padding: 10px;
            background: rgba(0, 0, 0, 0.5);
            color: white;
            border: none;
            cursor: pointer;
        }
        #status {
            margin-top: 10px;
        }
    </style>
    <script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs"></script>
    <script src="https://cdn.jsdelivr.net/npm/@tensorflow-models/coco-ssd"></script>
</head>
<body>

    <video id="videoElement" autoplay></video>
    <canvas id="overlayCanvas"></canvas>
    <canvas id="debugCanvas"></canvas>
    <div id="ui">
        <button id="startNav">开始导航</button>
        <div id="status">状态: 未启动</div>
    </div>

    <script>
        const video = document.getElementById('videoElement');
        const overlayCanvas = document.getElementById('overlayCanvas');
        const debugCanvas = document.getElementById('debugCanvas');
        const overlayContext = overlayCanvas.getContext('2d');
        const debugContext = debugCanvas.getContext('2d');

        let model;

        // 加载预训练的COCO-SSD模型
        cocoSsd.load().then(loadedModel => {
            model = loadedModel;
        });

        // Access the device camera and stream to video element
        navigator.mediaDevices.getUserMedia({ video: true })
            .then((stream) => {
                video.srcObject = stream;
            })
            .catch((err) => {
                console.error("Error accessing the camera: ", err);
            });

        // Fetch sensor data from API
        async function fetchSensorData() {
            try {
                const response = await fetch('/api/sensor-data');
                const data = await response.json();
                return {
                    gps: {
                        latitude: data.latitude,
                        longitude: data.longitude
                    },
                    imu: {
                        pitch: data.pitch,
                        roll: data.roll,
                        yaw: data.yaw
                    }
                };
            } catch (error) {
                console.error('Error fetching sensor data:', error);
            }
        }

        // Fetch route from API
        async function fetchRoute(from, to) {
            try {
                const response = await fetch(`/api/route?from=${from.latitude},${from.longitude}&to=${to.latitude},${to.longitude}`);
                const route = await response.json();
                return route;
            } catch (error) {
                console.error('Error fetching route:', error);
            }
        }

        // Process image and perform object detection
        async function processImage() {
            if (model) {
                debugContext.drawImage(video, 0, 0, debugCanvas.width, debugCanvas.height);
                const predictions = await model.detect(video);
                drawPredictions(predictions);
            }
        }

        // Draw predictions on debug canvas
        function drawPredictions(predictions) {
            debugContext.clearRect(0, 0, debugCanvas.width, debugCanvas.height);
            predictions.forEach(prediction => {
                const [x, y, width, height] = prediction.bbox;
                debugContext.strokeStyle = 'red';
                debugContext.lineWidth = 2;
                debugContext.strokeRect(x, y, width, height);
                debugContext.fillStyle = 'red';
                debugContext.fillText(prediction.class, x, y);
            });
        }

        // Draw navigation path on overlay canvas
        function drawNavigationPath(route) {
            overlayContext.clearRect(0, 0, overlayCanvas.width, overlayCanvas.height);
            overlayContext.strokeStyle = 'blue';
            overlayContext.lineWidth = 4;

            overlayContext.beginPath();
            route.forEach((point, index) => {
                const x = point.x * overlayCanvas.width;
                const y = point.y * overlayCanvas.height;
                if (index === 0) {
                    overlayContext.moveTo(x, y);
                } else {
                    overlayContext.lineTo(x, y);
                }
            });
            overlayContext.stroke();
        }

        // Render loop
        function render() {
            processImage();
            requestAnimationFrame(render);
        }

        video.addEventListener('play', () => {
            overlayCanvas.width = video.videoWidth;
            overlayCanvas.height = video.videoHeight;
            debugCanvas.width = video.videoWidth / 4;
            debugCanvas.height = video.videoHeight / 4;
            render();
        });

        document.getElementById('startNav').addEventListener('click', async () => {
            document.getElementById('status').innerText = '状态: 导航中...';
            const sensorData = await fetchSensorData();
            const route = await fetchRoute(sensorData.gps, { latitude: 37.7749, longitude: -122.4194 }); // Example destination
            drawNavigationPath(route);
        });
    </script>

</body>
</html>

代码说明

  1. 传感器数据获取

    • 使用fetchSensorData函数从API获取实际的GPS和IMU数据。
  2. 高级计算机视觉

    • 使用TensorFlow.js加载COCO-SSD模型进行对象检测,并在debugCanvas上绘制检测结果。
  3. 路径规划和导航

    • 使用fetchRoute函数从API获取路径数据,并在overlayCanvas上绘制导航路径。
  4. 用户界面优化

    • 增加了一个按钮和状态显示区域,用于交互和显示导航状态。

通过以上的扩展和详细实现,我们创建了一个更为复杂和实用的车载AR导航系统示例。实际应用中可以根据具体需求和硬件条件进行进一步的优化和扩展。
科学界类似matlab的工具
python的debugpy库
NI-Motion如何使用电子齿轮(electronic gearing)功能来控制运动控制器上的从轴(slave axis)以匹配主轴(master axis)的运动的C语言代码示例
python如何监控文件系统中的文件和目录的变化
python 如何删除文件?
python web应用开发神器 入门十八
microPython的源码解析之 objmap.c
python如何进行内存监控
openai的API实现代码函数检索
python加PyQT如何开发一个端口扫描工具
SSH服务以及pxssh的使用
指数和对数
python如何开发一个远程桌面的工具
microPython的源码解析之 nlrx64.c
microPython的源码解析之 asmbase.c
python如何实现π计算,可以指定精度
详细介绍一下红黑树,如何快速搜索
python的WPS-SDK-Python库提供哪些功能
量子计算Quantum Approximate Optimization Algorithm (QAOA)算法
microPython的源码解析之 objtuple.c
面试的这些坑,你踩过吗?
linux 的gdb软件如何使用
量化交易中有哪些愚蠢的行为
python如何绘制热力图
python 用于解析复杂文本数据的库PyParsing
python的pure-eval库
Python为命令行界面(CLI)工具自动生成解析器的库Docopt
Python开源自动化工具,用于配置管理、应用部署、智能自动化ansible
python 如何播放声音
openai的API使用Embeddings文本分类的示例
microPython的源码解析之 objstrunicode.c
详细解读一下c++模版编程,并举例
microPython的源码解析之 stream.c
详细解读一下B树,及如何进行搜索
python 把字符串当数组来操作就对了
QT中的RS485通信如何实现自动重连和断线重连功能?
microPython的源码解析之 modgc.c
3D动画,头发随风摆动是如何做到的
python将抽象语法树转换回源代码的工具库astor
简单解释量子计算
一个用Python节省100万美元的案例
Python如何模拟球的碰撞及摩擦力,弹力.
python的定时库有哪些
如何应聘普通测试工程师
c#如何开发一个linux远程终端工具,类似putty
Electron框架介绍
qt及 c++,写入mysql数据库表数据,不使用qtsql,请给出示例代码
windows程序在后台运行有几种开发方法
使用Python进行前沿依赖测试
AstraZeneca公司如何使用Python来改进药物发现的协作过程
python编写一段会跳动的文字
c# 开发WCF服务
microPython的源码解析之 asmthumb.c
一家初创医疗科技公司用Python设计了一个平台
python 如何统计文本里文字字数?
qt开发的程序 为何一个主窗口关闭了,程序不退出,而是到等到所有窗口关闭了,才退出呢?
python的PySFML 库如何安装使用以及功能和用途
python如何自动创建python代码
python如何显示html文档
microPython的源码解析之 nlrpowerpc.c
Python支持Protocol Buffers高效的序列化数据格式库protobuf3-to-dict
c++加QT开发linux远程终端,类似putty
矩阵运算思维如何理解
如何将一个Sqlite数据库Db中的所有表快速拆分到多个db文件中
python事件通知库Blinker
python 的pandas库的使用示例
量子计算HHL算法
chatGPT如何与工业软件领域结合
Python展示如何实现二维空间物体的各种物理约束
python如何快速创建命令行接口(CLI)
python的injectool库
Pandas如何处理excel列中数据?
python如何操作ppt文档
Blender Game Engine (BGE) 是 Blender 3D内置游戏引擎
python 如何给文件改名
microPython的源码解析之 objint.c
NI-Motion如何在运动控制器上设置一个模数断点,并通过RTSI线将其路由出去的C语言代码示例
python的paramiko 库如何使用
如何将列的数字编号,转化为EXcel的字母表示的列编号
microPython的源码解析之 objgenerator.c
python的PyOpenGL库如何使用,请给出详细示例代码,并用中文回答
microPython的源码解析之 objdict.c
python用于构建和运行自动化交易策略的框架的库trading-backend
C++加QT中的RS232通信如何实现自动重连和断线重连功能?
linux命令行工具的参数的格式说明
python分布式系统技术集成的应用
Python中怎样计算浮点数的小数部分各位上数字之和?
如何为你的Python应用程序提供干净和安全的代码。
如何初级嵌入式软件工程师,年薪范围大约在 10万至 15 万元人民币
python的Scapy解析TTL字段的值
python的Bokeh库如何使用
microPython的源码解析之 asmarm.c
蒙特卡洛算法具体是什么
python的fractions库如何使用
microPython的源码解析之 objzip.c
python标准库列表
Python的opencv库使用FAST 算法进行特征检测
Python实现本地语音转文字,并且带有唤醒词功能.
NI-Motion如何控制一个运动控制器执行一个螺旋形移动路径 的C语言代码实力
microPython的源码解析之 objnamedtuple.c

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

openwin_top

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值