基于鱼眼镜头图像的单目视觉测距MATLAB源码解析

本文还有配套的精品资源,点击获取 menu-r.4af5f7ec.gif

简介:单目视觉测距利用单摄像头估算物体距离。本项目提供"fish_eye.m" MATLAB源码,用于实现鱼眼镜头图像的单目视觉测距。鱼眼镜头图像存在畸变,需要校正。源码包含图像畸变校正、特征提取、特征匹配、相机姿态估计、三角测距等步骤。通过GUI界面,可实时显示测距结果和相机视图,便于理解和验证算法效果。 fish_eye,单目视觉测距matlab源码,matlab

1. 鱼眼镜头畸变校正

鱼眼镜头是一种具有超大视角的镜头,可以拍摄出具有强烈透视效果的图像。但是,鱼眼镜头拍摄的图像往往存在严重的畸变,影响图像的质量和后续处理。鱼眼镜头畸变校正就是通过数学方法消除或减轻鱼眼镜头畸变的过程。

鱼眼镜头畸变校正方法主要分为基于模型的校正方法和基于图像的校正方法。基于模型的校正方法需要事先知道鱼眼镜头的畸变模型,然后利用该模型对图像进行校正。基于图像的校正方法不需要知道鱼眼镜头的畸变模型,而是直接从图像中估计畸变参数,然后对图像进行校正。

2. 特征提取与匹配

2.1 特征提取算法

特征提取算法是计算机视觉中最重要的技术之一,其目的是从图像中提取具有代表性的特征点,这些特征点可以用于图像匹配、目标识别和场景理解等任务。目前,常用的特征提取算法主要有以下几种:

2.1.1 SIFT算法

SIFT(尺度不变特征变换)算法是一种基于图像局部梯度直方图的特征提取算法。它首先通过高斯差分金字塔构建图像的不同尺度空间,然后计算每个像素点的梯度方向和幅度,并形成梯度直方图。最后,通过关键点检测和描述子提取,得到图像的SIFT特征点。

import cv2

# 读取图像
image = cv2.imread('image.jpg')

# 创建SIFT特征提取器
sift = cv2.SIFT_create()

# 检测关键点和计算描述子
keypoints, descriptors = sift.detectAndCompute(image, None)

# 绘制关键点
cv2.drawKeypoints(image, keypoints, image)

# 显示图像
cv2.imshow('SIFT Keypoints', image)
cv2.waitKey(0)
cv2.destroyAllWindows()

代码逻辑分析:

  • cv2.SIFT_create() 函数创建了一个SIFT特征提取器。
  • detectAndCompute() 函数检测关键点并计算描述子。
  • drawKeypoints() 函数绘制关键点。

参数说明:

  • image : 输入图像。
  • keypoints : 检测到的关键点。
  • descriptors : 计算出的描述子。
2.1.2 SURF算法

SURF(加速鲁棒特征)算法是一种基于Hessian矩阵的特征提取算法。它通过计算图像中每个像素点的Hessian矩阵,并寻找Hessian矩阵行列式极值点,来检测关键点。然后,通过计算关键点周围区域的Haar小波响应,得到SURF特征点。

import cv2

# 读取图像
image = cv2.imread('image.jpg')

# 创建SURF特征提取器
surf = cv2.xfeatures2d.SURF_create()

# 检测关键点和计算描述子
keypoints, descriptors = surf.detectAndCompute(image, None)

# 绘制关键点
cv2.drawKeypoints(image, keypoints, image)

# 显示图像
cv2.imshow('SURF Keypoints', image)
cv2.waitKey(0)
cv2.destroyAllWindows()

代码逻辑分析:

  • cv2.xfeatures2d.SURF_create() 函数创建了一个SURF特征提取器。
  • detectAndCompute() 函数检测关键点并计算描述子。
  • drawKeypoints() 函数绘制关键点。

参数说明:

  • image : 输入图像。
  • keypoints : 检测到的关键点。
  • descriptors : 计算出的描述子。
2.1.3 ORB算法

ORB(定向快速二进制模式)算法是一种基于快速二进制模式(BRIEF)描述子的特征提取算法。它通过计算图像中每个像素点的BRIEF描述子,并使用二进制串匹配来检测关键点。ORB算法具有计算速度快、鲁棒性强的特点。

import cv2

# 读取图像
image = cv2.imread('image.jpg')

# 创建ORB特征提取器
orb = cv2.ORB_create()

# 检测关键点和计算描述子
keypoints, descriptors = orb.detectAndCompute(image, None)

# 绘制关键点
cv2.drawKeypoints(image, keypoints, image)

# 显示图像
cv2.imshow('ORB Keypoints', image)
cv2.waitKey(0)
cv2.destroyAllWindows()

代码逻辑分析:

  • cv2.ORB_create() 函数创建了一个ORB特征提取器。
  • detectAndCompute() 函数检测关键点并计算描述子。
  • drawKeypoints() 函数绘制关键点。

参数说明:

  • image : 输入图像。
  • keypoints : 检测到的关键点。
  • descriptors : 计算出的描述子。

2.2 特征匹配算法

特征匹配算法是将两幅图像中的特征点进行匹配的过程,其目的是找到两幅图像中对应的特征点,以便进行后续的图像拼接、目标识别等任务。常用的特征匹配算法主要有以下几种:

2.2.1 暴力匹配算法

暴力匹配算法是最简单、最直接的特征匹配算法。它将一幅图像中的所有特征点与另一幅图像中的所有特征点进行比较,并计算它们的距离。距离最小的特征点对被认为是匹配点。

import cv2

# 读取图像
image1 = cv2.imread('image1.jpg')
image2 = cv2.imread('image2.jpg')

# 创建SIFT特征提取器
sift = cv2.SIFT_create()

# 检测关键点和计算描述子
keypoints1, descriptors1 = sift.detectAndCompute(image1, None)
keypoints2, descriptors2 = sift.detectAndCompute(image2, None)

# 进行暴力匹配
bf = cv2.BFMatcher()
matches = bf.knnMatch(descriptors1, descriptors2, k=2)

# 绘制匹配点
image_matches = cv2.drawMatchesKnn(image1, keypoints1, image2, keypoints2, matches, None)

# 显示图像
cv2.imshow('Matches', image_matches)
cv2.waitKey(0)
cv2.destroyAllWindows()

代码逻辑分析:

  • cv2.BFMatcher() 函数创建了一个暴力匹配器。
  • knnMatch() 函数进行暴力匹配。
  • drawMatchesKnn() 函数绘制匹配点。

参数说明:

  • descriptors1 : 第一幅图像的描述子。
  • descriptors2 : 第二幅图像的描述子。
  • k : 匹配每个特征点的候选匹配点数。
2.2.2 FLANN算法

FLANN(快速近似最近邻搜索)算法是一种基于kd树的特征匹配算法。它通过构建kd树来加速最近邻搜索,从而提高匹配速度。

import cv2

# 读取图像
image1 = cv2.imread('image1.jpg')
image2 = cv2.imread('image2.jpg')

# 创建SIFT特征提取器
sift = cv2.SIFT_create()

# 检测关键点和计算描述子
keypoints1, descriptors1 = sift.detectAndCompute(image1, None)
keypoints2, descriptors2 = sift.detectAndCompute(image2, None)

# 创建FLANN匹配器
flann = cv2.FlannBasedMatcher()

# 进行FLANN匹配
matches = flann.knnMatch(descriptors1, descriptors2, k=2)

# 绘制匹配点
image_matches = cv2.drawMatchesKnn(image1, keypoints1, image2, keypoints2, matches, None)

# 显示图像
cv2.imshow('Matches', image_matches)
cv2.waitKey(0)
cv2.destroyAllWindows()

代码逻辑分析:

  • cv2.FlannBasedMatcher() 函数创建了一个FLANN匹配器。
  • knnMatch() 函数进行FLANN匹配。
  • drawMatchesKnn() 函数绘制匹配点。

参数说明:

  • descriptors1 : 第一幅图像的描述子。
  • descriptors2 : 第二幅图像的描述子。
  • k : 匹配每个特征点的候选匹配点数。
2.2.3 KNN算法

KNN(k近邻)算法是一种基于距离度量的特征匹配算法。它将一幅图像中的每个特征点与另一幅图像中的所有特征点进行比较,并选择距离最小的k个特征点作为匹配点。

import cv2

# 读取图像
image1 = cv2.imread('image1.jpg')
image2 = cv2.imread('image2.jpg')

# 创建SIFT特征提取器
sift = cv2.SIFT_create()

# 检测关键点和计算描述子
keypoints1, descriptors1 = sift.detectAndCompute(image1, None)
keypoints2, descriptors2 = sift.detectAndCompute(image2, None)

# 进行KNN匹配
knn = cv2.ml.KNearest_create()
knn.train(descriptors1, np.arange(len(descriptors1)))
ret, results, neighbours, dist = knn.findNearest(descriptors2, k=2)

# 绘制匹配点
image_matches = cv2.drawMatchesKnn(image1, keypoints1, image2, keypoints2, results, None)

# 显示图像
cv2.imshow('Matches', image_matches)
cv2.waitKey(0)
cv2.destroyAllWindows()

代码逻辑分析:

3. 相机姿态估计

3.1 单应性矩阵估计

单应性矩阵(Homography)是一种将图像平面上的点与另一个图像平面上的点进行对应关系的 3x3 投影变换矩阵。它在计算机视觉中广泛用于图像配准、全景拼接和相机姿态估计等任务。

3.1.1 DLT 算法

DLT(Direct Linear Transformation)算法是一种估计单应性矩阵的经典方法。它通过求解线性方程组来获得单应性矩阵。

给定两组对应点对:

(x1, y1) -> (x1', y1')
(x2, y2) -> (x2', y2')
(xn, yn) -> (xn', yn')

可以建立以下线性方程组:

[x1' y1' 1 0 0 0 -x1*x1' -x1*y1' -x1] [h11]
[0 0 0 x1' y1' 1 -y1*x1' -y1*y1' -y1] [h12]
[xn' yn' 1 0 0 0 -xn*xn' -xn*yn' -xn] [h31]
[0 0 0 xn' yn' 1 -yn*xn' -yn*yn' -yn] [h32]
[0 0 0 0 0 0 0 0 1] [h33]

其中,[h11, h12, h21, h22, h31, h32, h33] 是单应性矩阵的元素。

求解该方程组可以得到单应性矩阵 H:

H = [h11 h12 h13]
    [h21 h22 h23]
    [h31 h32 h33]

3.1.2 RANSAC 算法

RANSAC(RANdom SAmple Consensus)是一种鲁棒的估计单应性矩阵的方法。它通过迭代随机抽样和模型拟合来去除异常值的影响。

RANSAC 算法的步骤如下:

  1. 随机抽取 4 对对应点。
  2. 计算这 4 对点的单应性矩阵。
  3. 使用该单应性矩阵将所有其他点进行变换。
  4. 计算变换后的点与原始点的距离。
  5. 将距离小于阈值的点视为内点。
  6. 使用内点重新计算单应性矩阵。
  7. 重复步骤 1-6,直到满足终止条件(例如,达到最大迭代次数或内点数量达到阈值)。

3.2 相机姿态估计

相机姿态估计是指确定相机在三维空间中的位置和方向。它在计算机视觉中用于机器人导航、增强现实和运动跟踪等任务。

3.2.1 PnP 算法

PnP(Perspective-n-Point)算法是一种估计相机姿态的经典方法。它通过求解非线性优化问题来获得相机的外参和内参。

给定一组 3D 点和对应的 2D 点:

(X1, Y1, Z1) -> (x1, y1)
(X2, Y2, Z2) -> (x2, y2)
(Xn, Yn, Zn) -> (xn, yn)

可以建立以下目标函数:

f(R, t, K) = ||P[R, t] * [X1, Y1, Z1, 1]' - [x1, y1, 1]'||^2 + ... + ||P[R, t] * [Xn, Yn, Zn, 1]' - [xn, yn, 1]'||^2

其中,P[R, t] 是相机投影矩阵,R 是旋转矩阵,t 是平移向量,K 是相机内参矩阵。

求解该目标函数的最小值可以得到相机的外参和内参。

3.2.2 EPnP 算法

EPnP(Efficient Perspective-n-Point)算法是一种高效的 PnP 算法。它通过使用本质矩阵和奇异值分解来估计相机姿态。

EPnP 算法的步骤如下:

  1. 计算本质矩阵 E。
  2. 使用奇异值分解分解 E:E = UDV'。
  3. 计算旋转矩阵 R = UWV'。
  4. 计算平移向量 t = U(:, 3)。
  5. 使用相机内参矩阵 K 计算相机投影矩阵 P[R, t]。

4. 三角测距

4.1 三角测距原理

三角测距是一种通过测量目标到两个已知位置的距离来确定目标位置的技术。在单目视觉测距中,三角测距是通过使用相机拍摄目标的图像来实现的。

三角测距原理如图 4.1 所示。已知相机的位置和姿态,通过测量目标在图像中的位置,可以计算出目标到相机的距离。

图 4.1 三角测距原理

设相机光心为 O,目标点为 P,相机到目标点的距离为 d。已知相机内参矩阵 K 和外参矩阵 [R|t],其中 R 为旋转矩阵,t 为平移向量。

目标点 P 在图像中的投影点为 p,其齐次坐标为:

p = [u, v, 1]^T

其中,u 和 v 分别是 p 在图像中的横坐标和纵坐标。

根据相机成像模型,有:

p = K[R|t]P

解得:

P = K^{-1}[R|t]^{-1}p

其中,K^{-1} 为 K 的逆矩阵,[R|t]^{-1} 为 [R|t] 的逆矩阵。

根据三角形相似性,有:

d / f = ||P - O|| / ||p - o||

其中,f 为相机的焦距,o 为图像原点。

解得:

d = f * ||P - O|| / ||p - o||

4.2 三角测距算法

4.2.1 线性三角测距算法

线性三角测距算法是一种简单的三角测距算法,它假设目标点到相机的距离远大于相机的焦距。在这种情况下,可以忽略图像畸变的影响。

线性三角测距算法的步骤如下:

  1. 计算目标点在图像中的投影点 p。
  2. 计算相机光心 O 和图像原点 o。
  3. 计算目标点 P 到相机光心 O 的距离 d。
import numpy as np

def linear_triangulation(K, R, t, p):
    """
    线性三角测距算法

    Args:
        K: 相机内参矩阵
        R: 相机旋转矩阵
        t: 相机平移向量
        p: 目标点在图像中的投影点

    Returns:
        目标点 P 到相机光心 O 的距离
    """

    # 计算相机光心 O 和图像原点 o
    O = np.zeros((3, 1))
    o = np.array([[0], [0], [1]])

    # 计算目标点 P 到相机光心 O 的距离
    P = np.linalg.inv(K) @ np.linalg.inv(np.hstack((R, t))) @ p
    d = np.linalg.norm(P - O) / np.linalg.norm(p - o)

    return d

4.2.2 非线性三角测距算法

非线性三角测距算法是一种更精确的三角测距算法,它考虑了图像畸变的影响。

非线性三角测距算法的步骤如下:

  1. 计算目标点在图像中的投影点 p。
  2. 计算相机内参矩阵 K。
  3. 计算相机外参矩阵 [R|t]。
  4. 使用非线性优化方法最小化目标函数,得到目标点 P 的估计值。
import numpy as np
import cv2

def nonlinear_triangulation(K, R, t, p):
    """
    非线性三角测距算法

    Args:
        K: 相机内参矩阵
        R: 相机旋转矩阵
        t: 相机平移向量
        p: 目标点在图像中的投影点

    Returns:
        目标点 P 的估计值
    """

    # 使用非线性优化方法最小化目标函数
    def objective_function(P):
        """
        目标函数

        Args:
            P: 目标点 P 的估计值

        Returns:
            目标函数值
        """

        # 计算投影点 p'
        p_ = K @ np.hstack((R, t)) @ P

        # 计算投影误差
        error = np.linalg.norm(p - p_)

        return error

    # 使用 LM 算法最小化目标函数
    result = cv2.solvePnP(np.array([P]), np.array([p]), K, None, flags=cv2.SOLVEPNP_ITERATIVE)

    return result[0]

5. MATLAB GUI界面

5.1 MATLAB GUI界面设计

MATLAB GUI(图形用户界面)是一种用于创建交互式图形界面的工具,它允许用户与程序进行交互。MATLAB GUI界面设计主要涉及以下步骤:

  1. 创建新GUI: 使用 guide 命令或MATLAB GUI Builder创建一个新的GUI。
  2. 添加控件: 从控件库中添加控件,如按钮、文本框、滑块等,以创建GUI布局。
  3. 设置控件属性: 设置控件的属性,如文本、位置、大小、可见性等。
  4. 编写回调函数: 为控件编写回调函数,当用户与控件交互时触发这些函数。
  5. 布局GUI: 使用布局管理器(如网格布局、流布局)来组织GUI中的控件。

5.2 图像处理和测量功能

MATLAB GUI界面可以集成图像处理和测量功能,允许用户交互式地处理和分析图像。这些功能通常包括:

  1. 图像加载: 允许用户从文件或摄像头加载图像。
  2. 图像显示: 在GUI中显示加载的图像。
  3. 图像处理: 提供图像处理功能,如灰度转换、锐化、滤波等。
  4. 测量工具: 提供测量工具,如距离测量、面积测量等。
  5. 结果显示: 将处理结果和测量结果显示在GUI中。

5.3 结果显示和导出

MATLAB GUI界面允许用户以多种方式显示和导出处理结果和测量结果:

  1. 文本显示: 在GUI中显示文本框或标签,显示处理结果和测量结果。
  2. 图形显示: 在GUI中显示图形,如图像、图表等,以可视化处理结果。
  3. 数据导出: 允许用户将处理结果和测量结果导出到文件,如CSV、TXT等格式。

6. MATLAB源码实现

6.1 鱼眼镜头畸变校正代码

% 读取鱼眼图像
image = imread('fisheye_image.jpg');

% 相机内参矩阵
K = [fx, 0, cx; 0, fy, cy; 0, 0, 1];

% 畸变系数
distCoeffs = [k1, k2, p1, p2, k3];

% 畸变校正
undistortedImage = undistortFisheyeImage(image, K, distCoeffs);

% 显示校正后的图像
imshow(undistortedImage);

代码逻辑分析:

  • imread() 函数读取鱼眼图像。
  • undistortFisheyeImage() 函数执行畸变校正,需要输入图像、相机内参矩阵和畸变系数。
  • 校正后的图像使用 imshow() 函数显示。

参数说明:

  • image : 输入的鱼眼图像。
  • K : 相机内参矩阵,包含焦距和主点坐标。
  • distCoeffs : 畸变系数向量。
  • undistortedImage : 校正后的图像。

6.2 特征提取与匹配代码

6.2.1 特征提取

% 读取图像
image1 = imread('image1.jpg');
image2 = imread('image2.jpg');

% 特征提取(SIFT算法)
[features1, descriptors1] = vl_sift(im2single(image1));
[features2, descriptors2] = vl_sift(im2single(image2));

代码逻辑分析:

  • vl_sift() 函数执行SIFT特征提取,需要输入单通道图像。
  • features1 features2 包含特征点的位置和尺度信息。
  • descriptors1 descriptors2 包含特征点的描述符。

6.2.2 特征匹配

% 特征匹配(FLANN算法)
indexPairs = flann_index_match(descriptors1, descriptors2);

代码逻辑分析:

  • flann_index_match() 函数执行特征匹配,需要输入特征描述符。
  • indexPairs 包含匹配的特征点索引对。

参数说明:

  • descriptors1 : 第一幅图像的特征描述符。
  • descriptors2 : 第二幅图像的特征描述符。
  • indexPairs : 匹配的特征点索引对。

6.3 相机姿态估计代码

% 三角形测量
points3D = triangulate(features1, features2, K1, K2, R, t);

代码逻辑分析:

  • triangulate() 函数执行三角测量,需要输入匹配的特征点、相机内参矩阵、旋转矩阵和平移向量。
  • points3D 包含三角测量的3D点坐标。

参数说明:

  • features1 : 第一幅图像的匹配特征点。
  • features2 : 第二幅图像的匹配特征点。
  • K1 : 第一幅图像的相机内参矩阵。
  • K2 : 第二幅图像的相机内参矩阵。
  • R : 相机旋转矩阵。
  • t : 相机平移向量。
  • points3D : 三角测量的3D点坐标。

6.4 三角测距代码

% 三角测距(线性算法)
distance = norm(points3D - cameraPosition);

代码逻辑分析:

  • norm() 函数计算3D点到相机位置的距离。

参数说明:

  • points3D : 三角测量的3D点坐标。
  • cameraPosition : 相机位置。
  • distance : 3D点到相机位置的距离。

6.5 MATLAB GUI界面代码

% 创建GUI
gui = figure('Name', 'Single-View Metrology', 'MenuBar', 'none');

% 添加控件
uicontrol('Style', 'pushbutton', 'String', 'Load Image', 'Callback', @loadImage);
uicontrol('Style', 'pushbutton', 'String', 'Extract Features', 'Callback', @extractFeatures);
uicontrol('Style', 'pushbutton', 'String', 'Match Features', 'Callback', @matchFeatures);
uicontrol('Style', 'pushbutton', 'String', 'Estimate Camera Pose', 'Callback', @estimateCameraPose);
uicontrol('Style', 'pushbutton', 'String', 'Triangulate Points', 'Callback', @triangulatePoints);
uicontrol('Style', 'pushbutton', 'String', 'Measure Distance', 'Callback', @measureDistance);

% GUI回调函数
function loadImage(~, ~)
    % 加载图像
end

function extractFeatures(~, ~)
    % 提取特征
end

function matchFeatures(~, ~)
    % 匹配特征
end

function estimateCameraPose(~, ~)
    % 估计相机姿态
end

function triangulatePoints(~, ~)
    % 三角测量
end

function measureDistance(~, ~)
    % 测量距离
end

代码逻辑分析:

  • figure() 函数创建GUI窗口。
  • uicontrol() 函数添加控件(按钮)到GUI。
  • 回调函数定义了按钮的点击事件处理。

参数说明:

  • gui : GUI窗口句柄。
  • ~ : 未使用的输入参数。
  • loadImage : 加载图像按钮的回调函数。
  • extractFeatures : 提取特征按钮的回调函数。
  • matchFeatures : 匹配特征按钮的回调函数。
  • estimateCameraPose : 估计相机姿态按钮的回调函数。
  • triangulatePoints : 三角测量按钮的回调函数。
  • measureDistance : 测量距离按钮的回调函数。

7. 应用与展望

7.1 单目视觉测距在机器人中的应用

单目视觉测距技术在机器人领域有着广泛的应用,主要体现在以下几个方面:

  • 环境感知: 机器人可以通过单目视觉测距技术获取周围环境的三维信息,从而构建环境地图,实现自主导航和避障。
  • 物体识别和抓取: 机器人可以通过单目视觉测距技术识别和定位物体,并计算物体的三维位置和姿态,从而实现精确的物体抓取和操作。
  • 人机交互: 机器人可以通过单目视觉测距技术识别和跟踪人体动作,从而实现自然的人机交互,如手势控制和表情识别。

7.2 单目视觉测距在无人机中的应用

单目视觉测距技术在无人机领域也得到了广泛的应用,主要体现在以下几个方面:

  • 视觉定位: 无人机可以通过单目视觉测距技术获取周围环境的三维信息,从而实现视觉定位,提高无人机的稳定性和安全性。
  • 避障: 无人机可以通过单目视觉测距技术检测和避开障碍物,从而提高无人机的飞行效率和安全性。
  • 目标跟踪: 无人机可以通过单目视觉测距技术跟踪目标物体,从而实现目标跟随和追逐。

7.3 单目视觉测距的发展趋势

单目视觉测距技术仍处于不断发展和完善的阶段,未来的发展趋势主要体现在以下几个方面:

  • 算法优化: 随着深度学习和人工智能技术的不断发展,单目视觉测距算法的精度和鲁棒性将得到进一步提升。
  • 硬件优化: 随着传感器和计算平台的不断发展,单目视觉测距系统的成本和功耗将得到降低,从而扩大其应用范围。
  • 多模态融合: 单目视觉测距技术将与其他传感器技术,如激光雷达和惯性导航系统,进行融合,以提高系统的整体性能和可靠性。

本文还有配套的精品资源,点击获取 menu-r.4af5f7ec.gif

简介:单目视觉测距利用单摄像头估算物体距离。本项目提供"fish_eye.m" MATLAB源码,用于实现鱼眼镜头图像的单目视觉测距。鱼眼镜头图像存在畸变,需要校正。源码包含图像畸变校正、特征提取、特征匹配、相机姿态估计、三角测距等步骤。通过GUI界面,可实时显示测距结果和相机视图,便于理解和验证算法效果。

本文还有配套的精品资源,点击获取 menu-r.4af5f7ec.gif

  • 6
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值