![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
python
文章平均质量分 72
IT猿手
这个作者很懒,什么都没留下…
展开
-
机器人路径规划:基于Bug算法的机器人路径规划(提供Python代码)
Bug 算法是一种基于追踪障碍物的路径规划算法,它模拟了一种昆虫寻找巢穴的行为,因此得名Bug算法。Bug算法的基本思路是:当机器人遇到障碍物时,他会沿着障碍物的边缘行走,直到到达目标点。该算法可以分为两个主要步骤:表示空间中的点和算法实现。在Bug算法中,空间被表示为二维网格,其中每个单元格可以是空的,包含障碍物或表示起点和终点。每个单元格可以表示一个网格点,该点的坐标可以用(x,y)表示。通过搜索算法,机器人可以在此网格中寻找路径,并移动到相应的点。原创 2024-03-18 19:00:54 · 2058 阅读 · 0 评论 -
机器人路径规划:基于广度优先搜索算法的机器人路径规划(提供Python代码)
广度优先搜索(BFS)是一种用于图或树的遍历算法,它从根节点开始,逐层地向下搜索,直到找到目标节点或遍历完整个图。BFS使用队列数据结构来实现,保证了节点的访问顺序是按照层级逐个进行的。BFS的过程如下:1. 将起始节点放入队列中。2. 从队列中取出一个节点,并访问该节点。3. 将该节点的所有未访问过的邻居节点放入队列中。4. 标记该节点为已访问。5. 重复步骤2-4,直到队列为空。BFS的特点是先访问离起始节点最近的节点,然后逐渐向外扩展。原创 2024-03-18 13:47:29 · 464 阅读 · 0 评论 -
机器人路径规划:基于双向广度优先搜索(Bidirectional Breadth-First grid planning)算法的机器人路径规划(提供Python代码)
双向广度优先搜索算法是一种用于解决图或树中两个节点之间最短路径问题的算法。它通过同时从起点和终点开始搜索,每次扩展当前层的节点,直到两个搜索方向相遇或找到了最短路径。算法步骤如下:1. 初始化两个队列,分别存放起点和终点。2. 初始化两个集合,分别用于记录起点和终点已经访问过的节点。3. 从起点和终点分别开始进行广度优先搜索,每次扩展当前层的节点。4. 在每一轮搜索中,检查当前层的节点是否已经在另一方向的集合中出现过,如果是,则找到了最短路径。原创 2024-03-18 13:33:48 · 255 阅读 · 0 评论 -
机器人路径规划:基于双向A*算法(bidirectional a star)的机器人路径规划(提供Python代码)
传统A*算法是一种静态路网中求解最短路径最有效的方法, 它结合了BFS 算法和迪杰斯特拉算法(Dijkstra)的优点。和迪杰斯特拉算法(Dijkstra)一样, A*算法能够用于 搜索最短路径;和BFS 算法一样, A*算法可以用 启发式函数引导给出当下的最佳解。传统A*算法的重点在于扩展下一个节点时引入了启发式函数 h(n), 对当前节点到目标节点的距离代价进行了评 估。通过计算函数的相对最优解来筛选当前节点周 围的扩展节点, 能适用于各种场景, 相当灵活。原创 2024-03-18 13:15:35 · 867 阅读 · 0 评论 -
机器人路径规划:基于D*Lite的机器人路径规划(提供Python代码)
D* Lite算法是栅格模型下针对动态环境的路径规划算法, 其将LPA*算法的思想运用于动态环境下, 使得移动机器人在未知环境下可以快速重规划。原创 2024-03-18 12:48:21 · 700 阅读 · 0 评论 -
机器人路径规划:基于改进型A*算法的机器人路径规划(提供Python代码)
A*算法最早可追溯到1968年,在IEEE Transactions on Systems Science and Cybernetics中的论文A Formal Basis for the Heuristic Determination of Minimum Cost Paths中首次提出。参考文献:[2]张海涛,程荫杭.基于A*算法的全局路径搜索[J].微计算机信息, 2007(17):3.DOI:10.3969/j.issn.1008-0570.2007.17.095.原创 2024-03-17 22:37:43 · 561 阅读 · 0 评论 -
机器人路径规划:基于A*算法的机器人路径规划(提供Python代码)
A*算法最早可追溯到1968年,在IEEE Transactions on Systems Science and Cybernetics中的论文A Formal Basis for the Heuristic Determination of Minimum Cost Paths中首次提出。正如本文的摘要所说,A*算法是把启发式方法如BFS(完全使用贪心策略),和常规方法如Dijsktra算法结合在一起的算法。有点不同的是,类似BFS的启发式方法经常给出一个近似解而不是保证最佳解。原创 2024-03-17 21:39:24 · 497 阅读 · 0 评论 -
机器人路径规划:基于D*算法的机器人路径规划(提供Python代码)
D*算法(Dynamic A Star)的主要思想是先利用静态规划算法计算出各个节点距离目标节点的最短路径,再从起始节点向后追溯,如果下一节点的状态发生变化,则调整弧的代价函数并重新搜索。相对于静态规划算法, D*算法的特点是可用于仅部分环境已知或环境不断变化的状况下的路径寻优,与其他重规划算法 的思想不同,动态的 D*算法是一种不完全重规划 算法,利用原有的规划信息,在一定的程度上实现最 优性及实时性的结合。原创 2024-03-17 20:56:01 · 557 阅读 · 1 评论 -
机器人路径规划:基于深度优先搜索(Depth-First-Search,DFS)算法的机器人路径规划(提供Python代码)
深度优先搜索算法(Depth-First-Search)的基本思想是沿着树的深度遍历树的节点,尽可能深的搜索树的分支。当节点v的所有边都己被探寻过,搜索将回溯到发现节点v的那条边的起始节点。这一过程一直进行到已发现从源节点可达的所有节点为止。如果还存在未被发现的节点,则选择其中一个作为源节点并重复以上过程,整个进程反复进行直到所有节点都被访问为止。算法步骤如下:1.访问顶点v;2.依次从v的未被访问的邻接点出发,对图进行深度优先遍历;直至图中和v有路径相通的顶点都被访问;原创 2024-03-17 19:57:10 · 461 阅读 · 0 评论 -
机器人路径规划:基于迪杰斯特拉算法(Dijkstra)的机器人路径规划(提供Python代码)
Dijkstra算法采用贪心策略,通过逐步扩展已知最短路径集合来逐步确定最短路径。它使用一个距离数组来记录从起始节点到其他节点的当前最短距离,并通过不断更新距离数组来逐步确定最短路径。原创 2024-03-17 19:23:49 · 835 阅读 · 0 评论 -
机器人路径规划:基于流场寻路算法(Flow Field Pathfinding)的机器人路径规划(提供Python代码)
流场寻路算法通过将环境划分为网格,并在每个网格中计算出一个流场向量,表示该位置的流动方向和速度。路径规划时,根据起点和终点的位置,以及当前位置的流场向量,选择下一步的移动方向,使得路径更加顺畅和高效。原创 2024-03-17 18:44:57 · 554 阅读 · 0 评论 -
强化学习应用(八):基于Q-learning的无人机物流路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个价值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是通过不断更新一个称为Q值的表格来学习最优策略。Q值表示在给定状态下采取某个动作所能获得的预期累积奖励。算法的基本步骤如下:1. 初始化Q值表格,将所有Q值初始化为0。2. 在每个时间步骤t,智能体观察当前状态st,并根据当前Q值表格选择一个动作at。原创 2024-01-14 03:00:00 · 1986 阅读 · 0 评论 -
强化学习应用(七):基于Q-learning的无人机物流路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个价值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是通过不断更新一个称为Q值的表格来学习最优策略。Q值表示在给定状态下采取某个动作所能获得的预期累积奖励。算法的基本步骤如下:1. 初始化Q值表格,将所有Q值初始化为0。2. 在每个时间步骤t,智能体观察当前状态st,并根据当前Q值表格选择一个动作at。原创 2024-01-14 02:00:00 · 1044 阅读 · 0 评论 -
强化学习应用(六):基于Q-learning的无人机物流路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个价值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是通过不断更新一个称为Q值的表格来学习最优策略。Q值表示在给定状态下采取某个动作所能获得的预期累积奖励。算法的基本步骤如下:1. 初始化Q值表格,将所有Q值初始化为0。2. 在每个时间步骤t,智能体观察当前状态st,并根据当前Q值表格选择一个动作at。原创 2024-01-14 01:00:00 · 1068 阅读 · 0 评论 -
强化学习应用(五):基于Q-learning的无人机物流路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个价值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是通过不断更新一个称为Q值的表格来学习最优策略。Q值表示在给定状态下采取某个动作所能获得的预期累积奖励。算法的基本步骤如下:1. 初始化Q值表格,将所有Q值初始化为0。2. 在每个时间步骤t,智能体观察当前状态st,并根据当前Q值表格选择一个动作at。原创 2024-01-13 10:02:16 · 1229 阅读 · 0 评论 -
强化学习应用(四):基于Q-learning的无人机物流路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个价值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是通过不断更新一个称为Q值的表格来学习最优策略。Q值表示在给定状态下采取某个动作所能获得的预期累积奖励。算法的基本步骤如下:1. 初始化Q值表格,将所有Q值初始化为0。2. 在每个时间步骤t,智能体观察当前状态st,并根据当前Q值表格选择一个动作at。原创 2024-01-13 02:00:00 · 950 阅读 · 0 评论 -
强化学习应用(三):基于Q-learning的无人机物流路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个价值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是通过不断更新一个称为Q值的表格来学习最优策略。Q值表示在给定状态下采取某个动作所能获得的预期累积奖励。算法的基本步骤如下:1. 初始化Q值表格,将所有Q值初始化为0。2. 在每个时间步骤t,智能体观察当前状态st,并根据当前Q值表格选择一个动作at。原创 2024-01-13 01:15:00 · 881 阅读 · 0 评论 -
强化学习应用(二):基于Q-learning的无人机物流路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个价值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是通过不断更新一个称为Q值的表格来学习最优策略。Q值表示在给定状态下采取某个动作所能获得的预期累积奖励。算法的基本步骤如下:1. 初始化Q值表格,将所有Q值初始化为0。2. 在每个时间步骤t,智能体观察当前状态st,并根据当前Q值表格选择一个动作at。原创 2024-01-12 18:56:43 · 723 阅读 · 0 评论 -
强化学习应用(一):基于Q-learning的无人机物流路径规划研究(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于马尔可夫决策过程(MDP)的问题。它通过学习一个价值函数来指导智能体在环境中做出决策,以最大化累积奖励。Q-learning算法的核心思想是通过不断更新一个称为Q值的表格来学习最优策略。Q值表示在给定状态下采取某个动作所能获得的预期累积奖励。算法的基本步骤如下:1. 初始化Q值表格,将所有Q值初始化为0。2. 在每个时间步骤t,智能体观察当前状态st,并根据当前Q值表格选择一个动作at。原创 2024-01-12 18:55:59 · 944 阅读 · 0 评论 -
强化学习求解TSP(八):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-12 02:00:00 · 582 阅读 · 0 评论 -
强化学习求解TSP(七):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-12 01:15:00 · 719 阅读 · 1 评论 -
强化学习求解TSP(六):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-11 00:30:00 · 960 阅读 · 0 评论 -
强化学习求解TSP(五):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-11 00:15:00 · 2275 阅读 · 0 评论 -
强化学习求解TSP(四):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-10 17:55:54 · 529 阅读 · 0 评论 -
强化学习求解TSP(三):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-10 17:54:19 · 401 阅读 · 0 评论 -
强化学习求解TSP(二):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-10 03:45:00 · 1039 阅读 · 0 评论 -
强化学习求解TSP(一):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-10 03:00:00 · 2282 阅读 · 0 评论 -
TSP(Python):Qlearning求解旅行商问题TSP(提供Python代码)
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-09 20:02:51 · 721 阅读 · 0 评论 -
强化学习求解TSP:Qlearning求解旅行商问题(Traveling salesman problem, TSP)提供Python代码
Q-learning是一种强化学习算法,用于解决基于奖励的决策问题。它是一种无模型的学习方法,通过与环境的交互来学习最优策略。Q-learning的核心思想是通过学习一个Q值函数来指导决策,该函数表示在给定状态下采取某个动作所获得的累积奖励。Q-learning的训练过程如下:1. 初始化Q值函数,将所有状态-动作对的Q值初始化为0。2. 在每个时间步,根据当前状态选择一个动作。可以使用ε-greedy策略来平衡探索和利用。3. 执行选择的动作,并观察环境返回的奖励和下一个状态。原创 2024-01-09 19:17:44 · 1566 阅读 · 0 评论 -
CEC2017(Python):六种算法(PSO、DBO、HHO、SSA、DE、GWO)求解CEC2017(提供完整Python代码)
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-05 20:21:49 · 512 阅读 · 0 评论 -
CEC2017(Python):六种算法(RFO、DBO、HHO、SSA、DE、GWO)求解CEC2017(提供完整Python代码)
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-05 20:20:04 · 561 阅读 · 0 评论 -
CEC2017(Python):七种算法(PSO、RFO、DBO、HHO、SSA、DE、GWO)求解CEC2017
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-04 18:52:15 · 1135 阅读 · 1 评论 -
CEC2017(Python):七种算法(RFO、DBO、HHO、SSA、DE、GWO、OOA)求解CEC2017
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-04 18:50:45 · 764 阅读 · 0 评论 -
CEC2017(Python):五种算法(DBO、HHO、RFO、SSA、PSO)求解CEC2017
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-03 20:04:30 · 682 阅读 · 0 评论 -
CEC2017(Python):蜣螂优化算法DBO求解CEC2017
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-03 18:20:02 · 628 阅读 · 0 评论 -
CEC2017(Python):粒子群优化算法PSO求解CEC2017(提供Python代码)
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-01 15:07:55 · 531 阅读 · 0 评论 -
CEC2017(Python):麻雀搜索算法SSA求解CEC2017(提供Python代码)
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-01 14:28:05 · 668 阅读 · 0 评论 -
CEC2017(Python):差分进化算法DE求解CEC2017
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2024-01-01 14:26:40 · 550 阅读 · 0 评论 -
CEC2017(Python):灰狼优化算法GWO求解CEC2017(提供Python代码)
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2023-12-30 01:00:00 · 875 阅读 · 0 评论 -
CEC2017(Python):五种算法(SSA、RFO、OOA、PSO、GWO)求解CEC2017
参考文献:[1]Awad, N. H., Ali, M. Z., Liang, J. J., Qu, B. Y., & Suganthan, P. N. (2016). “Problem definitions and evaluation criteria for the CEC2017 special session and competition on single objective real-parameter numerical optimization,” Technical Report.原创 2023-12-29 20:03:11 · 442 阅读 · 0 评论