笔记
文章平均质量分 79
之墨_
这个作者很懒,什么都没留下…
展开
-
【LangChain学习之旅】—(11) 记忆:通过Memory记住用户上次的对话细节
今天介绍了一种对话链和四种类型的对话记忆机制,那么我们可以通过一个表格对这四种类型的记忆做一个整体比较。四种记忆机制的比较如下:网上还有人总结了一个示意图,体现出了当对话轮次逐渐增加时,各种记忆机制对 Token 的消耗数量。意图向我们表达的是:有些记忆机制,比如说 ConversationSummaryBufferMemory 和 ConversationSummaryMemory,在对话轮次较少的时候可能会浪费一些 Token,但是多轮对话过后,Token 的节省就逐渐体现出来了。原创 2024-03-03 14:34:51 · 1025 阅读 · 0 评论 -
算法基础模板 快排、快选、归并、二分、离散化、区间合并、链表、图搜索、最短路等
算法基础 快排、快选、归并、二分、离散化、区间合并、链表、图搜索、最短路等模板原创 2023-07-09 18:51:52 · 950 阅读 · 0 评论 -
染色法判定二分图 — DFS深搜 +BFS宽搜
如果给定图是二分图,则输出 Yes,否则输出 No。条边的无向图,图中可能存在重边和自环。请你判断这个图是否是二分图。行,每行包含两个整数。原创 2023-07-08 16:55:37 · 441 阅读 · 0 评论 -
Dijkstra求最短路 — 朴素/堆优化 + 模拟邻接表 及 遍历
给定一个 n个点 m 条边的有向图,图中可能存在重边和自环,所有边权均为正值。请你求出 1号点到 n 号点的最短距离,如果无法从 1 号点走到 n 号点,则输出 −1。原创 2023-07-07 22:17:04 · 350 阅读 · 0 评论 -
树的重心 — 模拟单链表实现树的存储+DFS搜索
给定一颗树,树中包含 n 个结点(编号 1∼n)和 n−1 条无向边。请你找到树的重心,并输出将重心删除后,剩余各个连通块中点数的最大值。重心定义:重心是指树中的一个结点,如果将这个点删除后,剩余各个连通块中点数的最大值最小,那么这个节点被称为树的重心。原创 2023-07-06 21:51:06 · 264 阅读 · 0 评论 -
【数据库】— 三级模式结构、数据模型的概念/三个要素
数据模型是数据库中用来对现实世界进行抽象的工具,是数据库中用于提供信息表示和操作手段的形式构架。一般地讲,数据模型是严格定义的概念的集合。这些概念精确描述了系统的静态特性、动态特性和完整性约束条件。因此数据模型通常由数据结构、数据操作和完整性约束三部分组成。 (1)数据结构:是所研究的对象类型的集合,是对系统静态特性的描述。 (2)数据操作:是指对数据库中各种对象(型)的实例(值)允许进行的操作的集合,包括操作及有关的操作规则,是对系统动态特性的描述。 (3)数据的约束条件:是一组完整性规则的集原创 2023-06-24 14:07:31 · 1132 阅读 · 0 评论 -
【数据库】— 安全性、完整性、自主/强制存取控制、审计
自主存取控制方法:定义各个用户对不同数据对象的存取权限。当用户对数据库访问时首先检查用户的存取权限。防止不合法用户对数据库的存取。强制存取控制方法:每一个数据对象被(强制地)标以一定的密级,每一个用户也被(强制地)授予某一个级别的许可证。系统规定只有具有某一许可证级别的用户才能存取某一个密级的数据对象。审计功能是指DBMS 的审计模块在用户对数据库执行操作的同时把所有操作自动记录到系统的审计日志中。因为任何系统的安全保护措施都不是完美无缺的,蓄意盗窃破坏数据的人总可能存在。原创 2023-06-24 13:56:24 · 884 阅读 · 0 评论 -
【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化
如果只使用一个卷积核来提取特征,则可能会忽略输入数据中的其他特征信息,从而导致信息丢失。而使用多个卷积核可以提取更多的特征信息,并且可以通过堆叠这些特征来形成更高级别的特征表示。高级别的特征通常是由低级别的特征组合而成的,这也是为什么需要使用多个卷积核的原因。这是因为只使用一个卷积核无法充分提取输入数据的全部信息,而使用多个卷积核可以提取更多的特征信息。卷积是指对两个函数进行加权求和的操作。在卷积神经网络中,卷积操作是指将输入数据与一个卷积核(也称为滤波器或权重)进行卷积计算,得到一个特征映射的过程。原创 2023-06-24 10:20:13 · 4161 阅读 · 2 评论 -
【人工智能】— 维度灾难、降维、主成分分析PCA、获取旧数据、非线性主成分分析
这是由于,根据勾股定理,数据点到主成分的距离的平方和等于每个数据点在主成分上的投影与该数据点之间的距离的平方和。因此,最小化数据点到主成分的距离的平方和等价于最大化每个数据点在主成分上的投影的平方和。这是因为,最小化这个距离的平方和可以最大化数据点在主成分上的投影的平方和。综上所述,为了找到最佳的主成分,需要最大化每个数据点在主成分上的投影的平方和,即最小化数据点到主成分的距离的平方和。因此,对于高维数据,需要特别注意选择适当的特征和降维技术,以便提高数据的密度和距离的意义,同时减少维度灾难的影响。原创 2023-06-23 22:25:05 · 856 阅读 · 0 评论 -
【人工智能】— 无监督学习、K-means聚类(K-means clustering)、K-means损失函数,目标函数
无监督学习是指在没有标签的数据上进行学习,即没有监督信号的指导下进行模型训练。在无监督学习中,我们主要关注从无标签数据中学习出数据的低维结构和隐藏的模式。K-means的目标是最小化所有数据点与其所属簇中心点之间的欧氏距离的平方和。,使得每个簇的样本到簇中心的欧氏距离和最小。步骤1:如果知道聚类中心,可以找到最佳。为将每个点分配到的簇,其中。输出:将每个点分配到一个簇中。表示第 i 个点所属的簇。步骤2:如果知道集簇分配。,可以找到最好的聚类中心。输入:输入点的训练集。这个簇上时,到簇中心。原创 2023-06-19 16:57:43 · 1367 阅读 · 0 评论 -
【人工智能】— 神经网络、前向传播、反向传播、梯度下降、局部最小值、多层前馈网络、缓解过拟合的策略
都是神经网络训练中常用的重要算法。是指将输入数据从输入层开始经过一系列的权重矩阵和激活函数的计算后,最终得到输出结果的过程。在前向传播中,神经网络会将每一层的输出作为下一层的输入,直到输出层得到最终的结果。是指在神经网络训练过程中,通过计算损失函数的梯度,将梯度从输出层开始逆向传播到输入层,以更新每一层的权重参数。在反向传播中,通过计算梯度,可以得到每个神经元的误差,进而调整其权重和偏置,以最小化损失函数。原创 2023-06-18 21:41:24 · 2307 阅读 · 1 评论 -
【人工智能】— 神经网络、M-P 神经元模型、激活函数、神经网络结构、学习网络参数、代价定义、总代价
成本函数(Cost)的定义可以是网络输出与目标之间的欧氏距离或交叉熵。在神经网络训练中,成本函数用于衡量神经网络的预测结果与真实标签之间的差异。成本函数的选择取决于具体的任务和网络结构。原创 2023-06-18 21:14:02 · 1889 阅读 · 0 评论 -
【人工智能】— 逻辑回归分类、对数几率、决策边界、似然估计、梯度下降
通过计算损失函数对参数的梯度,然后根据梯度和学习率更新参数,我们可以逐步调整参数的值,使得损失函数逐渐减小,从而达到最优参数的目标。对于线性逻辑回归,决策边界是一个线性函数,用于将特征空间划分为两个不同的类别区域。梯度下降的目标是通过迭代更新参数,逐渐减小损失函数的值,直到达到局部最小值或收敛。,可以找到最佳的参数值,使得模型的概率预测与观察到的标签尽可能一致。通过最大化条件对数似然函数或最小化损失函数,我们可以找到最优的参数。当 z = 0 时,逻辑函数等于0.5,表示两个类别的概率相等。原创 2023-06-18 20:46:38 · 1985 阅读 · 0 评论 -
【数据库】— ACID、脏读、不可重复读和幻读、数据库锁、意向锁、数据库隔离级别
在意向锁机制中,有两种意向锁,分别是意向共享锁(Intent Share Lock,简称IS锁)和意向排它锁(Intent Exclusive Lock,简称IX锁)。例如,当一个事务要获取一个表的共享锁时,它会先获取一个IS锁,表示它有意向获取一个共享锁。如果存在对应的意向锁,那么它可以继续等待获取锁的机会,否则它需要先获取一个对应的意向锁。意向锁的作用是告诉其他事务,当前事务已经有意向获取资源级别的锁,从而避免其他事务在此期间获取相同的资源级别锁,导致死锁。原创 2023-06-06 15:10:43 · 527 阅读 · 0 评论 -
【人工智能】— Support Vector Machines 支持向量机
找到使间隔最大化的超平面=>B1比B2更好线性分类几何判别函数重要性质:如果我们缩放,距离不会改变。原创 2023-06-04 21:11:41 · 528 阅读 · 0 评论 -
【人工智能】— 线性分类器、感知机、损失函数的选取、最小二乘法分类、模型复杂性和过度拟合、规范化
训练误差是模型在学习过程中不可避免的产物,通常我们希望训练误差越小越好,因为模型对训练数据的拟合程度越高,就越可能对未知数据产生良好的预测能力。泛化误差是机器学习中最为重要的概念之一,因为机器学习的目标是构建泛化能力强的模型,而不是仅仅在训练数据上表现良好的模型。损失函数的一个自然选择就是误分类点的总数,要找到决策边界,即分类超平面,使得分类误差最小,可以通过最小化期望的 0/1 损失函数来实现。感知机的训练目标是找到一个能够将训练集中的正负样本完全分开的超平面,即找到一个合适的权重向量。原创 2023-06-04 20:00:23 · 573 阅读 · 0 评论 -
【人工智能】— 监督学习、分类问题、决策树、信息增益
简单来说,针对每个训练示例,可以创建一条路径到叶子节点的一致性决策树(除非函数在输入属性上是非确定性的),但这种决策树可能会过度拟合数据,无法很好地泛化到新的未见过的数据示例。分类问题的解决方法通常是学习一个分类器,该分类器使用训练数据集中的特征和标签来预测新的未标记数据点的标签。决策树可以表示任何输入属性的函数,但使用单条路径来表示每个训练示例的决策树可能会过度拟合数据,无法很好地推广到新的未见过的数据示例。分类是一种监督学习任务,旨在根据观测到的特征将数据点分配到已知类别中的一个。原创 2023-06-04 14:04:07 · 964 阅读 · 0 评论 -
【人工智能】— 学习与机器学习、无/有监督学习、强化学习、学习表示
Tom Mitchell(1998)提出了机器学习的定义:如果一个计算机程序在某个任务T上的性能,通过某种性能度量P,随着经验E的增加而提高,那么它就可以说是从经验E中学习到了任务T。这个定义强调了机器学习的本质:通过从数据中获取知识和经验,来提高计算机程序在某些任务上的性能。其中,任务T可以是各种各样的,包括分类、回归、聚类、识别等;性能度量P可以是准确率、精确率、召回率、F1值、AUC值等;经验E可以是训练数据、验证数据、测试数据等。原创 2023-06-04 12:51:56 · 1364 阅读 · 1 评论 -
【数据库系统及应用】— 日志、故障恢复、事务、并发控制、调度、检查点
Sc1=r3(B)r1(A)w3(B)r2(B)r2(A)w2(B)r1(B)w1(A),交换r1(A)和W3(B),得到r3(B)w3(B)r1(A)r2(B)r2(A)w2(B)r1(B)W1(A);再交换r1(A)和r2(B)r2(A)w2(B),得到Sc2=r3(B)W3(B)r2(B)r2(A)w2(B)r1(A)r1(B)w1(A)。选项D的说法是正确的。T1,T2是两个事务,图(a)(b)给出这两个事务的两种调度S1,S2,关于S1,S2,说法正确的选项是_____________。原创 2023-05-30 14:35:34 · 1269 阅读 · 0 评论 -
【人工智能】— 贝叶斯网络、概率图模型、全局语义、因果链、朴素贝叶斯模型、枚举推理、变量消元
图模型是概率分布的图表表示。它是概率论和图论的结合。也被称为概率图模型(Probabilistic Graphical Models)。它们增强了分析,而不是使用纯代数。原创 2023-05-14 17:06:12 · 3449 阅读 · 1 评论 -
【Graph Data Mining】— Apriori-Based 基于Apriori算法挖掘图数据中频繁子结构的方法
论文:An Apriori-Based Algorithm for Mining Frequent Substructures from Graph DataNote: The GitHub link is to the code for the AGM algorithm, which is based on the approach proposed in this paper.a. 该研究的理论基础:b. 本文的技术路线(逐步实现):c. 该方法和之前工作的创新、性能和工作量:a. 研究工作的意义:原创 2023-05-11 00:02:12 · 769 阅读 · 0 评论 -
【Gragph Data Mining】VF2算法 — 图同构匹配的算法
a. 本文的研究背景:本文提出了一种图同构和子图同构算法,该算法在处理大型图形时效率高。该算法是一种确定性的匹配方法,适用于验证同构和子图同构,并具有普遍的有效性,因为没有对图形拓扑 imposed的约束。该算法使用匹配过程的状态空间表示(SSR)和一组五个可行性规则来修建搜索树。可行性规则消除了不会导致完整解决方案的不一致状态的生成,并减少了搜索空间。该算法已在一个公开可用的合成图形数据库和从技术绘图领域的实际应用中获得的带属性的图形上进行了测试。结果证实了该方法的有效性,特别是在处理大型图形时。原创 2023-05-10 23:48:17 · 2602 阅读 · 0 评论 -
软件工程知识点
内聚是指模块内部各个元素之间的联系紧密程度,常见的内聚类型包括偶然性内聚、逻辑内聚、时间内聚、顺序内聚、功能内聚、信息内聚。模式是一种被广泛接受的解决软件设计问题的方法。代码异味是指程序中存在的不良代码习惯或潜在问题,例如重复代码、过长的函数、不恰当的命名等,可能会影响软件的质量和可维护性。:常见的代码异味包括重复代码、过长的函数、不恰当的命名、过于复杂的控制流等,常见的bug包括空指针引用、数组越界、逻辑错误等。常见的软件测试术语和概念包括黑盒测试、白盒测试、回归测试、性能测试、压力测试、自动化测试等。原创 2023-05-03 23:24:35 · 883 阅读 · 0 评论 -
【人工智能】— 不确定性、先验概率/后验概率、概率密度、贝叶斯法则、朴素贝叶斯 、最大似然估计
最大似然估计(Maximum Likelihood Estimation,简称MLE)是一种常用的参数估计方法,用于根据已知的样本数据来估计模型的参数。它的核心思想是选择能够使观测到的数据出现的概率最大的参数作为估计值。具体来说,在最大似然估计中,我们假设样本数据来自于某个概率分布,但是该分布的参数是未知的。贝叶斯定理是根据先验概率和条件概率来计算后验概率的一种方法,可以用于分类、预测等任务。,表示在事件 B 发生的条件下,事件 A 发生的概率。表示患者生病的条件下,测试结果为阳性的概率,原创 2023-05-03 16:38:29 · 1440 阅读 · 0 评论 -
【数据库】— 2NF、3NF、BCNF、最小函数依赖集例题
设有关系模式W(C,P,S,G,T,R),其中各属性的含义是:C课程,P教师,S学生,G成绩,T时间,R教室,根据定义有如下数据依赖集 D={ C→P,(S,C)→G,(T,R)→C,(T,P)→R,(T,S)→R}。关系模式W的一个候选键是_____,W的规范化程度最高达到_____。正确选项为__________。对连锁商店的管理,设计了关系模式:商店(商店, 商品部, 商品,商品部经理),下列说法正确的是_________。原创 2023-04-23 17:04:37 · 1348 阅读 · 0 评论 -
【人工智能】— 一阶逻辑、量词的推理规则、一般化分离规则、合一、前向/反向链接算法、归结算法
确定子句是一种形式化的表示方法,其中每个子句都是一个析取式,而每个析取式都是由一个或多个文字(原子命题或它们的否定)构成的。我们可以使用 GMP 推理出 John 是男性,因为 John 是 Mary 的父亲,而所有的父亲都是男性。其中,L1,L2 …Ln 是原子命题或它们的否定,并且 Q 是一个原子命题。一般化分离规则是分离规则(Modus Ponens)的提升版本——它将分离规则从命题逻辑提高到一阶逻辑。找到一个最一般的替换 θ,使得前提中的每个原子命题都可以用替换后的形式匹配前提中的相应原子命题。原创 2023-04-20 12:08:34 · 2618 阅读 · 0 评论 -
【数据库】— 无损连接、Chase算法、保持函数依赖
无损连接和保持函数依赖是关系数据库设计中的两个重要概念。无损连接指的是在关系模式分解过程中,如果原始关系模式中存在某些函数依赖关系,那么这些函数依赖关系应该在分解后的新关系模式中仍然能够被保持。也就是说,无论是在原始的关系模式中还是在分解后的新关系模式中,都应该能够通过关联操作(join)来获取与原始关系模式相同的信息。保持函数依赖指的是在关系模式分解过程中,如果原始关系模式中存在某些函数依赖关系,那么这些函数依赖关系在分解后的新关系模式中仍然应该被保持。、原创 2023-04-18 16:38:31 · 3037 阅读 · 0 评论 -
【人工智能】— 逻辑Agent、一般逻辑、Entailment 蕴涵、命题逻辑、前向链接、反向链接、Resolution归结
合取范式(CNF)是一个逻辑学术语,它表示为文字的析取式的合取式,其中每个文字都是一个变量或者它的否定形式,而每个合取项都是由一个或多个文字的析取组成的,这些合取项被称为clauses。逻辑中的关键概念之一是蕴涵,它指的是两个命题之间的关系,其中一个命题逻辑上可以推导出另一个命题。蕴涵表示一个语句逻辑上跟随另一个语句而出现,即如果一个语句A蕴涵另一个语句B,那么当A为真时,B也必须为真。这种蕴涵关系可以用$KB |= α $来表示,其中KB是一个知识库,sentence α是一个语句。原创 2023-04-15 17:11:09 · 2266 阅读 · 0 评论 -
【数据统计】— 极大似然估计 MLE、最大后验估计 MAP、贝叶斯估计
极大似然估计(Maximum Likelihood Estimate,MLE)- 思想:利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值- **模型已定,参数未知**- 目标:概率分布函数或者似然函数最大 - 用似然函数取到最大值时的参数值作为估计值- 概率分布模型 - 伯努利分布 - 二项分布 - 高斯分布 - 泊松分布原创 2023-04-14 14:32:16 · 572 阅读 · 0 评论 -
【数据统计】— 峰度、偏度、点估计、区间估计、矩估计、最小二乘估计
偏度(Skewness)描述的是某总体取值分布的对称性。矩估计是基于 “替换”思想,即用样本矩估计总体矩。数学上,“矩”是一组点组成的模型的特定的数量测度。正态分布的偏度值为0。原创 2023-04-14 13:44:37 · 2277 阅读 · 0 评论 -
【数据统计】— 数据分布、集中趋势、离散程度
对于已分为K组的N个数据,各组的值表示为:𝑥1, 𝑥2, 𝑥3,⋯,𝑥K, 各组变量出现的频数表示为:𝑓1, 𝑓2, 𝑓3, ⋯,𝑓𝑘, 数据的加权平均数为𝜇,则数据的总体方差为。对于未分组数据𝑥1, 𝑥2, 𝑥3, ⋯,𝑥𝑁,数据的算术平均数为𝜇。若一组数据𝑥1, 𝑥2, 𝑥3, ⋯,𝑥𝑛,则该组数据的几何平均数为。根据未经分组数据计算得到的平均数。特点:易受极端值的影响。原创 2023-04-14 12:09:24 · 8914 阅读 · 0 评论 -
【数据库】基本概念
例如创建、删除、修改表格,定义列、限制和索引等。DDL的操作一般不会影响数据库中的数据,而是用于创建、修改和删除数据库对象的定义。原创 2023-04-06 20:48:07 · 520 阅读 · 0 评论 -
【人工智能】— 博弈、极小极大值、α-β剪枝、截断测试
在扩展完第一棵子树后,根结点能确定他能得到的收益最小为3,此时第二层为了选择一个最小值,但第一层会选择第二层所有值中的最大值,所以在d图中扩展了得到2已经小于3,所以剩下的 不用扩展,在e中,因为先扩展了14,大于3为了不让第一层得到14所以继续扩展,最后也变成2,这样第一层最多得到3。剪枝可以用来忽略一些分支。原创 2023-03-30 11:29:43 · 347 阅读 · 0 评论 -
【人工智能】— 弧相容、前向检验、MRV、度启发式、最少约束值
最少约束值(LCV)、最小剩余值(MRV)和前向检验(Forward Checking)都是约束满足问题(CSP)中的启发式搜索策略,它们可以结合在一起使用,以提高搜索效率和解的准确性。具体来说,可以先使用最小剩余值(MRV)策略选择一个变量进行赋值,然后再使用最少约束值(LCV)策略选择该变量的取值,从而尽可能减少搜索空间。在搜索过程中,可以使用前向检验(Forward Checking)策略动态调整搜索空间,减少搜索时间。这样,就可以同时兼顾搜索效率和解的准确性,找到全局最优解。需要注意的是,原创 2023-03-30 10:25:26 · 2854 阅读 · 0 评论 -
【人工智能】—约束传播、弧约束、问题结果与问题分解、局部搜索CSP
假设每个子问题有n个变量中的c个。最坏情况下的解决方案成本是。弧相容可以作为预处理运行,也可以在每次分配后运行。如果X丢失了一个值,则需要重新检查X的邻居。弧相容比前向检验更早检测到可能失败的情景。与一般CSP相比,最坏情况下的时间是。T和其它地区是独立的子问题,原创 2023-03-28 12:40:05 · 1087 阅读 · 0 评论 -
【人工智能】— CSP约束满足问题、回溯搜索、最少剩余值MRV、度启发式、最少约束值启发式
回溯搜索是CSP的基本无信息算法。可以解决n≈25的n皇后问题。具有单变量赋值的CSP的深度优先搜索称为回溯搜索。解决:应该按照什么顺序尝试它的值。解决:下一步应该分配哪个变量。解决:下一步应该分配哪个变量。原创 2023-03-23 11:13:04 · 2540 阅读 · 0 评论 -
【数据分析】数据预处理—数据离散化、信息熵
数据离散化 - **连续数据过于细致,数据之间的关系难以分析** - **划分为离散化的区间,发现数据之间的关联,便于算法处理**有监督离散化—基于熵的离散化- 熵用来度量系统的**不确定程度** - 熵是由 克劳德·艾尔伍德·香农 将热力学的熵,引入到信息论,因此它又被称为香农熵 - 香农提出了信息熵的概念,为信息论和数字通信奠定了基础,被誉为“信息论之父”原创 2023-03-22 12:35:14 · 1029 阅读 · 0 评论 -
【数据分析】数据预处理—最小-最大规范化、z-score规范化、小数定标规范化
例如,我们需要考察学生A和学生B的某门课程成绩。A的考试满分是100分(及格60分),B的考试满分是150分(及格90分)。显然,A和B的100分代表着完全不同的含义。原创 2023-03-22 11:44:40 · 3859 阅读 · 0 评论 -
【人工智能】—局部搜索算法、爬山法、模拟退火、局部剪枝、遗传算法
但由于启发式搜索需要抽取与问题本身有关的特征信息,而这种特征信息的抽取有时会比较困难,因此盲目搜索仍不失为一种有用的搜索策略。局部搜索算法——通往目标的路径是不相关的;目标状态本身就是解决方案,保持单一的“当前”状态,并尝试改进它。对于解决方案空间表面不太“颠簸”(即不太多局部最大值)的许多应用来说,效果很好。可以证明:如果T下降得足够慢,那么模拟退火搜索将找到概率接近1的全局最优。在某些规模太大的问题状态空间内,A*往往不够用。好的启发式搜索能大大提高搜索性能。搜索树 vs 搜索图。原创 2023-03-22 00:30:35 · 2620 阅读 · 0 评论 -
【人工智能】—Admissible Heuristics可采纳启发式函数
这里在有障碍物的情况下,很难得到一个满足要求(预估耗散永远不会大于实际耗散)启发式函数,因此在这里考虑一个更简单情况,使用更简单情况下的实际耗散作为启发式函数,这样就可以保证估计耗散不会大于实际耗散,启发式函数采用起点到终点的曼哈顿距离原创 2023-03-21 22:58:11 · 1031 阅读 · 0 评论