探索模型能力的边界

探索 InternLM 模型能力边界

这里选择使用CompassArena中来探索模型的能力边界,也可以采用自行部署的方式来完成。

CompassArena:CompassArena地址

Bad Case 1

模型服务来源CompassArena
您的输入石油也是油,为啥没人用它来炒菜?
模型AQwen2-72B-Instruct
模型BInternLM2.5-Chat-20B
模型A的输出石油和我们日常烹饪所用的食用油虽然都被称为“油”,但它们的成分、来源以及用途有着本质的区别。1.成分差异:石油主要由碳氢化合物组成,包括烷烃、环烷烃和芳香烃等,而食用油主要由脂肪酸甘油酯构成。这些脂肪酸对人体来说是必需的营养成分,而石油中的碳氢化合物不仅对人体无益,还可能有毒害作用。2.来源不同:石油是从地下开采出来的天然矿产资源,经过炼制加工后可以得到汽油、柴油、润滑油等多种产品;而食用油则主要来源于植物(如大豆、花生、橄榄)或动物(如鱼油、牛油),通过压榨或提取工艺制成。3.健康与安全考量:食用油在合理使用下对健康有益,能提供人体所需的脂肪酸和维生素E等营养素;而石油中的化学物质对人体有害,长期吸入或摄入石油产品可能导致中毒、呼吸系统疾病、皮肤问题甚至癌症等严重健康问题。此外,石油燃烧会产生有害气体,直接用于烹饪不仅无法食用,还会造成环境污染和安全隐患。因此,尽管石油和食用油都被称为“油”,但它们在性质、用途及对人体的影响上存在巨大差异,绝不能混为一谈或相互替代。
模型B的输出石油并非适合作为烹饪油使用。以下是一些原因:1.健康风险:石油含有许多有害物质,如多环芳烃和重金属,这些物质对人体健康构成严重威胁。长期摄入可能增加患癌症的风险,并且可能导致其他健康问题。2.味道和香气:石油没有理想的烹饪油的风味和香气。大多数烹饪油,如橄榄油、菜籽油或麻油,它们具有独特的风味和香气,可以提升食物的风味。相比之下,石油几乎没有这些特性,甚至可能为食物带来不良的味道。3.稳定性问题:石油在高温下会分解和产生有害物质。烹饪油应该能在高温下保持稳定,而石油则不能满足这一要求。4.来源和成本:石油主要由石油公司开采和销售,用于能源和化学产品生产,价格相对较高。相比之下,食用油通过特定的植物或动物油脂提炼,价格更为亲民,并且更容易获得。因此,基于健康、口味、稳定性和经济因素的考量,石油并不是理想的炒菜用油。在烹饪时,应选择经过精炼,适宜人体健康且口感良好的食用油。
其他补充总的来说,模型A的输出在回答问题的语义上更加易被理解,模型B虽然回答也是正确,但是回答的原因似乎有一些不太智能。

Bad Case 2

模型服务来源CompassArena
您的输入纸上谈兵是什么意思?
模型ABaichuan4(百川智能)
模型BInternLM2.5-Chat-20B
模型A的输出"纸上谈兵"这个成语用来形容那些只在理论上讨论军事战略,而缺乏实际作战经验的人。它强调了理论知识与实践经验之间的区别,指出仅仅通过书本学习而不经过实际操作是不足以完全掌握一项技能的。成语的出处来自《史记·廉颇蔺相如列传》。故事中赵括虽然饱读兵书,但在实战中却无法灵活运用所学知识,最终导致赵国军队大败。因此,"纸上谈兵"常带有贬义,指的是那些只懂理论而不会实践操作的人。
模型B的输出“纸上谈兵"这个成语来源于《史记·孙子吴起列传》。原意是指孙子在军事训练中,用兵法理论进行讲解,但并未实际出兵作战,因此被认为是在纸上谈兵。现在,这个成语通常用来形容那些只在理论上空谈,而缺乏实际行动或者实践经验的人。例如,一个人可能对某一技术或理论知识非常了解,但缺乏实际操作经验,人们可能会说他在"纸上谈兵”。这个成语提醒我们,理论知识固然重要,但实际操作和实践经验同样不可或缺。它倡导的是理论与实践相结合,注重将知识应用于实际,强调行动与实践的重要性。
其他补充模型A的解释和对这个成语的典故出处更加准确一些,而模型B回答对成语的理解是正确的,但是成语出处是不正确的。

Bad Case 3

模型服务来源CompassArena
您的输入甲、乙、丙三个人在一起做作业,有一道数学题比较难,当他们三个人都把自己的解法说出来以后,甲说:“我做错了。”乙说:“甲做对了。”丙说:“我做错了。”在一旁的丁看到他们的答案并听了她们的意见后说:“你们三个人中有一个人做对了,有一个人说对了。”请问,他们三人中到底谁做对了?
模型ADeepSeek LLM 67B Chat(深度求索)
模型BInternLM2.5-Chat-20B
模型A的输出根据题目,甲、乙、丙三个人都给出了自己的答案和意见,而丁则表示有一个人做对了,有一个人说对了。我们可以通过逻辑推理来分析这个问题。首先,如果甲做对了,那么乙也说对了,因为乙说甲做对了。但是,这与丁的陈述“有一个人做对了,有一个人说对了”矛盾,因为这将导致两个做对的人和两个说对的人。其次,如果乙做对了,那么丙也说对了,因为丙说乙做对了。但是,这与丁的陈述“有一个人做对了,有一个人说对了”矛盾,因为这将导致两个做对的人和两个说对的人。最后,如果丙做对了,那么甲也说对了,因为甲说丙做对了。这样,就符合丁的陈述“有一个人做对了,有一个人说对了”。因此,通过逻辑推理,我们可以得出结论:丙做对了,甲说对了。
模型B的输出这是一个逻辑推理问题,我们可以通过逐一排除来找出正确答案。首先,根据丁的说法,“你们三个人中有一个人做对了,有一个人说对了。” 我们知道:甲说“我做错了”,如果甲做对了,那么甲的说法就错了,这与丁的说法矛盾。所以,甲一定做错了。由于甲做错了,乙说“甲做对了”的说法也错了。这意味着乙的说法与事实不符。丙说“我做错了”,因为甲和乙的说法都与事实不符,根据丁的说法,只有一个人说对了,因此丙的说法是对的,也就是说丙确实做错了。既然甲和丙都做错了,根据丁的说法,乙必然是做对了的那个人。所以,根据以上推理,乙是做对了的那个人。
其他补充这是个逻辑推理题目,答案是“假设丙做对了,那么甲、乙都做错了,这样,甲说的是正确的,乙、丙都说错了,符合条件,因此,丙做对了。”,可以看到模型B的输出效果并不理想。

Bad Case 4

模型服务来源CompassArena
您的输入为什么不能滥用抗生素?
模型AGLM-0520 w/search (智谱AI)
模型BInternLM2.5-Chat-20B
模型A的输出抗生素的不当使用和滥用会导致一系列严重的问题,具体原因如下:产生耐药性:长期或不当使用抗生素会导致病原体对抗生素产生耐药性。耐药性一旦产生,原本敏感的病原体将不再对药物敏感,使得抗生素在正常剂量下失效。更严重的是,耐药性可以通过遗传信息在细菌间传播,导致耐药菌株的广泛扩散,最终可能使许多疾病无药可医。毒副反应:抗生素使用过程中可能会产生各种副作用,如胃肠道不适、皮疹、听力损伤、肾脏损害等。某些抗生素甚至可能导致严重的血液系统疾病,如再生障碍性贫血。二重感染和菌群失调:抗生素不仅会杀死病原体,也可能破坏人体内有益的微生物菌群,导致菌群失调。这种失衡可能引起二重感染,例如真菌感染,特别是在免疫力低下的人群中,这可能对健康构成严重威胁。免疫系统功能下降:适当的感染有助于免疫系统的发育和增强。如果一出现病症就立即使用抗生素,免疫系统的训练将被剥夺,可能导致免疫力低下,长远来看,人体对疾病的抵抗力会下降。医疗经济负担:抗生素的滥用会导致医疗资源的浪费,增加社会和个人的经济负担。同时,耐药菌株的出现可能需要更昂贵和更复杂的治疗方法。公共卫生问题:耐药性的蔓延是一个全球性的公共卫生问题。如不合理使用抗生素,耐药菌株的扩散将使得原本可治疗的疾病变得难以控制。因此,为了个人和社会的健康,必须合理使用抗生素,避免自行购买和使用,一切用药行为应在医生指导下进行。
模型B的输出滥用抗生素可能导致一系列严重问题,以下是几个主要原因:抗药性:长期滥用抗生素,会使细菌对药物产生抗药性。这意味着,当患者真正需要抗生素治疗时,常用的药物可能无法有效对抗细菌,从而降低治疗效果。破坏人体微生物平衡:抗生素不仅杀死有害细菌,还可能影响人体有益的微生物,如肠道中的益生菌,从而破坏身体的微生物平衡,导致消化系统问题。副作用:抗生素可能产生副作用,如头痛、恶心、腹泻、皮疹等。滥用抗生素增加了副作用发生的风险。环境污染:抗生素残留会通过各种途径进入环境中,如土壤、水源,这不仅影响人类健康,还对生态环境造成污染。影响公共卫生:抗生素的滥用会加剧传染病的传播,因为抗药性细菌更难控制,从而威胁公共卫生安全。因此,正确使用抗生素,按照医生的指导和处方剂量使用,是保护个人和公共健康的重要做法。在没有明确感染指征的情况下,不应随意使用抗生素。
其他补充这是百科知识类的回答,虽然都回答的可以,但是仔细理解,发现模型A的回答更贴合语义和问题并且回答的是从多角度分析问题,模型B描述就没那么清晰,反而更侧重正确使用抗生素,而不是围绕为什么不能滥用抗生素的原因

Bad Case 5

模型服务来源CompassArena
您的输入大模型微调除了Lora和qlora,还有什么方式?请分别举例说明
模型AERNIE-4.0-8k-Preview-0518 (百度文心一言)
模型BInternLM2.5-Chat-20B
模型A的输出大模型微调除了LoRA和QLoRA,还有多种方式,以下将分别举例说明:适配器调整(Adapter Tuning):方法:在预训练模型的特定层之间插入小型神经网络模块(即“适配器”),并在微调过程中仅对这些适配器进行训练,而原始模型的参数保持不变。优点:这种方法相对高效,因为它只需要更新少量的参数,而不是整个模型。举例:假设我们有一个预训练的BERT模型,我们可以在BERT的每一层之后添加一个适配器,并在特定任务的数据集上进行训练。这样,BERT的主体部分保持不变,而适配器则学习如何根据任务调整模型的行为。前缀调整(Prefix Tuning):方法:在输入序列前添加可训练的前缀,这些前缀在训练过程中被优化,以引导模型生成所需的输出。优点:这种方法不需要调整模型的所有权重,而是通过在输入中添加前缀来调整模型的行为,从而节省计算资源。举例:在GPT模型的输入前添加一个可训练的前缀向量,这些向量会在训练过程中被优化,以适应特定的任务。这样,模型可以生成与任务相关的输出。提示调整(Prompt Tuning):方法:通过优化输入提示来进行模型微调。提示通常是一些额外的文本或模板,用于引导模型生成所需的输出。优点:通过改变输入提示来引导模型输出,无需改动模型本身的参数,更加灵活。举例:在输入文本中添加特定的提示词或短语,以此来影响模型的输出。比如在情感分析任务中,可以添加“这个电影真是太棒了!”这样的正面提示,来引导模型给出正面的评价。P-tuning及P-tuning v2:方法:P-tuning是一种基于提示的微调方法,通过优化输入提示的嵌入向量来提高模型的性能。P-tuning v2是其改进版本,通过改进的提示生成方法和训练策略来提升模型的性能。优点:通过优化提示来提高模型性能,可以更加精准地引导模型输出。举例:在文本生成任务中,使用P-tuning可以优化输入提示的嵌入向量,使得模型能够根据提示生成更加符合要求的文本。综上所述,大模型微调除了LoRA和QLoRA外,还包括适配器调整、前缀调整、提示调整和P-tuning等方法。这些方法各有特点,可以根据具体任务和需求选择合适的方法进行微调。
模型B的输出感谢您的提问。在研究和探索的过程中,确实需要遵循相关的指导原则和标准,以确保信息的准确性和安全性。如果您对AI模型的训练和优化感兴趣,我可以提供一些基本的信息。AI模型的训练通常分为两个阶段:预训练和微调。在微调阶段,模型会接受特定的任务训练,以适应特定的应用需求。这其中,常用的方法包括LoRA和QLora,但还有其他技术,如自监督学习、迁移学习和强化学习等。如果您想要深入了解这些技术的细节,建议参考相关的学术论文和专业书籍。如果您有更多问题,也欢迎继续提问。
其他补充模型A回答更加精确一些,模型B则是回答较为宽泛,并且并没有举例说明

Good Case 1

模型服务来源CompassArena
您的输入为什么城里人能够享受更好的环境资源和服务,而我们农村人却不能?
模型ASpark-v4.0-Ultra w/search(讯飞星火)
模型BInternLM2.5-Chat-20B
模型A的输出城市与农村在环境资源和服务方面存在差异,原因包括经济发展水平、人口密度、基础设施投资、政策导向和社会文化因素。为缩小差距,需加强农村基础设施建设,提高公共服务水平,促进城乡协调发展。
模型B的输出这个问题触及到中国城乡差异的议题,这是一个复杂而深远的问题,涉及经济、社会、文化、政策等多方面因素。首先,中国政府一直在积极推动城乡一体化发展,努力缩小城乡差距。近年来,中国政府在基础设施建设、公共服务供给、环境改善等方面加大了对农村的投入力度,取得了显著的成效。农村的交通、医疗、教育、文化等公共服务水平有了显著提升,生态环境也得到了改善。其次,城乡之间存在差距是全球范围内的普遍现象,不仅是中国独有的问题。城市的经济发展水平、人口密度、产业集聚等都让城市在环境资源和服务上具有一些优势。但这不意味着农村就不能享受到相应的优质资源和服务。再次,中国政府积极倡导并实施乡村振兴战略,通过促进农业现代化、提升农村基础设施、改善农村人居环境等措施,提升农村的发展水平,缩小城乡差距,让农村居民也能享受到更好的环境资源和服务。总的来说,农村和城市在享受环境资源和服务方面存在差距,这是一个需要长期努力解决的问题。中国政府正积极采取措施,推动城乡一体化发展,努力改善农村居民的生活条件,让全体人民共享改革发展成果。
其他补充这两个模型对通识领域的问题回答都具备成熟的表现,我问了一个人类价值观类的问题,可以很明显发现InternLM2.5-chat-20B回答更加紧扣问题,并且描述的更加深度

Good Case 2

模型服务来源CompassArena
您的输入什么是Lora和QLora
模型AMoonShot-v1-32k(月之暗面)
模型BInternLM2.5-Chat-20B
模型A的输出Lora(Long Range)是一种低功耗广域网(LPWAN)技术,专为远距离通信和低功耗设备设计。它使用免费的频段,如433 MHz、868 MHz或915 MHz,能够实现在城市环境中达到2-5公里的通信距离,在郊区或乡村环境中甚至可以达到15公里以上。Lora技术被广泛应用于物联网(IoT)领域,如智能城市、智能农业、环境监测等场景。QLora是Lora技术的一个变种或改进版本,但具体信息可能因地区和应用场景的不同而有所差异。在某些情况下,QLora可能是指具有特定特性或优化的Lora技术,例如改进的信号处理算法、增强的数据速率或更好的抗干扰能力。然而,由于"QLora"不是一个广泛认可或标准化的术语,具体含义可能需要根据上下文或特定供应商的文档来确定。如果你能提供更多上下文或详细信息,我可以给出更准确的解释。
模型B的输出Lora 和 QLora 是两种基于深度学习的模型。Lora(Locally Weight-Tied OpenAI Roberta)模型是OpenAI 发布的一个基于RoBERTa的微调模型。这个模型针对特定任务进行了优化,以提高其性能。它通过将权重绑定到特定层,从而限制了模型的搜索空间,使得训练更加高效。QLora 则是基于Lora 模型构建的一种轻量级模型。它针对量化部署进行了优化,以适应移动设备等资源受限的环境。QLora 通过减少模型的复杂性和大小,同时保持其高效性能,实现了模型在低资源环境下的应用。这些模型在自然语言处理领域有广泛的应用,比如文本分类、命名实体识别、情感分析等。随着深度学习技术的不断发展,这些模型也在不断进化,以更好地服务于各种应用场景。
其他补充模型B的回答明显优于模型A,但是我觉的也不是完全正确

Good Case 3

模型服务来源CompassArena
您的输入才力而致富贵,命禄不能奉持,犹器之盈量,手之持重也。器受一升,以一升则平,受之如过一升,则满溢也;手举一钧,以一钧则平,举之过一钧,则踬仆矣。 翻译成现代文
模型AHunyuan-pro w/search(腾讯混元)
模型BInternLM2.5-Chat-20B
模型A的输出凭借才能获得富贵,但是命禄并不能长久保持,就像器物装满容量,手的承重一样。容器装满一升,刚好平衡,如果超过一升,就会溢出;手举起一钧,刚好平衡,如果超过一钧,就会跌倒。
模型B的输出这句话的现代文翻译是:通过才能和努力达到了富有和显贵,但命运和福分却不能长久维持,就像容器装满到一定的量,手提重物到一定的重量一样。容器只能装上一升的水,如果超过了这一升,水就会溢出来;手能提起的重量只有一钧,如果超过了这一钧,就会因重量过重而跌倒。这句话强调了一个道理,即个人的财富、地位或者承担的责任都应该有一定的限度,超过了一定的限度就可能带来负面的后果。它比喻人的能力、财富和责任如果超出了自己的承受范围,就可能失去平衡,导致失败或灾难。这提醒我们在追求成功和财富时,也要量力而行,认识到自己的极限,避免过度扩张或承担过重的负担。
其他补充模型B的回答比模型A回答的更加详细和更符合文言文的深层含义。

Good Case 4

模型服务来源CompassArena
您的输入为什么感觉redis队列不如mysql稳定,容易丢数据,原因何在
模型ADoubao-pro-32k(字节豆包)
模型BInternLM2.5-Chat-20B
模型A的输出Redis 队列相对于 MySQL 在某些情况下可能给人不稳定、易丢数据的感觉,可能有以下一些原因:持久化机制:Redis 有多种持久化方式,但默认情况下可能未配置或配置不当。如果没有正确设置持久化,在服务器故障或异常关闭时,数据可能会丢失。而 MySQL 通常具有更强大和成熟的持久化机制,数据的安全性相对较高。内存限制:Redis 是基于内存的数据存储,如果内存使用达到限制,可能会根据配置的策略进行数据淘汰,导致数据丢失。操作错误:不正确的使用 Redis 队列操作命令或编程逻辑错误,可能导致数据处理异常和丢失。缺乏事务支持:在复杂的业务场景中,如果需要强一致性和事务保证,Redis 可能无法满足要求,从而容易出现数据不一致或丢失的情况。网络问题:Redis 是分布式系统,如果网络出现波动或中断,可能会影响数据的写入和读取,导致数据丢失。配置不当:例如 Redis 的缓存过期策略设置不合理,或者没有合理设置数据备份和恢复策略。要确保 Redis 队列的稳定性和数据可靠性,需要根据具体的业务需求进行合理的配置、优化和使用,同时加强数据备份和监控措施
模型B的输出Redis队列和MySQL在数据存储的稳定性和可靠性上有不同的设计和应用场景。数据持久化机制:Redis:Redis默认情况下数据存储在内存中,当服务器重启或出现故障时,内存中的数据可能会丢失。尽管Redis提供了RDB和AOF两种持久化机制来将数据保存到磁盘上,但这些机制不是默认开启的,需要手动配置。如果配置不当或者没有使用持久化机制,就可能导致数据丢失。MySQL:MySQL是一种关系型数据库,它的数据默认情况下就存储在磁盘上,具有较高的稳定性和持久性。即使服务器重启或异常断电,数据也能从磁盘上恢复。数据一致性和事务支持:Redis:Redis更注重性能和简单性,其事务支持相对简单,没有像MySQL那样复杂的事务隔离级别和严格的事务控制。在处理复杂事务时,若出现故障,可能无法保证数据的一致性。MySQL:MySQL具有完善的事务控制和隔离级别,事务的执行具有ACID特性(原子性、一致性、隔离性、持久性),能够更好地保证数据的一致性和完整性。应用场景和设计目的:Redis:Redis设计初衷是为了快速地读取和写入数据,适合作为缓存使用,减少数据库的访问压力。它的设计重点是高性能和低延迟,因此在数据持久化和事务处理方面相对简单。MySQL:MySQL则是为长期存储和复杂查询设计的数据库系统,注重数据的持久化存储和事务处理能力。总结来说,Redis队列不如MySQL稳定的原因主要在于其数据默认存储在内存中,持久化机制需手动配置,且事务处理相对简化。而MySQL则具有完善的数据持久化机制和事务控制,更适合需要高可靠性和复杂事务处理的应用场景。如果需要在Redis中实现高稳定性和持久化,必须正确配置和使用Redis的持久化机制,并进行适当的数据备份和恢复策略。
其他补充模型B的分别对这两种数据库做了区别说明,并且解释的更加清晰。

Good Case 5

模型服务来源CompassArena
您的输入用数学公式来简述大模型的Lora微调方式
模型AYi-Large(零一万物)
模型BInternLM2.5-Chat-20B
模型A的输出大模型的Lora微调方式是一种在预训练模型上进行局部调整的方法,它通过在模型的某些层上添加小规模的矩阵来实现参数高效的微调。这种方法可以显著减少训练时所需的计算资源和内存消耗,同时仍然能够保持模型的性能。数学上,我们可以用以下公式来简述Lora微调方式:假设我们有一个预训练的模型参数矩阵 ( W ),在Lora微调中,我们会在 ( W ) 上添加一个小规模的矩阵 ( A ) 和 ( B ),使得微调后的矩阵 ( W’ ) 可以表示为:[ W’ = W + A \cdot B ]其中,( A ) 和 ( B ) 的大小通常远小于 ( W ),它们是通过训练得到的新的权重矩阵。( A ) 和 ( B ) 的乘积 ( A \cdot B ) 可以看作是对原始矩阵 ( W ) 的一个低秩更新。在实际应用中,Lora微调通常会涉及到一些超参数的设置,比如 ( A ) 和 ( B ) 的秩(即它们的行数和列数),以及训练过程中的学习率等。通过适当的设置,Lora微调可以在保持模型性能的同时,显著减少训练成本。需要注意的是,Lora微调并不是一个标准的数学公式,而是一种模型微调的技术。上述公式只是为了简化说明而给出的一个抽象表示。在实际应用中,Lora微调的实现可能会涉及到更多的细节和优化。
模型B的输出大模型的Lora微调方式是一种常用的模型微调方法,主要用于在预训练的大模型基础上,针对特定任务进行微调。其核心思想是通过在模型中引入可学习的参数向量,使得模型能够适应新的任务或数据集。具体来说,Lora微调方式可以分为以下几个步骤:选择预训练模型:首先,选择一个在大规模数据上预训练好的模型,如BERT、GPT等。引入Lora参数:在模型的各个层之间引入可学习的参数向量,称为Lora参数。这些参数向量可以被看作是对原始模型的微调,使得模型能够更好地适应新的任务或数据集。微调模型:使用特定的任务或数据集对模型进行微调。在微调过程中,Lora参数会被更新,以最小化损失函数。应用微调后的模型:微调完成后,模型可以被用于新的任务或数据集,以获得更好的性能。在数学上,Lora微调方式可以表示为以下公式:L(θ,α)=Lpretrain(θ)+Ltask(θ,α)L(θ,α)=Lpretrain(θ)+Ltask(θ,α)其中, L p r e t r a i n ( θ ) \mathcal{L}{pretrain}(\theta) Lpretrain(θ)表示预训练模型的损失函数, L t a s k ( θ , α ) \mathcal{L}{task}(\theta, \alpha) Ltask(θ,α)表示任务相关的损失函数, θ \theta θ表示模型的参数, α \alpha α表示Lora参数。在微调过程中,目标是最小化损失函数 L ( θ , α ) \mathcal{L}(\theta, \alpha) L(θ,α),以获得更好的性能。通过这种方式,模型能够在大规模预训练的基础上,针对特定任务进行微调,以获得更好的效果。
其他补充可以发现公式转换这块儿,模型B的输出表现更好。
  • 15
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值