- 博客(91)
- 收藏
- 关注
原创 都2025了,为什么2080Ti和1080Ti依然在云GPU平台供不应求?
新显卡“抢不过”大佬们 台积电的先进生产线(比如7nm以下)全被H100、A100这些“土豪专用卡”占满了,老显卡用的12nm生产线早就不扩产了。比如1080Ti的11G显存能跑中小型AI模型(比如Qwen3这种),价格只有新卡的1/3,企业买几十张旧卡堆一起用,成本比买一张新卡还低。老显卡就像打工人的二手笔记本——性能够用、价格便宜、坏了不心疼。云平台又不是搞科研的,省钱才是硬道理,能跑业务就行,谁管你显卡是不是最新款?外国卡脖子逼出来的 美国限制高端显卡出口,国内云平台买不到最新显卡,只能狂囤老型号。
2025-05-09 16:42:25
608
原创 不同渲染任务,用CPU还是GPU?
复杂场景处理能力:CPU凭借强大的多核性能(如AMD Threadripper 3990x的64核)和高内存容量(最高支持512GB),擅长处理影视级光线追踪、全局照明等精密算法,尤其在建筑可视化、毛发/流体模拟等场景中表现突出。速度与性价比:NVIDIA RTX 4090等显卡通过上万核心的并行计算,可实现CPU数十倍的渲染速度,单卡成本低至千元级,适合实时交互需求(如游戏引擎预览、VR虚拟拍摄)。适用场景:离线渲染、超大规模场景(如城市级CAD模型)、科学计算(如医疗仿真)等。GPU渲染的突破性价值。
2025-05-09 16:24:06
800
原创 四个方法,轻松应对智星云4090爆满租不到情况
错峰租用与时段选择 根据平台流量规律,工作日上午9:00-11:00、凌晨1:00-5:00为资源释放高峰,此时段刷新算力市场成功率提升50%(如网页7中AI绘画通道选择原理)。集群化分散租用 对大显存需求场景(如训练70B参数大模型),可将任务拆解为多台RTX 3090并行计算:选择3台3090(总成本比单台4090低15%),通过分布式训练框架实现等效计算能力。API自动化监控 通过开放API接口,编写脚本实时监测4090资源状态,设置触发条件:当江苏1/山东1节点出现余量时自动创建实例并短信通知。
2025-05-08 11:13:45
403
原创 GPU成本省到极致!Qwen3 部署终极方案:从个人到企业的选卡详解
最强大的当属 Qwen3-235B-A22B,其在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等行业顶尖模型相比。Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。直接在智星云开启裸金属“套餐”,开启Qwen3-235B-A22B ,8张 A100 足够用了。而服务方面,从算力租赁到AI应用部署,覆盖客户的开发全生命周期,7*24小时技术服务。
2025-04-29 17:25:19
1075
原创 阿里Qwen3超越DeepSeek,这就是目前最强开源模型!
经过后训练的模型,例如 Qwen3-30B-A3B,以及它们的预训练基座模型(如 Qwen3-30B-A3B-Base),现已在 Hugging Face、ModelScope 等平台上开放使用。小型MoE模型Qwen3-30B-A3B的激活参数数量是QwQ-32B10%,表现更胜一筹, Qwen3-4B 这样的小模型也能匹敌 Qwen2.5-72B-Instruct 的性能。Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。
2025-04-29 16:38:10
770
原创 当我要求扣子Agent把智星云算力的优势总结出来,结果惊人!
扣子Agent给的可以说毫无偏差!就是上面这个标红的文档,我把里面的内容完成的复制出来,说实话,有点惊呆了我这个工作人员。直达智星云以下是该文档的原文,图是截取了一些官网截图。
2025-04-28 16:29:09
659
原创 租GPU,在“便宜”和“安全”之间如何抉择?
➤ 必选智星云:其私有化部署能力可满足敏感数据本地化处理要求,且通过高校联盟算力池(如上海大学“自强5000”平台)降低成本30%-50%。➤ 混合策略:白天高峰时段使用智星云按分钟计费(应对紧急任务),夜间通过更便宜的C2C类GPU平台调度低价闲置显卡执行批量数据处理,综合成本降低28%。高校可通过“校际算力联盟”共享智星云资源(如浙江大学CARSI平台),将单卡成本摊薄至0.68元/小时。在智星云部署核心模型训练,同时购买其“磁盘保留服务”(0.02元/GB/天),实现每小时自动备份。
2025-04-24 18:13:22
534
原创 2025租用GPU“价格屠夫”诞生了,太便宜了!
当众多平台打着低价旗号暗藏附加费用时,一家深耕企业级服务的平台却以“价格屠夫”姿态杀出重围——智星云凭借全栈自研的硬实力,正在改写行业游戏规则。通过深度整合价格优势与军工级安全保障,智星云正引领GPU租用市场从“价格战”转向“价值战”,为AI开发者提供真正省心、省时、省钱的算力解决方案。访问智星云官网,体验“价格屠夫”的极致性价比——让每一分算力投入都产生超额回报!✅ 开箱即用:预装高校实验室,企业所需镜像,30秒快速启动大模型训练。✅ 成本优化:含系统盘/带宽/运维的全包价格,告别隐性收费陷阱。
2025-04-24 17:28:22
815
原创 警惕!你租的4090可能是矿渣,三招教你识别正规算力平台
智星云通过上述系统性优势,已成为高校科研(如985高校实验室)和头部AI企业(无界AI、神采等)的首选平台,其模式值得需要稳定算力的用户优先考量。3. 选择服务模式:优先采用提供磁盘保留、自动续租功能的平台(如智星云的弹性租用机制),减少硬件不稳定带来的中断风险。对比部分CPC平台常见的“矿渣卡”(显存寿命透支、性能衰减30%-50%),智星云实测算力效率与标称值误差小于5%。1. 专业运维:采用分布式GPU算力管理专利技术,实现硬件故障自动迁移与冗余备份,确保用户任务不受单卡故障影响;
2025-04-22 11:09:48
285
原创 当我问DeepSeek:国内最受高校师生欢迎的GPU租用平台是,结果惊人!
建议高校师生根据具体需求(如预算、项目规模、协作需求)选择平台,并关注平台的限时活动(如厚德云年底优惠、智星云每周领券)以进一步降低成本。
2025-04-18 18:45:00
675
原创 企业部署AI大模型,在GPU租赁 vs API 之间,如何做选择?
典型对话场景下(输入2,000 tokens + 输出1,000 tokens),单次成本为:[ \text{输入成本} + \text{输出成本} = (0.002元 \text{或} 0.008元) + 0.016元 = 0.018元 \text{或} 0.024元/次 ]采用8卡A100服务器,每小时单卡租赁费2.4元,月租总成本为: [ 2.4元/小时 \times 24小时 \times 30天 \times 8卡 = 13,824元/月 ]• 构建自动化推理流水线,集成缓存机制提升吞吐量。
2025-04-18 14:45:53
503
原创 4090租用,各云GPU平台价格对比清单及建议
警惕高价平台:autodl的24G(2.19元)和恒源云24G(2.0元)价格偏高,建议仅在智星云缺货时考虑。唯一推荐:智星云(2.32元/小时),比恒源云(3.22元)便宜28%,显存翻倍但价格仅比24G版本高约70%,性价比显著。性价比首选:智星云(1.35元/小时) ,价格最低,比第二名BuluAI(1.93元)便宜约30%,适合预算敏感型用户。备选方案: BuluAI(1.93元)或 丹摩DAMODEL(2.18元),价格适中,可尝试作为智星云的替代选项。1.短期/临时任务(如测试、小规模实验)
2025-04-18 14:33:03
552
原创 高性价比GPU租用平台的全方位指南(2025版)
作为国内知名算力平台之一,凭借,成为高校、科研机构及AI企业的首选。以下从功能解析、价格优势、服务亮点三大维度,带你看懂智星云的核心竞争力。
2025-04-03 17:55:15
2642
原创 【智星云算力】Boss不让对外讲的四个隐藏功能,一定要牢记并收藏!
算力市场-控制台-领优惠券,每周一的上午都会更新新的优惠券,领完再去租用实例,又能省很多钱。宝子们,只要你是用智星云GPU的,这四个功能一定要知道,否则就亏大了!预计今年4月中旬这个功能就会上线,现在退款还是建议在官网直接联系客服。发起申请后,只要退款理由充分,有专人审核将款项原路做退款。目前的积分商城以电子商品、日常用品为主,都是用得上的产品。*迁移需要选择到期保留磁盘,当前实例已选择保留磁盘。平时我们在租用GPU所产生的费用,都会转化成积分。控制台-实例-更多-迁移实例就可以一键迁移了。
2025-03-26 16:58:46
228
原创 【分享】免费的DeepSeek R1+RAG本地知识库,即开即用!
智星云 AI Galaxy-GPU云服务器_GPU服务器租用_远程GPU租用_深度学习服务器_高性比价便宜GPUwww.ai-galaxy.cn/智星云 AI Galaxy-GPU云服务器_GPU服务器租用_远程GPU租用_深度学习服务器_高性比价便宜GPUwww.ai-galaxy.cn/找到刚刚新建的AI助理,点击聊天位置的“蓝色+”,输入你的问题,开始使用Agent助理。点击“新增文件-本地上传”,上传你的PPT,PDF,word等文件,然后“确定”输入名字后,拉到底部,点击“确定”
2025-03-19 15:32:12
470
原创 一分钱不花,5分钟搞定QwQ-32B部署,中小团队可以考虑。
320亿参数的千问QwQ-32B,在数学推理、代码生成能力完全能够比肩DeepSeek R1 671B满血版,在AIME24评测分数几乎持平,LiveCodeBench还更高!支持部署到(chatbox, cherry chat, open webui, anythingllm)电脑客户端+APP移动端。第二步:一键部署到chatbox, cherry chat, open webui, anythingllm等软件。第一步:创建API密钥,支持创建多个API,可以分给团队的每位成员进行单独部署。
2025-03-13 16:12:13
359
原创 【分享】千问 QwQ-32B在线版,推理速度太快了!100个token/秒
将“API域名”及“模型名”分别粘贴到chatbox的API域名及自定义模型中。第二步,举例chatbox,点击复制API密钥到chatbox设置中。*注意将模型从DeepSeek R1切换成qwq 32b。第四步,点击保存,点击“新对话”就可以使用了。第一步,创建API密钥(支持创建多个), anythingllm等。无需代码,API一键部署!第三步,找到API调用信息。支持对话及文件上传分析。QwQ-32B性能比肩。
2025-03-11 09:23:15
496
原创 DeepSeek满血版云端私有化部署实测数据首次公开,支持知识库!
综合各并发级别的测试数据,deepseek-R1 模型在低并发(5、15)下响应较快,但随着并发数提高(25至55),系统吞吐量虽不断提升,但平均延时及每token生成时间也随之增加,特别是在高并发下尾部延时明显上升,模型在高并发环境下能够稳定处理请求。测试指标涵盖整体耗时、吞吐量、每秒请求数(QPS)、平均响应延时、首 token 响应时间(TTFT)、每个输出 token 生成耗时(TPOT)、以及输入/输出 token 数量等。下表为各并发场景下的核心指标(平均吞吐量单位:tokens/s;
2025-03-07 15:53:52
605
原创 DeepSeek R1满血无量化版,DeepSeek V3在线免费平台分享
2.使用时,点击“R1深度思考”前显示白色,为DeepSeek V3模型,点击后变成蓝色则进入了DeepSeek R1深度思考模式。DeepSeek V3&R1满血版均已在智星云算力上线,支持PC端+移动端。1.进入网页后,选择箭头所指DeepSeek-R1 671B WEB 模型。✔️DeepSeek R1-671B满血版,推理超智能!✔️DeepSeek V3没有推理链,秒答超流畅!简单问题用V3,复杂问题找R1!
2025-02-24 14:29:38
222
原创 DeepSeek R1-671B满血版免费平台
过去的两周,AI和算力行业上演了一场魔幻现实大戏:无数平台高举「DeepSeek满血版免费」大旗疯狂引流,用户只能在反复宕机的官方服务器与性能缩水的「阉割克隆体」间疲于奔命。智星云GPU算力平台接入DeepSeek R1满血版API,支持在线直接使用,也可以调用API,通过Chatbox一键部署。当我问智星云API版本DeepSeek和DeepSeek官网同一个问题时,它们的表现惊人的一致。这次,真·满血版(DeepSeek R1 671B)来了!点击保存(注意看图标红部分,要与智星云提供的信息保持一致)
2025-02-20 14:18:13
523
原创 智星云第1期:19个用户常见问题
如用户未能及时充值续费,磁盘释放,则不能找回。A:一般申请开发票后三个工作日内能开出,其中高校一般申请的是普票,企业申请的是专票,如不一样请和财务确认好再平台上申请。**A:**如何充值和对公转账,在平台:控制台 / 账户充值,可选择支付方式,有微信支付、支付宝支付、对公支付,三种方式。**A:**释放后选择“租用结束后保留全部磁盘”可以找回,选择“租用结束后删除全部磁盘”则不能找回,如下图所示。**A:**国外源下载慢是因链路问题导致,建议使用VPN解决,平台不提供VPN服务,需用户自行解决。
2025-02-18 09:52:03
851
原创 DeepSeek-R1满血版(671B),智星云API部署教程
智星云GPU算力平台推出DeepSeek R1满血版API,通过Chatbox即可一键部署。安装步骤第一步:PC端进入官网注册,找到DeepSeek R1的API信息。
2025-02-17 17:05:35
457
原创 一招解决deepseek R1卡顿难题,完全的0卡顿满血版!
在通过租用算力这种方式时,有个部署环境和下载AI插件的过程,需要10~20分钟,如果不保留磁盘那么实例到期后,你再次开启实例,就要再次去等待部署和下载,保留磁盘后一键启动实例,就不再需要等待部署,可直接使用deepseek,所以这里是建议保留磁盘。实际上,Deepseek目前卡顿的主要原因其实就是算力不足,无论是官网还是硅基流动API,都是采用的算力池的模式,几千万人都在“一锅搅马勺”吃饭,怎么可能不卡呢。Deepseek官网好歹隔半小时还能刷出来一个回复,然后硅基流动API,第一条提问就没有然后了。
2025-02-07 14:05:08
909
原创 GPU成本降低65%!这套DeepSeek企业部署方案,正在被AI行业疯传
硬件需求:4-8张A100 80G,搭配DeepSpeed Zero-3优化,可处理30B参数模型。集群规模:64-128张H100,通过InfiniBand互联,实现3-4周内完成训练。企业级(百万级+):H100集群+InfiniBand网络,支持千亿参数模型。显存需求:70B模型约需140GB显存(INT8量化),需多卡并行或模型切分。70B+参数:需大规模集群(如64+张GPU),适合头部企业或云服务商。7B-13B参数:适合中小型企业,需中等算力(如8-32张GPU)。
2025-02-05 15:22:59
2480
原创 干货分享 | 认识AI,从100个AI热词开始
从基础概念到高级技术,AI的应用已经渗透到我们生活的方方面面,从智能手机的语音助手到自动驾驶汽车到金融分析,AI正以前所未有的速度改变着我们的世界。智星云小光为大家汇集了100个AI热词,带领大家对AI人工智能有个全面的认识。
2024-12-20 15:04:51
856
原创 智星云OpenAPI已上线,有需要的赶紧马住
智星云OpenAPI已上线,有需求的请直接打开API文档接入。也可以在智星云算力市场中查看:控制台-OpenAPI
2024-12-19 17:42:22
365
原创 智星云技术文档:GPU测速教程
在智星云平台上进行GPU测速教程,可以帮助用户了解所使用的GPU实例的计算性能,从而优化应用配置或选择更适合的实例类型。
2024-12-13 16:14:04
437
原创 智星云新手须知:如何选择GPU
智星云平台分配GPU、CPU、内存的机制为:按租用的GPU数量成比例分配CPU和内存,算力市场显示的CPU和内存均为每GPU分配的CPU和内存,如果租用两块GPU,那么CPU和内存就x2。此外GPU非共享,每个实例对GPU是独占的。
2024-12-13 13:57:09
732
原创 智星云新手须知:13个常见问题
智星云新手须知是智星云的常见问题包括账号、开票、授信申请、折扣福利、实例启动、上传/下载、如何设置端口、程序显示Killed停止等方面,旨在为用户提供解决方案和操作指导。
2024-12-10 16:02:12
1355
原创 【平台更新公告】:发票系统优化升级 & 新增微信扫码登录功能
1.开具发票系统调整: 新版本中,开具发票功能仅支持已消费金额的开具。对于老版本中的充值金额开具需求,请联系客服人员协助处理。2. 新增微信扫描登录功能: 为提升用户体验,平台现已支持微信扫描登录。用户可以在“控制台—我的账号—安全中心”绑定微信,实现快速扫码登录。
2024-10-25 17:36:23
253
原创 国内算力浪费竟然超过50%,提升算力利用率方法曝光
近日,在百度智能云技术论坛上,许多人关注到了一个新的问题:在大模型训练中,算力的有效利用率不足50%。这意味着企业在训练过程中,有超过一半的算力资源被浪费。
2024-10-18 15:53:05
631
1
原创 ollama使用llama3.1案例
平台管理和调度超过1000台GPU服务器,服务器类型包含H800、 A800、 V100、 4090、3090、 3080、2080TI、1080TI 等英伟达全系列服务器,和多种国产信创GPU服务器,公司团队对各种类型及品牌的GPU服务器有着丰富组装和运维经验。算力方面可以通过智星云来实现,智星云是安诺其集团全资子公司上海亘聪信息技术有限公司旗下的GPU算力平台。我们可以在命令行中与他交互。就这么简单就能运行起来了。当然我们也可以用接口访问。我们会看到一个注册页面。是我们开放的端口之一。
2024-08-14 16:51:14
1443
原创 人类AI编年史,值得收藏!
1943年,美国神经生理学家沃伦·麦卡洛克(Warren McCulloch)和数学家沃尔特·皮茨(Walter Pitts),基于人类大脑的神经网络,发表了《A logical calculus of ideas immanent in nervous activity(神经活动中内在思想的逻辑演算)》论文,提出了一个形式神经元的计算机模型,并将其取名为M-P(McCulloch&Pitts)模型。这个程序具有“学习能力”,可以通过对大量棋局的分析,逐渐辨识出“好棋”和“坏棋”,从而提高自己的下棋水平。
2024-08-06 19:12:06
2985
原创 Meta开源「分割一切」2.0模型,视频也能分割了
在其前身的基础上,SAM 2 的诞生代表了领域内的一次重大进步 —— 为静态图像和动态视频内容提供实时、可提示的对象分割,将图像和视频分割功能统一到一个强大的系统中。Meta 多次强调了最新模型 SAM 2 是首个用于实时、可提示的图像和视频对象分割的统一模型,它使视频分割体验发生了重大变化,并可在图像和视频应用程序中无缝使用。SAM 2 仍然是一个庞大的模型,也只有像 Meta 这样的能提供强大硬件的巨头才能运行,但这种进步还是说明了一些问题:一年前,这种快速、灵活的分割几乎是不可能的。
2024-08-06 18:37:50
806
原创 马斯克揭晓超算中心,训练FSD与机器人,网友:算力遥遥领先
供应商中,余承东今年也在智选车发布会上,不断更新云端算力数据,6月底华为用于ADS迭代的算力已达3.5E FLOPS,按照过往增长速度来看,明天的享界S9发布会上可能会突破4E FLOPS。Dojo首次亮相于2021年特斯拉的AI Day,三年来不断发展,据马斯克此前透露,Dojo 1今年年底将拥有相当于8000张H100的算力,“不算多,但也并非微不足道。关于这一超算集群,马斯克此前披露过多条信息,包括其硬件来源,巨额投入,以及需要的耗电量,同样惊人。
2024-08-06 16:23:39
945
原创 免费不限次!智谱清影一上线就被玩疯了,国产AI视频生成卷起来了。
而后,智谱在CogView的基础上延伸,于2022年提出并开源了在业界颇具影响力的文生视频模型CogVideo,这项工作被Meta提出的 Make-A-Video、Google的 Phenaki 和 MAGVIT、微软的女娲 DragNUWA、英伟达的 Video LDMs 等视频生成模型所引用。而一个能帮助用户高效提供创意参考的前提是,模型能很好的理解并遵循用户的指令,之后才是视频生成的质量、时长、清晰度等其他因子,其余的就得交给“抽卡大法”了。但如果配合上高级提示词技巧+抽卡大法,瑕疵问题能大大改善。
2024-08-06 15:25:27
920
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人