- 博客(51)
- 收藏
- 关注
原创 在部署dovecot时,做telnet 143端口测试,发现dovecot-sql.conf.ext配置参数driver=mysql会显示驱动错误直接影响不能调通,其主要原因就是driver参数配错
之前roundcubemail一直没法调通第三个步骤就是账号及端口测试,明明端口防火墙以及所有服务都已经做好,甚至连mysql中的库用户和表都做了,一级一级从零开始查部署查到dovecot服务,发现没办法调通telnet 端口ok状态,查到状态发现问题报错,于是想到就是dovecot数据库没有获到到用户账号信息,于是可以下这个配置文件中。简述如下,本人安装postfix+dovecot+roundcubemail打算用来搞邮件服务器测试东西。
2025-04-28 11:37:32
109
原创 阿里云LINUX系统启动后,journalctl -xe查看,发觉存在failed to retrieve rpm info for /run/systemd/inhibit/11.ref报错
通过以上步骤,应该能够解决“无法检索 RPM 信息”的问题。如果问题仍然存在,建议收集更多的日志信息。
2025-04-22 17:21:33
822
原创 使用vsftpd服务时连带发现tomat服务时catalina.sh报错,service tomcat start报错,但用sudo service tomcat start没报错
Tomcat 服务启动失败,但Tomcat指令启动没看到报错的主要原因可能是JAVA_HOME环境变量未正确设置,或者服务配置文件存在问题。通过检查和修改这些配置,应该能够解决问题。如果仍有疑问,请提供更多详细信息(如完整的服务配置文件和日志内容)。
2025-04-22 16:41:58
951
原创 警惕阿里云中的yum update操作不当导致:/sbin/init被清空导致Linux无法正常启动
于是采取yum history undo回复操作,但由于此前更新涉及systemd的更新,版本不对后的回复涉及了部分sysvinit的缓存清空,在操作过程不慎造成/sbin/init中的指令文件完全被删除。二、没事少做yum update或yum install或者清空sysvinit相关的操作,涉及所有跟systemd有关的更新,尽量少做,所谓的开源免费的东西,其实也很不靠谱。在阿里云平台工具进行服务器重启后,一直长时间等待后启动服务器,但仍没法进行SSH或远程链接,哪怕进行停机,也等待很久。
2025-04-18 11:28:43
1119
原创 运行/postfixadmin/public/setup.php时报Warning: config.local.php - NOT FOUND及IMAP functions - NOT FOUND
Running software:Checking for dependencies:如下图所示:第一个问题:Warning: config.local.php - NOT FOUND 初步判断是当时“/var/www/html/postfixadmin/”目录中,没有“config.local.php”文件造成。因为此版本的默认下载安装文件部署时,并没有包含“config.local.php”文件。当时存在“config.inc.php”目录进行具体配置即可,所以可以忽略掉这个config.
2025-04-16 10:13:52
639
原创 运行postfixadmin的setup.php后出现ERROR: the templates_c directory doesn‘t exist or isn‘t writeable for the
运行“postfixadmin”的“setup.php”后出现“ERROR: the templates_c directory doesn't exist or isn't writeable for the webserver. ”系统默认在部署文件的时候,会有一个叫"templates"的目录,但这个目录已经有部分文件,因此为免混淆,建议不理会这个“templates”目录先,直接查看“postfixadmin”目录下,有下“templates_c”目录即可。若不存在,就手动创建它。
2025-04-16 09:43:15
319
原创 如何安装Postfix Manager?
Postfix Manager是一个用于管理Postfix邮件服务器的基于Web的工具。经过以上步骤,你就可以在Ubuntu系统上成功安装并配置Postfix Manager了。不同的Linux发行版在安装步骤上可能会有差异,你要依据实际情况进行调整。在浏览器中访问`http://your_server_ip/postfixadmin`,按照页面提示完成安装。首先,要确保系统已安装必要的软件包,像Apache、PHP和MySQL等。把`your_password`替换成之前创建MySQL用户时设定的密码。
2025-04-15 09:53:07
272
原创 技术简报:百度秒哒AI无代码平台痛点与开发者困境
据工信部2023年Q4数据,个人网站备案通过率不足32%(企业备案率为89%),主因包括域名解析冲突、服务器资质不符等。强制公开发布门槛:最终应用必须绑定已备案空域名(无解析记录),个人开发者需独立完成工信部备案流程。域名需"未投入使用"状态备案 → 实际操作中需先购买域名+服务器并暂停解析,与个人开发者低成本试错需求冲突。推动建立开发者沙箱备案白名单机制(参考欧盟GDPR的"数据沙盒"监管沙盒模式)。建立"无代码开发合规性知识图谱",标注各平台部署红线(如附对比表格)。
2025-03-27 15:54:29
693
原创 Deepseek V3、豆包、百度秒哒在AI人工智能无代码编程方面的差异分析?
--以上分析基于当前技术进展与用户反馈,实际应用中需结合具体需求选择工具。
2025-03-26 17:30:38
1384
原创 DeepSeek V3 和 R1 在架构、技术性能、优缺点和部署方面差异?
选择模型时,需根据具体需求和硬件资源决定。V3适合通用语言处理任务,而R1适合复杂逻辑推理场景。
2025-03-26 09:40:14
626
原创 在部署 DeepSeek 模型时,如采用Jetson Orin Nano 和 NVIDIA H100 的性能差异对比如何?
Jetson Orin Nano 和 NVIDIA H100 的性能差异显著,前者适合轻量化、低功耗的边缘计算场景,后者则适合高性能、高吞吐量的数据中心场景。:显存容量有限,适合运行 1.5B 或 7B 模型,大模型(如 14B)可能因显存不足无法运行。:高性能、高吞吐量,适合大规模模型训练和推理(如 DeepSeek 14B 或更高参数模型)。:低功耗、小型化,适合边缘设备、嵌入式 AI 应用(如机器人、无人机、智能摄像头)。:支持更大规模的模型(如 14B 或更高),且显存带宽更高,适合高并发推理。
2025-03-19 11:48:56
1016
原创 是否可以在 英伟达 Jetson Orin Nano 上部署 DeepSeek 模型?
总的来说,因为Jetson Orin Nano主要应用于轻量化边缘计算使用,如适合边缘设备、嵌入式 AI 应用(如机器人、无人机、智能摄像头)。而大规模模型训练和推理(如 DeepSeek 14B 或更高参数模型)则不适合,因此需根据不同的应用场景进行选择。:大模型(如 14B 或更高参数)需要更高的显存和算力,Jetson Orin Nano 可能难以流畅运行。:本地部署适合高隐私场景,但需确保符合数据安全法规(如 GDPR)。:1.5B 模型需约 4GB 显存,7B 模型需 8GB 以上。
2025-03-19 11:43:32
758
原创 英伟达PTX指令集与各CUDA版本的关系
虽然PTX指令集的官方文档是英文的,但通过查阅NVIDIA的CUDA工具包文档和相关资源,可以详细了解不同CUDA版本中PTX指令集的变化和新增功能。
2025-03-19 10:13:47
763
原创 P106-100、K80、H800、V100 四款显卡在架构、PTX指令集、算力、性能等方面的差异及优缺点对比:
Hopper架构的阉割版,保留第四代Tensor Core和FP8支持,但NVLink带宽和FP64性能受限。:K80的GDDR5显存带宽(240GB/s)远低于H800的HBM3(3.9TB/s),适合处理小数据集。:Volta架构首次引入Tensor Core,显存带宽高(900GB/s),适合大规模模型训练。:双GPU的Kepler架构,显存容量大但无现代AI加速单元,适合传统并行计算。:基于Pascal架构,定位为计算卡,通过魔改驱动实现游戏功能,显存带宽较低。
2025-03-18 09:48:43
2098
原创 有什么适合IT项目经理使用的AI生成流程图、UML图、泳道图等工具
操作步骤:向DeepSeek描述需求→获取Mermaid代码→在ProcessOn导入→生成并调整。使用DeepSeek生成Mermaid代码,导入ProcessOn一键生成图表。通过对话式交互,用自然语言描述需求,AI自动生成PlantUML代码并渲染图表。支持图表:流程图、时序图、泳道图、类图、ER图(通过Mermaid语法)。操作步骤:访问官网→点击“生成流程图”→输入描述→AI生成→调整导出。支持图表:UML图、系统架构图、流程图(基于PlantUML)。持迭代优化,例如调整系统设计中的组件关系。
2025-03-17 17:38:21
940
原创 独立部署DeepSeek 大语言模型(如 DeepSeek Coder、DeepSeek LLM)可以采用什么框架?
提供了丰富的预训练模型接口,对于 DeepSeek 模型,能通过简单的几行代码实现加载和推理。例如,你可以轻松指定模型名称,如 “deepseek-ai/deepseek-coder-6.7b-base”,就可以快速加载模型。:采用了先进的推理优化技术,如 PagedAttention,能够显著提高模型的推理速度,降低延迟。这些框架各有优缺点,你可以根据自己的具体需求,如性能要求、易用性、成本等因素,选择合适的框架来独立部署 DeepSeek 模型。无需编写复杂的代码,降低了部署的门槛。
2025-03-17 11:18:22
623
原创 (七)使用X99主板搭配双XEON E5-2660 V4或同系列CPU+NVIDIA P106-100部署Deepseek的可行性
(新装机的话,二手CPU,二手内存,一手SSD,一手电源,开放式机箱,一手散热器、需自行解决散热风扇问题),如果在原有已经有是x99架构的双CPU朋友,节省掉SSD和加少许内存情况下也可升级改造。:如Windows 7、Ubuntu 16.04等,对CUDA 11.0的支持可能有限,可能需要降级CUDA版本。或更高版本:支持NVIDIA P106-100,但需要安装适当的驱动程序和CUDA toolkit。:检查操作系统版本是否支持当前的NVIDIA驱动,可能需要调整操作系统版本或使用旧版本驱动。
2025-03-13 18:13:29
1559
原创 (六)与英伟达 V100 对标的,但又便宜且好用的运算卡对比表及部署Deepseek的对标情况。
需要稳定运行 Deepseek,建议选择 P106-100,但是需要注意主板、CPU及操作系统对驱动程序、工具集的支持,这点需要十分谨慎。如果需要利用最新的架构优势,如A100的Ampere架构,可能需要升级,但P106-100在性能和价格之间提供了不错的平衡。:P106-100的性能接近V100,提供4000+ Tokens/s,适合中等规模的模型部署。总结来说,P106-100是可以部署Deepseek的,并且是预算有限用户的一个合适选择。:基于 Ampere 架构,价格非常便宜,适合入门级用户。
2025-03-13 18:04:24
767
原创 (五)基于A100、V100和K80三种GPU部署Deepseek的最高版本的详细信息
基于A100、V100和K80三种GPU部署Deepseek的最高版本的详细信息
2025-03-13 17:57:58
854
原创 (四)英伟达K80、V100和A100三款GPU在Tokenss等关键指标及性能特征上的对比分析
Ampere架构第三代Tensor Core,支持TF32和稀疏计算,显存带宽(1555 GB/s)和容量(80GB)大幅提升,适用于超大规模模型(如GPT-3)。Volta架构引入第一代Tensor Core,支持FP16混合精度,显存带宽显著提升(900 GB/s),适合中等规模的模型训练和推理。A100的FP16性能是V100的2.5倍,K80因缺乏Tensor Core,FP32性能仅为A100的1/7027。在BERT模型训练中,A100性能是V100的6倍7,但V100仍能胜任多数企业级应用。
2025-03-13 17:56:26
1215
原创 (二)未来十至二十年的信息技术核心领域(AI、数据库、编程语言)完全零基础者的学习路径与技能提升策略
通过以上路径,零基础者可在2-3年内完成从入门到中级开发者的转型,并在AI或数据库领域建立扎实竞争力。需注意:技术迭代速度极快,需保持每年投入至少200小时于新工具学习(如量子计算模拟器、边缘AI框架)。未来十至二十年的信息技术核心领域(AI、数据库、编程语言)对零基础学习者而言,需从基础知识构建→领域专项突破→项目实战→持续迭代四个阶段展开。1. 百度飞桨(PaddlePaddle)1. 中国大学MOOC《人工智能数学基础》中文文档完善,适配国产硬件(如昇腾芯片)2. 《程序员的数学》(结城浩著)
2025-02-27 17:45:03
1192
原创 (一)未来学习什么语言或相关的AI、数据库知识进行技术迭代提升?
物联网(IoT)与AR/VR的普及要求处理结构化与非结构化数据(如文本、图像、传感器数据),需熟悉NoSQL(如MongoDB)和图数据库(如Neo4j)。AI素养涵盖技术认知(如算法原理)、伦理判断(如数据隐私)及协作能力(如与领域专家合作)。需掌握AI全生命周期工具,如模型监控(MLOps)、自动化测试(如Red Teaming),以及伦理评估工具(如tachAId)。教育领域已通过“一课多融”模式(如结合AI与数据库课程)培养复合型人才,程序员需保持对技术趋势(如量子计算、边缘AI)的敏感度。
2025-02-27 17:41:38
882
原创 借DeepSeek的风思考:未来可通过AI+视觉识别技术,实现足球比赛中的教练决策指挥系统,以此提高中国足球冲出亚洲夺取世界杯冠军
通过AI+视觉识别技术提升中国足球水平是一个长期过程,需要技术、数据、人才和政策的多方支持。系统的成功部署和实施将有助于提高中国足球的竞争力,但最终能否冲出亚洲、夺取世界杯,还取决于整体足球生态的改善。AI决策模型 :基于历史比赛数据,训练AI模型,提供战术建议、换人策略等。高质量数据 :收集大量高质量的比赛数据,包括球员跑动、传球、射门等信息,涵盖不同联赛、球队和球员的表现。技术团队 :组建具备AI、计算机视觉和体育分析能力的团队,负责系统开发和维护。
2025-02-27 17:03:12
579
原创 元脑服务器可用于DeepSeek部署
2024年4月17日,于浪潮信息生态伙伴大会上,“元脑”品牌经历全面升级,涵盖所有计算产品,成为智算领域的核心品牌。浪潮信息依托元脑生态体系,与合作伙伴共同推进元脑服务器在金融、制造、智能制造、智慧城市等多个领域的应用,为各行各业提供高效且可靠的智能计算支持,助力企业以更低的成本探索大型模型的智能潜能,加速推动各行业的智能化转型。全新升级的内存故障智能预警修复技术MUPR,从单端预警升级为BIOS、BMC两级防护,可实现对内存UCE故障的精准预测和实时修复,能有效规避80%以上的内存UCE发生。
2025-02-20 11:01:10
622
原创 可用于部署 DeepSeek 的国产 GPU 计算卡
JM 系列与 DeepSeek-R1-Distill-Qwen-1.5B 和 DeepSeek-R1-Distill-Qwen-7B 模型完美融合,景宏系列全面适配 DeepSeek R1 全系列模型,覆盖从 1.5B 到 70B 参数规模。宣布与 Gitee AI 合作,完成了与 DeepSeek-R1 模型的适配工作,并已上线多个大模型服务,包括 1.5B、7B、14B 等版本。通过多台搭载芯瞳 GPU 的电脑组建集群,支持 DeepSeek V3 和全量 R1 模型,适用于大型企业。
2025-02-20 10:36:07
938
原创 目前有哪些国产GPU支持DeepSeek?国产GPU支持的DeepSeek模型的性能如何?DeepSeek模型与其他模型相比有什么优势?没有CUDA的GPU可以部署Deepseek
适配了DeepSeek-R1/V3 671B原生模型、DeepSeek-R1-Distill-Qwen-1.5B/7B/14B/32B、DeepSeek-R1-Distill-Llama-8B/70B,通过燧原AI加速卡实现高效计算。适合复杂任务处理和高精度场景,如长文档分析、多模态推理、科研计算等,在逻辑推理、代码生成等任务中达到与GPT-4、Claude-3.5-Sonnet相近的性能,甚至超越部分开源模型如Llama-3.1-405B。
2025-02-20 09:41:12
2266
原创 安装最新版的python3.15后,无法pip install openai,排查先降版本安装的 Python 3.8,但没有自带 pip,可以通过以下几种方法来安装 pip
最近为进行deepseek接口的对接,打算在idea引用一个openai的库,但是发现python3.15更新新版后,无法pip install openai。最后,在windows的dos窗体中安装 openai,可以有两种方法,一种就是直接官网方式安装。get-pip.py 是官方提供的用于安装 pip 的脚本。
2025-02-18 16:14:36
841
原创 又是阿里云作怪,IntelliJ IDEA执行远程服务器上的程序,报错IDE上的Java版本与项目结构设置(SDK版本不同),如何可以阿里云上修改linux默认java路径。
因需要在本机IDEA中调用云服务器上的源码,进行测试代码运行,IDEA默认借用云上的SDK,其中包括JDK,但原本机IDEA需要1.8以上版本JDK才可以运行,系统调用云中的JDK版本不对,但本人记得之前我已经改过云上的JDK是23版的,现在又报错,经判断查出原因就是阿里云经常YUM UPDATE后,或初始化安全检测后,自动将我的JDK路径又指去了1.8版。如果系统中已经配置了多个 Java 版本,该命令会列出所有可用的 Java 版本,并让你选择默认使用的版本。这里的1是优先级,数字越大优先级越高。
2025-02-17 16:37:26
588
原创 在 CentOS 中不能直接采用yum安装 OLama ,需要如何解决?
如果无法找到合适的二进制包,建议通过源代码安装 OLama,或者联系 OLama 的维护者,询问是否有专门针对 CentOS 的二进制包。可能不太常见,因为 OLama 并不是一个官方的 CentOS 包。在安装 OLama 之前,需要先安装一些必要的依赖项。(Yet Another Meta Package)安装。在 CentOS 中,可以将 OLama 的路径添加到。将实际构建路径替换为。
2025-02-17 11:15:00
511
原创 如何在在 CentOS 中安装 OLama
完成以上步骤后,OLama 应该成功安装,并且可以在CentOS上使用。接下来,你可以根据需要进行进一步的配置和扩展。这会启动一个不可中断的OLama服务,通过标准输入输出(stdin/stdout)接收请求。在安装 OLama 之前,需要先安装一些必要的依赖项,包括编译器、框架和工具。OLama 的一些组件需要额外的依赖项。这会运行OLama的测试用例。如果测试通过,说明安装成功。如果编译过程中遇到错误,可以检查错误信息并相应处理。是一个相对直接的过程。为OLama实际的构建目录路径。
2025-02-17 11:13:54
1118
原创 部署 DeepSeek 需要安装OpenLIama(即 OLama)
OLama 是一个轻量级的 LLM 软件引擎,用于快速部署和运行大型语言模型(LLM)。它是 DeepSeek 的核心依赖之一,负责处理模型的加载和服务器端的推理。
2025-02-17 11:06:03
1650
原创 在企业内部私有化部署 DeepSeek 或其他 AI 大模型时,基于一般场景的最低硬件配置建议
CPU:Intel Core i5 或 AMD Ryzen 5000 系列(4 核心以上)。GPU:支持深度学习的 GPU(如 NVIDIA RTX 20/30/40 系列或 AMD Radeon VII)。内存:32GB 或更高。存储:1TB 硬盘或更大。网络:1Gbps 以太网接口。如果模型规模较大或推理任务复杂度较高,建议升级至更高性能的硬件配置(如 6 核 CPU + 32GB GPU)。
2025-02-17 10:56:58
1439
原创 需如何在企业内部(非云服务方式)部署DEEPSEEK或AI大模型,尤其是最低配置的情况?
容器编排系统,比如Kubernetes,适合企业内部的资源管理和自动化部署。在企业内部部署 DeepSeek 或其他 AI 大模型,最低配置方案可以基于容器化部署、容器编排系统或微服务架构实现。因此,提供既实用又不耗资源高的方案。云原生方案如AWS ECR和Kubeflow,虽然需要云资源,但适合快速部署和扩展。可考虑几种部署方式,比如容器化部署、容器编排系统、微服务架构,以及云原生解决方案。最后,结合企业实际情况选择方案,如使用容器化部署加%pam,或者微服务架构,根据现有资源和复杂性来决定。
2025-02-17 10:44:10
1202
原创 又是阿里云npm install报错:ENOENT: no such file or directory, open ‘/root/package.json‘
具体错误信息为 ENOENT: no such file or directory, open '/root/package.json',意思是 npm 尝试读取 /root/package.json 文件,但该文件并不存在。总结,十分判断阿里云的LINUX,因为他本身有很多的判断配置文件都是缺失,或路径不对,从而造成很多配置上的问题,一般小白部署环境不会搞,就会又得买他们服务。在错误信息中可以看到 verbose cwd /root,这表示当前工作目录是 /root,你需要进入到实际的项目目录。
2025-02-14 11:51:15
1270
原创 基于预算有限及研发工作为主,对i7 cpu进行xeon系列平替的比较
大多数搞研发的朋友们,以前可能不太会自己搭建服务器来搞开发,毕竟那玩意儿费电又费钱。但现在市面上那些老旧的服务器CPU价格都跌到地板上了,所以咱们得考虑性价比,找个差不多的替代品。于是我就弄了个XEON E5系列和Intel i7/Xeon X79/X99的性能对比表,大家参考一下。
2025-02-14 10:43:11
447
原创 Intel i7系列CPU替换为Xeon X79或X99架构的CPU替代方案和对比分析
Intel i7系列CPU替换为Xeon X79或X99架构的CPU,需要从性能、功耗、兼容性、价格和应用场景等多方面进行分析。
2025-02-14 10:29:54
1146
原创 Intel i7 CPU各代之间性能概览及现今PC主流CPU采购
从第一代到第13代,Intel i7 CPU在核心数、线程数、频率、缓存和制程工艺等方面都有显著提升。最新代的i7 CPU不仅性能强劲,而且能效更高,适合高性能需求的用户。选择时应根据具体需求和预算来决定,如果对性能要求较高,最新代的i7 CPU会是更好的选择。
2025-02-14 10:16:06
2234
原创 在国产信创领域,海光7285 32C处理器与Intel至强处理器、AMD EPYC处理器、华为鲲鹏920的性价比对比
在国产信创领域,海光7285在性能、生态适配和安全自主可控等方面表现均衡,价格也有一定优势,性价比相对不错;Intel至强处理器和AMD EPYC处理器在性能上有优势,但在安全自主可控和国产信创生态适配方面相对较弱,价格也较高,性价比在国产信创场景下相对较低。核心数量和线程数多,多核性能优势明显。以64核心的鲲鹏920为例,比Intel至强8180性能高33%左右,在多线程能力上表现出色,功耗也较低。基于ARM架构,与x86架构软件生态差异大,需专门适配优化,不过在ARM生态内的软件兼容性较好。
2025-02-12 12:13:26
1220
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人