自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

kcarly的专栏

炸鸡啤酒配人工智能

  • 博客(352)
  • 资源 (9)
  • 收藏
  • 关注

原创 TensorFlow高效数据存储:TFRecord详解

TFRecord是TensorFlow推荐的二进制数据存储格式,专为高效处理大规模训练数据设计。其核心为二进制记录序列,包含长度、CRC校验码和序列化数据。数据以tf.train.Example协议缓冲消息存储,支持三种数据类型。优势包括高效I/O、内存友好、特征统一封装和深度TensorFlow集成。使用方式包括通过TFRecordWriter写入和TFRecordDataset读取,适用于图像分类等需要处理海量数据的场景,结合Protocol Buffers实现跨平台高效存储。

2025-11-18 15:52:41 389

原创 数据归一化:提升模型训练的关键技巧

摘要: 数据归一化是机器学习中的重要预处理步骤,通过将特征数据转换为统一尺度,提升模型收敛速度和泛化能力。常用的方法包括:Min-Max归一化(线性缩放至固定区间)、Z-score标准化(均值为0,方差为1)、L2归一化(向量单位化)、对数变换(处理偏态数据)以及深度学习中广泛使用的批归一化(BatchNorm)。选择方法需考虑数据分布、异常值及任务类型,并注意训练集/测试集需使用相同参数。归一化能有效解决量纲差异、梯度不稳定等问题,是优化模型性能的基础操作。

2025-11-13 11:45:21 305

原创 32B模型训练估算:4张A800 GPU费用与时间

本文提供了在4张A800 GPU上训练32B参数模型的详细时间估算方法。通过公式计算,预计单轮训练约32分钟(基于5000条数据,每条500字)。采用LoRA微调可显著缩短时间。费用评估需考虑硬件租赁价格(约每小时几十到上百元)、训练轮数(建议2-10轮)等因素。建议先用小样本试运行以获取更准确的时间估算,再规划整体训练成本。

2025-11-12 16:33:24 746

原创 大模型训练四步进阶法:SFT到GPRO全解析

大模型微调方法总结 摘要:本文系统介绍了四种主流的大模型微调方法: SFT(监督微调)作为基础步骤,通过指令-答案对注入领域知识; RLHF通过人类反馈强化学习优化输出质量,但实现复杂; PRO作为RLHF简化版,直接优化回答偏好排名,更高效稳定; GPRO专门优化多步推理过程。四种方法呈递进关系: SFT奠定基础能力 RLHF/PRO对齐人类偏好 GPRO强化推理链 建议常规场景采用SFT→PRO路径,在5k数据量下即可有效提升模型性能。

2025-11-12 16:29:40 816

原创 阿里通义双雄:Qwen3-Omni与Qwen3-VL全解析

阿里巴巴通义大模型家族中的Qwen3-Omni和Qwen3-VL各有侧重:Qwen3-Omni作为30B参数的全模态模型,擅长实时音视频交互;Qwen3-VL基于235B参数的MoE架构,专精视觉分析任务。两者在技术上共享视觉编码基础,但分别针对多模态交互与深度视觉处理场景,形成互补关系。用户可根据需求选择,视觉优先用VL,实时交互选Omni。

2025-11-10 10:57:59 830

原创 LabelStudio vs LabelImg:数据标注工具终极对比

LabelStudio vs. LabelImg:数据标注工具对比 LabelStudio 是多模态开源标注平台,支持图像、文本、音频等复杂任务,提供协作、ML集成和高度定制化,适合团队及AI项目。LabelImg 则是轻量级图像标注工具,专注于目标检测,操作简单但功能单一,适合个人或简单视觉任务。核心差异在于:LabelStudio功能全面,支持多数据类型与协作;LabelImg仅处理图像且高效易用。选择依据项目复杂度——需求多样选LabelStudio,仅需图像标注则用LabelImg。两者均开源,可灵

2025-11-06 15:44:42 552

原创 海光K100对决NVIDIA A800,AI算力谁更强?

海光K100 AI卡与NVIDIA A800对比:K100(192TFLOPS半精度算力,64GB显存)主打国产替代,适合显存密集型训练;A800(312TFLOPS,80GB HBM2e)在算力和带宽上优势明显,更适大规模分布式训练。K100兼顾训练推理,但400W功耗使其在纯推理场景能效不如专用卡。A800凭借CUDA生态在开发体验上更优,但价格是K100的7-10倍。国产K100在自主可控场景具有性价比优势,而追求性能仍需选择A800。

2025-11-06 15:10:23 1927

原创 详细了解NVIDIA A800

NVIDIA A800是中国特供版高性能计算GPU,基于7nm Ampere架构,主要用于AI训练和HPC。配备6,912个CUDA核心和432个Tensor核心,提供40GB/80GB HBM2e显存版本,带宽最高达2,039GB/s。计算性能达19.5 TFLOPS(FP32)和312 TFLOPS(FP16),支持多实例GPU技术。相比A100,其NVLink带宽从600GB/s降至400GB/s,整体性能约为A100的70%。功耗250W-400W,适用于深度学习、科学计算等场景。

2025-11-06 14:56:26 711

原创 Slurm:高性能计算集群的调度利器

Slurm是一个开源的高性能计算集群资源管理器,由劳伦斯利弗莫尔国家实验室开发。核心功能包括资源分配、作业管理和队列仲裁,支持并行作业调度。主要组件包含中央管理守护进程slurmctld、节点代理slurmd和数据库slurmdbd,提供丰富的命令行工具如sbatch、srun等。具有开源可移植、高度可扩展(支持上万节点)、插件化架构等特点,广泛应用于科学计算和AI训练领域。其活跃社区维护着完善的生态系统,支持云平台集成。

2025-11-04 13:57:31 384

原创 编译缓存利器 ccahce、sccahce

摘要:ccache和sccache是两种编译器缓存工具,用于加速软件编译。ccache专注于C/C++语言,支持本地磁盘缓存,简单易用,适合个人开发。sccache作为增强版,还支持Rust和CUDA,提供云存储后端和分布式缓存功能,适合团队协作和CI/CD环境。主要区别在于语言支持、存储方式和适用场景,ccache轻量高效,sccache扩展性强。两者均为开源工具,选择取决于项目规模和技术需求。

2025-11-04 11:45:24 942

原创 什么是 wheel 文件 ?

wheel 文件是 Python 生态系统中用于软件分发的一种标准格式,主要用于打包和安装 Python 库和模块。它本质上是一个 .whl 扩展名的压缩文件,包含了安装 Python 包所需的所有文件(如代码、元数据和编译后的扩展)

2025-11-04 11:36:18 316

原创 A100 和 A800 对比情况

NVIDIA A100 和 A800 都是高性能计算 GPU,但它们的定位和性能存在关键差异。简单来说,A100 是原始版本,性能更强;A800 是专为中国市场设计的合规版本,在互联带宽上有所限制

2025-10-31 10:44:21 1220

原创 Qwen-VL视觉大模型微调全攻略

视觉大模型Qwen-VL微调数据格式解析 核心格式: 采用JSON/JSONL格式存储 包含图像路径+文本指令对 主要类型: 单轮对话:图像+单一问答对 多轮对话:支持带坐标的视觉定位交互 应用示例: 工业质检(缺陷描述) 医疗影像(诊断分析) 数据处理建议: 最小样本量1000条 推荐图像尺寸224/448像素 需划分训练/验证集(8:2比例) (全文98字,涵盖数据格式、类型、应用及处理建议)

2025-10-13 14:32:28 1110

原创 算力三巨头:通算、智算、超算全解析

当前算力体系包含三大核心类型:通算(CPU为基础,通用任务)、智算(AI芯片驱动,专注AI训练)和超算(高精度计算,服务科研)。通算满足日常需求,智算优化AI性能,超算支撑尖端研究。三者差异显著:芯片架构(CPU/GPU/异构)、计算精度(FP32/FP16/FP64)、应用场景各异。发展趋势呈现融合态势,但短期内仍将保持分工,其中智算需求增长最快。

2025-10-01 11:44:28 1186

原创 AI岗位全解析:从算法到产品的职业图谱

人工智能岗位主要分为五类:1)算法与研发类(如机器学习工程师、NLP工程师);2)工程与应用类(实施、运维工程师);3)数据与标注类(数据科学家、标注专家);4)产品与管理类(AI产品经理、战略顾问);5)新兴交叉岗位(AI伦理学家、交互设计师)。这些岗位覆盖了从技术研发到商业落地的全产业链,学历要求从本科到博士不等,且随着技术发展持续涌现新岗位类型。

2025-09-25 12:16:20 599

原创 蓝绿发布和流量镜像(影子模式)

同时维护两个独立且相同的生产环境(蓝色代表旧版本,绿色代表新版本)。**任一时刻仅有一个版本接收全部流量**,另一个版本处于待机状态。通过负载均衡器实现流量瞬时切换,实现零宕机发布。

2025-09-10 15:20:38 980

原创 LlamaIndex:解锁LLM私有数据的终极框架

LlamaIndex是一个专为大型语言模型设计的数据编排框架,通过连接私有数据与LLM,构建检索增强生成(RAG)应用。核心功能包括多源数据集成、结构化索引构建、智能查询引擎和动态文档管理,支持Python/TypeScript开发。其关键技术如多模态解析(LlamaParse)、路由查询和假设文档嵌入,有效解决LLM的实时性不足、私有数据访问和幻觉问题。提供开源工具链(LlamaHub)和企业级服务(LlamaCloud),适用于知识库、智能客服等场景,但需平衡复杂度与资源消耗。总体是构建生产级上下文增强

2025-09-10 15:17:20 432

原创 AI代理化检索:智能信息获取新范式

代理化检索是一种由AI代理自主管理的信息检索范式,通过动态规划、工具调用和多步推理提升复杂查询处理能力。其核心机制包括自主决策循环(规划-行动-观察)和动态工具调用(向量搜索、网络搜索等)。关键技术涉及查询分解并行执行、上下文记忆管理和性能优化(延迟控制、多代理并行)。该技术适用于复杂问题处理、主动信息监控等场景,在类库管理等应用中表现优于传统方法。尽管面临实现复杂度高、依赖外部工具等挑战,代理化检索通过将静态检索转化为自适应过程,显著提升了信息检索的深度与灵活性。

2025-09-10 15:05:54 390

原创 交叉编码器:高精度文本匹配利器

摘要:交叉编码器(Cross-Encoder)是一种基于Transformer的NLP模型,通过联合编码文本对直接建模细粒度交互关系,输出分类标签或相似度分数。其优势在于高精度语义理解,适用于自然语言推理、搜索结果重排序等任务;但计算开销大、可扩展性差,需与双编码器结合使用(先召回后精排)。典型应用为两阶段检索系统,核心特点是深度语义分析,但与双编码器在效率、预计算等方面形成互补。该模型适合小规模精排,不适合直接处理海量数据。

2025-09-10 15:01:04 960

原创 混合检索:RAG系统的核心技术突破

混合检索是顶尖RAG系统的核心技术,通过结合稀疏检索(如BM25)和密集检索的优势,提升检索精度和鲁棒性。稀疏检索擅长精确匹配关键词,而密集检索侧重语义理解,两者互补可显著提高召回率。采用倒数排名融合(RRF)算法和分层检索策略进行结果优化,在医疗、企业知识库等场景表现突出。尽管存在计算开销和元数据依赖等挑战,混合检索通过协同多模态扩展和元数据增强,持续推动RAG系统演进。

2025-09-10 14:58:24 757

原创 APO引擎:AI提示优化的革命

自动提示词优化(APO)引擎是一种利用算法自动生成、评估和优化大型语言模型(LLM)提示词的框架,通过梯度下降启发式、进化算法或强化学习等方法提升模型性能。其核心优势包括减少人工干预、提高任务效率(性能提升达31%)和通用性,适用于NLP、内容生成等多领域。然而,APO仍面临伦理风险、过拟合和计算成本等挑战。随着技术发展,APO正从基础方法向多模态优化演进,成为提示工程的关键工具。

2025-09-10 14:55:44 1465

原创 AI安全防护:LLaMA与NeMo Guardrails解析

本文对比了Meta的LLaMA Guard和NVIDIA的NeMo Guardrails两大AI安全工具。LLaMA Guard是专注于对话内容审核的专用模型,能识别暴力、仇恨言论等风险,支持多规模版本部署。NeMo Guardrails则是一个开源安全框架,通过可编程规则提供全面的内容防护,包括主题控制、安全防护等,支持多模态并集成第三方工具。两者可互补使用,LLaMA Guard负责内容过滤,NeMo Guardrails提供端到端防护,共同构建AI安全体系。

2025-09-10 14:52:31 836

原创 SSE技术:实时数据推送全解析

摘要:Server-Sent Events(SSE)是一种基于HTTP的服务器推送技术,支持服务器向客户端单向实时传输文本数据。其核心特性包括长连接、自动重连和简单的事件处理机制,适用于新闻推送、股票行情等场景。相比WebSocket,SSE更轻量但功能单一,仅支持单向通信且无法传输二进制数据。实现上,服务器需设置text/event-stream响应头,客户端通过EventSource监听数据。SSE是HTML5规范的一部分,为轻量级实时应用提供了高效解决方案。(149字)

2025-09-10 14:33:40 475

原创 三大API网关性能对比:APISIX完胜

摘要: Apache APISIX、Kong 和 Envoy 是三大主流 API 网关技术,各有特点: APISIX(云原生):基于 Nginx + etcd,性能最优(QPS 18000,延迟 0.2ms),支持动态路由和插件热加载,适合高性能微服务场景。 Kong(稳定性优先):基于 Nginx + Postgres,功能丰富但性能较弱(QPS 1700),提供商业支持,适合企业级稳定需求。 Envoy(服务网格):C++ 实现,专注 L7 代理,性能高但配置复杂,适合服务网格流量管理。 结论:APIS

2025-09-10 14:30:41 817

原创 自主智能体(Autonomous Agents)

自主智能体(Autonomous Agents)是一种能够在特定环境中自主感知、决策并执行任务的智能实体。

2025-09-10 14:26:48 936

原创 YOLO算法:实时目标检测核心技术解析

YOLO是一种单阶段目标检测算法,通过将图像划分为网格并直接预测边界框和类别概率,实现端到端快速检测。其核心优势在于实时性(可达155FPS)和全局推理能力,但存在小目标检测精度低、密集目标漏检等问题。从YOLOv1到v8,技术持续优化,引入多尺度检测、锚框、注意力机制等改进。广泛应用于交通监控、农业、安防等领域。未来方向包括提升小目标检测、减少数据依赖和跨模态扩展。

2025-08-22 16:59:43 905

原创 开源GPU集群管理器:AI模型高效部署新选择

GPUStack是一款开源GPU集群管理工具,专为AI模型部署设计。支持跨品牌GPU整合(NVIDIA/AMD/华为等)和混合CPU/GPU推理,兼容LLM、视觉、语音等多种模型。提供智能调度、资源监控和OpenAI标准API,支持轻量化部署(Docker/Python)及异构集群扩展。适用于企业私有化部署、边缘计算等场景,采用Apache-2.0协议,由Seal团队维护,未来计划支持更多硬件加速器。通过统一管理异构算力和标准化接口,显著降低大模型部署门槛。

2025-08-17 23:52:58 1011

原创 如何科学测算AI业务场景所需算力服务器?——以Qwen3 32B模型与海光K100为例

摘要:本文以Qwen3 32B大模型和海光K100 AI算力卡为基础,提出AI算力需求的评估方法。通过分析单token运算量(64 GFLOPs)和实际吞吐量(约1200 tokens/s/GPU),结合智能问答(80 GPU)和智能撰写(32 GPU)两种典型场景,推导出服务器配置建议(8卡/台)。文章还考虑了训练任务(增加20%缓冲)和多模态应用等特殊情况,强调科学评估对平衡业务需求和资源投入的重要性,为AI项目部署提供量化参考依据。(149字)

2025-06-17 22:27:31 3894

原创 Ant Design Card组件实战指南

Ant Design 的 Card 组件是企业级 React UI 的核心容器组件,遵循自然认知原则,支持结构化内容展示、交互增强和响应式布局。它提供基础功能(标题、封面、操作区)和高级特性(页签集成、网格子组件),广泛应用于数据概览、信息分组等场景。通过关键配置属性和 API 可实现灵活定制,5.13.0+版本引入新样式控制方式。开发实践中建议结合性能优化和无障碍设计,相比其他组件库具有原生页签支持和更强扩展性。典型代码示例展示了基础使用和Tab+网格布局的高级应用。

2025-06-17 09:55:31 1044

原创 Flex布局:核心概念与实战技巧

Flex布局是CSS3引入的一种弹性盒子模型,通过设置容器属性display:flex实现灵活布局。其核心特点包括简化代码、响应式适应和动态调整项目大小/顺序。布局由Flex容器(控制主轴方向、对齐方式等)和Flex项目(支持伸缩比例、自定义顺序等)组成。典型应用包括导航栏、等高布局和移动端适配等场景。需注意兼容性问题,旧版浏览器需加前缀(如-webkit-flex)。Flex布局以简洁代码实现复杂排列,是现代化Web开发的重要工具。

2025-06-17 09:44:34 795

原创 Python文档神器:一键规范你的代码注释

摘要:docformatter是PyCQA开发的Python文档字符串自动化格式化工具,遵循PEP 257规范。主要功能包括基础格式化(三重引号、多行结构)、兼容Black工具、智能处理语义保留。支持pip安装,提供多种参数配置如强制换行、递归处理等,可集成到pre-commit和CI/CD流程。适用于个人开发、团队协作和开源项目,能显著提升文档规范性和可读性。当前对Google/Numpy风格支持有限,建议结合Black、pydocstyle等工具实现全栈代码质量管理。(149字)

2025-06-16 10:14:38 1202

原创 Python生态:npm、Poetry和Uvicorn的黄金三角

本文对比分析了JavaScript生态的npm与Python生态工具链的核心功能与协作关系。npm作为Node.js的官方包管理器,专注于依赖管理和版本控制;而Python生态依赖PyPI仓库,需Poetry等工具管理复杂依赖。Poetry通过一体化项目管理解决了传统Python工具缺陷,而Uvicorn则提供高性能异步Web运行时。二者协作形成现代Python Web开发工作流:Poetry管理依赖和环境,Uvicorn执行应用。尽管npm与Python生态相互独立,但各自工具链在对应领域发挥着类似作用,

2025-06-16 01:15:46 801

原创 SQLAlchemy:Python数据库操作终极指南

SQLAlchemy 是 Python 生态中功能强大的 SQL 工具包和 ORM 库,提供企业级数据库交互能力。它通过面向对象语法抽象数据库操作,同时保留对 SQL 的灵活控制。SQLAlchemy 采用分层架构设计,包含 ORM 层和 Core 层,支持多数据库引擎、连接池管理和事务控制。核心组件包括 Engine(数据库入口)、Session(会话管理)和 Mapper(对象映射)。其优势在于可移植性、安全性和灵活性,既适合 Web 开发(如与 Flask 集成),也适用于数据分析和复杂查询场景。SQ

2025-06-15 23:57:26 373

原创 Path.mkdir vs os.makedirs:为什么Ruff建议替换?

Ruff 的 PTH103 规则建议使用 Path.mkdir(parents=True) 替代 os.makedirs(),主要基于现代Python最佳实践。两者功能相同,都能递归创建目录,但pathlib.Path方法具有明显优势:采用面向对象设计,代码更清晰;自动处理跨平台路径分隔符;参数命名更明确(parents和exist_ok)。作为Python官方推荐的标准库(3.4+引入),pathlib能提升代码一致性和可维护性。Ruff通过此类规则推动开发者采用更安全、现代化的路径操作方式,与静态分析工

2025-06-15 23:27:49 912

原创 Python极速工具Ruff:重塑代码检查与格式化

Ruff是一款基于Rust的高性能Python代码检查与格式化工具,整合了Linter、格式化(兼容Black)和import排序功能。其核心优势包括:极速性能(比Flake8快10-100倍)、开箱即用的800+条规则支持,以及统一的配置文件管理。测试显示,25万行代码检查仅需0.5秒。Ruff已获大型项目(如Pandas、FastAPI)和企业(Netflix、Amazon)采用,并支持主流编辑器集成。虽然暂不支持插件扩展,但其开发团队正计划推出类型检查等新功能。Ruff通过一体化设计和高性能,显著提升

2025-06-15 23:15:46 1117

原创 Python密码加密与校验详解

该代码使用Python的passlib库创建密码加密/校验上下文。主要功能是通过CryptContext类配置bcrypt加密算法,该算法具有高安全性、自动加盐特性,能有效防范彩虹表攻击。参数deprecated="auto"支持未来算法自动升级。passlib是专业密码哈希库,支持多种加密算法切换,CryptContext是其核心管理类。实际应用中,该配置可用于用户密码的安全存储和验证,并支持无缝算法升级。这是目前推荐的安全密码存储方案,避免明文存储风险。

2025-06-15 21:31:51 407

原创 Parquet不可变性解析与高效更新方案

摘要: Parquet文件的核心特性是不可变性,由列式存储架构决定,任何数据更新需重写整个文件或行组。为应对这一限制,实践中采用四种策略:1) 全量覆盖(适合小数据);2) 分区重写(利用目录结构减少I/O);3) 增量追加与合并(批量处理延迟更新);4) 事务层解决方案(如Delta Lake、Hudi,提供ACID支持)。选择策略需考量数据量、更新频率和一致性需求。不可变性虽优化查询性能(如谓词下推),但也衍生统计信息维护、并发控制等挑战,推荐结合事务层工具平衡分析效率与更新灵活性。

2025-06-15 10:11:05 1114

原创 parquet :开源的列式存储文件格式

Parquet凭借列式存储、高效压缩、Schema强约束成为大数据生态的核心存储格式:技术价值:通过减少I/O和计算冗余,实现分析查询数量级加速。生态兼容性:与50+数据处理框架(Spark/Flink/Presto)无缝集成。演进趋势:从Hadoop向云原生(如DuckDB、SageMaker)扩展

2025-06-04 18:14:48 1262

原创 Haystack:AI与IoT领域的全能开源框架

Haystack是一个开源框架,主要应用于两大领域:物联网(IoT)建筑自动化和人工智能自然语言处理。在IoT领域,它通过标准化标签系统解决建筑设备数据互操作性问题;在AI领域,它提供模块化Python框架支持LLM应用开发,如问答系统和检索增强生成(RAG)。核心功能包括组件化设计(检索器、生成器等)、管道系统、文档存储和高级RAG技术,具有生产级部署能力和灵活架构。相比同类工具,Haystack在灵活性、响应速度和生产就绪性方面表现突出,被广泛应用于智能客服、知识管理和建筑能源优化等场景。最新版本2.8

2025-06-04 18:11:45 1342

原创 LlamaIndex:解锁LLM潜力的数据编排利器

LlamaIndex是一个开源的数据编排框架,专为构建基于大语言模型(LLM)的应用而设计。它通过高效的数据索引和检索机制,连接LLM与外部数据源,实现上下文增强生成。核心功能包括多源数据适配、多样化索引(向量存储、摘要、知识图谱等)和检索增强生成(RAG)。适用于企业知识管理、法律合规、教育科研等场景。与LangChain相比,LlamaIndex更专注于RAG任务,开发门槛较低但扩展性稍逊。开发者评价其高效灵活,但处理超大规模数据时存在计算资源消耗问题。总体而言,LlamaIndex是LLM数据接入的重

2025-06-04 18:09:58 580

MathorCup数学建模挑战赛历届题目及优秀论文集

MathorCup全称为MathorCup高校数学建模挑战赛(原名),现更名为MathorCup数学应用挑战赛。该赛事由中国优选法统筹法与经济数学研究会(国家一级学会)主办,该学会隶属于中国科学技术协会,其历史可追溯至华罗庚教授提出的数学与行业应用紧密结合的理念。附件是历届得题目及优秀论文合集供大家学习参考。

2025-04-20

前端JAVASCRIPT工程师面试题及参考答案

这30道题全面覆盖了: 基础语法:考察候选人的语言理解; 运行机制:考察闭包、事件循环、原型链; 新特性:考察ES6+; 工程能力:考察模块化、性能优化、跨域; 架构思维:考察设计和优化思想。

2025-04-20

数据库工程师SQL技能面试包

数据库工程师SQL技能面试包,包括30道基础、中级、高级范围的面试题及参考答案+面试评分表。

2025-04-20

豆瓣前端团队的工作方式

豆瓣前端团队的工作方式 ,来自网友分享的内容。看看别人是如何工作的吧

2011-11-27

After Detailer 插件 为不能正常访问 github 的小伙伴搬运

After Detailer是稳定扩散web的扩展,类似于Detection Detailer,只是它使用了ultralytics而不是mmdet。这是一个基于 stable diffusion Webui 使用的插件。用于修复 AI 生图时所产生的脸崩问题,通过插件可以识别人脸,并依据所选情况进行脸部修复,可搭配 Lora 与 controlnet使用,脸部修复效果明显高于 WebUI 自带效果,插件需要使用单独模型,如不能稳定链接 hugginggace ,可单独下载所需模型使用,所需模型可搜索我上传的同名插件模型资源。

2023-10-03

adetailer 插件模型,从huggingface搬运,供不能访问的小伙伴使用

adetailer 最新插件 在使用时,需要联网huggingface 获取模型,在网络不能访问时,SDwebUI 启动时会因为需要联网加载adetailer 模型 而启动缓慢,可以在 webui-user的文件中增加 --ad-no-huggingface ,这时不会再联网获取模型,而是获取 stable-diffusion-webui/models/adetailer 下的模型,下载附件模型后全部丢到这个目录下就好,webui 会自动识别。

2023-10-03

私有云建设招标要求及性能要求

私有云建设是目前企业及各机构部门的选择,在私有云招标过程中,涉及到许多要求,政策层面,认证层面多种要求,对知识产权、产品成熟度、私有云建设企业资质等都有较多考察及规定。对2023 年主流云厂商所能提供的软硬件、性能参数、功能要求等做了明确要求。对私有云建设及运维要求做了明确细分。

2023-09-09

100个Lora资源,为不能顺利访问C站的小伙伴准备

整理的100个Lora资源,内容来自于C站,不能魔法访问C站的小伙伴可以下载使用,已经使用C站助手更新了效果图与pormpt及模型信息,下载下来之后直接解压到Lora目录即可使用。

2023-05-08

Blender 开源模型工具插件,及openpose文件

blender 是多平台支持的模型工具,文件内容为blender 的第三方插件可用于编辑open pose文件,为Stable diffusion 提供pose模型及景深图,线稿图。

2023-05-12

Stable Diffusion 深度图像编辑器插件,常用户SD 人物生成时手部生成、手部修复使用

Depth map library for use with the Control Net extension for Automatic1111/stable-diffusion-webui。 Stable Diffusion 深度图像编辑器插件,配合ControlNet 插件进行图像生成引导,常被用于人像生成中引导手部生成使用。

2023-05-07

SD 使用的 模型信息自动更新插件

SD 使用的 模型信息自动更新插件 可自动扫描同步SD模型信息、图片、提示词。

2023-05-05

4x-UltraSharp 算法插件

这是我目前使用的最好的模型!它可以生成大量细节,并在图像上留下漂亮的纹理。它适用于大多数图像,无论是否压缩。但它在JPEG压缩上效果最佳,因为它主要是在这方面进行训练的。它还具有恢复高度压缩图像的能力! 该插件可在stable diffusion 中使用,放大效果很不错。该插件作者Kim2091 。

2023-04-29

桌面日程管理工具

非常好用的桌面日程管理软件 不用不知道,一用放不掉。喜欢请购买正版

2011-11-27

网站运营手册

《网站运营手册》 作者:陈光锋 国内第一本系统化网站运营专著   《网站运营手册》的核心内容是网站运营关键点和网站运营推广手段   网站运营关键点包括:网站的核心功能与辅助功能、用户体验、种子用户、规模点、数据统筹、流量   转换、市场销售等网站运营关键点。网站运营推广手段包括链接推广、搜索引擎推广、联盟推广、活   动推广、新闻软文传播等五大主流推广段的十种推广方法。

2011-11-13

toad 10 注册机

toad 10 注册机 非常强大 不解释 需要的下

2011-11-27

spring 中文开发手册

经典的一部介绍Spring的书籍,书由浅入深,由表及里,里面还涉及到了Hibernate的操作,本人学习时候收藏的,没事翻翻

2011-11-13

spring 参考手册

spring 参考手册 SSH java开发必备。工具手册。

2011-11-27

5天驾驭jQuery

5天驾驭jQuery 来自 w3cfuns.真的很给力昂~

2011-11-27

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除