自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 3D modelling

所有公式已转换为纯文本格式(如Euler公式写为 "χ = V - E + F = 2"),便于复制和使用。计算机辅助设计(CAD)建模技术是三维几何表示的核心,广泛应用于工程、制造和动画领域。本部分概述线框、曲面和实体模型的基本概念、优缺点及应用。本节详细介绍其原理、实现和应用。B-Rep通过定义边界来表示实体,结合几何和拓扑信息,是工业CAD的主流方法。以下是一个简化B-Rep类的骨架(真实系统更复杂,处理容差和曲面参数化)。为确保B-Rep模型可用于工程计算,需进行有效性检验和修复。

2025-12-21 16:01:36 927

原创 Transformation pipeline and geometric transformations

反射(例如在某轴上 scale = -1)会改变顶点的绕序(winding),导致三角形的正反面判定改变(假如使用顺时针或逆时针作为面朝向判定)。注意:反射改变了坐标系的手性(可能导致法线方向/面剖选择问题)——如果启用了背面剔除(culling),要注意顶点绕序(winding)。使用齐次坐标(4×4 矩阵)可以把平移、旋转、缩放、剪切(shear)都用矩阵统一表示,便于组合变换。假设我们想先 S(缩放),再 R(旋转),最后 T(平移),并对点。用来做模型与视图变换(model & view),

2025-12-21 14:23:08 700

原创 github 批量上传代码和文件

本文详细介绍了Git初始化配置与首次推送代码仓库的完整流程。教程从设置全局用户名和邮箱开始,逐步指导用户完成仓库初始化、文件添加、提交更改等操作,并重点讲解了如何添加远程仓库地址及推送本地提交。每个步骤都配有详细注解,帮助理解命令含义。通过这11个步骤,用户可以成功将代码上传至远程仓库并建立跟踪关系,为后续版本控制打下基础。教程特别关注了常见错误处理,如远程仓库已存在时的解决方法。

2025-12-18 08:00:00 1951

原创 MobaXterm高效运维实战技术文章大纲

MobaXterm是一款功能强大的终端工具,支持SSH、RDP、VNC等多种协议,提供一体化远程管理方案。其核心优势包括内置X服务器实现图形化操作、便携版/安装版灵活选择、高效的会话管理与标签功能。高级功能涵盖SFTP文件传输、多终端并行操作、Python/Perl插件集成等自动化运维场景,同时提供密钥认证、会话加密等安全机制。相比SecureCRT等工具,MobaXterm以轻量化设计、丰富扩展生态见长,特别适合开发/运维人员使用。

2025-12-15 20:19:04 168

原创 教程:在Windows上运行DeepCode可以输入论文就反推代码的神器

本文提供了在Windows系统上运行DeepCode智能代码助手的详细教程,包含两种安装方式:路线A通过pip快速安装,路线B从源码运行适合开发者。教程涵盖了Python、Node.js等先决条件的检查安装,配置文件的编辑方法(需填入API Key),以及Windows环境下的特殊设置。重点说明了如何启动Web界面(默认地址http://localhost:8501),并针对不同API服务(如OpenAI、Anthropic等)的配置给出具体指导。最后还包含DeepSeek等第三方模型的调用方法,帮助用户快

2025-12-15 20:15:04 668

原创 github 批量下载代码

本文介绍了两种下载GitHub代码的方法:1.网页直接下载:访问项目页面,点击"Code"按钮,选择"Download ZIP"即可获取压缩包。2.使用PowerShell终端下载:打开PowerShell,输入git clone加项目URL命令,代码将下载到当前路径。如需指定下载路径,需先用cd命令切换目录。两种方法操作简单,适合不同使用场景。

2025-12-05 17:10:16 162

原创 Visual Studio Property Sheet 不用每次再配置环境了

props 文件是 Visual Studio 的属性表(Property Sheet)文件,用于保存一组可复用的项目配置项。包含目录(Include 头文件路径)库目录(Lib 库文件路径)链接依赖项(如 opengl32.lib、freeglut.lib)宏定义和编译选项(如预处理器定义)📦作用:通过属性表,您可以在多个项目中共享相同配置,避免每次新建项目时手动设置路径和库,从而提升开发效率并减少错误。

2025-10-17 12:12:34 731

原创 解决Dify与LLM连接失败问题

摘要:解决Dify网页无法连接Ollama模型的问题,需重建Docker环境。步骤如下:1)创建专用目录~/docker-ollama;2)建立Docker网络ollama-net;3)编写docker-compose.yml配置Ollama容器(端口映射11434、数据卷挂载);4)启动服务后,进入容器下载模型(如llava);5)验证API接口可用性;6)可选方案:将Dify加入同一Docker网络,通过服务名ollama-server:11434直接通信。最终实现容器化隔离部署,确保模型服务稳定接入D

2025-07-07 17:07:43 548

原创 快速本地部署Dify和Ollama打造AI助手(Linux, Docker)

摘要:本文详细介绍了Dify AI平台的部署流程及与Ollama LLM模型的集成方法。主要包括:1)Dify在Ubuntu 22.04下的Docker化部署,包括环境准备、源码获取、容器启动和验证;2)Ollama的安装及Llava多模态模型的运行配置;3)Dify对接Ollama的关键参数设置,如模型名称、API地址和上下文长度等。整个部署过程涵盖从系统环境配置到服务联调的完整环节,最终实现了一个支持多模态交互的本地AI开发平台。特别提示需注意硬件资源要求和网络端口配置等关键细节。

2025-07-04 17:58:25 1771

原创 SecureCRT Linux docker-compose 安装教程

摘要:本文介绍了Docker和Docker Compose的安装步骤。首先检查系统是否已安装Docker,若无则参考Linux安装教程。安装过程包括:更新软件包索引(sudo apt update)、安装Docker Compose(sudo apt install docker-compose),最后通过sudo docker-compose --version验证安装是否成功并查看版本信息。全文提供了完整的Docker环境部署指南。

2025-07-04 15:57:28 293

原创 Linux SecureCRT 安装docker 进行LLM本地部署教程

本文介绍了在Ubuntu系统上安装Docker的完整流程。首先通过SSH连接服务器,更新系统软件包;然后安装Docker所需依赖,添加官方GPG密钥和软件源;接着安装Docker引擎及相关组件,并通过运行hello-world镜像验证安装;最后提供了用户权限配置和国内镜像加速等可选优化方案。整个安装过程详细说明了各命令参数的作用,并提示了可能遇到的错误及解决方法。

2025-07-04 15:46:32 1767

原创 新手小白 Windows 装Linux保姆教程

摘要:在Windows系统中安装Docker Desktop需先配置WSL2作为后端引擎。WSL2采用优化的Linux内核,可提升容器兼容性和性能。安装时若通过PowerShell命令"wsl --install"失败,可能是网络问题导致(错误代码0x80072ee7)。此时可直接通过Microsoft Store下载安装Windows Subsystem for Linux组件,无需依赖命令行安装。(98字)

2025-07-04 13:31:37 147

原创 SecureCRT 会话记录保存

在SecureCRT中开启自动记录功能,进入"Options" → "Session Options" → "Log File"。建议选择"Append to file"避免覆盖旧记录,或勾选"Unique filename"生成带时间戳的文件名。对于敏感信息,可在"Global Options" → "General" → "Configuration Paths"设置加密密码。连接会话后,通过右键点击会话窗口选择"Log Session"开始记录。停止记录时再次右键选择"Stop Log"。

2025-07-04 12:54:23 1419

原创 用Docker 安装 Xinference 和 rerank 模型部署 并在 Dify 中添加

本文介绍了使用Docker安装和配置Xinference推理框架的完整流程。首先通过docker version和hello-world测试Docker环境,然后从阿里云镜像仓库拉取Xinference镜像并运行容器(端口9998)。确认容器状态后,可通过浏览器访问Web界面。文章还详细说明了如何在Xinference中配置rerank模型,包括选择模型来源、下载方式(CPU/GPU)以及检查下载日志。最后提供了防火墙端口放行等常见问题的解决方法。整个过程涵盖从环境准备到模型部署的关键步骤。

2025-07-04 11:31:37 1435 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除