小白PVE安装以及windows11核显直通记录(零刻eq14)

非教程    非教程    非教程

前言

这里只是记录下自己装pve以及windows11核显直通的过程,仅为自己记录使用,大佬勿喷。

最开始使用docker跑青龙面板,由于没有多余的机器,遂在拯救者y7000p2020h的机器上装了docker,每天手动执行一次。由于拯救者机器显卡出现问题,时不时抽风屏幕卡死,国补刚开始时入手了机械革命耀世15pro,目前作为主力机。迷你主机这个品类关注了很久但一直没有下手,想着可以将docker部署在迷你主机上7×24开机运行。在入手零刻eq14前,从百元n100到千元6600H都关注了个遍,本着勤俭节约(没钱)的原则,正好手上有多余的ddr4,首发入手了零刻eq14(n150)准系统版本。

最开始未了解pve(proxmox virtual environment),但在关注迷你主机的时候经常刷到all in one的玩机贴,软路由黑群晖肥牛windows通通一机搞定,想着折腾一下吧。由于还在上学,因此之前也没有接触过软路由、群辉等,没有这方面的需求。刚拿到零刻eq14,测试了一下性能后,便开始跟着教程装pve了。这里参考了许多大佬的教程,感谢恩山、佛西、爱折腾的老高,大鹅体验等。


正文

由于都是零刻n系列迷你主机,因此装pve的教程参考了b站up主大鹅体验大鹅体验的个人空间-大鹅体验个人主页-哔哩哔哩视频的相关教程。

大致流程如下

安装PVE
  • 进入proxmox官网下载pve iso,这里我下载的当前最新版本8.3-1(2024.11.26)。个人小建议,如果和我一样是小白的话还是按照教程的版本来,新版本可能会出莫名其妙的问题。

  • 刷bios,这里由于我和教程的机器不一样,因此没有刷,且问了客服出厂是最新的bios。这里刷bios的目的是后续使用up提供的vbios,用于核显直通。

  • 使用rufus软件将pve镜像刷写到u盘(我使用的是零刻赠送系统u盘),刷好后插入零刻usb口狂按F7进入bios,选择u盘启动,即装PVE系统(这里可分配ip地址以及登陆密码等)。装好后就可以不用显示器了。

  • 进行PVE设置,这里主要进行修改下载源,仓库源等,进行分区合并等让PVE变得更好用。

安装windows
  • 安装windows需要ISO镜像和virtio镜像。virtio驱动主要提高io性能,然虚拟机更接近物理硬件的性能。

  • 安装win11算是很简单,刚开始无法联网,跳过联网激活,随后进去后添加虚拟网卡即可。接着设置静态ip、开启远程桌面等

核显直通

这是最折腾的地方,我在这里花了两天左右。由于教程中提供了n100.rom。我的机器和教程中机器不一样,按照教程走开不了机,在后续各种查阅资料后发现n100.rom文件是核显bios,我这是n150,刚出来想必大家都没有,那可以自己提取,又是小半天查找资料,网上有教程提取核显vbios,比如使用

echo 1 > rom
cat rom > /tmp/vbios.rom
echo 0 > rom

会出现权限不足或者input/output error,且提取出来的vbios为0kb。

还可以使用一些工具提取,总之方法是有的,这里就是一个难点。后来我是用了gangqizai大佬的12-14代rom包,我猜这是一个整合包,抱着试一试的态度。结果成功了,在显示器直接输出虚拟windows的画面激动不以。

后续

后续用了一会核显直通的windows感觉索然无味,主要旁边就是主力机+显示器。这个机器没有用武之地,可能唯一有点就是轻度办公功耗低一点,但这可是工位(狗头

由于我是在工位自己用路由器,固定的ip,后来想了想如果我要把迷你主机带到别的地方,那岂不是要重新配置网段,且换了网络环境后,如何知道自己的ip地址,核显直通的情况下pve怎么登陆管理界面呢(mark pve无线登陆),一度想着pve有啥用,不如直接装win吧。后来重启了下试试发现还是pve启动后连接显示器还是可以显示ip的,只是后续要重新设置一下。

下面准备玩一玩openwrt,暂且写到这里。

### Proxmox VE 8.3 Integrated Graphics Passthrough Configuration Guide In Proxmox VE 8.3, configuring integrated graphics (IGPU) pass-through involves several steps to ensure that the GPU is properly assigned and functional within a virtual machine environment. This process requires careful attention to system compatibility and configuration settings. #### Prerequisites Before proceeding with IGPU passthrough, verify that hardware supports IOMMU (Intel VT-d or AMD-Vi). Ensure these features are enabled in BIOS/UEFI firmware settings[^4]. Additionally, confirm that the host operating system kernel includes necessary modules for device assignment (`vfio-pci`, `kvm-intel`). #### Host System Preparation Modify GRUB parameters to enable Intel IGD support by editing `/etc/default/grub`. Add specific options ensuring proper initialization of integrated GPUs during boot: ```bash GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on i915.enable_gvt=1" ``` After updating this file, regenerate grub configuration files using: ```bash update-grub ``` Reboot the server after making changes so they take effect. #### VM Configuration Adjustments Create or modify an existing KVM-based guest where you intend to use passed-through graphics resources. Within Web UI navigate through relevant sections adjusting following properties as needed: - **Machine Type**: Select Q35 chipset which offers better PCI express capabilities. - **CPU Settings**: Choose appropriate model supporting nested paging; consider models like `-host,-hypervisor`. For direct access control over physical devices add lines similar below into respective `.conf` file located under `/etc/pve/qemu-server/<vmid>.conf` path replacing placeholders accordingly: ```plaintext args: -device vfio-pci,host=00:02.0,id=vfio0,bus=pci.0,addr=0x2 \ -set device.vfio0.x-vga=on \ -set device.vfio0.msi=off ``` Here `00:02.0` represents BDF address identifying onboard video adapter on motherboard used here exemplarily – actual value may differ depending upon individual setup specifics. Ensure also enabling UEFI firmware instead of legacy BIOS mode when creating new guests since some modern graphic cards require it functioning correctly post-passing operation completed successfully. Finally apply all modifications made then start targetted instance verifying everything operates expectedly including display output redirected towards connected monitor(s). --related questions-- 1. What other types of hardware can be directly assigned via VFIO in Proxmox? 2. How does one troubleshoot common issues encountered while setting up GPU passthrough? 3. Can multiple GPUs be simultaneously passed through different VMs running concurrently inside same PVE node? 4. Is there any performance impact observed from passing through integrated versus dedicated discrete GPUs?
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值