![](/style/images/good.png)
![](/style/images/bad.png)
聊聊 esxi 和 pve 家用场景哪个更有优势
source link: https://www.v2ex.com/t/826802
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
pve 除了直通简单一点,还有什么优势么。pve 一直没怎么玩懂,感觉设置上面要比 esxi 复杂。
目前家用 esxi 下跑的是
爱快:主路由
op:科学
server2016:3 块 8T ,做一些资料和电影的存储 smb ,emby+数据库的学习+有时候远程进来查点资料+工作文件夹 rsync 家服务器公司云服务器 3 地同步
freenas:3 块 4t ,zfs 重要文件的存储,qt ,nfs 共享
debian:docker+学习用
整体用下来还是挺舒服的,esxi 给 server2016 直通了 3 块 8t ,1 个网口直通,爱快直通 2 个,freenas 直通一个。3 块 4t 。
最近想尝试一下 pve ,在独服上整了半天也没整明白。
geekvcn 2 天前 via iPhone 1
小白老实 Esxi ,会操作的 PVE 和 Esxi 不是一个层面的东西,吊打 Esxi 的同时还免费
duzhor 2 天前
esxi 是 vmware 家闭源商业项目,硬件兼容差但稳定。
我个人更喜欢 PVE ,也一直用的 PVE ,对我来说也足够稳定,生命在于折腾。
不太建议你这样的 ALL BOOM 方案,估计没老婆孩子,折腾出一点问题,影响刷抖音有够你受的,至少 ikuai+op 要足够稳定剥离出来,保障网络不影响家人,其他的自己随便折腾。
qazsewong 2 天前
父母家 PVE ( J1900 ) ikuai+jike+win10
自己家 EXSI(E3 1256Lv3)。ikuai+jike+win10+debian+openwrt
母鸡基本上不会蹦
geekvcn 2 天前 via iPhone 5
hjahgdthab750 2 天前
loy23 2 天前 1
loy23 2 天前
nbweb 2 天前
家里两台 nas ,一台四盘位,一台二盘位,都是自己组装的。
四盘位的是 esxi ,两盘位的是 pve
整体感觉,pve 要好过 esxi 。pve 可折腾的范围大,就是操作稍麻烦一点,熟了也一样。esxi 小白比较适合,但 esxi 对硬件支持并不怎么好,特别是消费类的硬件,老是没有驱动。
个人建议上 pve 。
bitllion 2 天前
loy23 2 天前
nbweb 2 天前
1 ,pve 直通核显接锁你,播放 4k 除了 cpu 占用高一点外,是可以硬解的,这个没有问题,亲测。如果码率很大估计够呛。
2 ,我一直用的百兆有线接电视的,基本是没有问题的。我家都是六类线,千兆内网可以跑满的,很少遇到卡的。kodi 安装最新的 19.3 ,19.3 支持杜比视界了。如果是杜比视界的片源,能点亮。
3 ,我这个小主机,主板是笔记本样子的,噪音很小,基本听不到。i5-7200U 好像是 15w 的 tdp 。扔在电视柜角落里看不见。
locoz 2 天前 2
locoz 2 天前
@xlsepiphone #22
服务器本质上也还是一台电脑,只不过硬件选择了更可靠的产品而已,噪音大不大全看用的风扇和机箱是什么样的。如果把主要硬件塞进一个普通的静音全塔机箱里,并且风扇全用猫头鹰之类的静音风扇,那它就是一台安静的电脑。
loy23 2 天前
2i2Re2PLMaDnghL 2 天前
说个冷笑话,兼容性问题没遇到就是没遇到,遇到了就是遇到了,没有好坏之说(
aureole999 2 天前
ericbize 2 天前
只能给你说,学习成本有点高,
如果是自己家里玩的话,我觉得 exsi 就好了
pve 真的出问题了,要维护难度还是有点高的
兼容性的话,没什么问题,反正 exsi 的虚拟机迁移到 pve 能拉起来,打个驱动就行
11ssss 2 天前
msg7086 2 天前 1
以前 ESX 是在 Linux 系统里启动自己的内核。
ESXi 就是 ESXi ,不是 Linux ,也不包含 Linux 内核,只有一些移植自 Linux 的驱动。
内核是自研的 VMkernel ,文件系统是 VMFS 。
@loy23
建议无脑 PVE 。
我以前是做 VMware 二次开发的,受够了他家的屎山,自己家用的话绝对不会碰。
一定要用的话,请用兼容硬件列表上的企业级硬件,并且配备 UPS 。
我们以前最头疼的就是客户机房服务器断电以后虚拟机无法启动的问题。
nuk 1 天前
不想折腾就 esxi ,怕数据丢可以 iscsi 远程存储,我一般个人用的虚拟机放 esxi ,跑服务的虚拟机放 FreeBSD 的 bhyve 里,手动给 vdev 做 snapshot 。
nbweb 1 天前
又用 kodi 播放了一下,也是完美流畅,看了一下进度条,缓冲始终在播放条前面,一点卡顿也没有。
avastms 1 天前
唯一出过幺蛾子的是因为 smbd 的 bug 把磁盘 inode 占满了。
之前 esxi 也搞过,易用性很强,在一般企业环境下很省心,家用没 san 阵列啥的东西的话根体验不到这些好处。
mritd 1 天前 via iPhone
zhouzm 1 天前
1. 在主机上全屏浸润式操作 windows vm
需求:kvm 的 windows 虚拟机,可能开机也可能关机状态,现在希望在主机的 GNOME 桌面下,方便的操作 windows 。
最终实现效果:双击桌面图标,如果 vm 关机状态会自动启动,virt-viewer 使用 spice 自动连接 windows 并全屏
2. vm 开关机 hook script
pve 有 hookscript 功能,支持 pre-start, post-start, pre-stop, post-stop 4 个事件,可以编写扩展脚本实现 vm 对外部资源的依赖管理,例如有个 vm 需要挂载一台休眠状态的网络设备,那么可以在 pre-start 事件里发送 wake on lan 信号唤醒该设备
crazywhalecc 1 天前
adoal 1 天前
geekvcn 1 天前
限制使用核心数+指定内核:
cores: 4
cpulimit: 4
lxc.cgroup.cpuset.cpus: 0,1,2,3 (指定使用处理器 0 ,1 ,2 ,3 内核)
直通硬盘:
mp0: /物理机目录 0,mp=/容器机目录 0,backup=0,replicate=0
mp1: /物理机目录 1,mp=/容器机目录 1,backup=0,replicate=0
mp2: /物理机目录 2,mp=/容器机目录 2,backup=0,replicate=0 (直接挂载硬盘 /dev 路径也行)
直通网卡:
lxc.net.0.link: enp1s0f1 (物理机网卡名 1 )
lxc.net.0.type: phys
lxc.net.1.link: enp1s0f2 (物理机网卡名 2 )
lxc.net.1.type: phys
直通显卡:
lxc.cgroup.devices.allow: c 226:0 rwm
lxc.cgroup.devices.allow: c 226:128 rwm
lxc.cgroup.devices.allow: c 4:7 rwm
lxc.cgroup.devices.allow: c 29:0 rwm
lxc.mount.entry: /dev/dri/card0 dev/dri/card0 none bind,optional,create=file
lxc.mount.entry: /dev/dri/renderD128 dev/dri/renderD128 none bind,optional,create=file
lxc.mount.entry: /dev/tty7 dev/tty7 none bind,optional,create=file
lxc.mount.entry: /dev/fb0 dev/fb0 none bind,optional,create=file
直通键鼠:
lxc.cgroup.devices.allow = c 13:* rwm
lxc.mount.entry: /dev/input dev/input none bind,optional,create=dir
直通声卡:
lxc.cgroup.devices.allow = c 116:* rwm
lxc.mount.entry: /dev/snd dev/snd none bind,optional,create=dir
直通之后 LXC 容器内需要安装对应依赖包,比如显卡声卡等
geekvcn 1 天前 1
Recommend
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK