By accessing the website and accepting the Cookie Policy, you agree to use the cookies provided by the Site in accordance with to analyze traffic, remember your preferences, and optimize your experience.

分类 - PVE

PVE    2023-12-08 15:04:59    478    0    0

方案是用zfs做raid0,并且把zfs作为proxmox的根文件系统。那现在问题就来了,想实现这一套方案的话,安装proxmox就只能用iso来装了,但是这机器没有ipmi,咋办呢?

好在kimsufi后台还提供了一个基于debian的救援系统!我们可以在这个救援系统里面安装kvm然后把硬盘直通给虚拟机来安装proxmox。这里就记录一下折腾的过程。

首先登录到kimsufi的后台,把这个监控关了:

这里说下为啥要把这个关了,因为如果你开着这个,到时候装系统要是配置哪里出了问题导致机器网络不通的话,你在后台执行硬重启会卡很久,因为它这个监控会ping你的机器ip,如果不通的话就会卡很久才有反应,很浪费时间,所以这里先关了,后面等配置全部好了后再打开。

接着点右上角的Netboot,在里面选择Rescue,然后点Next:

点Confirm:


再点右上角的Restart执行硬重启,等待片刻,邮箱里面会收到救援系统的ssh登录ip/账号/密码。

登录到救援系统内,首先查看硬盘的基本情况:

lsblk

可以看到之前系统做了raid1:


查看阵列状态:

mdadm --detail /dev/md127

可以看到这个阵列当前正在工作:

我们需要先停止这个阵列:

mdadm --stop /dev/md127

然后删除两块硬盘的分区表:

wipefs -a /dev/sda
wipefs -a /dev/sdb

在这个救援系统内查看机器的公网ip,并记录备用:

ip a

回显类似:

eth0:...
  link/ether ...
  inet xx.xx.xx.xx ...

查看网关ip:

ip route list

回显类似:

default via xx.xx.xx.xx dev eth0

查看dns:

cat /etc/resolv.conf

回显类似:

nameserver 213.186.33.99

查看机器的ipv6地址:

ip -6 a

回显类似:

查看机器的ipv6网关:

ip -6 route list

回显类似:

kimsufi的网站上虽然标明每台机器只有/128的ipv6,但实际可用应该是/64,为了后续的步骤能够正常进行,这里先简单检查一下机器到底能用多少个ipv6,可以先往机器的主网卡接口添加一个ipv6测试:

ip addr add 2001:41d0:x:xxxx::2/128 dev eno1

在别的机器上能p

2023-12-08 15:04:59    199    0    0

今天新装了台pve设备,发现安装ufw后小鸡无法正常联网及解析域名,后来尝试调整UFW配置文件,解决了这个问题,具体方法如下:

在PVE母鸡编辑UFW配置:

nano /etc/default/ufw 

DEFAULT_FORWARD_POLICY="DROP"改为DEFAULT_FORWARD_POLICY="ACCEPT"

更改默认的策略,允许UFW接受网络转发数据包

2023-12-08 15:04:59    180    0    0

本环境为刚搭建的空环境,未创建VM,已配置CEPH存储。上图箭头所指就是要修改的名字。

1、安装WinSCP,WinSCP登陆两台节点(或者SSH登陆,使用VI编辑器修改)

分别修改下方四个文件里的主机名并保存,推荐使用Notepad3编辑器(勿用记事本修改)。

/etc/hostname 
/etc/hosts
/etc/postfix/mail.cf
/etc/pve/corosync.conf
2023-12-08 15:04:59    141    0    0

首先在待隔离节点上停止 pve-cluster 服务:

systemctl stop pve-cluster.service
systemctl stop corosync.service​

然后将待隔离节点的集群文件系统设置为本地模式:

pmxcfs -l​

接下来删除 corosync 配置文件:

rm /etc/pve/corosync.conf
rm -rf /etc/corosync/*

最后重新启动集群文件系统服务:

killall pmxcfs
systemctl start pve-cluster.service​

重启pveproxy服务

systemctl restart pveproxy


2023-12-08 15:04:59    250    0    0

可以使用pct工具直通lxc容器内,进行操作:

#List all lxc container:
pct list
#Enter into a container (without password)
pct enter <VMID>

或使用lxc-attach命令

lxc-attach <VMID>


2023-12-08 15:04:59    60    0    0

最近在配置zfs RAM Cache 大小时,不小心在/etc/modprobe.d/zfs.conf文件中多输入了一行换行,导致重启后服务器无法正常载入ZFS模块,进不去系统了。

查了好久资料,以下为具体的操作记录:

 

根据错误提示,找到相关的配置项目,并排除错误配置

这里直接删除/etc/modprobe.d/zfs.conf这个文件

rm -rf /etc/modprobe.d/zfs.conf

 

重新手动载入ZFS模块,并装载硬盘上的rpool存储池

modprobe zfs
zpool import -N rpool
成功后ctrl+dexit继续开机(有可能提示有多个rpool,可以zpool import看一下id,然后zpool impot id -N导入)
 

修改存储中的错误配置文件

成功引导系统,登录账号后,将错误配置修改
由于这里涉及修改zfs.conf文件,修改后需要手动更新下:
update-initramfs -u

更新grub:

update-grub

重启,系统恢复正常。

 

PVE Proxmox ProxmoxVE    2023-12-08 15:04:59    325    0    0

为保证数据安全,在进行调整前建议对LXC容器先进行备份

风险点:目前使用此方法对硬盘缩减后,无法正常创建快照、备份失败的问题,请谨慎操作

运行环境

环境都是在 Proxmox VE 虚拟系统上架设,都是以 LXC 模式为主,除非有特殊状况会告知使用 VM 模式
系统环境: Proxmox VE 7.2

缩减过程

1、通过命令行接入到 PVE 主机,列出 zfs 清单确认 lxc 容器存储路径,此处我们拿编号200的lxc容器进行演示

zfs list


2、对指定 LXC 存储空间进行缩减,原本 800G 要缩减成 300G

zfs set quota=300G rpool/data/subvol-200-disk-0
zfs set refquota=300G rpool/data/subvol-200-disk-0

 

3、修改指定 LXC 的配置文件 vim /etc/pve/lxc/200.conf

# 修改前
rootfs: local-zfs:subvol-200-disk-0,size=300G
# 修改後
rootfs: local-zfs:subvol-200-disk-0,size=300G

注意:如果进行缩减操作时,lxc还在运行中,则在修改后,需要手动重启容器


4、最后启动 LXC 容器确认是否可以正常运行,使用 pct enter 200 进到容器中,确认总空间是否已经缩减至 300G

 

完美!接下来,要开始继续缩减另一台空间为8T的lxc容器啦~

 

参考链接:

https://wiki.freedomstu.com/books/proxmox-ve-%E8%99%9B%E6%93%AC%E7%B3%BB%E7%B5%B1%E8%A8%98%E9%8C%84/page/lxc-WDA