Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
lab:lab-proxmox [2022/07/01 14:04] – [Stockage] celo | lab:lab-proxmox [2022/07/04 13:55] (Version actuelle) – [Utilisateurs] celo | ||
---|---|---|---|
Ligne 7: | Ligne 7: | ||
Pour cette installation de Debian, j'ai utilisé l'ISO net-install de Debian. On peut tout décocher sauf SSH (ou installer tout de même les utilitaires système si on le souhaite). | Pour cette installation de Debian, j'ai utilisé l'ISO net-install de Debian. On peut tout décocher sauf SSH (ou installer tout de même les utilitaires système si on le souhaite). | ||
- | Pour le moment, je mets de côté le chiffrement | + | Pour le moment, je mets de côté le chiffrement |
- | Il faut mieux pour le partitionnement utiliser un systeme | + | Pourquoi XFS plutôt que BTRFS qui supporterait directement |
- | Rappel des systèmes de fichiers et de ce qu'ils permettent dans Proxmox ici : https:// | ||
===== Configuration du réseau ===== | ===== Configuration du réseau ===== | ||
Ligne 194: | Ligne 193: | ||
On peut authoriser un autre utilisateur à se connecter à l' | On peut authoriser un autre utilisateur à se connecter à l' | ||
+ | |||
+ | ===== Utilisateurs | ||
+ | |||
+ | Les utilisateurs PAM sont les utilisateurs Gnu/Linux des machines Proxmox. Un même utilisateur peut donc avoir un mot de passe différent selon le node. | ||
+ | |||
+ | Les utilisateurs PVE sont stockés dans la configuration du cluster Proxmox et sont les mêmes sur toutes les machines du cluster. | ||
===== Configuration du NAT pour les machines virtuelles | ===== Configuration du NAT pour les machines virtuelles | ||
Ligne 552: | Ligne 557: | ||
Il est possible de la désactiver dans les options des VM... mais c'est très très très lent... | Il est possible de la désactiver dans les options des VM... mais c'est très très très lent... | ||
- | Bref, il me faut utiliser une machine qui supporte la virtualisation KVM pour vraiment pouvoir tester dans de bonnes conditions... | + | <del>Bref, il me faut utiliser une machine qui supporte la virtualisation KVM pour vraiment pouvoir tester dans de bonnes conditions...</ |
+ | |||
+ | En fait mon processeur supporte bel et bien la virtualisation KVM (l' | ||
==== VM versus conteneurs ==== | ==== VM versus conteneurs ==== | ||
Ligne 586: | Ligne 593: | ||
</ | </ | ||
- | A l' | + | === Snapshot |
- | Si les machines ont un second disque dur, ce stockage ne peut pas non plus être utilisé facilement | + | Une page dans la documentation de Proxmox indique |
+ | |||
+ | Un formatage en XFS comme je l'ai fait ne permet les snapshots que pour les VMs (et moyennant que leur disque soit au format qcow2) et non les conteneurs car le storage local est configuré avec le type " | ||
+ | |||
+ | Si l'on souhaite pouvoir prendre des snapshot des conteneurs, ceux-ci doivent | ||
+ | |||
+ | Un pool ZFS séparé permet aussi de configurer la réplication. | ||
+ | |||
+ | La réplication n'est pas de la HA, c'est une copie à intervals réguliers (définis | ||
+ | |||
+ | On peut créer | ||
+ | |||
+ | === Déplacement des machines entre les Proxmox === | ||
+ | |||
+ | A l' | ||
+ | |||
+ | Si les machines ont un second disque dur, celui-ci n'est accessible que localement et les VMs ou CT dont les volumes sont dessus peuvent difficilement être migrés. | ||
On peut néanmoins définir un espace partagé entre les proxmox en utilisant un partage réseau (NFS, CIFS, ISCUSI) ou en utilisant CEPH sur des disques physiques. | On peut néanmoins définir un espace partagé entre les proxmox en utilisant un partage réseau (NFS, CIFS, ISCUSI) ou en utilisant CEPH sur des disques physiques. | ||
- | Et dans la doc Proxmox : https:// | + | Voir la doc Proxmox : https:// |
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
- | **TODO : A tester aussi : la réplication (remplace en partie ou juste un backup ?).** | ||
==== Configuration réseau pour la gateway ==== | ==== Configuration réseau pour la gateway ==== | ||
Ligne 618: | Ligne 646: | ||
==== Difficulté d' | ==== Difficulté d' | ||
- | Je rencontre des difficultés | + | Penser |
< | < | ||
Ligne 625: | Ligne 653: | ||
</ | </ | ||
- | La solution que j'ai trouvé pour le moment | + | ===== Backup avec Proxmox Backup Server ===== |
+ | |||
+ | L'installation d'un Proxmox Backup Server est similaire à celle d'un Proxmox. | ||
+ | |||
+ | On peut partir d'une ISO mais aussi installer | ||
+ | |||
+ | Ici aussi, il est nécessaire | ||
+ | |||
+ | < | ||
+ | screen | ||
+ | apt install ifupdown2 && ifreload -a | ||
+ | </ | ||
+ | |||
+ | On édite aussi le fichier ''/ | ||
+ | |||
+ | Puis on ajoute la clé Proxmox Backup Server et les dépôts dans ''/ | ||
+ | |||
+ | < | ||
+ | # PBS pbs-no-subscription repository provided by proxmox.com, | ||
+ | # NOT recommended for production use | ||
+ | deb http:// | ||
+ | </ | ||
+ | |||
+ | On télécharge la clé de Promox : | ||
+ | |||
+ | < | ||
+ | apt install wget gpg | ||
+ | # wget https:// | ||
+ | </ | ||
+ | |||
+ | Et on installe le PBS : | ||
+ | |||
+ | < | ||
+ | install proxmox-backup | ||
+ | </ | ||
+ | |||
+ | Il existe aussi un paquet '' | ||
+ | Le paquet '' | ||
+ | |||
+ | Une fois le PBS installé, la configuration des Backup peut être faite en suivant ce tutoriel : https:// | ||
+ | |||
+ | Globalement, | ||
+ | |||
+ | Il faut cependant dédier un disque entier pour le pool ZFS du Datacenter. Ce peut-être un disque branché en USB. | ||
+ | |||
+ | La restauration des VMs se fait depuis les Proxmox qui sont " | ||
+ | |||
+ | On peut restaurer sur popmox une vm qui était sur proxcorn et vice versa. Ca fonctionne bien. | ||
+ | |||
+ | |||
+ | ===== Installation | ||
+ | |||
+ | On installe CEPH sur chacun des deux Proxmox : | ||
+ | |||
+ | < | ||
+ | pveceph install | ||
+ | </ | ||
+ | |||
+ | Sur l'un des Proxmox (ici popmox), on initialise le cluster ceph : | ||
+ | |||
+ | < | ||
+ | root@popmox: | ||
+ | </ | ||
+ | |||
+ | Sur chacun des Proxmox, on crée les moniteurs et les managers : | ||
+ | |||
+ | < | ||
+ | pveceph mon create | ||
+ | pveceph mgr create | ||
+ | </ | ||
+ | |||
+ | Sur le premier Proxmox, le manager est créé en même temps que le moniteur. | ||
+ | |||
+ | < | ||
+ | root@popmox: | ||
+ | unable to get monitor info from DNS SRV with service name: ceph-mon | ||
+ | creating new monitor keyring | ||
+ | creating / | ||
+ | importing contents of / | ||
+ | monmaptool: monmap file / | ||
+ | monmaptool: generated fsid fa0ee8c7-43f0-480f-bd9e-0bc3710b8b10 | ||
+ | epoch 0 | ||
+ | fsid fa0ee8c7-43f0-480f-bd9e-0bc3710b8b10 | ||
+ | last_changed 2022-07-01T14: | ||
+ | created 2022-07-01T14: | ||
+ | min_mon_release 0 (unknown) | ||
+ | election_strategy: | ||
+ | 0: [v2: | ||
+ | monmaptool: writing epoch 0 to /tmp/monmap (1 monitors) | ||
+ | created the first monitor, assume it's safe to disable insecure global ID reclaim for new setup | ||
+ | Created symlink / | ||
+ | creating manager directory '/ | ||
+ | creating keys for ' | ||
+ | setting owner for directory | ||
+ | enabling service ' | ||
+ | Created symlink / | ||
+ | starting service ' | ||
+ | root@popmox: | ||
+ | ceph manager directory '/ | ||
+ | </ | ||
+ | |||
+ | Sur le second Proxmox, on tape les deux commandes. | ||
+ | |||
+ | Puis on créé les OSD qui sont des unités de stockages de CEPH : | ||
+ | |||
+ | < | ||
+ | pveceph osd create /dev/sdX | ||
+ | </ | ||
+ | |||
+ | Pour que CEPH puisse fonctionner correctement en cluster, il faut que tout le cluster ait la même heure. On installe timesyncd qui est uniquement la partie cliente (à la différence de ntpd qui est aussi un serveur). | ||
+ | |||
+ | < | ||
+ | apt install systemd-timesyncd | ||
+ | </ | ||
+ | |||
+ | Sur l'une seule des machines, popmox à nouveau, on créé le pool de stockage auquel on ajoute les OSD créés : | ||
+ | |||
+ | < | ||
+ | pveceph pool create popceph --add_storages | ||
+ | </ | ||
+ | |||
+ | CEPH procède par placements de groupes (voir ici : https:// | ||
+ | |||
+ | Un calculateur en ligne permet de définir les nombres adéquats selon la situation : https:// | ||
+ | |||
+ | Mais on peut plus simplement définir un fonctionnement automatique avec la commande : | ||
+ | |||
+ | < | ||
+ | ceph osd pool set popceph pg_autoscale_mode on | ||
+ | </ | ||
+ | |||
- | Ca devrait pourtant pouvoir se faire dans l' |