Follow

Je me rend compte de la fragilité de l’auto-hébergement. 1 mois que mon matos est en SAV, et donc autant de temps avec du contenu qui n’est plus dispo…
Mais je ne connais pas de solution (même GAFAM) pour répliquer facilement des sites de 10Go remplis de vidéo et slides…

Je vais préciser un peu plus le besoin, vu que ce n’est pas clair pour tout le monde, et que quasiment tout le monde me fait les mêmes propositions qui ne répondent pas au problème 😂

La persistence des données est déjà réglée. Étant auto-hébergé, je n’ai même pas besoin de réplication sinon le RAID classique. Le disque est là devant moi sur le bureau (malgré qu’un des 2 est en SAV) avec les données et j’ai des backups partout de toute façon.
Donc S3, backblaze ou syncthing ne serviront à rien ici.

Le problème est de pouvoir remonter les services présentant ces données. Donc les nginx, prosody, ou autres. À la limite le non web est un non problème ici.
Il faudrait pouvoir relancer ces services ailleurs, vu que chez soi on n’a plus le matos pour (mais les données si).

Les solutions à base de stockage custom (S3 ou autres) sont aussi problématiques parce que supposent de concevoir un site spécifique (et donc certainement plus statique) pour gérer le cas du fallback.
Mes pages statiques de confs.imirhil.fr (qui est le seul service que je n’ai pas pu remonter rapidement et à coût négligeable) ne pourraient plus servir en cas de passage sur S3.

DRDB ou proxmox posent la question de l’overkill. Pourquoi réclamer 400€ de matos supplémentaire et des configs à s’arracher les cheveux pour des services qui vont être up 99.999% du temps ? Et dont le PRA se résume dans les 0.001% restant à un rsync… 🤔

Théoriquement parlant, quasiment tous mes services sont remontables avec n’importe quelle machine en 3 commandes. C’est même comme ça que je sélectionne mes softs. Si ça n’est pas possible, c’est que c’est trop compliqué pour de l’auto-hébergement.

La question est du coup plutôt de pouvoir trouver du matos/ressource à dispo auprès de la communauté pour être capable de pallier temporairement à un défaut matériel. Sans avoir à sortir la CB, sans complexité supplémentaire.

Ou encore dit autrement, dans la communauté qui fait de l’auto-hébergement, il y a forcément des ressources inutilisées quelque part. C’est moche de ne pas pouvoir s’en servir temporairement pour pallier aux problèmes d’un autre pixel 😃

Il y a @eleveurornitho1 qui vient de me faire trouver la formulation exacte de ce que je cherche.
En fait le but est de palier à une panne d’un « nœud » auto-hébergé en n’utilisant que des ressources compatibles avec l’auto-hébergement, et présentes sur d’autres « nœuds » auto-hébergés. 😊

Ou en reprenant celle de @davlgd : de l’auto-hébergement décentralisé et collaboratif 😂

Un espèce de fediverse avec un gros bouton « je suis dans la panade, t’as pas un coin de serveur pour moi » qui te permet de choper un petit coin de résal et un shell pour remonter tous tes bidons comme un grand !

@aeris en avoir deux avec le contenu synchronisé automatique avec genre un haproxy/nginx devant pour faire load-balancer/backup… y a pas 36 manières si tu veux du 24/7. C'est aussi pour ça que je préfère l'auto-hébergement en DC genre online.

@Keltounet Sans forcément avoir du 24/7, le souci est que c’est toujours en panne quand tu en as besoin 😂

@aeris ben la solution reste la même 24/7 ou pas. Pour moi, 24/7 veut dire « quand j'en ai besoin » :)

J'te dirais bien deux machine configurées de la même manière avec une jail par service plus des données synchronisées par syncthing mais t'es sous nunux… 😈

@Keltounet @aeris drbd et heartbeat c'est très efficace pour ça ... Et avec une api comme chez online tu peux faire bouger ton IP failover en cas de crash du primaire vers le secondaire et hop reprise de service instantanée (ou presque) :)

@myckeul @Keltounet Infomaniak n’a pas encore d’API pour leur DNS. Mais comme il est hébergé chez moi, ça va 😂

@Keltounet Vu mes services, rsync suffit largement à faire tout le taff hein 😂

@sxpert Ça revient à cher en machine, mais je pense que je vais regarder pour un olimex avec un dd à côté pour ça oui.

@aeris oui comme backup ce genre de chose est suffisant. Ca permet de fournir le service en mode degradé

@Dam_ned S3 (et le stockage) n’est qu’une partie du problème. Il faut aussi pouvoir servir les données quand ton backend tombe…

@Dam_ned Le passage par S3 ne résout pas le problème que mon nginx ou équivalent est mort.
Et même s’il était vivant, il est conçu pour servir des fichiers statiques locaux. Je n’ai pas non plus envie de devoir prévoir un site spécial S3 pour chaque contenu que je publie…

@aeris @Dam_ned et quand s3 tombe la moitié d'Internet est en plus, ça passera inaperçu

@aeris

Des conteneurs LXC avec un simple btrfs send | btrfs receive vers une autre machine ?

Sachant qu'en se débrouillant un peu, tu pourrais remonter les conteneurs avec du Ansible/SaltStack et les données par réplication donc.

@aeris Quoiqu'il arrive, il te faux deux machines… même si la seconde est moins puissante ou un simple VPS. Et tu gères la bascule (IP ou DNS) à la main au pire. Dans le monde pro c'est ce qu'on fait pour les trucs les moins chers.

Si y'a du budget, on installe un cluster de 3 Proxmox, et on fait des VMs avec HA (ou réplication dans certains cas de softs qui apprécient mal la bascule (MySQL au hasard…)).

@dada @aeris eh mais ça serait une bonne idée ça...
J'avais déjà discuté de ça ici avec la possibilité de solution permettant de mutualiser nos ressources de manière sécurisée...mais techniquement je n'ai aucune idée de comment fait ça...
Et de même pour le DNS, une communauté qui mettrait à disposition ses serveurs DNS pour héberger les secondaires des autres, de manière automatisée et sécurisée

@aeris @mmu_man mets tout dans un conteneur lxc, ça a l'énorme avantage d'être transportable facilement :)

@myckeul @aeris faut vraiment que je me mette à lxc pour mon serveur perso…
mais là j'ai du docker à faire, parce que… ben parce que tout le monde utilise ça 😞

@mmu_man non non et non ! Oublie immédiatement cette idée pourrie ... Laisse les technos moisies aux gens qui ont du temps a perdre et concentre toi sur des trucs qui marchent :)) @aeris

@myckeul @aeris ben oué mais pour déployer c'est documenté avec ça et c'est pour tester pour le taf…

@mmu_man haaaa si c'est pour tester et que t'as du temps a perdre, pourquoi pas :)) @aeris

@myckeul @aeris à perdre pas trop, avec un peu de chance, à facturer :D

@myckeul @aeris sinon faudrait que je mette à jour mon script dev-perso pour gérer les conteneurs correctement déjà…
git.haiku-os.org/haiku/tree/3r

@aeris En fait tu voudrais 10Gb à dispo h24 en réseau mais avec des contraintes ? le débit peut-être ? ^^

@aeris dans les faits je peux te livrer une VM sur mon NAS en 5 minutes, le problème c'est mettre en place un machin pour pouvoir partager mon ip public les ports que j'utilisent avec tes besoins, la solution serait peut-etre des ips public fournit par un op de la ffdn montable par vpn. Ca commence a etre compliqué. La solution est surrement de l'ip v6, car je peut potentiellement t'en attribué une public chez moi faut que je creuse la question.

@aeris @hugopoi j'suis sûr qu'avec HAProxy en mode TCP et des ACL bricolées on peut s'en sortir…

@breizh avec haproxy tu peux gérer du routage de SNI en mode virtualhost ?

@hugopoi Pour être sûr de pas avoir de quiproquo : si tu parles de la gestion de certificats SSL différents en fonction du Host renseigné en HTTP, alors oui. Très facilement même :

```
frontend https
bind *:443 ssl crt /chemin/du/dossier/contenant/tous/les/certificats/
```

Tu peux évidemment donner plusieurs dossiers, ou expliciter le chemin de chaque certificat. Les certificats doivent être tout en un (clef privée + certif + intermédiaires), et unique en fonction des alternate name (ne pas laisser traîner les vieux certifs, parce que HAProxy prends le premier qu'il trouve qui correspond au FQDN demandé, valide ou non).

@breizh ok c'est bien ce que je voulais savoir mais es que ça gère sans que haproxy gere les certificats mais la partie SNI ? car avec la config la ça veut dire que haproxy gère toute la partie TLS

@hugopoi Tu voudrais que le SNI marche sans que HAProxy gère le TLS ? Je suppose que c'est faisable, mais bon, c'plus simple de dire à HAProxy de gérer tout le TLS, ça juste marche.
Show more

@aeris

Il me semble qu'il y a/avait des solutions de backup partagés entre personnes.
Il y a peut être moyen de monter un truc pareil pour exposer un serveur au web

@aeris Salut, je peux te proposer des containers LXC sur ma petite infra Proxmox avec une ou deux IPv4 publique dédiée si c'est temporaire et environ 10 Go (ou plus si je remonte le 3ème node) comme stockage, ça t'intéresse ?
Sur connexion VDSL 100 Mb/s - 25 Mb/s

@aeris
Un IP failover que tu puisse balancer comme tu veux sur un host ou un autre, chaque host étant hébergé par la commu ? Avec un peu d'automatisation du bouzin quoi ?

@aeris C'était pas le leitmotiv de chatons.org justement ?

@Grompfus Oui et non.
Spa prévu du tout pour servir de fallback temporaire à un gens $random.

@aeris Ah ben oui, super, on ferait des round-trips en HTTPS pour indiquer au reste du monde combien d'espace disque et de bande passante on aurait pu partager :P

@aeris La communauté… moi je t'offre 10 % des ressources de mon serveur.

Par contre c'est un Raspberry Pi 😂
Sign in to participate in the conversation
Mastodon

PARCE QUE C’EST MON INSTANCE !