proxmox: ssd? hdd? RAID1? Consumer vs. datacenter Platten?

the other

Well-known member
Moinsen,
ich spiele gedanklich immer wieder mal den Aufbau eines proxmox Servers durch...
In diversen Beiträgen im Netz wird berichtet, dass bei der Wahl des Speichers für proxmox (VMs auf separaten Platten)...
...a) zu ssds gegriffen werden soll (weil fluppiger als hdd)
...b) diese ssd(s) dann möglichst im RAID (1, MIrror) laufen sollte( n)
...und c), dass hier nach Möglichkeit KEINE consumer Platten genutzt werden sollten (für den produktiven Einsatz), sondern (wegen der hohen Schreiblast und der damit verbundenen Belastung) eher zu datacenter Platten gegriffen werden sollte.

Frage:
- nutzt ihr ssds oder hdds für proxmox selber?
- welche datacenter ssd (Kapazität so ca. 200 bis 500 GB) ist da wohl zu empfehlen? Muss es "ganz professionell" sein? Reichen zb WD Ultrastar?
- habt ihr Empfehlungen für (bezahlbare) datacenter ssds?

Danke für den Input... :)
 
- nutzt ihr ssds oder hdds für proxmox selber?
Sowohl als auch aka "Kommt darauf an..." 😜😁

- welche datacenter ssd (Kapazität so ca. 200 bis 500 GB) ist da wohl zu empfehlen?
Das ist wohl eher eine Sache der persönlichen Vorlieben.

Die Frage wäre initial erstmal: Willst Du alles "beisammen" haben, oder "getrennt"? Ich lasse das OS i.d.R. im Raid1 laufen (SATA-SSD (Enterprise)) und die VMs halt "je nachdem". Fakt ist erstmal, dass die besseren Platten auch relativ vernünftige Werte (Preis/Leistung) haben, was die Datenübertragung angeht (200-250MB/s sind da schon drin). Wesentlich problematischer sind hier die IOPS. Nun kommt es aber auch auf das zu virtualisierende an. Wenn es nur um Applikationen geht (und garnicht mal so sehr um Speicherplatz), dann ist die Tendenz klar in Richtung SSD. Frage wäre hier allerdings, was es denn da nun sein darf (SATA, M.2, U.2, U.3). U.2 und U.3 sind etwas neuer, haben eine brachiale Leistung bzgl. der IOPS (1+Mio) und sind eher was für den Enterprise-Sektor, wobei man sich sowas auch schon mit ein paar Kleinteilen in einen Desktop packen kann, meiner Meinung nach aber für Zuhause deutlich oversized.

Die M.2-SSDs haben für mich i.d.R. viel zu geringe TBW-Werte, für Zuhause könnte sowas aber auch passen (da gibts auch mehr Durchsatz und IOPS (PCIe) als mit den SATA-SSDs). Wenn auf einer SSD gleichzeitig zig VMs rumrödeln, können diese schon mal vorzeitig das zeitliche segnen, gleiches gilt für die Consumer-SATA-SSDs. Die Enterprise-SSDs (je nach Workload - "read-intensive" oder "mixed-use" - letztere sind dann etwas kleiner vom Speicher) bieten zumindestens in der mixed-use-Variante eine wesentlich höhere TBW. Allerdings - wer hätte es gedacht - kosten die halt auch entsprechend.

- habt ihr Empfehlungen für (bezahlbare) datacenter ssds?
Naja... "schwierig"... kommt wohl auf die Definition von "bezahlbar" an 😁 Vor allem wäre die grundsätzliche Fragen sowieso erstmal, wieviel (lokalen) Speicherplatz Du überhaupt angedacht hast. Ich persönlich setze seit Jahren nur auf Intel bzgl. der Enterprise-SSDs, zuletzt gekauft habe ich ein paar D3-S4620 in der 3.84TB-Variante, kostet allerdings auch einen schmalen Taler.

Auf der anderen Seite... Es "muss" ja auch kein Enterprise sein. Denke irgendwas vertretbares "günstiges" (wo die Werte halt nicht total unterirdisch sind) sollte ja auch passen (vor allem, wenn nicht superviel läuft/rödelt). Dann halt die SMART-Werte im Blick behalten und ruhig vorzeitig tauschen. Wenn es nicht eilt und ggf. ein Tag Verlust auch egal ist... Dann ist es auch egal... Ab in den nächsten Mediamarkt (oder so), neue SSD holen, einbauen, Backup zurückspielen, fertig.

Frage wäre wohl grundsätzlich erstmal, was Du "zwingend" an Storage brauchst und was "on top" soll für Spielkram (bissken Reserve schadet ja auch nie). Also insofern wäre erstmal zu schauen, wie der konkrete Platzbedarf aussieht, dann schauen, was definitiv dort laufen soll + Spielwiesenplatz + ein bisschen Reserve.

Dazu halt noch die Frage, ob das ganze auch im Raid1 laufen soll (kostet ja auch direkt mal das doppelte)...

Mal so "ganz alternativ" gäbe es natürlich auch noch die Möglichkeit, dass Du in Dein NAS 4x Enterprise-HDDs wirfst, dem ganzen 10Gbit verpasst und das NAS als Storage für den PVE-Host nutzt. 10G wirst Du da sicherlich nicht voll ausreizen können, aber so ganz ohne ist es ja auch nicht. Allerdings sind die IOPS dann wieder so ein Thema, von daher ist das NAS im aktuellen Zustand vielleicht auch eher für Backups der VMs geeignet.

Wenn Du die Möglichkeit hast mehrere M.2-SSDs zu verbauen (oder halt das OS einfach auf eine kleine SATA-SSD), dann käme evtl. z.B. eine Samsung PM9A3 in Frage, als M.2-Variante (PCIe 4.0), 1.92TB und preislich so um die 350€ (1TB liegt noch immer bei ~200€). Alternativ eine Samsung PM893, die gibt es aber (glaube ich) nur in der SATA-Variante.

Ist halt auch die Frage, worauf Du mehr Wert legst: Geschwindigkeit oder Beständigkeit. Powerloss-Protection wäre ggf. auch noch so ein Thema (wenn man möchte, je nach use-case).

Bevor man hier also irgendwas als Empfehlung "raushaut", würde ich mal sagen: Bedarf definieren, Workload ebenso (ganz grob), dann kann man weitersehen 🙃 Vielleicht - bei regelmässigen Backups - tut es auch eine ganz schnöde Consumer-SSD und falls es eng wird, holt man einfach eine zweite dazu 🙂
 
Kleiner Nachtrag: Man könnte es halt auch erstmal mit einer Consumer-SSD versuchen und schauen, wie lange das Ding dann läuft. Im Zweifel einfach rechtzeitig austauchen und erst garnicht auf den großen Crash warten. Die ausgetauschte SSD kann man dann für weniger anspruchsvolle Dinge nutzen bzw. als "ich installier einfach mal zig Dinge um zu gucken". Wenn die dann irgendwann das zeitliche segnet, war wenigstens nichts wichtiges mehr drauf 😁
 
Moinsen,
vielen Dank für deinen Input dazu! ;)
Aktuell fange ich ja gerade erst an, soll meinen: noch keine Ahnung, wo die Reise hingeht...
Denkbar ist alles von "brauch ich doch nicht" bis zu großer Spielwiese, "MEHR!" :)
Daher kommt es aktuell auch weniger auf konkrete Dinge an, eher auf Eindrücke, gerne Erfahrungswerte ("consumer ssd rennt seit Jahren top" oder auch "auf keinen Fall consumer bei mehr als 2 VMs"

Was ich später machen werde, wie hoch dann die Belastung ist...kann ich konkret nicht abschätzen daher. Aber über die Bedeutung von "robusten" ssds für proxmox bin ich nun so oft gestolpert, dass ich hier mal nachfragen wollte, wie die Erfahrungen und Einschätzungen so sind.

Am Wochenende habe ich erst einmal den alten PC mit proxmox aufgesetzt, die Netzwerkeinstellungen konfiguriert, die alte 1 TB hdd als lokalen Speicher eingebracht (partitionen für .isos, VMS, storage). Proxmox selber rennt auf der alten 500 GB ssd (nix Consumer, mal sehen...;))
Außerdem versuchsweise shares auf dem NAS in proxmox eingebunden und noch auf der Synology proxmoxbackupserver als VM installiert und mit dem proxmox server verbunden.
Das läuft soweit auch geschmeidig...
Als VM ein paar Debian Versionen ausprobiert, aktuell lediglich eine VM (mit bookworm und docker). Da soll dann die Spielwiese für docker rein.
Ggf. später eine VM für Home Assistant (und weg vom Raspi vielleicht).
Dann die OPtion immer mal "schnell" ein oder zwei VMs anzuwerfen für Trial dies und Error das oder auch um Dinge mal nachzustellen (also als Labor).
Und wenn das alles mal so sein sollte, dann...(und wenn Synology bei ihrer Produktpolitik der letzten Jahre bleiben sollte)...vielleicht auch irgendwann mal den Umstieg wagen und zB True NAS machen.

Und auch das nutzt ZFS (was für mich total ungewohnt ist) und hat dementsprechend eben auch wieder ein Mehr an Belastung für die Hardware zu erwarten.

Und wenn DAS dann erledigt ist, dann willste ja proxmox vielleicht auch selber lieber voll auf ZFS fahren lassen...und dann noch ECC RAM...und...

Du siehst: aktuell wenig konkret, eher Kind in der Bonbon Bar mit großen Augen. ;)
Dank dir für deine Einschätzungen also...über die sch§$%" teure Intel ssd bin ich gestern Abend auch schon gestolpert ;) Geile Werte, viel Geld (und ja, wenn dann im Mirror, also mal 2)...:eek:😭
;)
 
partitionen für .isos
Sowas hab ich immer extra liegen (z.B. auf dem NAS, wobei der ISO-Ordner bei mir auch den meisten Platz verbraucht- sonst müsste ich im Falle eines Crash ja den ganzen Ranz neu runterladen...😅 )

Naja, der Punkt ist halt: Je mehr rumrödelt, desto höher der Verschleiss. Ich bin halt eher der Typ, der nicht 1-2x im Jahr Stress hat, nur weil die ollen Consumer-Teile wieder durch sind und getauscht werden wollen. Einbauen, laufen lassen und für ein paar Jahre Ruhe haben (wenn nix grob dazwischen grätscht)... so zumindest der "theoretische" Plan 😁 Bisher ist aber auch noch nix passiert, also alles recht entspannt... (aber halt auch die teuren Intel-Dinger).

Frage ist halt auch erstmal: Was brauchste und was willste ausgeben? Ja ich weiss, ist blöd, weil - wie immer - für ein paar Euro mehr... 😅
 
Moinsen,
Sowas hab ich immer extra liegen
I hear you...wenn ich schon das Heimnetz segmentiere...war ja zu erwarten. Bin ein großer Freund von geordneten Strukturen...
Ist bei mir eben erstmal die olle hdd geworden (liegen ja eh noch auf dem PC, die .isos), auch um mal auszuprobieren, wie es sich mit hinzufügen von Speicher unter proxmox so verhält...und Partitionierung unter proxmox, also eher eine Lernaufgabe / zum Eisbrechen...
;)

Ich bin halt eher der Typ, der nicht 1-2x im Jahr Stress hat, nur weil die ollen Consumer-Teile wieder durch sind und getauscht werden wollen. Einbauen, laufen lassen und für ein paar Jahre Ruhe haben (wenn nix grob dazwischen grätscht)... so zumindest der "theoretische" Plan
Und wieder...danke für die Bestätigung :D Sehe ich ebenso, einmal ran, dann richtig, dann Ruhe und nutzen. Deswegen eben überhaupt die Frage hier...
Viel laufen wird eh erst (wenn überhaupt) später mal. Also mache ich die ersten Schritte (backups gehen ja und am proxmox hostsystem selber sind nun auch nicht 100 Einstellungen vorgenommen bisher) estmal mit der alten hardware...bis es dann mal soweit ist.
Dann (je nachdem was da so bis dahin genutzt und passiert ist) kann ich immer noch schauen, was der Geldbeutel dann so hergibt. Die Intel werden es wohl nicht (ist hier ja auch "nur" Heimnetz!), aber tendenziell aus dem Bauch schon etwas in eher dieser Richtung (aber 2 x über 700 Ocken nur für ssds...och nö. Da versuche ich vermutlich erstmal etwas darunter...).
 
also eher eine Lernaufgabe / zum Eisbrechen...
Alles gut, ich würde zum "testen" sowieso erstmal nix anderes machen 😄

Die Intel werden es wohl nicht (ist hier ja auch "nur" Heimnetz!), aber tendenziell aus dem Bauch schon etwas in eher dieser Richtung (aber 2 x über 700 Ocken nur für ssds...och nö. Da versuche ich vermutlich erstmal etwas darunter...).
Völlig verständlich, würde ich privat auch nicht machen 😅 Dann wären es halt kleinere und ich müsste etwas geiziger bei den vDisks sein 🫣🤣 Aber mal im Ernst... Weiss ja nicht, was Du diverses laufen lassen willst, aber Speicher"platz"... ist schon ein Thema für sich: Man neigt gerne dazu "ausreichend" zu dimensionieren, dabei ist es oftmals "viel" zuviel. Beispiel Pi-Hole: Ich bin mir ziemlich sicher, dass irgendwas um 20GB (oder weniger!) vollkommen ausreichend ist. In der Doku heisst es:

Hardware​

Pi-hole is very lightweight and does not require much processing power
  • Min. 2GB free space, 4GB recommended
  • 512MB RAM
Da kommt man mitunter schon mit 10GB Disk aus. Wieviele 10G-Disks passen in 1TB? Nun könnte das ggf. schon "knapp" sein, von daher ggf. einfach 20GB oder 25GB. Reicht dicke und passt 40x auf 1TB. Es wäre vielleicht ratsam, wenn man erstmal etwas kleiner kalkuliert (1-2TB und ruhig Consumer - vllt nicht das allerbilligste). Du kennst es vom NAS und von der Firewall... einmal angefangen... geht's erst richtig los... 😁 Von daher vielleicht erstmal sachte anfangen, sich ein bisschen rantasten und irgendwann bricht sowieso das Ausprobier-Tier in Dir aus (einfach nur, weil Du die Möglichkeiten hast und es flott geht) und schwupps ist noch dies und das und jenes da. Ist halt wie schon beim NAS - klein anfangen und wenn man dann "wirklich" weiss wohin die Reise geht... Weisst scho... :giggle:

Davon ab... eine kleinere günstige SSD kann man sicherlich auch nochmal irgendwo anders gebrauchen, von daher ist das dann ja auch nix zum entsorgen und vielleicht hat das Ding (wenn ich das bei Dir richtig in Erinnerung habe) ja vielleicht sogar noch ein paar gute Jahre in der Playstation oder so 🙃
 
Ich betreibe in meinem Homelab 3 PVE Node mit handelsüblichen Samsung NVMEs.

Hier wird @blurrrr gleich mit dem Kopf schütteln:
Auf den NVMEs lasse ich sowohl Proxmox, als auch die VMs laufen. Gerade bei PVE2 erkennt man, dass da etwas extrem schreibintensives drauf läuft.

PVE1:
  • Samsung SSD 970 EVO Plus 1TB
  • Available Spare: 100%
  • Available Spare Threshold: 10%
  • Percentage Used: 33%
  • Data Units Written: 665,934,062 [340 TB]
  • Power On Hours.: 49280 (~5,6 Jahre)
PVE2:
  • Samsung SSD 970 EVO Plus 1TB
  • Available Spare: 100%
  • Available Spare Threshold: 10%
  • Percentage Used: 67%
  • Data Units Written: 1,163,561,604 [595 TB]
  • Power On Hours: 51419 (~5,8 Jahre)

PVE3:
  • Samsung SSD 980 PRO with Heatsink 2TB
  • Available Spare: 100%
  • Available Spare Threshold: 10%
  • Percentage Used: 4%
  • Data Units Written: 44,771,545 [22.9 TB]
  • Power On Hours: 4978 (~0,56 Jahre)
Interessant ist, dass laut Hersteller die 970 EVO Plus 1TB ein Schreibvolumen (TBW) von 600TB hat, smartctl aber behauptet die Lebensdauer der NVME in PVE2 wäre zu 67% verbraucht (100% wären dann ~888TB). Wenn man die "Data Units Written" mit der Blockgröße von 512 Multipliziert ergibt der TB Wert in den eckigen Klammern Sinn.

Laut Herseller hat die 980 PRO 2TB ein Schreibvolumen (TBW) von 1200TB.
Laut Herseller hat auch 990 PRO dasselbe Schreibvolumen (TBW) wie die 980 PRO.

Ich werde mir wohl gleich mal 990 PRO bestellen und die eine 970 EVO Plus damit die Tage durchtauschen.

Selbst im Raid1 wären hier die Kosten noch "überschaubar" im Vergleich zu den Enterprise NVMEs.
 
Zuletzt bearbeitet:
Hier wird @blurrrr gleich mit dem Kopf schütteln
Ist ja so nu auch nicht richtig 🤪 Grundsätzlich kann man ja immer alles so machen, wie man es gerne möchte, solange man sich der möglichen Konsequenzen bewusst ist und diese auch in Kauf nimmt 🙃 Ich denke, ich würde es auch einfach vom Workload abhängigmachen... Wird extrem viel darauf rumgerödelt, dann lieber Enterprise, steht man grade in den Anfängen (oder es handelt sich um überschaubare Workloads), tut es eine ganz normale Consumer-SSD mit Sicherheit auch.
 
Ich finde fast 6 Jahre für eine NVME, die schreibintensiv genutzt wird gar nicht mal so schlecht.

Dank dem Topic hier ist mir aufgefallen, dass eine NVME durchgetauscht werden muss. Danke dafür!
Ich hab eine Samsung 990 Pro 2TB mit Heatsink für schlappe 170€ aus der Bucht geschossen (Verkäufer: Mediamarkt). Ich werde die alte NVME clonen, leeren und dann trotzdem im System lassen, und sie für die temporären schreibintensiven Sachen weiter nutzen, bis sie verreckt (und ich weiß wie lange sie noch problemlos weitergemacht hätte) ^^
 
Proxmox ist seit ca. 3 Jahren, mein Dreh- und Angelpunkt
Frage:
- nutzt ihr ssds oder hdds für proxmox selber?
Ich nutze SSDs.
- welche datacenter ssd (Kapazität so ca. 200 bis 500 GB) ist da wohl zu empfehlen? Muss es "ganz professionell" sein? Reichen zb WD Ultrastar?
Für mich reichen die Samsung EVOs.

Es wird viel Mist im Bezug auf Proxmox geschrieben.
Nur ECC-RAM, nur Datacenter-SSDs, HDDs, mindestens 64 GB Ram usw..
Wenn noch ZFS ins Spiel kommt, werden die Anforderungen noch höher.

Es ist immer eine Frage, welche VMs und CTs darauf laufen sollen.
 
Es wird viel Mist im Bezug auf Proxmox geschrieben.
Najo, kommt auf die Sichtweise an...:

ECC-RAM: Ist aus meiner Sicht für jegliche Art von Server empfehlenswert (hier mal zum nachlesen).

Datacenter-SSD: Auch da gibt es zum einen "verschiedene", zum anderen wäre da noch die Frage nach der Schweregrad bei einem Ausfall. Eine Consumer-SSD ist schnell im nächsten Mediamarkt o.ä. bestellt. Backups wieder einspielen dauert halt auch noch ein bisschen. Die entscheidene Frage wäre hier eher, ob man solange ohne laufendes System (gemeint sind hier die VMs) auskommt. Der Trend bzgl. HomeAssistant scheint sich ja auch eher in Richtung PVE und HAOS als VM zu verlagern. Je nach Automatisierungsgrad ("Wer braucht schon noch Schalter?!") kann sowas natürlich auch böse in die Hose gehen. Also meine Tendenz geht da auch eher zu a) min. Raid1 (oder höher) und b) eher langlebigere SSDs (egal wieviel darauf rumrödelt). Alternativ geht man halt einfach hin und behält die Wear-Out-Werte im Blick (das werden die wenigsten machen), oder man tauscht die SSDs "geplant" schon im Vorfeld nach einer gewissen Zeitspanne (was vermutlich im privaten Umfeld auch niemand macht). Ergo läuft es i.d.R. darauf hinaus, dass es irgendwann "Zack!" macht und es zum einem Stillstand kommt. Muss man sich halt überlegen, wie wichtig einem sowas ist. Heisst natürlich nicht, dass es bei Datacenter-SSDs nicht evtl. auch zu einem vorzeitigen Ableben kommt 😁

RAM-Größe: Naja... jetz' mal Butter bei die Fische... Wenn man sich schon einen Hypervisor in die Hütte stellt und das Ding sowieso schon Strom verbraucht, dann soll doch bitte auch nicht bei 2 VMs Schluss sein. Es ist doch hinlänglich bekannt, dass es - einmal angefangen - immer nur noch mehr oben drauf kommt und ein bisschen Platz für Spielereien muss ja auch noch sein. Die Leute kaufen sich dann einen Mini-PC mit... sagen wir mal 16GB RAM. Ziel? HomeAssistant als VM mit 8GB RAM (oder vielleicht auch erstmal nur 4GB). Dann muss ja auch noch irgendwas anderes (z.B. Paperless-NG) darauf laufen und noch ein paar andere Docker-Container, also noch eine VM mit sagen wir einfach mal 8GB RAM (vllt auch nur 4GB). Dann kann man ja auch noch ein Windows-Client-OS installieren und sich via RDP aufschalten, der Hammer, muss man also auch direkt haben. Blöd nur, dass dann schon direkt Schicht im Schacht ist. Die wenigsten wissen direkt zu Anfang, was genau sie eigentlich wollen, kriegen aber den Hals nicht voll (will damit keinem auf die Füsse treten, ist halt relativ frei heraus gesagt).

Das siehst Du ja auch schon an den NAS-Geschichten. Mein NAS? DS218j, so ein kleines olles Ding, was auch nicht wirklich was kann. Warum? Weil das Teil hier nur Datengrab ist und auch nie etwas anderes machen wird und dafür reicht es auch aus. Das sehen viele (ich behaupte mal die Mehrheit) allerdings anders und haben daher dickere Geräte, mit welchen sie auch wesentlich mehr machen. Du kannst doch jetzt wohl nicht hingehen und behaupten, dass "alle" direkt zu Anfang wissen müssten, was genau sie eigentlich wollen und somit auch die Ressourcen-/Hardwareplanung entsprechend umsetzen 😄

Also ich "behaupte" jetzt einfach mal (einfach nur meine Meinung), dass man nicht unbedingt mit 64GB RAM anfangen muss, ABER... man sollte sich die Chance auch nicht verbauen, dass man noch etwas nachrüsten kann. Davon ab, nimmt man einfach nur Mini-PCs, oder irgendwelche alten Rechner - wie es die meisten wohl machen - besteht die Option auf ECC-RAM ja i.d.R. sowieso nicht. Richtige Workstations kosten nach wie vor richtig Geld und für Server gilt das gleiche (vom Strom- und Platzbedarf mal ganz abgesehen).

Also wenn man es sich finanziell problemlos leisten kann, ggf. direkt nach kurzer Zeit nochmal was grösseres zu kaufen (oder einfach Ebay-Junkie ist)... klar, dann reicht auch erstmal etwas kleines bzw. nicht weiter aufrüstbares. Müssen halt alle für sich selbst entscheiden, wobei ich schon nachvollziehen kann, dass es erstmal günstig sein soll. Kann man vllt sogar mit einem Auto-Kauf vergleichen (Kleinwagen), nur dass da eben nicht die Option besteht, im Zweifelsfall einfach mal kurz einen (grösseren) Leihwagen zu mieten.

Eine Sache wäre da ggf. auch noch zu erwähnen: Es muss ja auch nicht immer neue Hardware sein. Einige der "Internet-Prediger" preisen halt die ThinkCentre-Serie von Lenovo an und dementsprechend viele haben die Dinger ja nun auch im Einsatz. Sagt ja auch niemand, dass sowas schlecht ist, aber manchmal hilft es dann doch mal über den Tellerrand zu schauen 🙃 Wenn nix superkritisches dabei ist und sowieso tagtäglich Backups gemacht werden und man auch mal einen Tag Datenverlust hinnehmen kann... einfach aus dem Bauchgefühl heraus, denn selbst wenn dann etwas passiert, ist es dann vielleicht ärgerlich, aber eben nicht tragisch. Hängt dann aber eben auch von den persönlichen Ansichten ab, von daher ist Deine Aussage "Es wird viel Mist im Bezug auf Proxmox geschrieben." dann doch eher "relativ" zu sehen.

Sollen aber alle machen, wie sie meinen und wie der Geldbeutel es hergibt. Solange man sich über div. Dinge klar ist und entsprechende Maßnahmen ergreift (z.B. Backups) und auch mit gewissen Zeiträumen (ggf. auch einem gewissen Datenverlust) leben kann, so what 😊

Btw wenn ich manchmal so sehe, was die Leute alles mit ihrem z.B. HomeAssistant machen... würde ich das hier machen, hätte sich sicherlich schon längst Zuhause einen HA-Cluster dafür laufen, angeschlossen an verschiedenen Stromkreise und jeweils mit USV, aber zum Glück hab ich sowas ja nicht im Einsatz... 😅
 

Zurzeit aktive Besucher

Letzte Anleitungen

Statistik des Forums

Themen
6.661
Beiträge
63.891
Mitglieder
6.914
Neuestes Mitglied
Mx001
Zurück
Oben