EcoDMS unter Docker / Portainer

Guten Morgen, ich bin's wieder ;-)

nochmals vielen Dank für die Zeit, die Ihr für mein Problem opfert, ich werde das nachvollziehen und - mindestens zum Test - eine VM aufsetzen, auf der ich ecodms per Docker ohne Freigabe aufsetze. In der Theorie sollte das wie bei dem einem erfolgreichen Test funktionieren und das wäre ja auch ein Erfolg!

Über das Ergebnis werde ich Euch hier informieren.

Herzliche Grüße und Euch ein schönes Wochenende!

Martin


Updates:

- VM mit Docker eingerichtet
- Image mit Standardeinstellungen gestartet und erfolgreich mit dem Client verbunden
- Zugriffe Docker-Host auf Freigabeordner eingerichtet
- Rücksicherung der Daten anscheinend erfolgreich durchgeführt
- Pause
- EcoDMS läuft, das Mapping der Backup- und Restore - Verzeichnisse macht noch Probleme... Mapping Scaninput funktioniert inzwischen, Ursachen für die unterschiedliche Handhabung ist mir aktuell noch nicht klar, aber das wird ...
- Es scheint, als ob der EcoDMS-Container innerhalb des Data-Verzeichnisses die Mountpunkte für Backup&Restore erwartet, diese werden über die Oberfläche des clients zur Auswahl angeboten. Der Versuch dort meine Netzlaufwerke bzw. Freigaben zu mounten scheitert daran, dass es sich um "broken Symbolik links" handelt. Was immer das auch ist, ich lese das mal im Kofler nach.
- Pause zum Lesen
- die "broken symlinks" sind wohl Verweise auf die Pfadangaben, die man im Container an Host-Verzeichnisse bindet. Ich vermute, dass sie deshalb vom Host aus als broken angesehen werden - im Container müssten sie eigentlich funktionieren.
- Backup und Restore-Verzeichnisse habe ich von Hand gemountet, funktionieren, aktuell läuft ein Backup. Problem scheint zu sein, dass ich wirklich genau die Pfade zu den Verzeichnissen einzeln mounten muss und nicht ein Unterverzeichnis einer Freigabe "durchreichen" kann.

Update 2:

Ich gehe davon aus, dass der Rest funktionieren wird und beende die Liveübertragung aus dem Chaos-Serverraum an der Ruhr ;-) Vielen Dank und falls jemand das selbe Projekt angeht, stehe ich für Fragen gerne zur Verfügung!
 
Zuletzt bearbeitet:
Gut das es jetzt funktioniert!

Ich muss gestehen, für mich ist die knappe Beschreibung nicht ausreichend, um zu verstehen, wie deine Lösung jetzt genau aussieht.
Es wäre gut, wenn Du darauf eingehen könntest, wie die Lösung nun konkret aussieht:
  • Wie startest Du den Container jetzt: wie sieht der exakte docker run Befehl oder der Inhalt der compose Datei aus?
  • Wie hast Du das mit den Volumes konkret gelöst?
    • Mountest Du immer noch einen Remote Share auf dem Host und verwendest Binds, um sie in den Container zu mappen?
    • Oder Verwendest Du jetzt Docker Volumes?
      • Und mountest darüber ggf, den Remote Share?
    • Gibt es Daten die jetzt lokal liege, oder liegt nach wie vor alles auf einem Remote Share?
      • Wenn Remote, welches Protokoll wird verwendet?
Abschließende Gedanken:
Wenn im Backup wirklich alle Daten (Datenbank-Dump + alle Konfiguration und Dokumente), gesichert werden, lohnt es sich dann vielleicht nur für das Backup-Verzeichnis den Remote-Share zu verwenden?
 
Gut das es jetzt funktioniert!

Ich muss gestehen, für mich ist die knappe Beschreibung nicht ausreichend, um zu verstehen, wie deine Lösung jetzt genau aussieht.
Es wäre gut, wenn Du darauf eingehen könntest, wie die Lösung nun konkret aussieht:
  • Wie startest Du den Container jetzt: wie sieht der exakte docker run Befehl oder der Inhalt der compose Datei aus?
  • Wie hast Du das mit den Volumes konkret gelöst?
    • Mountest Du immer noch einen Remote Share auf dem Host und verwendest Binds, um sie in den Container zu mappen?
    • Oder Verwendest Du jetzt Docker Volumes?
      • Und mountest darüber ggf, den Remote Share?
    • Gibt es Daten die jetzt lokal liege, oder liegt nach wie vor alles auf einem Remote Share?
      • Wenn Remote, welches Protokoll wird verwendet?
Abschließende Gedanken:
Wenn im Backup wirklich alle Daten (Datenbank-Dump + alle Konfiguration und Dokumente), gesichert werden, lohnt es sich dann vielleicht nur für das Backup-Verzeichnis den Remote-Share zu verwenden?

Vielleicht das wichtigste zuerst : Deine Schlussbemerkung trifft den Nagel auf den Kopf, es ist unkritisch, die Container-Pfade
- /srv/backup
- /srv/restore
- /srv/scaninput

mit gemounteten Netzlaufwerken zu verbinden. Das funktioniert bei mir aber nur, wenn die Mountpunkte jeweils genau gemappt sind. Was bei mir nicht funktioniert hat, war per fstab einen Mountpunkt /mnt/ecodms einzurichten und dann über die -v Parameter /mnt/ecodms/backup mit /srv/backup zu verknüpfen...

Das ist zufälligerweise genau die Config, die ich nach dem Hinweis auf den Docker-Befehl aus der Docker-Hub-Seite gebildet hatte. Das einzige Volume, was offenbar auf dem Docker-Host liegen muss, ist das auf /srv/data gemappte. Deshalb funktioniert das bei meiner Portainer-Installation nicht, weil das DMS inzwischen ca. 50 GB an PDFs enthält, die ich offenbar nicht auslagern kann.

Den Hinweis mit dem NFS-Laufwerk habe ich nicht ausprobiert, ich hatte Probleme damit die nfs-utils auf dem Docker-Host zu installieren.

Der Docker-Befehlt sieht bei mir wie folgt aus:

Code:
sudo docker run --restart=always -it -d
-p 17001:17001 -p 17004:8080 -p 17005:8180
--name "ecodms"
-v /volume1/ecodmsData:/srv/data
-v /mnt/scaninput:/srv/scaninput
-v /mnt/backup:/srv/backup
-v /mnt/ecodms/restore:/srv/restore
-v /mnt/ecodms/ecodmsfileimport:/srv/fileimport
-v /mnt/ecodms/ecodmsfileimportmove:/srv/fileimport_move
-t ecodms/ecodms

Hoffe das hilft.
 
Zuletzt bearbeitet:
Vielen Dank, dass Du nochmal nachgeschärft hast!

So können andere, die über diesen Topic stolpern, nicht nur die Ausgangslage und die Reise zur Lösung, sondern auch Details zur Lösung selbst finden.
 

Zurzeit aktive Besucher

Letzte Anleitungen

Statistik des Forums

Themen
4.657
Beiträge
47.582
Mitglieder
4.300
Neuestes Mitglied
R2B2-123
Zurück
Oben