Ich habe ja unter meinem Pult ein kleiner alter Computer am laufen auf dem ich Yunohost und Docker installiert habe und viele Fediverse Instanzen laufen lasse. Jetzt habe ich vor einiger Zeit n8n installiert. n8n ist eigentlich eine Automationssoftware die sehr praktisch ist – ähnlich wie Zapier oder Make nur eben kann man das Ding lokal installieren.
Ich habe sogar eine Version installiert wo Ollama direkt mitgeliefert wird und spiele jetzt damit ein wenig rum.
Nun habe ich hier ein paar Befehle gesamelt die mir immer wieder geholfen haben.
Wer es auch installieren möchte, findet alle Infos hier auf Github Self-hosted AI starter kit.
n8n
Das ganze zu starten ist sehr einfach
docker compose --profile cpu up -d
aber ich habe immer wieder gemerkt, dass wenn ich den Container deaktiviere
docker compose down
das danach viele Fehler passieren. Ich weiss noch nicht warum – evtl habe ich da einfach ein Problem
Ich resete da immer meistens alles und zwar mit diesem Befehl
docker compose down
docker volume rm self-hosted-ai-starter-kit_n8n_storage
docker compose up -d
ollama
Das ganze System läuft ja auf einem Debian Server und innerhalb Docker. Jetzt vergesse ich alter Mann immer wieder wie ich denn über SSH in Docker mich einloggen kann und Ollama ansprechen kann.
So geht das einloggen
docker exec -it ollama /bin/sh
Nun wenn ich ein neues Model hinzufügen möchte, da finde ich ja alle LLM Modelle hier: https://ollama.com/search.
Nachdem ich mich eingeloggt habe, kann ich die dann installieren mit zb
ollama pull qwen3:1.7b
danach kann ich mich ausloggen mit
exit
So kann ich auflisten welche LLM gerade installiert sind
docker exec ollama ollama ls
Und wenn ich ann ein LLM löschen möchte, muss ich mir einfach den Name merken und danach folgenden Befehl eingeben
docker exec ollama ollama rm {llm-name}
Das sind jetzt mal die wichtigsten Befehle die ich immer wieder brauche, wenn der n8n oder das LLM gerade ärger macht.







0 Kommentare