n8n auf Ubuntu Cloud GPU installieren und für KI-Workflow-Automatisierung konfigurieren

n8n ist eine Open-Source-Plattform für Workflow-Automatisierung, mit der du Workflows erstellen und automatisieren kannst, indem du Knoten verbindest, die verschiedene Dienste und Aktionen repräsentieren. Sie kombiniert eine visuelle Benutzeroberfläche mit benutzerdefiniertem Code und ermöglicht Entwicklern, mehrstufige KI-Agenten zu erstellen, die sich nahtlos in bestehende Anwendungen integrieren lassen.

n8n bietet mehrere leistungsstarke und flexible Automatisierungsfunktionen:

  • Ereignisgesteuerte Ausführung: Workflows können basierend auf bestimmten Ereignissen wie Webhooks ausgeführt werden, um Systeme in Echtzeit zu automatisieren.
  • Visueller Workflow-Builder: Eine webbasierte Managementoberfläche ermöglicht das Erstellen von Workflows durch das Verbinden von Knoten, die Trigger, Aktionen oder Integrationen darstellen.
  • Umfangreiche Integrationsbibliothek: n8n unterstützt über 350 integrierte Dienste, darunter GitHub, Slack, Google Workspace und Discord.
  • Native JavaScript-Unterstützung: Du kannst eigenen JavaScript-Code einfügen, um komplexe Automatisierungslogik zu erstellen.

Diese Anleitung erklärt, wie du n8n auf einem Cloud-GPU-Server einrichtest, KI-basierte Workflows integrierst und selbst gehostete KI-Agenten mit Ollama einsetzt.

Voraussetzungen

  • Eine Cloud-GPU VM mit Ubuntu 24.04 und einer GPU deiner Wahl.
  • Per SSH auf den Server zugreifen.
  • Einen Nicht-Root-Benutzer mit sudo-Rechten erstellen.
  • n8n installieren und mit einer eigenen Domain konfigurieren, z. B. n8n.example.com.

Zugriff und Einrichtung von n8n

So greifst du auf das n8n-Dashboard zu und richtest es ein:

Öffne einen Browser und gehe zu:

http://n8n.example.com

Gib deine E-Mail-Adresse, deinen Namen und dein Passwort ein, um den ersten Administrator-Account zu erstellen. Danach trage deine Unternehmensdaten ein, um die Einrichtung abzuschließen.

Als Nächstes forderst du über deine E-Mail-Adresse einen kostenlosen n8n-Lizenzschlüssel an und aktivierst ihn:

  • Klicke unten links auf deinen Benutzernamen und öffne Einstellungen.
  • Wähle Aktivierungsschlüssel eingeben, füge den Lizenzschlüssel ein und klicke auf Aktivieren.

Erstelle grundlegende Workflows mit n8n

Befolge diese Schritte, um einen einfachen HTTP-Workflow in n8n zu erstellen:

Gehe zu Übersicht → klicke auf Workflow erstellenErsten Schritt hinzufügen.

Suche nach Webhook und wähle ihn aus. Konfiguriere den Knoten wie folgt:

  • Setze die HTTP-Methode auf GET.
  • Ändere den Pfad zu /greetings.
  • Wähle bei Antwort „Mit Respond to Webhook Node“ aus.

Kehre zur Canvas zurück, füge einen neuen Knoten hinzu und wähle Respond to Webhook. Konfiguriere ihn, um eine JSON-Antwort zurückzugeben:

{
  "message": "Grüße von centron! Der Workflow wurde erfolgreich ausgeführt.",
  "status": "success",
  "timestamp": "{{ $now }}"
}

Aktiviere den Workflow, klicke auf Workflow ausführen und kopiere die generierte Webhook-URL. Führe dann im Terminal folgenden Befehl aus:

$ curl https://n8n.example.com/webhook-test/greetings

Die Ausgabe sollte bestätigen, dass der Workflow erfolgreich ausgeführt wurde.

Ollama für lokale KI-Modellausführung installieren

Ollama ist ein Open-Source-Framework, um große Sprachmodelle (LLMs) lokal auszuführen. Es bietet OpenAI-kompatible Endpunkte, die sich problemlos in n8n integrieren lassen.

Überprüfe zunächst den GPU-Status, um sicherzustellen, dass dein System für beschleunigtes Inferenzieren bereit ist:

Starte Ollama mit Docker und GPU-Unterstützung:

$ sudo docker run -d --gpus=all -v ollama:/app/.ollama -p 11434:11434 --name ollama ollama/ollama

Überprüfe die installierte Ollama-Version:

$ sudo docker exec -it ollama ollama --version

Lade ein Modell wie gpt-oss:20b für lokale KI-Verarbeitung herunter:

$ sudo docker exec -it ollama ollama pull gpt-oss:20b

Liste alle verfügbaren Modelle auf und öffne die Firewall für Port 11434:

$ sudo ufw allow 11434/tcp
$ sudo ufw reload

KI-Workflows in n8n erstellen

In diesem Abschnitt erstellst du einen KI-Agenten in n8n, der sich mit Ollama verbindet, um intelligente Automatisierungen durchzuführen.

In der n8n-Oberfläche:

  • Gehe zu ÜbersichtNeuen Workflow erstellen.
  • Füge einen Chat Trigger-Knoten hinzu.
  • Füge einen AI Agent-Knoten hinzu und verbinde ihn mit dem Chat Trigger.
  • Wähle das Ollama Chat Model aus und konfiguriere die Zugangsdaten mit der IP-Adresse und Port 11434 deines Servers.
  • Füge einen Simple Memory-Knoten für die Eingabehistorie und ein Calculator-Tool für Berechnungen hinzu.

Aktiviere den Workflow und öffne den Chat. Gib beispielsweise die Frage ein:

Was ist 3345 multipliziert mit 17 und geteilt durch 5?

Der KI-Agent berechnet die Antwort und protokolliert den Chatverlauf sowie die Ergebnisse im Workflow.

Fazit

Du hast n8n erfolgreich installiert, Ollama für lokale KI-Verarbeitung integriert und intelligente Workflows mit GPU-Beschleunigung erstellt. n8n bietet eine leistungsstarke Grundlage für skalierbare, ereignisgesteuerte und KI-gestützte Automatisierungsprozesse. Weitere Integrationen und Vorlagen findest du in der offiziellen n8n-Dokumentation.

Quelle: vultr.com

Jetzt 200€ Guthaben sichern

Registrieren Sie sich jetzt in unserer ccloud³ und erhalten Sie 200€ Startguthaben für Ihr Projekt.

Das könnte Sie auch interessieren: