Jeg har arbejdet med n8n on and off i et stykke tid, men først for nylig taget tid til at bygge den slags workflows der faktisk løser rigtige problemer.
Jeg har det nu kørende i min homelab, integreret med interne systemer, OpenAI, og en selvhostet Ollama-instans. Oplevelsen har været solid hele vejen rundt.
Hvad der står stærkt ved n8n
- Fuldt open source og let at selvhoste. Docker, DB, SSL, alt sammen ligetil. Ingen vendor lock-in, ingen overraskelses-pricing-tiers.
- API-first arkitektur med fremragende control flow og webhook-håndtering. Du kan koble det op mod alt der taler HTTP.
- Dedikerede noder til både OpenAI og Ollama. Intet behov for custom HTTP-kald når man blander cloud og lokal AI.
- Velformet interface der gør iteration hurtig og pålidelig. Du føler du bygger, ikke kæmper mod værktøjet.
Hvad jeg bruger det til lige nu
- Berige interne data ved at scanne nettet for specifikke brand-signaler
- Automatisk sortere og omskrive tekniske specifikationer til menneske-læsbart indhold
- Vælge mellem cloud- og lokale LLMs baseret på kontekst og data-følsomhed
Det sidste punkt er det der gør kombinationen særligt velegnet.
Hvorfor lokal + cloud betyder noget
Muligheden for at blande lokale og cloud-baserede AI-værktøjer i samme workflow, med fuld kontrol over hvor data går hen og hvor følsomt det er. Det er den egentlige gevinst.
Hvis input er interne kundedata, sendes det til lokal Ollama. Hvis det er udadvendt indhold hvor du vil have GPT-4-kvalitet, sendes det til OpenAI. Samme workflow, betinget branching, ingen manuel beslutning per item.
Det er den slags der er klodset på hostede-only platforme, og umuligt på de fleste legacy automation-værktøjer.
Shoutout
Til n8n-teamet for at bygge en af de mest fleksible og udvikler-venlige automation-platforme jeg har arbejdet med.
Hvis du automatiserer workflows eller eksperimenterer med AI-tooling, så ligger n8n forrest på næsten alle parametre jeg bekymrer mig om. Vil gerne høre hvad andre bruger det til.