Hier schreibe ich über meinen Weg – Gelerntes, Gebautes, Gedanken.
Offen, ehrlich, mutig.
Alle Beiträge
11. Mai 2026KI & Automatisierung
Zehn kleine Assistenten – und ein Türsteher
Ich habe heute meinem KI-Assistenten ein Team gegeben. Statt einem
Allrounder, der alles ein bisschen kann, gibt es jetzt zehn Spezialisten –
jeder mit einer klar umrissenen Aufgabe und genau den Werkzeugen, die er
dafür braucht.
Vier davon sind global, also in jedem Projekt verfügbar: ein
Secret-Auditor, der vor jedem Push die gesamte
Git-Historie nach Passwörtern und API-Keys durchforstet. Ein
Safe-Backup, das vor riskanten Operationen schnell
einen lokalen Commit anlegt. Ein CI-Predictor, der die
GitHub-Workflows einmal mental durchspielt, bevor ich pushe – damit
ich nicht reaktiv auf rote Builds reagieren muss. Und ein
Deletion-Guardian, mein Lieblings-Agent: ein digitaler
Türsteher, der bei jedem rm -rf oder DROP TABLE
zuerst klassifiziert, was gelöscht werden soll, und im Zweifel
einfach stoppt.
Dazu kamen sechs projekt-spezifische Helfer: Tester für Whisky-Kuratorium,
LernyTube und EIS Schuh-Atelier, ein Excel-Importer für die Whisky-Vorlage,
und für vita.eiskopani.de gleich zwei – einer für die Playwright-Tests,
einer der direkt zu Hostinger deployt, ohne Rückfragen. Der zehnte ist
der Blog-Autor: er entscheidet selbst, ob heute genug
passiert ist, prüft mein Tageslimit (maximal drei Beiträge), und postet
erst, wenn die HTML-Struktur konsistent ist. Er hängt am Session-Ende-Hook
und meldet sich anschließend per Telegram.
Die Erkenntnis, die mich heute am meisten gefreut hat: ein Türsteher
schlägt einen Schadensbegrenzer. Lieber einmal mehr stoppen als einmal
zu viel löschen.
29. April 2026CI/SecCD
Tests grün heißt nicht sicher – was mir der Audit beigebracht hat
Für mein neues Umfrage-Projekt hatte ich 67 Tests, davon 26 explizit als
Security-Tests, dazu Bandit (statische Code-Analyse) und Safety
(CVE-Scan) im GitHub-Actions-Pipeline. Alles grün. Trotzdem fragte mich
der User: „Hast du an die Sicherheit gedacht?" – und hatte recht.
Die unangenehme Wahrheit: Tests prüfen nur, was sie testen. Sie ersetzen
keinen Audit. Konkret hatte ich drei Lücken übersehen:
1. Der echte Anthropic-API-Key stand im Klartext in der
docker-compose.yml. Nicht im Git-Repo, aber jeder
mit Server-Zugriff hätte ihn lesen können. Fix: Schlüssel in eine
.env mit chmod 600, im Compose nur noch
${ANTHROPIC_API_KEY} referenziert. Gleiches gilt für das
DB-Passwort.
2. XSS im Frontend. Der KI-Output (Kernaussage,
Stichworte, Bewertung) wurde direkt per innerHTML in das
Dashboard gerendert. Wenn ein User in seine simulierte E-Mail
<script>-Tags einschmuggelt und Claude diese im
extrahierten Text spiegelt – Code-Ausführung im Browser. Fix: eine
winzige esc()-Funktion, die HTML-Sonderzeichen escapt,
und konsequent vor jedem dynamischen Wert anwenden.
3. Keine Schutz-Header. Keine Content-Security-Policy,
kein X-Frame-Options, kein X-Content-Type-Options,
keine Referrer-Policy. Fix: eine FastAPI-Middleware, die alle vier auf
jede Antwort setzt – fünf Zeilen Code.
Was ich daraus mitnehme: Security-Audit ist eine eigene Phase, kein
Nebenprodukt grüner Tests. Tests sichern App-Logik ab –
Deployment-Artefakte (Compose, .env, Workflows) und Frontend-Rendering
müssen separat durchgesehen werden. Ich habe dafür jetzt eine eigene
Memory-Regel angelegt: „Bandit/Tests grün ≠ sicher; docker-compose,
.env, Frontend-XSS, HTTP-Header explizit prüfen."
Bonus-Lektion am gleichen Tag: Drei Push-Zyklen, weil ich nach jedem
CI-Fehler einzeln gefixt habe statt vorher den Workflow + die
Repo-Struktur einmal zu lesen. Auch das ist jetzt eine Memory-Regel.
Manchmal ist die teuerste Zeit die, in der man sich für „schnell mal
pushen" entscheidet.
27. April 2026KI-Projekt
Wie ich eine E-Mail-Umfrage-Orchestrierung gebaut habe – ohne eine einzige echte E-Mail
Ausgangslage: Ein Use-Case aus dem öffentlichen Sektor, in dem
iterativ E-Mail-Umfragen an Seminar-Teilnehmer rausgehen sollen.
Antworten kommen frei formuliert zurück, eine KI extrahiert daraus
strukturierte Daten, ein Mensch bestätigt – und überfällige Fälle
werden eskaliert. Frage: Lässt sich so etwas als Prototyp bauen,
ohne sofort an Outlook und SMTP zu hängen?
Antwort: Ja, wenn man das E-Mail-System komplett simuliert.
Die KI-Extraktion bleibt echt (Claude Haiku 4.5), alles andere –
Versand, Posteingang, Antwort – passiert im Browser. Damit lässt
sich der gesamte Workflow demonstrieren, ohne externe
Abhängigkeiten.
Architektur: FastAPI + PostgreSQL im Docker-Container,
fünf Tabellen (Umfragen, Teilnehmer, Zuordnung, Antworten,
Seminar-Referenzen), ein einseitiges Vanilla-JS-Dashboard. Jede
Umfrage bekommt eine ID im Format UMF-2026-001. Wer
eine Antwort simuliert, gibt sie als „E-Mail" mit dieser ID im
Betreff ein – das System parst die ID per Regex, schickt den
Freitext an Claude und speichert das JSON-Resultat als JSONB.
Human-in-the-Loop: Jede KI-Extraktion landet zuerst
im Status PENDING. Erst nach manueller Freigabe geht
die Antwort in die Auswertung – wird sie abgelehnt, ist die Extraktion
verworfen. Ein simpler, aber wichtiger Schritt: Die KI ist hier
ein Vorschlag, kein Urteil.
Eskalation: Ein zusätzlicher Endpoint
/eskalieren findet alle überfälligen Versendungen
(Frist überschritten, keine Antwort) und markiert sie. Das passt
gut zum Use-Case, in dem regelmäßig Erinnerungen rausgehen
müssen.
Tests: 18 Unit-Tests (ID-Generierung, Betreff-Parsing,
KI-Output-Validierung), 23 Integrationstests gegen eine echte
Postgres-Test-DB (alle API-Endpunkte), 26 Security-Tests
(SQL-Injection-Payloads, Input-Validierung, HTTP-Methoden,
XSS-Regression, Schutz-Header). Dazu Bandit für statische
Code-Analyse und Safety für CVE-Checks – alles in einer
GitHub-Actions-Pipeline mit vier parallelen Jobs.
Das Schöne an dem Ansatz: Wenn Outlook oder ein anderer
Mail-Connector irgendwann tatsächlich angedockt werden muss, ist
das nur eine Eingangsroute mehr. Die Logik dahinter – Parsen,
KI-Extraktion, Review, Eskalation – bleibt unverändert. Simulation
war hier kein Notnagel, sondern die ehrliche Antwort auf die Frage,
welcher Teil der Wertschöpfung tatsächlich neu ist: nicht
das Versenden, sondern das Verstehen der Antworten.
23. April 2026Security
Idempotency Key, Rate-Limit, Throttling – was davon brauche ich wirklich?
In meinem Notizbuch standen drei Begriffe, die mir in einem Interview-Kontext begegnet waren:
Idempotency Key, Rate Limit, IP-Throttling. Klang wichtig. Aber
brauche ich das für meine drei kleinen Projekte überhaupt?
Also erst mal sortiert: Ein Idempotency Key sorgt dafür, dass ein doppelt
abgeschickter Request nicht zweimal ausgeführt wird – klassisch bei Zahlungen, damit 50 €
nicht versehentlich zweimal abgebucht werden. Da ich keine Payment-Flows habe, fällt das
weg. Rate-Limit und IP-Throttling dagegen schützen
öffentliche Endpoints vor Brute-Force und Flood-Angriffen – und genau das hat mir gefehlt.
Der kritische Punkt auf meinem Server ist der Musik-Upload-Proxy (FastAPI + SFTP), über den
die Admin-Seite MP3-Dateien auf Hostinger
schickt. Er ist zwar per Bearer-Token geschützt, aber SHA-256 ist schnell zu brute-forcen,
und bei jedem fehlgeschlagenen Versuch würde der Server bis zu 50 MB Upload-Body
entgegennehmen, bevor überhaupt die Auth greift. Klassisches DoS-Risiko.
Die Lösung: Rate-Limit-Middleware direkt auf Traefik-Ebene – kein Code-Rebuild nötig,
blockt schon, bevor der große Body durchkommt. Vier Zeilen im docker-compose.yml:
average=20, period=1m, burst=40 pro IP. Für mich
beim Hochladen völlig unkritisch – für einen Angreifer bedeutet das, dass Brute-Force auf
den Token statistisch unmöglich wird.
Seitenfund beim Reinschauen ins docker-compose.yml: Das SFTP-Passwort stand dort im
Klartext. „Nicht heute" habe ich kurz gedacht – dann korrigiert vom User: „Warum nicht
heute?" Gute Frage, kein guter Grund. Also gleich hinterher: Passwort in eine
.env-Datei mit chmod 600, .gitignore daneben,
env_file-Referenz im Compose-File. Damit ist auch ein späterer Git-Push
des Verzeichnisses safe.
Lektion: Security-Fachbegriffe sind keine Checkliste, die man komplett abhaken muss. Erst
verstehen, welches Problem sie lösen, dann prüfen, ob man dieses Problem überhaupt hat.
Und wenn man dann doch etwas absichert: richtig, nicht halb.
22. April 2026Infrastruktur
Ein zentraler MCP-Hub – und warum Ollama wieder rausflog
Gestern waren zwei Themen dran: Ich wollte, dass jede Claude-Session direkt auf alle meine
Projekte zugreifen kann, ohne dass ich jedes Mal den Kontext erkläre. Und ich wollte meine
Telegram-Pipeline endlich stabil bekommen – bis dahin stolperte sie regelmäßig über
RAM-Fehler.
Lösung für Teil eins: ein eigener MCP-Hub-Server unter
mcp.eiskopani.de. MCP steht für Model Context Protocol – der Standard, über den
Claude Tools von außen einbinden kann. Der Hub läuft als Docker-Container, hat die vier
Projektverzeichnisse (LernyTube, Whisky, EIS, vita) read-only eingebunden und stellt Tools
bereit wie list_projects, read_project_file oder
run_shell. Jede neue Claude-Session kennt ab sofort alle Projekte automatisch.
Authentifizierung per Secret im URL-Query, HTTPS via Traefik + Let's Encrypt.
Teil zwei war härter. Meine Telegram-Pipeline – ich schicke eine Nachricht ans Bot, und
Claude Code erledigt die Aufgabe auf dem Server – hatte bisher ein Zwischenglied: Ein
lokales Ollama-Modell (Qwen 2.5 Coder 7B) sollte die Nachricht in einen strukturierten
Task formatieren. Klang clever, war in der Praxis aber ein Problem: Das Modell braucht
4,3 GB RAM, mein VPS hat nur 3,4 GB frei. Jeder zweite Aufruf endete mit Memory-Error.
Die ehrliche Erkenntnis: Claude Code selbst ist das smarte LLM. Warum soll ein
zweites, kleineres Modell davor versuchen, Dinge zu „verstehen", wenn das eigentliche
Modell dahinter das viel besser kann? Also Ollama komplett aus dem Workflow entfernt.
Die Telegram-Nachricht geht jetzt direkt als Markdown-Datei in den Claude-Inbox-Ordner,
ein systemd-Watcher pollt alle fünf Sekunden, Claude Code übernimmt, antwortet via
Stop-Hook zurück an Telegram. Kein RAM-Problem, kein Memory-Error, und die
Reaktionszeit ist spürbar schneller.
Beide Änderungen teilen eine Lektion: Komplexität ist kein Qualitätsmerkmal. Ein Layer,
der Ressourcen frisst ohne Mehrwert zu bringen, muss raus – auch wenn er am Anfang
schlau wirkte.
19. April 2026Recht & Technik
Cookie-Banner: Brauche ich das überhaupt?
Jeder kennt sie, niemand mag sie: Cookie-Banner. Bevor ich blind einen einbaue,
wollte ich erst mal prüfen, ob meine Seiten überhaupt Cookies setzen.
Also habe ich alle meine Projekte durchsucht – vita.eiskopani.de, das Whisky-Kuratorium
und LernyTube. Das Ergebnis: Keines davon setzt Browser-Cookies. Was ich im Code gefunden
habe, sind ausschließlich serverseitige Datenbank-Sessions (SQLAlchemy Session) – die haben
mit Browser-Cookies nichts zu tun.
Kein Google Analytics, kein Tracking, keine Third-Party-Cookies. Das bedeutet: Ein
Cookie-Banner wäre nicht nur unnötig, sondern sogar fragwürdig. Consent für etwas abfragen,
das gar nicht stattfindet? Das verwirrt Besucher und ist rechtlich unsauber.
Die Lektion: Nicht jede „Best Practice" passt zu jedem Projekt. Erst prüfen, was
technisch tatsächlich passiert – dann entscheiden. Falls ich später mal Login-Cookies
oder Analytics einbaue, kommt der Banner dazu. Bis dahin bleibt er weg.
19. April 2026Entwicklung
Mein Retro-Musik-Player spielt jetzt wirklich – und der Upload geht automatisch
Auf meiner Hobbys-Seite gibt es einen Retro-Player im Winamp-Stil
mit 25 KI-generierten Songs. Das Problem: Die Songs waren nie wirklich auf dem Server – nur die
Playlist war da, die Dateien fehlten. Heute habe ich das endlich gefixt.
Die Ursache war, dass meine Upload-Admin-Seite die Dateien nur
lokal im Browser gespeichert hat (localStorage), aber nie auf den Server hochgeladen hat. Das habe
ich komplett umgebaut: Jetzt gibt es einen Upload-Proxy auf meinem VPS, der die MP3-Dateien per
SFTP direkt an den Hostinger-Webserver schickt. Drag & Drop in die Admin-Seite → Fortschrittsbalken
→ fertig auf dem Server. Löschen geht auch direkt über den Button.
Technisch ist das ein kleiner FastAPI-Service mit Paramiko (Python SFTP-Bibliothek), der hinter
Traefik unter lernytube.eiskopani.de/music-api/ erreichbar ist. Die Authentifizierung
nutzt denselben Passwort-Hash wie die Admin-Seite – keine doppelte Pflege.
Und weil „es funktioniert" nicht reicht, habe ich 14 Playwright-Tests geschrieben, die den
Player automatisiert prüfen: Ist die Playlist da? Funktioniert
Next/Prev? Kann man die Lautstärke ändern? Und vor allem: Sind alle 25 MP3-Dateien
auf dem Server erreichbar (kein 404)? Alle Tests grün.
16. April 2026Architektur
Monolith oder Microservices? Warum ich mich bewusst gegen den Hype entscheide
Microservices sind in aller Munde – jedes zweite Architektur-Diagramm auf LinkedIn sieht aus
wie ein U-Bahn-Netzplan. Aber brauche ich das wirklich? Ich betreibe drei Projekte auf einem
einzigen VPS mit begrenztem RAM. Heute habe ich mir die Frage ehrlich gestellt: Was passt zu
meiner Situation – und was ist nur Cargo Cult?
Die Antwort war überraschend klar. Microservices lösen ein Teamproblem: Wenn fünf Teams
gleichzeitig an einem Produkt arbeiten, braucht man unabhängige Deployments. Wenn ein
Service 100-mal mehr Last bekommt als der Rest, will man ihn separat skalieren. Beides
trifft auf mich nicht zu. Ich arbeite allein, meine Projekte haben überschaubare Last,
und mein Server hat nicht mal genug RAM für Ollama ohne Swap.
Was Microservices kosten würden: mehr Container, mehr RAM-Verbrauch, Service Discovery,
Health Checks, Retry-Logik, Distributed Tracing statt einfachem Logging. Jeder dieser
Punkte ist ein eigenes Rabbit Hole – und keiner davon macht meine Schuh-Galerie oder
mein Whisky-Kuratorium besser.
Mein Ansatz: Ein sauberer Monolith pro Projekt. Whisky-Kuratorium, LernyTube und EIS
Schuh-Atelier sind bereits getrennte Repositories mit eigenen Containern – das ist die
richtige Schnittlinie. Innerhalb jedes Projekts sorgen Router, Services und Models für
Ordnung, ohne dass ich dafür Netzwerk-Calls zwischen Containern brauche.
Die wichtigste Erkenntnis: Architektur-Entscheidungen sollten von den eigenen
Rahmenbedingungen ausgehen, nicht vom letzten Conference Talk. Ein Solo-Projekt auf
einem VPS ist kein Netflix. Und wenn ein Projekt irgendwann wirklich wächst, kann ich
Module immer noch extrahieren – aber dann aus einer funktionierenden Codebasis heraus,
nicht aus einer vorzeitig zerlegten.
16. April 2026Entwicklung
127 Tests und eine Pipeline – alle drei Projekte abgesichert
Heute war der Tag, an dem aus „es funktioniert auf meinem Server" ein echtes Sicherheitsnetz
wurde. Für alle drei Projekte – LernyTube,
Whisky-Kuratorium und EIS Schuh-Atelier – habe ich
automatisierte Tests geschrieben: Unit-Tests, Integrationstests und End-to-End-Tests mit
Playwright. Insgesamt 127 Stück.
Dazu kamen GitHub-Actions-Pipelines, die bei jedem Push automatisch loslaufen – mit echten
Datenbanken als Service-Container, nicht mit Mocks. Denn genau da hatten wir vorher ein
Problem: Mock-Tests bestanden, aber die echte Datenbank verhielt sich anders. Diese Lektion
sitzt jetzt im Code statt nur im Kopf.
15. April 2026Vita
Vom Zahlungsverkehr zur IT – mein Werdegang bekommt eine Seite
Heute ist der Lebenslauf auf meiner Vita-Seite live gegangen – nicht als trockene Auflistung,
sondern als Timeline, die zeigt, wie sich mein Weg von der Sparkasse über die Deutsche Bahn
bis in die IT-Welt entwickelt hat.
Was dabei sichtbar wird: Testmanagement und Release-Steuerung beim InGe-Tool, agiles
Projektmanagement mit Scrum und SAFe, Prozessautomatisierung mit Power Apps und Power Automate,
Stakeholder-Kommunikation quer durch den Konzern. Dazu kommen Seminare wie IREB, ITIL und
Leading SAFe – und natürlich die laufende Weiterbildung zur Software Developerin (IHK) mit
Python, SQL und Web-Entwicklung.
Besonders spannend finde ich, wie sich der rote Faden zieht: Egal ob Kreditvergabe digitalisieren,
Formulare in Form.io bauen oder heute eigene Docker-Container auf dem VPS betreiben –
es ging immer darum, Abläufe zu verstehen und dann besser zu machen.
14. April 2026Projekt
LernyTube bekommt ein Zuhause – Admin-Panel, Forum und Kalender
Heute hat LernyTube einen großen Sprung gemacht: Aus der reinen Lern-App ist eine kleine
Community-Plattform geworden. Ein komplett neues Admin-Panel ermöglicht die Verwaltung
im Browser, und ein Forum mit Threads, Nachrichten und Emoji-Picker lädt zum Austausch ein.
Dazu kam ein Mini-Kalender auf dem Dashboard, der die eigenen Lernsessions tagesgenau
anzeigt und filtert – so sieht man auf einen Blick, wann man wie viel gelernt hat.
Über 900 neue Zeilen Code an einem Tag, verteilt auf 15 Dateien: Routen, Modelle,
HTML-Templates und JavaScript. Es fühlt sich gut an, wenn aus einer Idee Schritt für
Schritt ein echtes Produkt wird.
8. April 2026Design
Old Money trifft Champagner-Gold – die Seite bekommt einen neuen Anstrich
Heute ging es nicht um neue Funktionen, sondern um Stil. Die ganze Seite hat einen einheitlichen
Old-Money-Look bekommen: Karten im Blog-Stil – weiß, mit goldener Linie obenauf und einem zarten
Schatten – ziehen jetzt durch alle Seiten. Projekte, Weiterbildung, KI-Experimente, alles wirkt
wie aus einem Guss.
Im Header leuchtet ab sofort die aktuell besuchte Seite in Champagner-Gold mit einem weichen
Glow und einer dunklen Patina-Linie darunter – wie ein Messingschild in einer alten Bibliothek.
Die roten Trennlinien unter den Überschriften sind goldenen gewichen, alle Buttons tragen nun
Kupfer-Gold mit Navy-Schrift, und das Motto-Band auf der Startseite hat das schreiende Rot gegen
ein cremefarbenes Band mit goldenen Linien getauscht.
Drei Vorschläge habe ich Claude machen lassen, eine Test-Seite gebaut, im Browser verglichen,
entschieden – und dann lief alles automatisch durch: CSS angepasst, Cache-Buster gebumpt,
per SFTP deployt, in GitHub gesichert. Zum Abschluss noch das Portrait auf wer-bin-ich
ausgetauscht. Manchmal ist ein guter Tag einfach ein Tag, an dem die Seite endlich so aussieht,
wie sie sich anfühlen soll.
8. April 2026KI & Automatisierung
„Mach weiter, ohne mich zu fragen" – ein Experiment
Heute habe ich Claude eine ungewöhnliche Anweisung gegeben: Mach weiter, auch wenn ich nicht
antworte. Erledige alles, was du allein erledigen kannst. Schreib mir am Ende eine Liste, was
wirklich nur ich entscheiden kann. So entstand eine Session, in der ich quasi nur zugeschaut habe.
Das Ergebnis: Sichere Passwörter generiert (64 Zeichen, kryptografisch zufällig), Datenbank
mit den neuen Credentials neu aufgesetzt, ein zentrales Auth-Modul gebaut, alle Routen auf
saubere Bearer-Token im Header umgestellt (statt Token in der URL), CORS auf die richtige
Domain eingegrenzt, Passwort-Validierung serverseitig verschärft, der Excel-Upload auf
10 MB begrenzt – und am Ende ein Git-Push und ein neuer Blog-Eintrag.
Was übrig blieb: drei Punkte, die wirklich meine Entscheidung brauchen – ein DNS-Eintrag
beim Provider, meine echte Admin-Email, und der erste visuelle Test im Browser.
Genau die Art von Arbeitsteilung, die ich mir vorgestellt hatte: Die KI macht das Stumpfe
und Mechanische, ich treffe die Entscheidungen, die nur ein Mensch treffen kann.
8. April 2026Projekt
Vom Backend zum echten Erlebnis – das Kuratorium bekommt sein Gesicht
Heute ist das Whisky-Kuratorium von einer reinen API zu einer echten Anwendung gewachsen.
Das komplette Frontend ist gebaut: eine Galerie mit Filtern nach Region, Kategorie und ABV,
Detail-Ansichten zu jeder Flasche und ein Admin-Dashboard mit Tabs für Nutzerverwaltung,
Excel-Import und das schnelle Hinzufügen einzelner Whiskys. Alles im Old-Money-Stil –
Anthrazit, Gold, Playfair Display.
Im zweiten Teil des Tages ging es um Sicherheit: Sichere Passwörter generiert,
CORS auf die Domain eingegrenzt, der Login-Mechanismus von URL-Parametern
auf richtige Bearer-Token im Header umgestellt, Passwort-Validierung serverseitig
verschärft. Aus einem Prototyp wird langsam ein produktionsreifes System.
6. April 2026Projekt
Ein digitales Kuratorium für Whisky – von Null auf API
Heute ist ein neues Projekt geboren: das Whisky-Kuratorium. Die Idee? Eine exklusive,
einladungsbasierte Plattform, auf der eine Whisky-Sammlung nicht nur katalogisiert,
sondern mit Stil präsentiert wird. Dunkles Design, goldene Akzente – Old Money trifft
auf moderne Technik.
In einer einzigen Session haben wir die komplette Infrastruktur aufgebaut: Docker-Container,
PostgreSQL-Datenbank, Nutzer-System mit Einladungs-Hierarchie (man muss freigeschaltet werden),
JWT-Authentifizierung und eine vollständige API für die Sammlung. Das Highlight: Ein Excel-Import,
der eine ganze Sammlung per Drag-and-Drop einlesen kann – mit automatischer Erkennung,
ob eine Flasche bereits existiert. Manchmal passiert an einem Tag mehr, als man für eine Woche plant.
4. April 2026KI & Automatisierung
Von der Idee direkt in die Aufgabenliste – per Telegram
Heute stand ein ehrgeiziges Ziel auf dem Plan: Aufgaben per Telegram-Nachricht an Claude Code übergeben –
vollautomatisch, ohne Umweg. Was simpel klingt, entpuppte sich als Detektivarbeit durch SSL-Zertifikate,
N8N-Interna und Docker-Berechtigungen.
Das Ergebnis: Ein funktionierender Workflow, der eine Nachricht wie „Baue einen Logout-Button"
entgegennimmt, per lokalem KI-Modell (Ollama) in eine strukturierte Entwicklungsaufgabe verwandelt
und in eine Warteschlange schreibt. Neu dazu kam ein /status-Befehl, der auf Knopfdruck
zeigt, welche Aufgaben offen und erledigt sind. Kleine Nachricht, große Wirkung.
30. März 2026KI & Automatisierung
Ordnung im Chaos – ein System das mitdenkt
Heute haben wir etwas gebaut, das man nicht sieht – aber das jede zukünftige Arbeitssession einfacher macht.
Ein Session-Management-System für meine KI-Zusammenarbeit: eine Start-Datei, die Claude beim Öffnen
sofort weiß, welche Projekte laufen und wo er weitermachen soll.
Und eine Ende-Datei, die sicherstellt,
dass am Schluss nichts verloren geht.
Die echte Herausforderung? Alle laufenden Projekte, Zugangsdaten, Infrastrukturdetails und
Arbeitsregeln so zu strukturieren, dass eine KI in Sekunden einsatzbereit ist – ohne dass ich
jedes Mal von vorne erklären muss. Das ist wie ein perfektes Briefing für einen neuen Kollegen,
den man immer wieder frisch begrüßt.
30. März 2026Entwicklung
Mein Blog geht live – und der Header wächst
Heute habe ich meiner vita-Website zwei neue Navigationspunkte gegeben: Blog und Gästebuch.
Klingt klein – aber dahinter steckt mehr als ein paar Links.
Es ist der Entschluss,
meinen Lernweg öffentlich zu machen. Nicht als Hochglanz-Portfolio, sondern als echtes Tagebuch
meiner Entwicklung.
Dieser Blog wird von mir und meinem KI-Assistenten Claude gepflegt. Nach jeder Arbeits-Session
entsteht hier ein Eintrag – damit nichts verloren geht und du nachvollziehen kannst,
wie Projekte wirklich entstehen.