Individuelle Software, präzise entwickelt.
Core Development
Individuelle Webanwendungen für moderne Geschäftsprozesse
Unternehmen stehen häufig vor der Herausforderung, interne Prozesse oder Fachlogiken digital abzubilden, ohne sich in unübersichtlichen Tools oder Excel-Abhängigkeiten zu verlieren. Individuelle Webanwendungen schaffen hier eine zentrale, verlässliche Plattform, die Abläufe strukturiert, automatisiert und jederzeit erweiterbar hält.
Wir entwickeln Webanwendungen nach klaren Architekturprinzipien: fachliche Logik getrennt von Infrastruktur, saubere Schnittstellen, modulare Strukturen und testbare Komponenten. Durch ein iteratives Vorgehen, enge Abstimmung und solide Dokumentation entsteht Software, die auch Jahre später problemlos erweitert werden kann.
Angular für moderne Frontends, .NET für performante Backends, API-First-Design, Clean Architecture, strukturiertes State-Management, Identity- und Rollenmodelle, CI/CD-Pipelines sowie Logging und Monitoring für den stabilen Betrieb.
Mobile Business-Apps mit Angular & Ionic
Viele Prozesse finden nicht am Schreibtisch statt, sondern unterwegs, in der Produktion, auf Objekten oder beim Kunden. Mobile Apps ermöglichen es, Daten direkt vor Ort zu erfassen, Informationen abzurufen und Freigaben zu erteilen - ohne Medienbrüche, Zettelwirtschaft oder nachträgliche Nacherfassung.
Wir setzen auf ein gemeinsames Technologiefundament mit Angular, um Web- und Mobile-Anwendungen konsistent zu entwickeln. Wo sinnvoll, greifen wir auf bestehende Backends und Identity-Lösungen zurück, statt neue Insellösungen zu schaffen. UX und Performance werden auf die Nutzung im Feld ausgelegt - inklusive Offline-Szenarien und robuster Fehlerbehandlung.
Angular als gemeinsame Basis für Web und Mobile, Ionic und Capacitor für Cross-Plattform-Apps, Integration nativer Funktionen wie Kamera, GPS oder Push, abgesicherte API-Anbindungen, App-Store-Deployment (Apple App Store, Google Play), sowie CI/CD-Pipelines für automatisierte Builds und Releases.
Moderne Desktop-Software für anspruchsvolle Fachanwendungen
Nicht jede Anwendung ist im Browser ideal aufgehoben. Wenn komplexe Masken, hohe Eingabegeschwindigkeit, umfangreiche Tastaturkürzel oder spezielle Hardware-Anbindungen im Vordergrund stehen, bieten Desktop-Anwendungen im Windows-Umfeld weiterhin klare Vorteile. Wir unterstützen Unternehmen dabei, solche Lösungen strukturiert zu planen, neu aufzusetzen oder zu modernisieren.
Wir setzen auf ein klares MVVM-Pattern, saubere Schichten und eine strikte Trennung von UI, Logik und Datenzugriff. Bestehende Business-Logik kann, wo möglich, wiederverwendet und in moderne Projekte überführt werden. Durch testbare ViewModels, ein konsistentes UI-Design und strukturierte Migrationspfade entstehen Desktop-Anwendungen, die sich stabil betreiben und langfristig weiterentwickeln lassen.
C# und .NET (aktuelle Versionen), WPF mit MVVM, Nutzung von Dependency Injection, saubere Layering-Konzepte, Anbindung von REST-APIs oder Datenbanken, sowie Packaging, Deployment und Update-Strategien für Windows-Umgebungen (z. B. MSIX, ClickOnce-Nachfolger, Unternehmensverteilung).
Skalierbare Backends und Integrationsschichten mit .NET
Viele Systemlandschaften bestehen aus historisch gewachsenen Anwendungen, Einzellösungen und Dateninseln. Zentrale WebAPIs und Microservices helfen dabei, diese Landschaft zu ordnen: Geschäftslogik wird an einem Ort gebündelt, Daten werden konsistent bereitgestellt und neue Anwendungen können auf eine saubere Schnittstellenbasis aufsetzen.
Wir entwerfen Backends nach Clean-Architecture-Prinzipien: Domänenlogik im Zentrum, Infrastruktur klar an den Rändern. Verantwortlichkeiten werden bewusst geschnitten, damit Services überschaubar bleiben und unabhängig weiterentwickelt werden können. Fehlerhandling, Logging, Security-Aspekte und Versionierung der APIs werden von Beginn an mitgedacht. Wo sinnvoll, starten wir mit einem gut strukturierten Monolithen und bereiten den Weg für spätere Aufteilung vor.
.NET (WebAPI, Minimal APIs), MediatR für Entkopplung innerhalb der Anwendung, Clean Architecture, Authentifizierung und Autorisierung (z. B. JWT, Identity), Integration von Datenbanken und Messaging-Systemen, SignalR für Realtime-Kommunikation sowie CI/CD-Pipelines für automatisierte Tests und Deployments.
Data & Operations
Datenströme verbinden und automatisiert verarbeiten
In vielen Unternehmen liegen relevante Daten verteilt in unterschiedlichen Systemen, Datenbanken und Dateien. Manuelle Exporte und Excel-Konstruktionen sind fehleranfällig und schwer reproduzierbar. Durch strukturierte Datenintegration und ETL-Prozesse schaffen wir eine verlässliche Grundlage, auf der Berichte, Analysen und operative Anwendungen sicher aufbauen können.
Wir konzipieren ETL-Strecken so, dass sie auch langfristig nachvollziehbar, erweiterbar und stabil bleiben. Dazu gehören klare Schnittstellen, Idempotenz, aussagekräftiges Logging, Monitoring und ein strukturiertes Fehlerhandling. Wo sinnvoll, setzen wir auf inkrementelle Ladeverfahren, um Laufzeiten zu optimieren und Systeme nicht unnötig zu belasten.
Implementierung von ETL-Prozessen mit .NET, SQL und vorhandenen Tools (z. B. SSIS), Nutzung von Job-Schedulern (Windows Task Scheduler, SQL Agent, CI/CD-Jobs), robuste Fehlerbehandlung, Idempotenz-Konzepte, Logging- und Monitoring-Integration sowie strukturierte Konfigurations- und Parameterverwaltung.
Automatisierte Build- und Release-Prozesse
Je mehr Systeme im Einsatz sind, desto wichtiger wird ein verlässlicher Auslieferungsprozess. Manuelle Deployments sind fehleranfällig, kosten Zeit und erzeugen Unsicherheit im Betrieb. Mit durchdachten CI/CD-Pipelines sorgen wir dafür, dass neue Versionen kontrolliert, nachvollziehbar und mit klaren Qualitätschecks in die Zielumgebungen gelangen.
Wir analysieren die bestehende Landschaft und bauen darauf auf, statt alles neu zu erfinden. Pipelines werden so gestaltet, dass sie für das Team nachvollziehbar bleiben und schrittweise erweitert werden können. Tests, Security-Checks und Qualitätssicherungen werden gezielt integriert, ohne den Prozess unnötig zu verkomplizieren. Dokumentation und Übergabe an interne Teams sind dabei fester Bestandteil.
CI/CD mit GitHub Actions oder Azure DevOps, Containerisierung mit Docker, Build- und Release-Pipelines für .NET- und Angular-Projekte, automatisierte Tests (Unit, Integration, E2E) im Pipeline-Kontext, Umgang mit Umgebungsvariablen und Secrets sowie Strategien für Blue-Green-, Canary- oder Rolling-Deployments.
Daten sicher in neue Systeme und Strukturen überführen
Beim Wechsel von Fachanwendungen, ERP-, Reporting- oder Individuallösungen ist die Datenmigration einer der kritischsten Schritte. Falsche Zuordnungen, unvollständige Übernahmen oder fehlende Historien können später teuer werden. Wir unterstützen dabei, Daten strukturiert aus Altsystemen zu extrahieren, fachlich sinnvoll zu transformieren und in neue Strukturen zu überführen - mit klaren Prüf- und Rückfallkonzepten.
Wir beginnen mit einer detaillierten Analyse der Quell- und Zielstrukturen sowie der fachlichen Anforderungen. Darauf aufbauend definieren wir Mappings, Transformationsregeln und Validierungsschritte. Migrationsstrecken werden testbar umgesetzt, mit Probeläufen, Prüfberichten und klaren Rollback-Szenarien. Fachbereiche werden aktiv eingebunden, um sicherzustellen, dass die migrierten Daten fachlich korrekt und nutzbar sind.
Analyse von Datenmodellen und Schemas, Implementierung von Migrationsstrecken mit SQL und ETL-Tools, Skripte für einmalige oder wiederholte Läufe, Umgang mit großen Datenmengen, Konsistenz- und Integritätsprüfungen, Protokollierung von Migrationsergebnissen sowie Unterstützung bei Cutover-Planung und Parallelbetrieb.
Immersive Experiences
Markenprägende 3D-Heroes & Micro-Interactions
Digitale Auftritte sollen sich abheben, ohne überladen zu wirken. Markante 3D-Elemente im Hero-Bereich oder entlang einer Seite können komplexe Themen, Produkte oder Botschaften auf einen Blick vermitteln - und unterstützen so Branding, Wiedererkennung und Storytelling.
Wir setzen 3D bewusst ein: gezielt, ressourcenschonend und eingebettet in das Gesamtdesign. Konzeption, Prototyping und Feintuning erfolgen iterativ, damit Animationen und Interaktionen zum Inhalt passen - nicht umgekehrt. Performance, Barrierefreiheit und Fallbacks für schwächere Endgeräte werden von Beginn an berücksichtigt.
Three.js und WebGL für performante 3D-Szenen im Browser, Blender für die Vorbereitung und Optimierung von Modellen, GLTF/GLB als Austauschformat, strukturierte Szenengraphen, Texture-Optimierung, Lazy Loading, sowie Integration in moderne Frontend-Stacks (z. B. Angular) inklusive sauberer Ressourcenverwaltung und Cleanup-Strategien.
Produkte, Räume und Abläufe im Browser erlebbar machen
Viele Produkte, Maschinen oder Prozesse lassen sich in klassischen Bildern oder Texten nur schwer vermitteln. Interaktive 3D-Modelle ermöglichen es, Aufbau, Funktionen und Varianten direkt im Browser zu erkunden - ohne Plugin und ohne zusätzliche App. Das unterstützt Vertrieb, Schulung und Entscheidungsprozesse gleichermaßen.
Wir kombinieren saubere 3D-Modellierung mit einer klaren UI-Führung. Dabei achten wir darauf, dass Interaktionen intuitiv bleiben und Nutzer nicht von Funktionen erschlagen werden. Wo sinnvoll, binden wir Live-Daten oder Metadaten an Modelle, um Inhalte kontextbezogen einzublenden. Performance-Optimierung, sinnvolle Level-of-Detail-Strategien und mobile Tauglichkeit sind fester Bestandteil des Konzepts.
Three.js und WebGL für interaktive Szenen, Modellierung und Aufbereitung in Blender, Nutzung von GLTF/GLB inklusive Material- und Texture-Optimierung, Implementierung von Orbit- und Kamera-Steuerungen, Hotspot- und Overlay-Logik, Anbindung an Backends oder APIs für dynamische Inhalte sowie Integration in bestehende Webapplikationen.
Daten und Zusammenhänge dreidimensional erfahrbar machen
Klassische Tabellen und 2D-Charts stoßen an Grenzen, wenn es um räumliche Beziehungen, Hierarchien oder hochdimensionale Daten geht. 3D-Visualisierungen können hier helfen, Strukturen sichtbar zu machen, die sonst verborgen bleiben - etwa bei Anlagen, Netzen, räumlichen Verteilungen oder komplexen Zustandsräumen.
Wir beginnen mit der fachlichen Frage: Was soll sichtbar werden, was bisher schwer greifbar ist? Darauf aufbauend entwerfen wir Visualisierungen, die das Wesentliche in den Vordergrund stellen und Interaktion gezielt einsetzen. Datenanbindung, Aggregation und Filterlogik werden so gestaltet, dass auch bei größeren Datenmengen eine flüssige Bedienung möglich bleibt.
Three.js/WebGL für die 3D-Darstellung, Anbindung von Datenquellen über APIs, serverseitige oder clientseitige Aggregation, Nutzung von Shadern und Materialien zur Hervorhebung relevanter Bereiche, Kombination mit klassischen UI-Komponenten (Filter, Legenden, Charts) sowie Fokus auf Performance, Culling und sinnvolle Vereinfachung von Modellen und Daten.
Advisory & Strategy
Qualität absichern durch Tests und Observability
Je komplexer eine Anwendung und ihre Umgebung, desto wichtiger sind verlässliche Qualitätsmechanismen. Manuelle Tests und Bauchgefühl reichen irgendwann nicht mehr aus. Durch strukturierte Teststrategien, Observability und Monitoring sorgen wir dafür, dass Probleme früh erkannt, Ursachen schneller gefunden und Systeme langfristig stabil betrieben werden können.
Wir starten mit einer Bestandsaufnahme: Welche Teile des Systems sind kritisch, was wird bereits getestet und wo fehlen Sichtbarkeit und Metriken? Darauf aufbauend entwickeln wir eine pragmatische Test- und Monitoring-Strategie, die zum Team und zum Projekt passt. Unser Fokus liegt auf hoher Aussagekraft bei vertretbarem Aufwand - mit klaren Prioritäten, statt alles gleichzeitig testen zu wollen.
Unit- und Integrationstests in .NET, End-to-End-Tests für Webanwendungen, Nutzung von Logging-Frameworks wie Serilog, zentrale Log-Speicherung z. B. mit Seq oder ELK, Metriken und Dashboards mit Tools wie Grafana oder Application Insights, Alerting-Konfiguration sowie Integration von Tests und Qualitätschecks in CI/CD-Pipelines.
Saubere Architektur für nachhaltige Software
Viele Systeme wachsen über Jahre organisch und werden irgendwann schwer verständlich, langsam und riskant zu ändern. Eine durchdachte Architektur schafft hier Ordnung: Fachliche Logik wird klar strukturiert, Abhängigkeiten werden reduziert und Erweiterungen lassen sich gezielt planen, statt nur noch zu “flicken”. Wir unterstützen dabei, neue Architekturen aufzusetzen oder bestehende Lösungen schrittweise in eine bessere Struktur zu überführen.
Wir verbinden fachliches Verständnis mit technischen Prinzipien. Zunächst klären wir, welche Domänen es gibt, wie Verantwortlichkeiten geschnitten werden sollten und welche Qualitätsziele im Vordergrund stehen (z. B. Wartbarkeit, Performance, Integrationsfähigkeit). Darauf aufbauend entwerfen wir Architektur- und Schnittstellenkonzepte, die in der Realität umsetzbar sind - inklusive Empfehlungen für schrittweise Einführung, Refactoring und Dokumentation.
Clean Architecture, Domain-Driven Design (DDD) als Orientierung, sinnvolle Anwendung von CQRS, Schichten- und Modulkonzepte, Schnittstellendesign (APIs, Events, Messaging), Umgang mit Bounded Contexts, Trennung von Domänenlogik und Infrastruktur, sowie Begleitung bei der Nutzung von Architektur-Patterns im .NET-Umfeld.
Teams befähigen, moderne Software zu bauen
Technische Lösungen sind nur so gut wie die Teams, die sie entwickeln und betreiben. Statt reine Theorie zu vermitteln, setzen wir in Schulungen und Workshops auf konkrete Fragestellungen aus dem Projektalltag. So entstehen Formate, die nicht nur Wissen transferieren, sondern direkt zu besseren Entscheidungen im Code und in der Architektur führen.
Wir gestalten Schulungen modular und praxisorientiert. Inhalte werden auf das vorhandene Wissensniveau und die konkrete Projektsituation zugeschnitten. Live-Coding, Beispiele aus dem Projekt und Raum für Fragen sind fester Bestandteil. Auf Wunsch begleiten wir Teams auch über den eigentlichen Workshop hinaus, um das Gelernte im Alltag zu verankern.
Trainings zu .NET und C#, Angular-Entwicklung, Architekturgrundlagen (z. B. Clean Architecture, DDD-Einstieg), Testing (Unit, Integration, E2E), CI/CD-Pipelines, Logging & Monitoring sowie Best Practices für Code-Qualität, Refactoring und Zusammenarbeit in Entwicklungsteams.
Fundierte Entscheidungen für Ihre Systemlandschaft
Technische Entscheidungen haben langfristige Konsequenzen - bei Kosten, Komplexität und Veränderbarkeit. Gleichzeitig stehen Teams häufig unter Zeitdruck und müssen auf unvollständiger Informationsbasis entscheiden. Wir helfen dabei, Optionen strukturiert zu bewerten, Risiken transparent zu machen und eine Roadmap zu entwickeln, die sowohl fachliche als auch technische Anforderungen berücksichtigt.
Wir arbeiten unabhängig von einzelnen Herstellern und fokussieren uns auf Passung: Welche Lösung ist für das konkrete Unternehmen, das Team und die Rahmenbedingungen sinnvoll? Dazu führen wir Interviews, analysieren bestehende Systeme und erstellen klare, verständliche Empfehlungen - inklusive Alternativen und ihren jeweiligen Vor- und Nachteilen. Ergebnisse werden so aufbereitet, dass sowohl Management als auch Technikteams damit arbeiten können.
Bewertung von .NET- und Web-Technologiestacks, Architektur- und Code-Reviews, Analyse von Performance- und Wartbarkeitsthemen, Einschätzung von Cloud- vs. On-Premise-Szenarien, Unterstützung bei der Auswahl von Werkzeugen (z. B. für CI/CD, Monitoring, Datenverarbeitung) sowie Strukturierung von Roadmaps und Modernisierungsvorhaben.