Sven Ewert – CIO
Chief Innovation Officer (AI Strategy)
Liebe Besucherin, lieber Besucher,
selbst umschulen bringt nichts, behauptet der KI Forscher Roman Yampolskiy. 99 Prozent aller Jobs sind bald ersetzbar. Gerne würde ich für ihr Unternehmen als CIO – Chief Innovation Officer (AI Strategy) tätig werden und beweisen, dass diese Aussage nicht richtig ist. Meine Arbeitsverhältnisse dauern in der Regel wenigstens 3 und maximal 12 Monate. Als KI-Saisonarbeiter kümmere ich mich um das Vorankommen ihrer Organisation im Thema künstliche Intelligenz.
KI bedeutet sich anzupassen und Chancen zu nutzen. In der Startphase finden oder erfinden wir KI-Chancen, die ihrem Unternehmen und ihrem Produkt einen echten Nutzen stiften. Die besten Chancen setzen wir unmittelbar in einer DSGVO-konformen IT-Umgebung in den Live-Betrieb um. Das Ziel ist erreicht, wenn ich das Thema KI an ihre Spezialisten übergeben habe – an ihre Mitarbeiter. Jetzt ist ihre Organisation ready for more im Sinne ansteigender Integration von KI.

Was mich ausmacht?

Laut einer MIT Studie scheitern 95% aller KI Projekte von Organisationen. Ich sorge dafür, dass ihre Organisation zu den 5% gehört, die KI erfolgreich in ihre Organisation integrieren. Welche Schritte zum Ziel ich dabei vorsehe, können sie sich hier im Detail anschauen und prüfen, ob mein Vorgehen ihre Zustimmung finden würde. (KI-Strategie 7 Schritte)
KI Integration ist verbunden mit Widerstand von einigen Mitarbeitenden und mit Widerstand rund um das Thema IT, DSGVO und BIAs. Für beide thematischen Widerstände habe ich Lösungen. Gerne skizziere ich mein Vorgehen in einem ersten Kennenlerngespräch.
Zusammengefasst unterstütze ich als CIO ai ihre Organisation dabei, KI-Technologien strategisch zu implementieren und nachhaltigen Geschäftswert zu generieren. Dabei verantworte ich die Entwicklung, Nutzung und Weiterentwicklung von KI. Das beinhaltet Technical Setup, Unblocking IT, Go Live, und final, wie oben beschrieben die Übergabe an die Spezialisten zur eigenständigen Weiterentwicklung.
Was mich sonst noch ausmacht?
Ich bringe ein Netzwerk aus Spezialisten mit, auf das ihre Organisation bei Bedarf zugreifen kann. In meinem Netzwerk sind Spezialisten für jedes erforderliche KI-Gewerk vertreten (Server, DSGVO, N8N, make, LLM, ITMS…).
Während unserer Zusammenarbeit brauche ich keinen Dienstwagen aber eine KI-Spielwiese die monatlich 500,- € netto kostet. Das ist eine Entwicklungsumgebung, die hilft, den erwarteten Widerstand rund um das Thema IT, DSGVO und BIAs zu ‚erschlagen‘.
Ich habe einen ausgeprägten Sinn für und den Wunsch nach Effizienz und Erfolg. Referenzen von früheren Auftrag- und Arbeitgebern habe ich hier aufgelistet.
Ich freue mich, wenn ich ihr Interesse wecken konnte und würde mich über ihre Kontaktaufnahme freuen – spontan telefonisch 0173 3065087 – Termin vereinbaren.
Danke für den Besuch und hoffentlich lernen wir uns bald kennen.
Herzliche Grüße aus der Südpfalz
Sven Klaus Niels Ewert
Kunden- und Partnerreferenzen
| Organisation | Webseite | Thema |
| ChildFund Deutschland | http://www.childfund.de | KI Strategie Verwaltung |
| AK Consult | https://www.human-touchnologies.de/ | Allzweckwaffe in Sachen IT |
| fonio.ai | https://www.fonio.ai/ | KI Telefonassistent auf Deutsch |
| ZWEI18 | https://zwei18.de/ | Webseiten, n8n Automatisierungen |
| Schriever Schraubenherstellung | schriever-schrauben.de | KI Strategie - devil Prozesse |
| Compleo Charging Solutions | https://www.compleo-charging.com/ | KI Strategie Change Management |
| Allianz Global Corporate & Specialty (AGCS) | https://www.commercial.allianz.com | KI Strategie - RAG - Gutachten |
| Levanty | https://www.levanty.ch/ | Workflows mit Automatisierungen & KI für KMU, make, n8n, airtable |
| Scharff Versicherungsmakler | http://scharff.cc | KI Strategie |
| IIOT Cybersecurity | https://iiot-cybersecurity.com/ | OT-Cybersicherheitslösungen |
| Arachno | arachno.de | KI technical Setups - ITSM - Fördermittelberatung - vapi |
| VÖB | voeb-service.de | KI Strategie |
| SCHUNCK GROUP | https://schunck-group.de/ | KI Strategie Routinen |
| AMDT | https://amdt.com/de/ | KI Strategie Vertrieb |
| WÄTAS Wärmetauscher | https://www.waetas.de/ | KI Strategie - devil Prozesse |
| Letterexpress | https://www.letterxpress.de/ | Briefe online versenden |
F&E – Forschung und Entwicklung
Forschung & Entwicklung heißt: Zukunft ausprobieren.
Wir tüfteln an Music & AI, wo Maschinen zum kreativen Partner werden – und an Annotation & AI, damit Daten schlauer, schneller und einfacher nutzbar sind. Beides mit einem klaren Ziel: smarte Ideen in echte Produkte verwandeln, die begeistern.
music & ai
KI analysiert Musikpräferenzen zur Vorhersage von Beziehungserfolg

Musik gilt seit jeher als ein zentraler Marker für Identität und Gruppenzugehörigkeit. Gemeinsame Musikpräferenzen stärken soziale Kohäsion, während Unterschiede in den Hörgewohnheiten sowohl Reibung als auch Wachstumspotenziale erzeugen können. Mit dem Aufkommen von Künstlicher Intelligenz (KI) und datengetriebenen Empfehlungssystemen rückt die Frage in den Vordergrund, ob und wie musikalische Vorlieben zur Vorhersage des Beziehungserfolgs – privat und geschäftlich – genutzt werden können.
Empirische Studien zeigen, dass Musikpräferenzen nicht nur ästhetische Entscheidungen darstellen, sondern eng mit Persönlichkeitsmerkmalen, emotionalen Dispositionen und sozialen Werten verbunden sind. So korreliert etwa eine Vorliebe für komplexe Musik (Jazz, Klassik) häufig mit Offenheit für neue Erfahrungen, während energiegeladene Genres (Rock, Hip-Hop) eher Extraversion und Geselligkeit widerspiegeln. KI-Modelle können solche Präferenzmuster in Embeddings (z. B. aus Spotify-Daten) übersetzen und damit einen Zugang zu tieferliegenden Persönlichkeitsprofilen schaffen.
Hohe musikalische Überschneidung: Gemeinsame Playlists, ähnliche Konzertbesuche und vergleichbare emotionale Reaktionen auf Songs können als Indikatoren für gemeinsame Rituale und Identitätsbildung gelten. KI-gestützte Analysen würden in diesem Fall eine erhöhte Beziehungsstabilität prognostizieren.
Divergierende Musikvorlieben: Unterschiedliche Genres oder Hörgewohnheiten müssen nicht zwingend negativ wirken. KI-Systeme können unterscheiden, ob Unterschiede komplementär (d. h. gegenseitige Bereicherung) oder konfliktträchtig (d. h. Symbol für tieferliegende Wertekonflikte) sind.
Dynamische Entwicklung: Beziehungen sind prozesshaft. Eine KI könnte erkennen, wie sich musikalische Vorlieben im Zeitverlauf annähern oder auseinanderentwickeln, und daraus Frühindikatoren für Beziehungsqualität ableiten.
Ein typisches Vorhersagemodell würde drei Schichten umfassen:
Input-Layer: Streaming-Daten (Hörverhalten, Skips, Likes), Metadaten (Genres, Stimmungen, Energielevel), sowie emotionale Marker (z. B. aus physiologischen Daten).
Hidden-Layer: Repräsentationen durch Musik-Embeddings (z. B. Word2Vec-ähnliche Modelle für Songs), ergänzt durch Sentiment-Analysen von Konversationen über Musik.
Output-Layer: Kompatibilitäts-Scores und Stabilitätsprognosen, die sich in Prozentwerten oder Risikokategorien ausdrücken lassen.
Dating-Plattformen: Jenseits oberflächlicher Interessen können Musikpräferenzen zu tiefen Matching-Features werden, die bessere Passgenauigkeit ermöglichen.
Paartherapie: KI-gestützte Analysen von Musikvorlieben und Gesprächsinhalten können Muster von Harmonie und Konflikt sichtbar machen.
Self-Reflection Apps: Individuen erhalten Feedback, wie ihre Musiknutzung emotionale Bedürfnisse oder Kommunikationsstile widerspiegelt.
Die Nutzung musikalischer Präferenzen für Beziehungsvorhersagen wirft kritische Fragen auf:
Privatsphäre: Streamingdaten sind hochpersönlich. Ein transparenter Umgang mit Einwilligung und Anonymisierung ist unverzichtbar.
Determinismus vs. Autonomie: KI darf Prognosen nicht als absolute Wahrheiten darstellen, sondern muss Raum für menschliche Entscheidung und Freiheit lassen.
Kulturelle Biases: Musikgeschmack ist kulturell geprägt. Modelle müssen Diversität berücksichtigen, um nicht westliche Normen zu bevorzugen.
KI hat das Potenzial, Musikpräferenzen als indikative Marker für Beziehungskompatibilität nutzbar zu machen. Musik fungiert dabei als emotionales „Common Ground“, das gemeinsame Identität stiftet und Konfliktlinien sichtbar macht. Doch entscheidend ist, dass Vorhersagen nicht als deterministisch verstanden werden, sondern als Werkzeuge der Reflexion: Sie können Menschen dabei unterstützen, ihre Gemeinsamkeiten und Unterschiede bewusster zu gestalten.
Wissenschaftliche Leitung Professor Dr. Martin Engstler, Hochschule der Medien Stuttgart – linkedin.com/in/martin-engstler-0157631b
Sie möchten mehr erfahren? Maja Aiewert erreichen Sie unter +49 173 3065087 – oder schreiben Sie eine Email an info@e-wert.de.
Danke für ihr Interesse.
annotation & ai
Nur durch Annotation können KI-Systeme unterscheiden, ob ein Satz wie „Ich brauche sofort Hilfe“ als alltägliche Bitte oder als dringender medizinischer Notfall verstanden werden muss. Annotation ist die Brücke zwischen impliziten menschlichen Bedeutungen und expliziten maschinellen Repräsentationen.

Diese Arbeit folgt der Annahme, dass „Annotation“ – verstanden als strukturierte Anreicherung von Rohdaten mit semantischen Labels, Zeitbezügen und Kontextmerkmalen – der zentrale Hebel ist, um Wahrnehmung (Perzeption), Verstehen (Situationsmodellierung) und Handeln (Vorhersage/Entscheidung) in KI-Systemen zu koppeln.
Methodisch stützt sich die Untersuchung auf Literatur aus Computer Vision, Sprachtechnologie und Human-in-the-Loop-Ansätzen sowie auf den Vergleich zweier paradigmatischer Domänen:
(i) visuelle Erkennung und Vorhersage in Videos (z. B. autonomes Fahren) und (ii) situative Erfassung in Telefonaten (Dialog-KI). Forschungsleitend sind die Fragen:
(1) Wie beeinflusst Annotation die Modellgüte und Robustheit?
(2) Welche Annotationstypen tragen besonders zum Vorhersagepotenzial bei?
(3) Welche architektonischen Muster verbinden annotierte Repräsentationen mit belastbaren Entscheidungen?
Bild/Video: Bounding Boxes (2D/3D), semantische/instanzbasierte Segmentierung, Keypoints/Skelettmodelle, temporale Verknüpfungen (Tracks), Ereignislabels (z. B. „Beinahekollision“). In autonomen Systemen ermöglichen diese Schemata nicht nur Klassifikation, sondern Szenenkomposition (Straße/Gehweg/Fahrzeug/Fußgänger) und Dynamikabschätzung.
Sprache/Telefonie: Transkript-Annotation (Token/Spans), Dialog-Acts (Frage, Bitte, Eskalation), Intents („Termin buchen“), Slots/Entitäten (Datum, Name), Sentiment/Emotion, Gesprächsphasen (Begrüßung, Klärung, Abschluss), Compliance-Labels. Damit werden implizite Pragmatik und soziale Signale explizit lernbar.
Qualität & Betrieb: Active Learning (Unsicherheits-getriggerte Nachannotation), Weak/Self-Supervised Signals, Konsensbildung (Mehrannotator-Agreement), Audit-Trails, Data Cards/Datasheets. Ergebnis: messbar bessere Generalisierung, kontrollierbare Drift und rückverfolgbare Entscheidungen.
Annotation transformiert Wahrnehmung in Prognosefähigkeit, indem sie Kausalhinweise (z. B. Bewegungsrichtung, Absicht), Zeitstruktur (Ereignisfolgen) und Kontextvariablen (Wetter, Tageszeit, Telefonanliegen) kodiert.
Video: Aus Tracks + Szenenmasken entstehen Trajektorienmodelle (Fußgänger quert? Fahrzeug wechselt Spur?), Risiko- und Ereignisprädiktionen („harsh braking in 1.2 s“).
Telefonate: Aus Intents, Emotion und Dialogzustand entstehen Policy-Vorhersagen (nächste beste Aktion), Eskalationsprognosen und Erfolgswahrscheinlichkeiten (First-Call-Resolution).
Kurz: Gute Labels → robuste Repräsentationen → belastbare Vorhersagen, auch unter Verdeckung, Lärm, Akzenten oder seltenen Corner Cases.
Datenquellen: Multisensorik (Kamera, LiDAR, Radar), synthetische Daten/Simulation, Domänenadaptionen; in Sprache: IVR-Aufzeichnungen, Kontaktcenter-Logs, öffentlich verfügbare Korpora, zusätzlich generierte Paraphrasen zur Abdeckung.
Architekturprinzip: Foundation-/Encoder-Modelle (Vision/Audio/Text) + zeitliche Modelle (Temporal Convolutions, Transformers) + Fusionsschichten (Cross-Attention) + Policy-Ebene für Entscheidungen. Annotation wirkt als Bindeglied zwischen Rohsignalen und diesen Repräsentationsebenen (Supervision, Evaluation, Monitoring).
Ein typisches Vorhersagemodell würde Schichten umfassen:
- Eingang & Vorverarbeitung: Normalisierung, Voice Activity Detection, Frame-Sampling, Sensor-Zeitabgleich.
- Feature-Encoder: z. B. Vision Transformer/CNN; wav2vec/Conformer für Audio; Text-Encoder für Transkripte.
- Temporale Modellierung: Sequenz-Transformer/TCN zur Erfassung von Dynamik, Pausen, Prosodie bzw. Objektbewegung.
- Multimodale Fusion: Cross-Modal Attention (Bild↔Text↔Audio; Video↔LiDAR), späte/ hybride Fusion.
- Vorhersageköpfe: Klassen/Intents, Regressoren (Zeit-zu-Ereignis), Trajektorien, „Next-Best-Action“.
- Uncertainty & Calibration: Evidential DL, Temperature Scaling, OOD-Detektion.
- Feedback-Loop: Active Learning, Human-in-the-Loop-Reannotation, Data-Drift-Alarme.
Autonomes Fahren: Fußgängerabsicht, Kollisionsrisiko, Spurwechsel-Prädiktion, Lichtsignalerkennung; On-Board-/Edge-Inference mit Rückkopplung ins Trainingsdata-Lake.
Gesundheit/Telemedizin: Triage im Telefonat (Notfallindikatoren), Adhärenz-Risiko, Terminpriorisierung, Therapie
Kundenservice: Eskalationsprognose, Churn-Signals, Compliance-Checks in regulierten Branchen.
Industrie/Logistik: Gefahrenzonen-Erkennung in Werksvideos, ETA-Vorhersage, Anomalieerkennung in Prozessdaten, Diebstahlerkennung
Sicherheit/Smart Cities: Ereignisdetektion (Sturz, Brandindikatoren), Crowd-Flow-Vorhersage unter Wahrung der Privatsphäre.
Datenschutz & Einwilligung: Zweckbindung, Minimierung, Pseudonymisierung; bei Telefonaten: sensible Inhalte, klare Opt-In/Opt-Out-Mechanismen.
Transparenz & Erklärbarkeit: Dokumentation der Datenherkunft, Labeling-Guidelines, Model Cards; lokal verständliche Begründungen für Maßnahmen (z. B. Eskalation).
Sicherheitskritik: Fail-safe-Policies, menschliche Übersteuerung, gestufte Freigaben vor produktiver Nutzung.
Kulturelle Biases:
Erhebungsbias: Überrepräsentation bestimmter Stadtbilder/Sprachen/Soziolekte führt zu schlechter Performance in unterrepräsentierten Gruppen.
Annotator-Bias: Normen/Interpretationen (etwa „aggressiver Ton“) variieren kulturell; Abhilfe: diverse Annotator-Pools, Kalibrierungssessions, Inter-Annotator-Agreement (Cohen’s κ), aktiver Abgleich mit Outcome-Metriken.
Kontextverschiebung: Modelle, die in einer Kultur trainiert werden, verallgemeinern nicht automatisch in eine andere; erfordert Domänenadaption, Fairness-Tests und kontinuierliches Monitoring.
Annotation ist mehr als Vorstufe des Trainings: Sie ist das semantische Betriebssystem moderner KI. Wo gute Labels existieren, entstehen stabile Repräsentationen, belastbare Vorhersagen und auditierbare Entscheidungen – im Fahrbetrieb ebenso wie im Telefonat. In Verbindung mit Active/Self-Supervision und Human-in-the-Loop wird Annotation zum Motor kontinuierlicher Verbesserung. Für Forschung und Praxis heißt das: in Daten- und Labelqualität investieren, Bias systematisch reduzieren, Unsicherheit messen und die soziotechnische Einbettung von KI aktiv gestalten.
Wissenschaftliche Leitung:
Professor Dr. Raphael Johannknecht, Technische Hochschule Mittelhessen – linkedin.com/in/johannknecht
Sie möchten mehr erfahren?
Maja Aiewert erreichen Sie unter +49 173 3065087 – oder schreiben Sie eine E-Mail an info@e-wert.de.
Danke für Ihr Interesse.

