Geschäftsführer CFO / Controller Vertriebsleiter Operations IT / Digital
Sales & Pipeline Finance, Buchhaltung & Cashflow Kunden & Churn Operations, Einkauf & Supply HR & People Projekte & Delivery Backoffice, IT & Compliance
Technologie So arbeiten wir Preise Kontakt Kostenloser Maturity Check →
Forschung

KI-gestützte Produktinnovation im Mittelstand: Was die HAIAPI-Studie lehrt

Zusammenfassung der Studie von Mirkovski et al. (2025) zur Mensch-Maschine-Kollaboration bei der Produktinnovation in kleinen Unternehmen.

Aufbereitet von Stefan Preusler, Geschäftsführer

Innovation ist für den Mittelstand keine Luxusfrage, sondern Überlebensstrategie. Doch die meisten KMU scheitern an der Einführung intelligenter Systeme — nicht aus mangelndem Willen, sondern aus Ressourcenknappheit. Eine neue Studie im Information Systems Journal zeigt einen pragmatischen Weg auf: das HAIAPI-Framework, das menschliche Expertise und KI-gestützte Analyse in vier Stufen verbindet.

1. Der Kontext: Warum diese Forschung wichtig ist

Großkonzerne setzen seit Jahren auf Muster-Erkennung und automatisierte Analyse, um Produkte zu entwickeln. Für KMU mit 20 bis 500 Mitarbeitern bleibt das oft unerreichbar — aus Mangel an Budget, technischem Personal und strukturierten Daten. Das Paper von Mirkovski, Williams, Liu, Liu und Indulska (2025) adressiert genau diese Lücke.

Die Forscher entwickelten das HAIAPI-Framework (Human-AI-Assisted Product Innovation) und erprobten es an Simply Headsets, einem australischen E-Retailer mit etwa 15 Mitarbeitern und einem Jahresumsatz von über 10 Millionen australischen Dollar. Das Unternehmen wollte ein eigenes Headset-Modell entwickeln, verfügte aber weder über ein strukturiertes Innovationsverfahren noch über die Ressourcen für eine eigene Datenanalyse-Abteilung.

Das Framework baut auf dem bekannten Double-Diamond-Modell auf, unterteilt den Prozess jedoch in vier klar getrennte Schritte: KI-gestützte Problemartikulation, menschliche Problemauswahl, KI-gestützte Lösungsgenerierung und menschliche Lösungsauswahl. Die zentrale These: KI kann Datenmengen verarbeiten und Muster erkennen, die einem menschlichen Team entgehen. Die Entscheidung, welche Probleme relevant und welche Lösungen umsetzbar sind, muss aber beim Menschen bleiben.

2. Die Kernergebnisse

Die Fallstudie liefert bemerkenswerte Zahlen. Aus 21.072 vorbereiteten Kundenreviews extrahierte ein Sprachmodell 17.045 atomare Probleme. Nach Deduplizierung und Zusammenfassung verblieben 417 eindeutige Probleme, die sich auf 14 Produktaspekte verteilen. Drei Produktexperten priorisierten daraus 30 dringliche und umsetzbare Problemstellungen.

In der Lösungsphase generierte die KI für jedes priorisierte Problem zehn Lösungsvorschläge — fünf konkret und umsetzbar, fünf visionär und potenziell disruptiv. Insgesamt entstanden so 4.170 Ideen. Die Experten wählten 60 vielversprechende Ansätze aus und finalisierten drei Prototypen.

Die Genauigkeit der automatisierten Klassifizierung durch das Sprachmodell lag bei 91,03 Prozent — verglichen mit der manuellen Bewertung durch menschliche Experten. Die Bewertung der finalen Probleme durch ein unabhängiges Designteam erreichte einen Durchschnittswert von 25,4 von 30 Punkten, die Lösungen wurden mit 15,2 von 20 Punkten bewertet.

Aus der Fallstudie leiteten die Forscher drei Prinzipien für erfolgreiche Mensch-Maschine-Kollaboration ab:

Komplementarität. Die KI liefert Geschwindigkeit und Objektivität bei der Datenverarbeitung, der Mensch liefert strategisches Urteil und Kontextverständnis. Simply Headsets zeigte, dass die KI Häufigkeit von Beschwerden erkannte, die Experten jedoch wussten, dass eine Akkulaufzeit-Verbesserung mehr Marktimpact hatte als ein geringeres Gewicht.

Iterative Validierung. KI-Outputs sind keine finale Wahrheit. In der Studie produzierte das Modell in frühen Iterationen vage oder irreführende Problemstellungen. Erst durch wiederholtes Prompt-Refinement und menschliche Kreuzprüfung entstanden zielgerichtete Ergebnisse.

Transparenz. Jede KI-generierte Empfehlung muss bis zur Originalquelle zurückverfolgbar sein. Die Experten bei Simply Headsets verweigerten die Akzeptanz von Vorschlägen, sobald keine Herleitung aus den Kundenreviews nachvollziehbar war.

3. Was die Forschung kritisch sieht

Die Autoren nennen offen die Grenzen ihrer Arbeit. Die Skalierbarkeit des Frameworks auf andere Branchen — beispielsweise Fertigung, Handwerk oder Softwareentwicklung — ist noch nicht empirisch validiert. Die Studie konzentriert sich auf einen einzigen Konsumgüter-Händler.

Ein weiteres Manko ist der hohe manuelle Aufwand für die Formulierung und Optimierung der Anweisungen an das Sprachmodell. Das Team bei Simply Headsets investierte zwei Stunden in die Optimierung, bevor die automatisierte Verarbeitung begann. Für KMU ohne interne technische Kompetenz stellt das eine erhebliche Hürde dar.

Die Forschung dokumentiert auch sogenannte Halluzinationen des Modells: Probleme, die in den Kundendaten nie erwähnt wurden, aber von der KI erfunden wurden. Ein Experte kommentierte trocken: "Ich bin mir ziemlich sicher, dass niemals jemand eine Review darüber geschrieben hat, dass sein Headset explodiert ist." Solche Fehlinterpretationen machen menschliche Validierung unverzichtbar.

Zudem übersehen Sprachmodelle implizite Kundenbedürfnisse. Die KI schlug vor, die Akkulaufzeit zu verlängern, erkannte aber nicht, dass das Problem in Wahrheit extremen Umgebungsbedingungen geschuldet war — ein Kontext, den nur menschliche Leser aus den Reviews destillieren konnten.

4. Was das für KMUs bedeutet

Für den Mittelstand lassen sich aus der HAIAPI-Studie drei konkrete Handlungsempfehlungen ableiten:

1. Integrieren Sie KI als Intelligenz-Schicht, nicht als Ersatz für menschliche Expertise. Die Technologie sollte bestehende Workflows erweitern — beispielsweise durch automatisierte Auswertung von Kundenfeedback, Support-Tickets oder Lieferantenbewertungen —, ohne dass ein vollständiger Systemwechsel nötig wird. Das ist auch die Grundidee hinter unserer dreistufigen Engine-Architektur: Die Rules Engine bildet das deterministische Fundament, darauf aufgesetzt folgen heuristische Muster-Erkennung und prädiktive Schichten.

2. Schaffen Sie Traceability von Anfang an. Jede vom System erkannte Anomalie oder jedes identifizierte Problem muss bis zur Ursprungsquelle zurückverfolgbar sein. Das gilt für Churn-Signale ebenso wie für Lieferantenrisiken oder Qualitätsabweichungen. Ohne diese Rückverfolgbarkeit sinkt das Vertrauen im Team und die Akzeptanz der Empfehlungen bricht ein. In unserem Kunden- und Churn-Modul ist diese Herleitung daher zentraler Bestandteil jedes Alerts.

3. Starten Sie mit einem Signal, iterieren Sie dann. Simply Headsets begann mit einer einzigen Produktkategorie und einem klar definierten Datensatz. Der Versuch, sofort alle Geschäftsbereiche zu automatisieren, führt typischerweise zu Informationsüberflutung. Die Empfehlung aus der Forschung: Ein Modul stabilisieren, dann sukzessive erweitern — ein Ansatz, der auch im Aufbau einer unternehmensweiten Wissensbasis greift.

5. Quelle und Kontext

Original-Paper: Mirkovski, K., Williams, P., Liu, L., Liu, H. & Indulska, M. (2025). An AI-Assisted Framework for Improving Innovativeness in Small Businesses: A Human–AI Collaboration Perspective. Information Systems Journal, 35, 1603–1629. DOI: 10.1111/isj.12597

Die Studie wurde vom Australian Research Council gefördert (DP230102657). Die Rohdaten sind auf Anfrage bei den Autoren verfügbar.

Zusammenfassung erstellt von: NaveSight Research Team.

Haftungsausschluss: Diese Zusammenfassung ist eine redaktionelle Aufbereitung und ersetzt nicht das Original-Paper. Für wissenschaftliche Zwecke zitieren Sie bitte die Originalquelle.

Verwandte Inhalte

Kostenloser Maturity Check

Erleben Sie die Intelligenz-Schicht von NaveSight in Aktion.

30 Minuten — wir zeigen Ihnen, wie NaveSight mit Ihren spezifischen Systemen zusammenarbeitet.

Kostenlosen Maturity Check starten

Unsere Garantie: ein konkreter Aktionsplan — ob mit NaveSight oder ohne.

Wir führen 10 Maturity Checks pro Monat durch. Priorisierte Bearbeitung: 48 Stunden.