Die Implementierung von Künstlicher Intelligenz (KI) in Organisationen wird zunehmend vorangetrieben, wobei sich unterschiedliche Herangehensweisen und Herausforderungen offenbaren. Im Folgenden möchte ich zum Jahresabschluß diesbzgl. ein paar für mich auffällige Trends, Hindernisse und Empfehlungen beleuchten:
1. KI und Datenschutz: Eine unreflektierte Verknüpfung
Ich beobachte in jenen Unternehmen die ich berate bzw. die mich kontaktieren 2 klare Herangehensweisen: Einige Organisationen begegnen der KI-Thematik mit Euphorie und Innovationsfreude, stoßen jedoch dann bei der Umsetzung gelegentlich (noch) auf technische Einschränkungen. Andere Unternehmen betrachten KI nahezu ausschließlich durch die Brille des Datenschutzes. Tatsächlich stehen jedoch die meisten KI-Anwendungen – etwa die Generierung von Texten, diverse Übersetzungen oder die automatisierte Erstellung kreativer Inhalte – in keinem direkten Zusammenhang mit sensiblen Daten.
Datenschutz spielt zweifellos eine essenzielle Rolle, sollte jedoch nicht zum Innovationshemmnis degradiert werden. Eine fundierte Risikoanalyse hilft, zwischen relevanten und irrelevanten Datenschutzthemen zu unterscheiden. Dies ermöglicht eine klarere Fokussierung auf die Chancen von KI.
2. Divergente Ansätze: Agil versus prozedural
An das obere Thema anschließend, bemerke ich das Unternehmen hinsichtlich der Implementierung von KI-Systemen unterschiedliche Strategien verfolgen. Ich unterscheide zwischen:
Agile Pioniere: Diese Organisationen fördern experimentelle Ansätze und setzen auf eine proaktive Innovationskultur.
Prozedurale Traditionalisten: Hier dominieren aufwendige Evaluierungsprozesse, die oft an IT- und Rechtsabteilungen delegiert werden. Dieser Ansatz führt nicht selten zu Verzögerungen, einem Verlust von Dynamik und Frustration bei den Mitarbeitern.
Eine effektive Balance aus Agilität und strukturierter Governance ist essenziell, um nachhaltige Fortschritte zu erzielen. Unternehmen, die Datenschutz eng mit Innovationskultur verzahnen, vermeiden unnötige Konflikte – ein Ansatz, der auch im Kontext des EU AI Acts von Vorteil ist (siehe Abschnitt 4).
3. Datenschutz als initialer Diskurs, aber mit differenzierter Gewichtung
Datenschutz wird oft überbetont, insbesondere in Schulungen und Workshops. Tatsächlich betreffen etwa 95 % der typischen KI-Anwendungen keine datenschutzrelevanten Themen. Dennoch sollte Datenschutz nicht ignoriert werden. Stattdessen könnte er zu Beginn von Seminaren strategisch thematisiert werden, um Missverständnisse auszuräumen und Vertrauen zu schaffen. Dies legt die Grundlage für einen unvoreingenommenen Zugang zu den eigentlichen Potenzialen von KI.
4. Der EU AI Act: Irrelevanz und Relevanz im Kontext
Der Einfluss des EU AI Acts auf die Entwicklung und den Einsatz von KI-Produkten bleibt in vielen Anwendungsfällen begrenzt. Seine Relevanz entfaltet sich jedoch bei der Regulierung manipulativer Praktiken, etwa im Bereich der Meinungsbildung. Unternehmen sollten hier frühzeitig Strategien entwickeln, um Transparenz und Vertrauen zu fördern.
Ein Beispiel dafür ist die Etablierung von "Human-Proved"-Standards (siehe Abschnitt 6), die sowohl regulatorischen Anforderungen als auch den Erwartungen der Nutzer gerecht werden können.
5. Effizienz in Trainingszeiten und Transparenz bei Quellen
Die Optimierung von Trainingszeiten stellt einen zentralen Aspekt für die effektive Nutzung von KI dar. Gleichzeitig gewinnt die Transparenz der Datenquellen an Bedeutung:
Plattformen wie OpenAI und Perplexity setzen neue Standards in der Nachvollziehbarkeit genutzter Daten.
User-generierte Inhalte, etwa auf Reddit, tragen mittlerweile signifikant (ca. 20 %) zur Verbesserung von KI-Modellen bei.
Unternehmen sollten explizit darlegen, welche Quellen sie nutzen. Diese Transparenz schafft Vertrauen und verbessert langfristig die Akzeptanz von KI-gestützten Systemen.
6. Vertrauen als Schlüsselfaktor: "Human-Proved" statt "Human-Created"
Die Debatte um maschinell generierte Inhalte verlässt zunehmend die Frage nach deren Ursprung. Entscheidend ist vielmehr, ob Inhalte durch menschliche Expertise geprüft und validiert wurden. "Human-Proved" etabliert sich als zentraler Qualitätsstandard, der nicht nur den regulatorischen Anforderungen entspricht, sondern auch auf Vertrauen und Glaubwürdigkeit abzielt. Aber seit ChatGPT und Perplexity wie oben erklärt deren Quellen öffentlich zeigen, ist dies mehr als ein Faktor auf dem Weg zum KI-Erfolg.
Unternehmen, die Transparenz und Prüfmechanismen in ihren KI-Prozessen implementieren, positionieren sich als vertrauenswürdige Akteure. Diese Haltung korrespondiert eng mit der Notwendigkeit klarer Quellenangaben (siehe Abschnitt 5).
Comments