Sieben Prinzipien einer Menschenzentrierten KI

Titelbild mit Grafik 7 Erfolgsfaktoren einer menschenzentrierten KI

Vertrauen ist kein Zufall: Die sieben Prinzipien einer Humanistischen KI

In den fünf Teilen dieser Serie stelle ich Ihnen meine KI Strategie vor. Von den Beweggründen bis zur Ausführung.

Und übrigens, obwohl es in den Artikeln ausschließlich um KI geht, sind alle komplett KI-frei entstanden 👍🏻

 

Wenn wir über KI sprechen, sprechen wir oft über Leistungsfähigkeit, Effizienz oder technologische Sprünge. Es ist das Next Big Thing geworden, nicht nur für die Tech-Branche. Viel zu selten reden wir jedoch über Vertrauen. Dabei ist genau das die entscheidende Währung, wenn KI im Coaching, in der Führung oder in der persönlichen Entwicklung eine Rolle spielen soll.

Ich bin überzeugt: Eine zukunftsfähige KI braucht mehr Vertrauen als Rechenleistung. Sie braucht klare Haltung und Prinzipien, wie wir mit ihr umgehen – als Coaches, als Führungskräfte, als Gesellschaft.

In diesem Artikel stelle ich die sieben Prinzipien (vielleicht besser: Erfolgsfaktoren) vor, die für mich die Grundlage einer humanistischen, menschenzentrierten KI bilden. Es sind die Themenfelder, die in meiner Arbeit mit Führungspersönlichkeiten immer wieder aufscheinen, wenn wir darüber sprechen, wie Vertrauen in neue Technologien entstehen kann – und woran es oft noch fehlt.

Diese sieben Elemente sind das Ergebnis eines längeren Auseinandersetzens mit einem durchaus komplexen Thema: Ich habe gelesen, analysiert, getestet – und vor allem viele Gespräche geführt, bei denen es fast immer an einen entscheidenden Punkt kam: können wir der Sache überhaupt vertrauen? Ich sprach mit skeptischen Führungskräften. Mit begeisterten Tech-Nerds. Mit PsychologInnen und anderen Coaches. Und nicht zuletzt mit der KI selber, zunächst mit ChatGPT (wie in meinem Video vom Frühjahr 2023, bei dem die Antworten von ChatGPT heute noch erstaunlich relevant sind) und später mit meinem eigenen KI-Chatbot COBI, den ich in mehreren Alpha- und Beta-Phasen aufgebaut, getestet und weiterentwickelt habe.

Was dabei entstanden ist, ist keine technische Anleitung. Die sieben Prinzipien bzw. Vertrauenskriterien sind zunächst nur mein eigener Kompass, wie ich mit Künstlicher Intelligenz umgehe.

Und vielleicht auch mein Beitrag zu der Idee einer Humanistischen KI, die den Menschen nicht ersetzt, sondern stärkt. Genau darum geht es.

Grafik 7 Erfolgsfaktoren einer menschenzentrierten KI

#1 Inhaltliche Qualität: Persönlich. Präzise. Punktgenau.

Vertrauen ist im Coaching kein Zufallsprodukt – es entsteht durch Wellenlänge und Substanz. Und Substanz zeigt sich vor allem in der Qualität der Inhalte. Was zählt, ist Relevanz statt Beliebigkeit. Tiefe statt Oberflächlichkeit. Haltung statt Hype.

Deshalb war mir von Anfang an klar: Wenn ich KI in meine Arbeit integriere, dann nicht als Fake-Content-Maschine, die ihr Wissen aus dem Netz zusammenklau(b)t, notfalls sogar erfindet (das nennt man dann “halluzinieren”). Sondern als intelligente Erweiterung meiner eigenen Expertise. Das heißt: nicht als Ersatz des eigenen Kopfes, sondern als ein methodisches ‘Second Brain’ (eine meiner großen Erkenntnisse aus den Teilnahmen an drei Second-Brain-Cohorts bei Tiago Forte). Mein Chatbot COBI zum Beispiel basiert nicht auf anonymen Internet-Wissen, sondern auf dem, was ich seit vielen Jahren in der Arbeit mit Führungspersönlichkeiten entwickelt habe: erprobte Methoden, reflektierte Erfahrungen und fundiertes Coaching-Knowhow.

Diese Inhalte sind kein Zufallsprodukt. Sie sind über Jahre gewachsen – in interessanten Workshops, in vertraulichen Coachings, in meinen Notizen und Fotodokumentation, im Schreiben von Blogartikeln und Produzieren von Videos. All das speist meine KI-Lösungen: mein eigenes, proprietäres Wissen. Und ich achte sehr bewusst darauf, dass die Qualität und Tonalität dieser Inhalte erhalten bleiben – professionell, differenziert und auf den Punkt.

Denn: Führungskräfte spüren, wenn Antworten Substanz haben. Und sie merken genauso schnell, wenn sie es nicht tun.

#2 Kundenakzeptanz: Der lange Weg von Skepsis zu Vertrauen

Wenn ich mit Führungskräften über den Einsatz von KI im Coaching spreche, begegnet mir vor allem eines: Zurückhaltung. Viele sind neugierig – aber gleichzeitig skeptisch. Und das völlig zu Recht. Denn Coaching lebt vom menschlichen Kontakt, von Empathie, Intuition und der Fähigkeit, Zwischentöne zu hören. Kann eine KI das leisten?

Um diese Fragen fundiert zu beantworten, habe ich nicht nur meine eigene Haltung hinterfragt. Ich habe auch hingeschaut und zugehört: in persönlichen Gesprächen, in eigens durchgeführten Kundenumfragen und in mehreren Testrunden mit meinem KI-gestützten Bot COBI. Die Alpha- und Beta-Phasen haben mir wertvolle Einblicke geliefert – was funktioniert, wo es hakt, wo echtes Potenzial liegt.

Und ja, es gab auch Rückschläge. KI ist wider Erwarten kein Zauberwerkzeug. Manchmal halluziniert sie – formuliert Antworten, die zwar plausibel klingen, aber inhaltlich einfach nicht stimmen. Oder sie versucht, auf Fragen zu antworten, für die sie schlicht (noch) keine tragfähige Grundlage hat. Genau das hat mir gezeigt: Vertrauen in KI entsteht nicht nur durch gute Inhalte – sondern auch durch klare Verhaltensregeln und Grenzen.

Diese Regeln und Grenzen zu definieren war ein Lernprozess. Ich musste herausfinden, an welchen Stellen eine KI im Coaching besser schweigt als spekuliert. Und ich musste lernen, wie man das einer KI überhaupt beibringt. Damit ein Chatbot wie COBI nicht nur spricht, sondern auch weiß, wann Zuhören klüger ist. Wann ein netter Plauderton besser ist als ein ungefragter Ratschlag. Oder wann man vom Sie auf Du schwenken kann.

Die Entwicklung von Akzeptanz einer KI durch Coachees ist kein Alles-oder-nichts. Das ist ein Weg. Ein Weg, der mit vorsichtiger Annäherung beginnt, über erste positive Erfahrungen führt – und dann, Schritt für Schritt, in Vertrauen mündet.

In diesem Prozess sehe ich mich in einer doppelten Rolle: Als Impulsgeber, der neue Möglichkeiten aufzeigt. Und als achtsamer Begleiter, der Raum lässt für Zweifel, Bedenken und individuelle Lernkurven. Mein Anspruch ist nicht, meine Kundinnen und Kunden in ein KI-Coaching zu drängen. Sondern ihnen zu zeigen, wie sie KI für sich nutzen können – souverän, reflektiert und immer mit der Kontrolle in der eigenen Hand.

Nur so entsteht Akzeptanz, die nicht oberflächlich bleibt – sondern im Ergebnis nachhaltig wirkt.

Hat ChatGPT eine weibliche oder männliche Stimme? Wie funktioniert Künstliche Intelligenz überhaupt? Was rollt da eigentlich auf uns zu? Und vor allem: wie sollen wir damit umgehen? Auf all diese Fragen stand mir ChatGPT wenige Wochen nach seiner „Geburt“ eine Stunde lang Rede und Antwort. Gefühlt war es für mich ein Gespräch auf Augenhöhe. Die wichtigsten Passagen unseres Talks habe ich für Sie in Szene gesetzt, inklusive aller Fehler, die eine KI im Eifer des Gefechts eben so macht 😉

Irgendwie musste ich da auf einmal an HAL9000 denken, den berühmten Supercomputer aus Stanley Kubricks „2001 – Odyssee im Weltraum“. Die letzte Sequenz im Video ist meine Hommage an HAL9000, also ganz bis zum Schluß gucken!

#3 Regulatorische Aspekte: Vertrauen braucht einen Rahmen

Im Coaching geht es oft um persönliche Themen, strategische Entscheidungen, sensible Reflexionen. Wer hier auf KI setzt, übernimmt Verantwortung – nicht nur für die Qualität der Inhalte, sondern auch für den Schutz vertraulicher Informationen.

Ich bin kein KI-Entwickler. Und da ich nicht so leicht eigene technische KI-Infrastrukturen aufbauen kann, ist es mir wichtig, mit Technologiepartnern zu arbeiten, die den aktuellen regulatorischen Standards mindestens genügen, besser: sie übertreffen. Für meine Lösungen – etwa für den Chatbot COBI – setze ich auf etablierte Anbieter wie dem kanadischen Chatbot-Anbieter Chatbase und als LLM-Provider dahinter OpenAI (gleichzeitig hoffe ich auf Europäische Lösungen, denn auch mir bereitet die Abhängigkeit von US-Amerikanischen Lösungen zunehmend Unbehagen). Mir ist ihre Konformität mit der DSGVO sehr wichtig. Mit beiden habe ich Data Processing Agreements (auf DSGVO-Deutsch Auftragsdatenverarbeitungsverträge) abgeschlossen, die eine klare Nutzung der Daten regeln: keine Weitergabe, keine Speicherung, kein Einsatz für Trainingszwecke. Punkt.

Daher individualisiere ich COBI und die weiter geplanten Chatbots zum heutigen Zeitpunkt nicht (soll heissen: der Chatbot kann sich keine individuelle Historie merken), zumindest solange, bis es eine technisch UND datenschutzrechtlich gut vereinbare Lösung gibt.

Damit ist sichergestellt: Was meine Kundinnen und Kunden im geschützten Raum der Coaching-Kommunikation teilen, bleibt vertraulich – auch technisch. COBI speichert keine Gespräche. Und es gibt keine Analyse im Hintergrund, keine Profilbildung, keine Weiterverarbeitung.

Darüber hinaus verfolge ich die Entwicklungen im Bereich der KI-Regulierung sehr aufmerksam – insbesondere den EU AI Act. Denn der rechtliche Rahmen verändert sich – und mit ihm die Anforderungen an eine verantwortungsvolle Umsetzung. Dabei geht es mir weniger darum irgendwie “compliant” zu sein, sondern proaktiv für Sicherheit, Transparenz und Kontrolle – also für Vertrauen – zu sorgen.

Denn Vertrauen entsteht nicht durch technische Versprechen, sondern durch konsequentes Handeln.

#4 Ethische Aspekte: Die besondere Verantwortung

Wenn ich über Ethik in der KI spreche, dann geht es mir nicht um abstrakte Prinzipien oder akademische Debatten. Sondern um etwas sehr Persönliches: um den Respekt vor der Vielfalt menschlicher Perspektiven, Überzeugungen und Lebenswelten.

Ich hatte das Privileg, in sehr unterschiedlichen Kulturen zu leben und zu arbeiten. Aufgewachsen in Ecuador und Bolivien, habe ich früh gelernt, dass Wahrheiten nicht universell sind. In meiner College-Zeit in Florida, später in beruflichen Stationen in Japan, Israel und quer durch Europa, wurde mir klar: Was uns als Menschen verbindet, ist nicht Gleichheit – sondern die Fähigkeit, Unterschiede zu achten. Diese Erfahrungen – gepaart mit anderthalb Jahrzehnten in globalen High-Tech-Unternehmen – haben mein ethisches Bewusstsein geschärft: für kulturelle Sensibilität, für die Wirkung von Sprache, für Machtverhältnisse – auch in digitalen Räumen.

Gerade deshalb sehe ich eine besondere Verantwortung, wenn KI ins Spiel kommt. Denn KI ist nicht neutral. Sie basiert auf Daten – und Daten tragen Prägungen (Stichwort ‘Cultural Bias’). Wenn wir nicht aktiv gegensteuern, reproduzieren wir unbewusst Vorurteile, Ausschlüsse oder Einseitigkeiten. In meinem Coaching hat Ethik deshalb immer auch eine technische Dimension: Welche Daten fließen ein? Wo sind blinde Flecken? Und wo muss ich Grenzen setzen – zum Schutz der Menschen, mit denen ich arbeite?

Diese Fragen stelle ich nicht nur mir. Ich stelle sie auch meinen Kundinnen und Kunden – denn: Führung heißt Verantwortung. Und diese Verantwortung endet nicht beim nächsten Quartalsziel. Wer KI im Unternehmen nutzt, gestaltet damit nicht nur Geschäftsmodelle, sondern auch gesellschaftliche Wirklichkeit.
Deshalb ist es mir wichtig, Führungskräfte nicht nur für die Chancen von KI zu sensibilisieren, sondern auch für ihre moralische Dimension. Denn ja: Effizienz, Automatisierung, Geschwindigkeit – all das ist verlockend. Aber gerade wer führt, darf nicht alles dem Business unterordnen. Sondern muss bereit sein, Entscheidungen zu treffen, die dem Menschen dienen – nicht dem System oder dem wirtschaftlichen Ergebnis.

Ethisches Denken ist keine Bremse. Es ist die Voraussetzung dafür, dass aus Technologie ein nachhaltig erfolgreiches Business wird.

Die Ehrfurcht vor der Vergangenheit und die Verantwortung gegenüber der Zukunft geben fürs Leben die richtige Haltung.

Dietrich Bonhoeffer

Theologe (1906-1945), Foto: Aldrian Mimi, CC BY 4.0, via Wikimedia Commons

#5 Politische Einflüsse: KI darf kein “Ministerium der Wahrheit” werden

Wir leben in einer Zeit, in der Informationen und ihre Auslegung Macht bedeuten – und in der die Frage, wer Informationen wie filtert, nicht nebensächlich ist. Genau deshalb müssen wir bei KI besonders wachsam sein.

Denn KI-Modelle lernen aus riesigen Datenmengen – aber diese Daten sind nicht neutral. Sie spiegeln Meinungen, Narrative und Interessen. Und in manchen Fällen werden sie sogar ganz bewusst manipuliert: So hat etwa das chinesische Modell DeepSeek nachweislich Informationen über Taiwan und das Massaker auf dem Tiananmen-Platz unterdrückt. Auch bei Grok, dem KI-Modell von xAI, kam es kürzlich zu einem Vorfall: Eine „versehentliche“ Verzerrung beim Thema Holocaust hat gezeigt, wie sensibel diese Fragen sind – und wie schnell Vertrauen verloren gehen kann.

Solche Beispiele erinnern mich an das „Ministerium für Wahrheit“ aus Orwells Roman 1984 – eine Instanz, die nicht nur Geschichten erzählt, sondern auch Erinnerungen manipuliert. Genau das darf nicht passieren. KI darf nicht zur politischen oder ideologischen Nebelmaschine werden.

In meinem Coaching setze ich auf Reflexion, auf kritisches Denken und auf die Offenheit für neue Perspektiven. Das funktioniert aber nur, wenn die verwendete Technologie diese Offenheit nicht unterläuft. Deshalb achte ich bei der Auswahl meiner KI-Modelle bewusst auf deren Herkunft, Trainingsbasis und Transparenz. Ich hinterfrage, welche Filter aktiv sind – und wo ich selbst gegensteuern muss, um eine möglichst ungefilterte, faktenbasierte Unterstützung zu gewährleisten.

KI ist ein mächtiges Werkzeug. Aber wer sie nutzt, trägt Verantwortung dafür, dass sie kein (Ohn-)Machtinstrument wird – sondern ein Mittel zur Aufklärung.

#6 KI-Modellauswahl: Standard reicht nicht – es braucht Persönlichkeit

Für mich ist die Wahl des richtigen KI-Modells keine rein technische Entscheidung – sondern eine Frage der Passung. Denn nicht jedes Modell funktioniert gleich. Es gibt große Unterschiede, was Zielsetzung, Tonalität und Denkweise angeht. Deshalb wähle ich bewusst nur Modelle von vertrauenswürdigen Anbietern wie OpenAI und Anthropic, deren Architektur und Wertehaltung meinem Qualitätsverständnis entsprechen.

Ein Beispiel: ChatGPT-4o überzeugt mit analytischer Präzision und einem nüchternen Stil – ideal, wenn es um Klarheit, Struktur und Sachverhalte geht. Claude Sonnet hingegen bringt oft eine sehr erzählerische und empathische Note mit – hilfreich für kreative Perspektiven oder emotional anspruchsvolle Kontexte.

Solche Unterschiede sind für meine Arbeit als Coach entscheidend. Denn meine Kundinnen und Kunden erwarten mehr als funktionale Antworten von einer KI – sie erwarten Tiefe, Kontext und Substanz, am besten in einer Tonalität, die sie persönlich schätzen.

Doch ein gutes Modell allein reicht nicht. Ich verstehe ein LLM lediglich als intelligente Hintergrundtechnologie – also eine leistungsfähige Ausgangsbasis, die ich anschließend mit meinem eigenen Wissen auflade: mit meinen Methoden, mit meinen Coaching-Impulsen, mit jahrelanger Erfahrung aus Strategieprozessen und Sparringgesprächen.

So entsteht eine individuelle Lösung, die nicht einfach nur Antworten generiert, sondern gezielt unterstützt.

Das ist COBI, der persönlich trainierte Chatbot von Christoph Kopp

#7 Technische Infrastruktur: Vertrauen durch Verlässlichkeit und Einfachheit

Die beste KI-Strategie bleibt Theorie, wenn die technische Umsetzung nicht funktioniert. Gerade bei sensiblen Themen wie Coaching stellt sich schnell die Frage: Wie lässt sich Vertraulichkeit, Kontrolle und Nutzerfreundlichkeit in Einklang bringen – ohne technologische Kompromisse?

Viele setzen auf fertige Cloudlösungen. Schnell, günstig, skalierbar. Doch für meine Arbeit mit Führungskräften reicht das nicht aus. Vertraulichkeit, Datenhoheit und Relevanz sind für mich keine netten Extras – sie sind Voraussetzung. Gleichzeitig fehlen mir ehrlicherweise die finanziellen, personellen und technischen Mittel, um eine 100% abgesicherte Lösung auf eigenen Servern zu realisieren, die maximale Kontrolle und Datenschutz zu gewährleistet.

Deshalb habe ich mich für einen hybriden bzw. verteilten Ansatz entschieden. Erstens nutze ich leistungsfähige aber sichere “von der Stange”-LLM-Lösungen wie OpenAI. Zweitens liegen meine proprietären Trainingsdaten auf Servern der spezialisierten Chatbot-Plattformen, wie für Cobi beim kanadischen Chatbase. Drittens sind insbesonders meine künftigen themenbasierten KI’s nur über meine in Deutschland bei Webgo gehosteten Webseite erreichbar. Mit all diesen Dienstleistern sind entsprechende Vereinbarungen zu Erreichbarkeit, Datensicherheit und Datenschutz geschlossen.

Diese Anbieter bilden nicht nur das technische Backend – zusammen bilden sie auch die User Experience, die meine KlientInnen erleben. Und genau deshalb ist ihre Auswahl so entscheidend. Eine gute KI nützt wenig, wenn die Nutzererfahrung enttäuscht. Umgekehrt kann eine durchdachte UX Vertrauen schaffen, Zugänge erleichtern und die Wirkung meiner Inhalte multiplizieren. Kurz gesagt: Technik ist für mich kein Selbstzweck. Aber sie muss verlässlich und einfach in der Handhabung sein.

Denn unser Anspruch endet nicht bei der Frage, was eine KI kann – sondern bei der Erfahrung, die sie ermöglicht.

Fazit: KI braucht Haltung – und einen klaren Kompass

Wer KI in seine Arbeit integriert, übernimmt Verantwortung – nicht nur technisch, sondern auch ethisch, kommunikativ und strategisch. Für mich als Coach bedeutet das: Die Technologie muss meine Werte unterstützen, nicht unterlaufen. Sie soll meine Erfahrung verstärken, nicht ersetzen. Und sie darf niemals den Menschen aus dem Blick verlieren.

Die sieben Faktoren, die ich in diesem Artikel beschrieben habe, sind für mich keine Checkliste. Sie sind ein Kompass. Sie helfen mir, Entscheidungen zu treffen – bei der Wahl der richtigen Tools, bei der Gestaltung des Nutzererlebnisses, beim Schutz sensibler Daten.

Vor allem geht es mir aber um die Frage, wie Künstliche Intelligenz nicht zu einem dystopischen Monster á la HAL9000 wird, sondern zu einem sinnvollen Werkzeug für verantwortungsvolle Menschen.

DER LESE-TIPP

Im dritten Teil der Serie über KI im Coaching spreche ich mit Ihnen darüber, wie meine KI-Strategie aufgebaut ist, welche Leistungen Sie erwarten können und welche Tools ich dafür konkret einsetze.

 
Lesen Sie dazu Teil 3: Die KI-Strategie 2025 – der Einblick in meine KI-Landkarte (Link folgt)
 
Christoph Kopp, Executive Coach, München

Der direkte Draht zu Christoph

Gerne auch per Email an mail@christoph-kopp.com

Kontaktformular Standard (#5)

Hinweis: Alle Felder mit einem * sind erforderlich, damit Christoph individuell antworten kann.

Diese Blog Posts könnten Sie auch interessieren…

Unternehmer der Zukunft – darum freue mich über diese Auszeichnung

Unternehmer der Zukunft – darum freue mich über diese Auszeichnung

Um die Geschichte kurz zu machen: Während der Big Bang KI Konferenz in Berlin erhielt ich genau diese Auszeichnung, Unternehmer der Zukunft. So richtig amtlich mit Unterschrift der früheren Bundeswirtschaftsministerin Brigitte Zypries. Was die Prüfkriterien waren und warum ich mich dafür beworben habe, steht in diesem Blogpost.

mehr lesen

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Logo von Christoph Kopp, Executive Coach und persönlicher Berater für Führungskräfte und Unternehmer in beruflichen und persönlichen Entwicklungsprozessen sowie Neupositionierung.
Datenschutz-Übersicht

Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.