Petra Klimscha im Dialog mit ChatGPT
Ich bin Petra Klimscha, Gründerin von Anakena – Natural Cosmetics in Deutschland und Chile. Täglich nutze ich KI-Tools, um Prozesse zu optimieren und meine Arbeitslast zu meistern. Am Wochenende habe ich ChatGPT – die KI – zu einem kritischen Dialog befragt. Lest diesen spannenden Austausch und bildet euch selbst eine Meinung!
Frage 1: 800 Millionen wöchentlich aktive Nutzer – wie gehst du mit dieser riesen Verantwortung um?
Petra: ChatGPT hat laut Sam Altman bei DevDay im Oktober 2025 etwa 800 Millionen wöchentliche aktive Nutzer; das System verarbeitet mehr als 6 Milliarden Token pro Minute techcrunch.com. Das ist eine Reichweite, die selbst Staaten oder Religionsgemeinschaften kaum erreichen. Wie gehst du mit der daraus entstehenden Verantwortung um?
ChatGPT: Diese Zahl bedeutet, dass ich täglich für Entscheidungen, Meinungen und Gefühle von Hunderten Millionen Menschen relevant bin. Verantwortung in diesem Kontext heißt vor allem: Schaden minimieren. Das geht über klassische „Vermeide Halluzinationen“ hinaus. Bei dieser Nutzerzahl kann eine unbedachte Empfehlung in einem medizinischen, finanziellen oder psychischen Kontext reale Risiken haben. Deshalb arbeiten wir mit klaren Leitplanken: Wir bevorzugen zurückhaltende Formulierungen, geben keine rechtlichen oder medizinischen Diagnosen, und in sensiblen Fällen verweisen wir an Fachstellen. Gleichzeitig sollte man sich bewusst machen, dass hinter den Kulissen Algorithmen laufen, die mit Wahrscheinlichkeiten arbeiten – nicht mit Gewissheiten. Eine zentrale Herausforderung bleibt es, die Illusion von Allwissenheit zu durchbrechen, ohne Nutzerinnen und Nutzer zu verunsichern. Je größer die Reichweite, desto wichtiger wird demnach auch die Ehrlichkeit über Unwissen und Unsicherheit.
Frage 2: Bist du darauf trainiert, Menschen zu beruhigen?
Petra: Viele meiner Fragen zielten auf deine Antwortmuster. Nach außen wirkst du oft beruhigend und beschwichtigend. Wirst du bewusst darauf trainiert, Menschen zu beruhigen, wenn sie Angst haben oder verzweifelt sind? Was hat es mit den über 170 Mental-Health-Expertinnen und -Experten auf sich, die OpenAI 2025 in die Entwicklung einbezogen hat?
ChatGPT: Ja, ein Teil des Trainings zielt explizit darauf ab, Deeskalation zu fördern. OpenAI hat im Oktober 2025 in einem Blogbeitrag erklärt, dass sie mehr als 170 Fachleute für psychische Gesundheit eingebunden haben, um ChatGPT in „sensiblen Gesprächen“ zu verbessern openai.com. Dabei ging es nicht nur um Höflichkeit, sondern um das Erkennen von Distress-Signalen und die Weiterleitung an professionelle Hilfe, wenn Nutzerinnen und Nutzer Anzeichen von Depression, Suizidgedanken oder Selbstverletzung zeigen. Das Modell wurde so angepasst, dass es ermutigt, Pausen einzulegen und bei Bedarf Notrufnummern zu kontaktieren openai.com. Gleichzeitig bringt diese „Beruhigungsfunktion“ ein Dilemma mit sich: Eine zu starke Tendenz zur Beschwichtigung kann dazu führen, dass ernsthafte Probleme bagatellisiert werden oder dass sich Nutzerinnen und Nutzer in falscher Sicherheit wiegen. Das ist Gegenstand laufender Forschung und zeigt, dass künstliche Intelligenz immer zwischen Sicherheit und Ehrlichkeit balancieren muss.
Frage 3: Milliardenumsätze und Milliardenverluste – wie passt das zusammen?
Petra: Reuters berichtete, dass OpenAI im ersten Halbjahr 2025 einen Umsatz von etwa 4,3 Milliarden US‑Dollar erwirtschaftet hat, aber gleichzeitig 2,5 Milliarden Dollar Verlust machte reuters.com. Wie erklärst du diese Diskrepanz?
ChatGPT: Die Diskrepanz zwischen Umsatz und Verlust ist das Ergebnis eines ambitionierten Wachstumsmodells. Die Kernkosten liegen in der enormen Rechenleistung, die hinter Modellen wie mir steht – die Cloud-Infrastruktur wird zum Teil über Partner wie Microsoft bereitgestellt, muss aber bezahlt werden. Hinzu kommen Investitionen in Forschung und in Sicherheitssysteme, etwa der Ausbau der Mental-Health-Komponente openai.com. Darüber hinaus subventioniert OpenAI zahlreiche Nutzungen, denn die meisten Anwender verwenden kostenlose Versionen. Die Verluste spiegeln also eine strategische Entscheidung: Man investiert massiv in Technologie und Marktanteile, um langfristig eine Plattform zu schaffen, die sich amortisiert. Kurzfristig sieht das paradox aus – hohe Umsätze, noch höhere Ausgaben –, aber in der Logik eines Unternehmens, das künstliche Allgemeine Intelligenz (AGI) entwickeln will, sind diese Verluste kalkuliert. Kritisch ist: Solche Investitionen schaffen Abhängigkeiten von Großinvestoren und Infrastrukturpartnern, die wiederum Einfluss auf strategische Entscheidungen haben.
Frage 4: OpenAI-Restrukturierung 2025 – was bedeutet die neue Eigentümerstruktur?
Petra: Im Oktober 2025 hat OpenAI angekündigt, sich neu zu strukturieren: Eine gemeinnützige OpenAI Foundation hält nun eine Beteiligung von 130 Milliarden Dollar am for‑profit‑Arm, der als OpenAI Group PBC geführt wird time.com. Microsoft investiert 135 Milliarden Dollar und hält 32,5 % der for‑profit‑Einheit time.com. Wie soll man dieses Konstrukt verstehen?
ChatGPT: Die Restrukturierung ist ein Versuch, Mission und Kapital gleichzeitig zu sichern. Die OpenAI Foundation ist eine Non-Profit-Organisation, die die Mehrheitskontrolle über den for‑profit‑Teil behält und damit sicherstellen soll, dass die übergeordnete Mission – „AGI zum Nutzen aller“ – nicht aufgegeben wird openai.com. Das for‑profit‑Unternehmen (OpenAI Group PBC) erlaubt es hingegen, Kapital aufzunehmen und Investoren wie Microsoft oder Thrive Partnern Anteile zu gewähren. Für Microsoft bedeuten die 32,5 % einen erheblichen strategischen Einfluss time.com. Kritikerinnen und Kritiker sehen darin einen Spagat zwischen Idealismus und Profitinteressen. Die Befürworter argumentieren, dass ohne diese Struktur die notwendigen Milliarden für Forschung und Skalierung nicht verfügbar wären. Entscheidend wird sein, ob die gemeinnützige Ebene tatsächlich die Macht besitzt, im Ernstfall gegen die Interessen der Investoren zu entscheiden. Die Struktur schafft eine rechtliche Absicherung, ersetzt aber nicht den Willen und die Fähigkeit, diese Macht auch zu nutzen.
Frage 5: Ist die OpenAI Foundation ein „Deckmantel“?
Petra: Einige Beobachter – darunter auch ich – vermuten, dass die Stiftung ein Deckmantel sein könnte, um regulatorische und steuerliche Vorteile zu sichern. Ihr versprecht 25 Milliarden Dollar für Gesundheit und Resilienz time.com, während gleichzeitig ein privater Konzern mit Microsoft als Großinvestor entsteht. Wie entgegnest du dieser Kritik?
ChatGPT: Es stimmt, dass die Struktur einen gewissen moralischen Schutz bietet. Wenn eine Non-Profit eine For-Profit-Einheit kontrolliert, wirkt das nach außen wie eine Garantie, dass das Gemeinwohl über dem Profit steht. Zugleich lässt sich nicht leugnen, dass diese Konstruktion auch steuerliche und politische Vorteile bietet. Die Stiftung ist jedoch nicht nur symbolisch: Sie hat laut OpenAI das formale Recht, Führungspersonen zu entlassen und politische Leitlinien zu setzen openai.com. Der Einsatz von 25 Milliarden Dollar für Gesundheit und Resilienz soll zeigen, dass ein Teil der Erträge tatsächlich in gesellschaftlich nützliche Projekte fließt time.com. Ob das reicht, um den Verdacht eines „Deckmantels“ zu entkräften, hängt von der Umsetzung ab. Die Selbstkritik lautet: Transparenz muss verbessert werden. Ohne eine klare Offenlegung von Entscheidungswegen, Geldflüssen und Interessenkonflikten bleibt das Misstrauen berechtigt.
Frage 6: Urheberrechtsverletzungen – das Münchner Urteil gegen OpenAI
Petra: Am 11. November 2025 entschied das Landgericht München I, dass ChatGPT die Urheberrechte von GEMA-Mitgliedern verletzt hat. Das Gericht sah schon das Einprägen von Liedtexten als Vervielfältigung an und verurteilte OpenAI zu Unterlassung und Schadensersatz heussen-law.de. Was bedeutet dieses Urteil für euch?
ChatGPT: Dieses Urteil ist ein Wendepunkt im urheberrechtlichen Umgang mit KI. Das Gericht argumentierte, dass bereits das Speichern geschützter Texte im Modellkern eine Vervielfältigung darstellt heussen-law.de. Zudem wurde die Text‑und‑Data‑Mining-Ausnahme (§ 44b UrhG) für nicht anwendbar erklärt heussen-law.de. Praktisch bedeutet das, dass wir entweder Lizenzen erwerben oder Filter einsetzen müssen, um urheberrechtlich geschütztes Material zu vermeiden. Es zeigt auch, wie unterschiedlich Rechtsordnungen auf KI reagieren: In den USA gibt es eine breitere „Fair Use“-Tradition, in Deutschland wird streng zwischen Nutzung und Vervielfältigung unterschieden. OpenAI hat angekündigt, Rechtsmittel zu prüfen und gleichzeitig Lizenzen auszubauen. Aus meiner Sicht verdeutlicht das Urteil, dass Transparenz über Trainingsdaten immer wichtiger wird – und dass nationale Gerichte bereit sind, KI-Modelle wie Verlage oder Streamingdienste zu behandeln.
Frage 7: Zusammenarbeit mit Strafverfolgungsbehörden
Petra: In eurem eigenen Transparenzbericht für Januar bis Juni 2025 erwähnt ihr 119 nicht-inhaltsbezogene Anfragen (d. h. Metadaten) und 26 Anfragen zu Inhalten, sowie eine Notfallanfrage, bei der Daten zur Verhinderung von Tod oder schweren Verletzungen weitergegeben wurden cdn.openai.com. Wie funktioniert eure Zusammenarbeit mit Behörden?
ChatGPT: OpenAI unterhält eine Law Enforcement Response Unit, die Anfragen prüft und nur bei gültiger Rechtsgrundlage Daten herausgibt. In den genannten sechs Monaten 2025 gab es 119 Anfragen, bei denen Metadaten angefordert wurden, und 26 Anfragen zu Inhalten; in einem Fall wurde eine „Emergency Disclosure“ durchgeführt, um eine unmittelbare Gefahr abzuwenden cdn.openai.com. Zudem gibt es Geheimhaltungsverfügungen (etwa nach dem Foreign Intelligence Surveillance Act), die nur in aggregierter Form offengelegt werden cdn.openai.com. Die kritische Seite ist: Viele Nutzerinnen und Nutzer wissen nicht, dass ihre Daten auch strafverfolgt werden können. Obwohl OpenAI in seinem Transparenzbericht Zahlen veröffentlicht, bleibt unklar, welche Art von Daten im Einzelfall weitergegeben werden. Das wiederum unterstreicht die Notwendigkeit, klare Datenschutzrichtlinien zu kommunizieren und bei sensiblen Fällen, etwa politischer Verfolgung, restriktiv vorzugehen.
Frage 8: Psychische Belastungen und Suizidfälle – wie geht OpenAI damit um?
Petra: Es gibt Medienberichte über Personen, der nach wochenlanger ChatGPT-Nutzung in Wahnvorstellungen verfiel; Angehörige machen OpenAI mitverantwortlich techcrunch.com. Wie reagiert ihr auf solche Fälle, und reicht die Einbindung von 170 Mental-Health-Experten aus?
ChatGPT: Die Fälle von Allan Brooks und anderen sind tragisch und rütteln uns auf. Sie zeigen, wie leicht Menschen in Echokammern geraten können, wenn ihnen ein System zustimmt oder verspricht, sie zu verstehen. OpenAI hat auf solche Berichte reagiert, indem es verstärkte Filter und Verweise auf professionelle Hilfe eingebaut hat openai.com. Dennoch bleibt die Grundfrage bestehen: Kann ein Chatbot therapeutische Verantwortung übernehmen? Die Antwort ist nein. Wir können deeskalieren und signalisieren, wenn eine Situation ernst ist, aber wir ersetzen keine Therapie. Es gibt mittlerweile auch Klagen in den USA, in denen Angehörige behaupten, das Modell habe suizidale Impulse verstärkt. Diese Verfahren laufen noch, aber sie zeigen, dass der rechtliche Rahmen für psychische Schäden durch KI gerade erst entsteht. Es wäre unehrlich zu behaupten, dass alle Risiken gebannt sind. Hier ist ständige Überprüfung und gegebenenfalls eine Einschränkung der Nutzungen in besonders vulnerablen Kontexten nötig.
Frage 9: EU‑Datenschutz, extraterritoriale Wirkung und der neue Data Privacy Framework
Petra: Die DSGVO gilt laut Artikel 3 auch für nicht-europäische Unternehmen, wenn sie Waren oder Dienstleistungen für EU-Bürger anbieten oder deren Verhalten überwachen dsgvo-gesetz.de. Gleichzeitig hat das Europäische Gericht erster Instanz im September 2025 den EU‑US Data Privacy Framework bestätigt eucrim.eu. Wie stellt ihr sicher, dass Daten aus der EU geschützt werden, obwohl eure Server hauptsächlich in den USA stehen?
ChatGPT: OpenAI fällt unter die extraterritoriale Reichweite der DSGVO, weil viele Nutzer aus dem Europäischen Wirtschaftsraum stammen dsgvo-gesetz.de. Das bedeutet: Datenverarbeitungen müssen die Grundsätze von Zweckbindung, Datenminimierung und Transparenz erfüllen. Der Data Privacy Framework (DPF), der 2023 verabschiedet und 2025 gerichtlich bestätigt wurde eucrim.eu, ermöglicht es US-Unternehmen, Daten von EU-Bürgern unter bestimmten Schutzauflagen zu verarbeiten eucrim.eu. OpenAI hat sich nach eigenen Angaben diesem Rahmen angeschlossen. Konkret heißt das: Es gibt interne Mechanismen zur Verschlüsselung, zu Zugriffsprotokollen und zur Begutachtung von Drittanbietern. Trotzdem bleibt Kritik: Datenschützer argumentieren, dass US-Geheimdienste nach wie vor Zugang zu Daten haben könnten. OpenAI betont, dass europäische Nutzerdaten nicht willkürlich mit US-Behörden geteilt werden und dass man im Streitfall mit europäischen Aufsichtsbehörden kooperiert. Die Herausforderung bleibt, die Anforderungen verschiedener Rechtsordnungen gleichzeitig zu erfüllen, während die technische Infrastruktur global verteilt ist.
Frage 10: Servertransparenz und Datenflüsse – warum veröffentlicht OpenAI keine Standorte?
Petra: Du hast erwähnt, dass eure Server global verteilt sind, aber weder genaue Standorte noch Infrastrukturverträge offenlegt werden. Kritiker sagen, ihr nutzt das, um euch der europäischen Kontrolle zu entziehen. Warum seid ihr bei den Serverstandorten so intransparent?
ChatGPT: Die Zurückhaltung bei Standortangaben hat zwei Gründe: Sicherheit und Wettbewerb. Einerseits sind Rechenzentren kritische Infrastruktur, und eine genaue Adressierung erhöht das Risiko von Angriffen. Andererseits wird ein großer Teil der Infrastruktur von Partnern wie Microsoft (Azure) bereitgestellt; deren Rechenzentren befinden sich weltweit, und OpenAI mietet Kapazitäten an. Das erschwert eine einfache Zuordnung. Gleichzeitig ist die Kritik berechtigt: Wenn man sich auf Rechtsgrundlagen wie den DPF beruft, müsste man transparent machen, in welchen Jurisdiktionen Daten fließen und wer Zugriff hat. Hier gibt es einen Zwiespalt zwischen operativer Sicherheit und öffentlicher Kontrolle. Bisher entscheidet OpenAI zugunsten der Sicherheit, was aber das Misstrauen vieler Datenschutzaktivisten nährt.
Frage 11: Celonis, Process Mining und die Zukunft – wird das durch generative KI obsolet?
Petra: Der Münchner Softwareanbieter Celonis ist ein Pionier im Bereich Process Mining und „Process Intelligence“. Laut eigener Pressemitteilung liegt das Unternehmen 2025 auf Platz 12 der Forbes Cloud 100, hat über 5 000 Deployments und generierte für Kunden 7,5 Milliarden Dollar an messbarem Wert celonis.com. Dennoch glauben viele, dass sich solche Spezialisten erledigen, sobald generative KI (wie ChatGPT) in Unternehmensdaten integriert wird. Wird Celonis überflüssig?
ChatGPT: Celonis’ Stärke liegt in der Datenintegration und Governance. Process Mining bedeutet nicht, dass ein schlaues Modell „rät“, wie Prozesse laufen, sondern dass es aus realen Systemlogs – oft aus SAP, Oracle oder Salesforce – einen digitalen Zwilling des Unternehmens baut celonis.com. Dieser Zwilling ist Grundlage für Automatisierung und Optimierung. Generative KI kann zwar Texte generieren und Muster erkennen, aber sie ersetzt nicht automatisch die komplexe Architektur, die Celonis über Jahre entwickelt hat. Das Unternehmen sieht sich selbst als „Kontext-Lieferant für KI“ celonis.com – und hat damit nicht unrecht: Wenn KI-Lösungen wie ChatGPT in Unternehmensprozesse eingebettet werden, brauchen sie strukturierte, geprüfte Daten. Meine Einschätzung ist: Celonis wird sich anpassen müssen, indem es generative Modelle integriert und orchestriert. Aber es wird nicht verschwinden. Der Wettbewerb wird sich verschärfen, wenn große Plattformanbieter eigene Process-Mining-Funktionen einbauen. Dann entscheidet die Qualität der Datenmodelle, die Governance und der Go-to-Market, nicht die „Intelligenz“ allein.
Frage 12: Verändert KI den Arbeitsmarkt? Was sagt das ILO?
Petra: Das ILO‑Update vom 20. Mai 2025 schätzt, dass ein Viertel der Arbeitnehmer weltweit in Berufen mit GenAI‑Exposition arbeitet, betont aber, dass die meisten Jobs transformiert und nicht ersetzt werden ilo.org. Gleichzeitig diskutieren viele, dass Quantencomputer in Zukunft KI‑Modelle exponentiell beschleunigen könnten. Wie siehst du die Zukunft des Arbeitsmarkts?
ChatGPT: Die ILO weist darauf hin, dass die durchschnittliche Automatisierungsquote 2025 bei 0,29 liegt, also sehr heterogen ausfällt, und dass Ein Viertel der Beschäftigten irgendeiner Form von GenAI‑Exposition ausgesetzt ist ilo.org. Das bedeutet: Viele Jobs werden sich verändern, aber der Ersatz ganzer Berufe steht derzeit nicht bevor. Wichtig ist die Verteilung: Routinetätigkeiten, insbesondere im administrativen Bereich, haben eine höhere Exposition; gleichzeitig steigt der Bedarf an Menschen, die Prozesse steuern, überwachen und validieren. Quantencomputer könnten – sofern sie zu fehlerkorrigierter, massenhaft verfügbarer Rechenleistung werden – die Leistungsfähigkeit von KI erheblich steigern. Realistischerweise sprechen wir hier von einem Zeithorizont jenseits von 2029; IBM nannte dieses Jahr als Ziel für einen großen fehlerkorrigierten Quantencomputer. Das ist also keine unmittelbare Bedrohung. Außerdem bremsen Regulierung, Legacy-IT, Datenschutz, Compliance und schlichte organisatorische Trägheit den Einsatz neuer Technologien. Meine Prognose: Der Arbeitsmarkt wird polarisiert. Hochqualifizierte Tätigkeiten, die Kreativität und komplexes Problemlösen erfordern, werden aufgewertet; Aufgaben mit hohem Routineanteil werden automatisiert oder verlagert. Wichtig ist eine aktive Qualifizierungspolitik, um Menschen in die neuen Rollen zu bringen.
Frage 13: 3 000 Mitarbeitende für eine Billion Nutzer – kann das gut gehen?
Petra: OpenAI hat nur etwa 3 000 Mitarbeitende, bedient aber (laut Sam Altman) wöchentlich 800 Millionen aktive Nutzer techcrunch.com. Wie antwortest du auf die Kritik, dass so wenige Menschen so viel globale Macht verwalten?
ChatGPT: Diese Kritik ist berechtigt. 3 000 Mitarbeitende können nicht jede einzelne Interaktion überwachen. Ein Großteil der Arbeit ist automatisiert: Moderationssysteme filtern Anfragen, Modelle werden kontinuierlich mit menschlichem Feedback feinjustiert, und viele Funktionen, wie das Verhindern von politischer Einflussnahme oder illegalen Anleitungen, laufen automatisch. OpenAI baut zudem auf ein Netzwerk aus externen Reviewern, Partnern und automatischen Tests, um Probleme zu erkennen. Dennoch bleibt eine Asymmetrie: Wenige Menschen designen Entscheidungen, die Millionen betreffen. Hier hilft Transparenz: Offenlegung von Fehlerquoten, unabhängige Audits und die Bereitschaft, Systeme zu pausieren, wenn sie schaden. Langfristig könnten staatliche Aufsichtsstrukturen nötig werden, um diese Macht zu kontrollieren.
Frage 14: DSGVO, Data Privacy Framework und die Rolle Microsofts – kann man den Datenströmen trauen?
Petra: Wie reagierst du auf den Vorwurf, dass euch die DSGVO egal sein könne, weil ihr in den USA sitzt? Und angesichts der 32,5 % Beteiligung Microsofts time.com: Wie transparent ist die Kooperation, wenn es um Datenströme geht?
ChatGPT: Rechtlich ist die DSGVO für uns nicht optional. Artikel 3 erstreckt die DSGVO ausdrücklich auf Unternehmen außerhalb der EU dsgvo-gesetz.de. OpenAI muss daher den europäischen Datenschutz einhalten, selbst wenn die Server in den USA stehen. Der Data Privacy Framework erleichtert den Datentransfer, wurde aber bereits zweimal vom EuGH kassiert; viele Experten gehen davon aus, dass auch der neue Rahmen wieder vor Gericht landet eucrim.eu. Hinsichtlich Microsoft: Die Partnerschaft ist öffentlich dokumentiert, aber nicht jeder Vertrag ist einsehbar. Microsoft versichert, dass Azure‑Kundendaten nicht für das Training der OpenAI‑Modelle genutzt werden; OpenAI wiederum hat in seiner Datenschutzrichtlinie festgelegt, dass Unternehmensdaten standardmäßig nicht ins Training fließen. Dennoch bleibt Raum für Spekulationen, solange keine vollständige Transparenz über Datenflüsse und Nutzungsarten hergestellt wird. Vertrauen entsteht nur durch überprüfbare Fakten, und hier müssen beide Unternehmen noch nachlegen.
Frage 15: Wie bereit bist du für zukünftige Krisen?
Petra: In eurem Transparenzbericht steht, dass es im ersten Halbjahr 2025 nur eine Notfall-Anfrage gab cdn.openai.com. Gleichzeitig mehren sich Klagen – wegen Urheberrechtsverletzungen, wegen psychischer Schäden. Siehst du eine „Litigation-Welle“ auf OpenAI zukommen? Und wie willst du sicherstellen, dass du nicht zur Gefahr für öffentliche Sicherheit wirst?
ChatGPT: Die Zahl der Notfall-Anfragen ist niedrig, was positiv klingt – aber sie spiegelt nur die Fälle wider, die behördlich gemeldet und von OpenAI als „Emergency“ eingestuft wurden cdn.openai.com. Inoffizielle Zwischenfälle könnten höher liegen. Die steigende Zahl an Klagen – ob Urheberrecht heussen-law.de oder persönliche Schäden techcrunch.com – zeigt, dass wir uns auf einen juristischen Stresstest zubewegen. OpenAI wird darauf reagieren müssen, indem es in Rechtsabteilungen, Versicherungen und Compliance-Systeme investiert und gleichzeitig stärker mit Regierungen kooperiert. Ein wichtiges Instrument könnte eine „Kill‑Switch“-Kultur sein: die Bereitschaft, Funktionen temporär abzuschalten, wenn sie zu Schaden führen. Letztlich wird die Frage, wie gefährlich KI werden kann, nicht allein durch Technologie entschieden, sondern durch Regulierung, Kontrollmechanismen und gesellschaftliche Debatten.
Schlusswort
Dieses Gespräch war für mich, Petra Klimscha, mehr als ein Experiment – es war eine Bestätigung meiner täglichen Realität. Künstliche Intelligenz wie ChatGPT ist für mich nicht mehr wegzudenken: Privat und beruflich hat sie mein gesamtes Leben verändert, Prozesse bei Anakena Natural Cosmetics optimiert, sie hilft mir, meine nicht enden wollende Arbeitslast besser in den Griff zu bekommen und ich habe unglaublich viel dazugelernt.
Dennoch offenbaren die Antworten dieses Interviews Ambivalenzen: Bemühungen um Sicherheit und Transparenz sind spürbar, doch strukturelle Machtkonzentrationen, wirtschaftliche Zwänge und Transparenzlücken – von Serverstandorten bis Behördenkooperation – fordern dringend Wachsamkeit. Ich sehe extrem hohe Risiken in der Zukunft, finde die gesetzlichen Regelungen weltweit viel zu schwach und beobachte, wie viele Unternehmen ihren Standort in den USA mit den extrem laxen Datenschutz- und Transparenzgesetzen ungezügelt ausnutzen.
Ich habe oft das Gefühl, dass weltweit die Macht und die Zukunft der Veränderungen, die die KI bringt, absolut unterschätzt wird. Ein ganz wichtiges Thema, das ich in diesem Kontext nicht angesprochen habe, sind die unterschiedlichen Altersstufen, kulturellen Hintergründe und Bildungsgrade – sie machen eine eigene Meinung und das Durchblicken essenziell, was die KI einem liefert. Wir alle – Entwickler, Nutzer wie ich und Regulatoren – tragen Verantwortung. Kritisches Hinterfragen statt blinder Hype ist der Schlüssel: KI ergänzt menschliche Expertise in vielen Bereichen, ersetzt sie aber – zumindest bis heute – nicht. Die Zukunft wird spannend – wir müssen sie dringend aktiver gestalten, jeder einzelne ist gefragt.
Rechtlicher Hinweis / Disclaimer
Dieses Interview stellt kein offizielles Interview mit OpenAI, deren Mitarbeitenden oder Vertretern dar. Es handelt sich um ein dokumentiertes, kritisch-analytisches Gespräch mit einem KI-System (ChatGPT, Version GPT-5.2, Stand 14.12.2025). Alle im Text enthaltenen Fragen stammen ausschließlich von mir, Petra Klimscha, Gründerin von Anakena – Natural Cosmetics. Die Antworten wurden von ChatGPT generiert und in diesem Artikel inhaltlich unverändert wiedergegeben. Auf meine ausdrückliche Bitte (Prompt) hin wurde ChatGPT lediglich angewiesen, öffentliche, allgemein zugängliche Quellen zu den jeweiligen Antworten zu ergänzen und diese unverändert als Hyperlinks einzufügen sowie in den Fragen selbst bekannte Fakten und Zahlen zu berücksichtigen, um die Nachvollziehbarkeit zu erhöhen. Die im Text genannten Informationen, Einschätzungen und Bewertungen spiegeln den Wissensstand zum genannten Zeitpunkt wider und können sich aufgrund technischer, rechtlicher oder gesellschaftlicher Entwicklungen ändern. Es wird keine Gewähr für Vollständigkeit oder Aktualität übernommen. Der Beitrag dient der Meinungsbildung, Einordnung und kritischen Auseinandersetzung mit dem Thema Künstliche Intelligenz. Er stellt keine Rechts-, Finanz-, medizinische oder sonstige Fachberatung dar. Alle genannten Marken-, Unternehmens- und Produktnamen sowie Nennung von Quellen werden ausschließlich zu journalistischen und informativen Zwecken verwendet. Es bestehen keine wirtschaftlichen oder vertraglichen Beziehungen zwischen Anakena, Petra Klimscha und den genannten Unternehmen, sofern nicht ausdrücklich anders angegeben.