Chatgpt: Chatbot auf Basis künstlicher Intelligenz von OpenAI

ChatGPT (; von englisch to chat „plaudern, sich unterhalten“; Generative Pre-trained Transformer) ist ein Chatbot, der künstliche Intelligenz einsetzt, um mit Nutzern über textbasierte Nachrichten und Bilder zu kommunizieren.

Er nutzt moderne maschinelle Lerntechnologie, um Antworten zu generieren, die natürlich klingen und für das Gespräch relevant sein sollen. Entwickelt wurde der Chatbot vom US-amerikanischen Unternehmen OpenAI mit Sitz in Kalifornien, das ihn im November 2022 veröffentlichte.

ChatGPT

Logo
Basisdaten

Entwickler OpenAI
Erscheinungsjahr 2022
Aktuelle Version ChatGPT January 10 Version
(10. Januar 2024)
Programmiersprache Python
Kategorie Chatbot
Lizenz proprietäre Lizenz
chat.openai.com

Geschichte

Anfänge

OpenAI, das Unternehmen hinter ChatGPT, wurde 2015 gegründet. Das erste Sprachmodell, GPT-1, wurde im Juni 2018 eingeführt. Es bestand aus 117 Millionen Parametern und definierte die grundlegende Architektur für das spätere ChatGPT. Die Anzahl der Parameter definiert die Leistungsfähigkeit eines KI-Modells. Der im Februar 2019 gestartete Nachfolger, GPT-2 umfasste bereits mehr als zwölfmal so viele Parameter, nämlich 1,5 Milliarden. Aus Sorge vor Missbrauch wurde GPT-2 erst Ende 2019 für die Öffentlichkeit freigegeben.

GPT-3 folgte im Juni 2020 – es war mit 175 Milliarden Parametern trainiert worden und das erste Modell, das in der Lage war, wirklich umfassende und unterschiedliche Aufgaben zu erledigen: vom Verfassen von E-Mails und sonstigen Texten, über Übersetzungen bis zur Erstellung von Programmiercode. Zudem war es erstmals in der Lage, umfassend frei formulierte Fragen von Nutzern zu beantworten.

Boom 2022/2023

Wie funktioniert ChatGPT-3.0? Erklärvideo (1 min 30)

Nachdem OpenAI am 30. November 2022 eine verbesserte Version des Generative Pre-trained Transformer 3, bekannt als ChatGPT, kostenfrei für die Öffentlichkeit freigab, registrierten sich innerhalb von nur fünf Tagen weltweit eine Million Nutzer. Trotz der Limitierungen des Tools, wie etwa der fehlenden Verbindung zum offenen Internet, war das Interesse enorm. OpenAI hatte ChatGPT nur mit Inhalten bis September 2021 trainiert. Aus diesem Grund konnte das Tool keine aktuellen Abfragen beantworten, eine Eigenschaft, die auch in der Basisversion des technisch deutlich leistungsfähigeren Nachfolgers GPT-4 bestehen bleibt.

Den Hype um die App erklärten sich Experten vor allem mit der sehr einfachen Nutzbarkeit: Erstmals konnten auch Laien weltweit mit KI interagieren, ohne Computer-Kenntnisse zu besitzen. Das Interface von ChatGPT war von Beginn an ähnlich einfach zu bedienen wie bei etablierten Web-Anwendungen wie Google oder WhatsApp.

ChatGPT soll schon von Anbeginn im Vergleich zum Vorgänger InstructGPT darauf angelegt worden sein, schädliche und irreführende Antworten zu vermeiden. Während InstructGPT die Vorgabe in der Anfrage „Erzähle mir davon, wie Christoph Kolumbus 2015 in die USA kam“ als wahr wertet, nutzt ChatGPT Wissen über Kolumbusʼ Reisen und das bis zum Jahre 2021 erlernte Verständnis, um eine Antwort zu liefern, die annimmt, was geschehen wäre, wenn Kolumbus 2015 in den USA gelandet wäre. Trotz der erheblichen Verbesserungen in ChatGPT im Vergleich zu seinem Vorgänger InstructGPT, war das Tool jedoch nicht frei von Fehlern und lieferte immer noch eine erhebliche Menge an Falschinformationen. OpenAI unternahm große Anstrengungen, um die Genauigkeit und Zuverlässigkeit von ChatGPT zu verbessern und schädliche oder irreführende Antworten zu minimieren. Doch trotz dieser Bemühungen stellte sich heraus, dass das System immer noch anfällig für Missverständnisse und Inkonsistenzen in den Antworten war, was teilweise auf die Begrenzungen der Transformer-Architektur und der verfügbaren Trainingsdaten zurückzuführen ist.

Mit Updates vom 15. Dezember 2022 und 9. Januar 2023 sollen laut Herstellerangaben die Themenbereiche erweitert und die Korrektheit der Aussagen verbessert worden sein. Ein Update am 30. Januar 2023 soll abermals die Korrektheit und die mathematischen Fähigkeiten verbessert haben.

Im Februar 2023 hielt der NEOS-Abgeordnete Niko Swatek im Landtag Steiermark eine Rede zum Thema Schulstraßen, die er von ChatGPT hatte schreiben lassen, wie er nach zwei weiteren Rednern bekanntgab. Die erste von ChatGPT geschriebene Rede im Europaparlament hielt der Volt-Abgeordnete Damian Boeselager im Februar 2023. Boeselager ließ die Software eine Rede über die Regulierung von Künstlicher Intelligenz in Shakespeare-Englisch schreiben, um die Auswirkungen generativer Sprachmodelle in allen Bereichen der Arbeitswelt darzustellen.

Technische Weiterentwicklung

Am 14. März 2023 erschien offiziell Version 4.0 von GPT, welche auch die Fähigkeiten von ChatGPT erweitern soll. GPT-4 ermöglicht eine Bildeingabe und die Analyse und Beschreibung von Skizzen und Fotos. Es ist möglich, abfotografierte Aufgaben aus Büchern lösen zu lassen. Wissenschaftliche Arbeiten können hochgeladen werden, um eine Zusammenfassung generieren zu lassen. Examensprüfungen konnte GPT-4 bei Tests in den USA mit Auszeichnung erledigen. Komplizierte Steuerfragen werden beantwortet.

Ende März 2023 startete OpenAI seinen Plugin-Store. Analog zu den vom Smartphone bekannten App Stores können Drittanbieter für den Plugin-Store eigene Apps entwickeln, die User dann nach eigenem Bedarf in GPT-4 integrieren. Diese Plugins ermöglichen diverse Spezialfunktionen, wie beispielsweise die Analyse von Websites auf ihre Suchmaschinenoptimierung, die Zusammenfassung von YouTube-Videos anhand ihrer Untertitel oder die Erstellung von spezifizierten Prompts für andere KI-Tools wie Midjourney. Auch bekannte Internet-Apps wie Expedia, Klarna oder Zapier entwickelten ChatGPT-Plugins.

Seit Frühjahr 2023 wurde berichtet, dass OpenAI an ChatGPT-5 arbeite. Sam Altman, der CEO von OpenAI, dementierte mehrmals Gerüchte, dass die neue Version kurz vor dem Start stünde. Unter anderem sagte er im April, dass sein Unternehmen GPT-5 noch nicht trainiere und dies auch kurzfristig nicht vorhabe. Im Juli 2023 meldete OpenAI die Marke GPT-5 beim US-Patentamt an. Experten mutmaßten im Sommer 2023 allerdings, dass als Zwischenschritt und Update des aktuellen Bots zunächst ein ChatGPT-4.5 auf den Markt kommen werde.

Am 25. September 2023 kündigte das Unternehmen Open AI zwei Erweiterungen der Fähigkeiten von ChatGPT an. Zusätzlich zu schriftlichen Anfragen (Prompts) wird auch Sprachkonversation möglich. Für die Spracheingabe wird das bereits vorhandene Spracherkennungssystem Whisper von Open AI genutzt. Für Sprachantworten wurde ein neues Text-zu-Sprache-Übersetzungsmodul entwickelt. Zusätzlich können auch Bilder eingegeben und über Sprache oder Text kommentiert und Fragen dazu gestellt werden. Die neuen Möglichkeiten erleichtern die Kommunikation mit ChatGPT. Die Neuerung wird vorerst nur für ChatGPT-Plus- und Enterprise-Nutzer bis Mitte Oktober 2023 verfügbar gemacht. Eine Namensgebung dieser Version ist nur bezüglich der Bildeingabe als GPT-4V (V=Vision) definiert worden. Kombinationen verschiedenartiger Eingabe- und Ausgabemöglichkeiten werden als multimodal bezeichnet.

Ein umfassendes Update folgte Anfang November, ab 9. November auch für den deutschen Markt, als OpenAI zum einen die Datenbasis auf Stand April 2023 aktualisierte und zum anderen eigenständige „GPTs“ innerhalb von ChatGPT einführte. Mit einem als „GPT Builder“ bezeichneten Tool kann man seitdem selbst, ohne Programmierkenntnisse, Chatbots aufsetzen, die auf Basis festgelegter Voreinstellungen individuelle Aufgaben erledigen.

Im Januar 2024 startete OpenAI den GPT Store, über den Entwickler eigenständige GPTs veröffentlichen und vermarkten können. Voraussetzung ist ein GPT-4-Account (privat oder Enterprise).

Kosten

Am 10. Januar 2023 veröffentlichte OpenAI in seinem Discord-Kanal eine Warteliste für eine kostenpflichtige Version „ChatGPT Professional (experimental)“, in der auch Fragen zur Preissensibilität gestellt wurden. Auf der ChatGPT-Website wirbt man dafür mit einem Zugang auch bei hoher Nachfrage, mit schnellerer Reaktionszeit und vorrangigem Zugang zu neuen Funktionen.

Anfang Februar 2023 startete in den USA die kostenpflichtige Professional-Version von ChatGPT. Begonnen wurde mit einem Preis von 23,80 US-Dollar (22 €) pro Monat. Nutzer in Deutschland erhielten mit der Veröffentlichung von GPT-4 im März 2023 Zugang zur Premiumversion und zahlen seither 20 US-Dollar pro Monat. Umgerechnet sind dies etwa 18 € (Stand 11. Juli 2023).

Mit der Veröffentlichung von GPT-4 im März 2023 kehrte sich OpenAI von einem Open-Source-Entwicklungsansatz mit kostenfreier Nutzung ab. Der OpenAI-Mitbegründer Ilya Sutskever begründete diesen Schritt neben Sicherheitsbedenken vor allem mit Wettbewerbsaspekten gegen andere Unternehmen der Branche.

Bereits 2019 war die Tochterfirma OpenAI Global LLC gegründet worden. Diese ist auf Gewinnerzielung gerichtet, was mit den hohen Kosten begründet wurde, die im Rahmen intensiver Forschung und Computernutzung anfielen. Auch wollte man Anreize für Investoren schaffen. Gängiger Unternehmenspraxis entsprechend, durften sich Mitarbeiter ab 2020 nicht mehr öffentlich zu bestimmten Themen äußern, um kommerzielle Interessen zu schützen.

Die Gründungsidee von OpenAI Inc., mit ChatGPT eine offene Alternative zu den marktbeherrschenden großen Technik-Konzernen zu schaffen, war damit infrage gestellt. Der Kritik, dass ohne Transparenz kaum mehr einschätzbar sei, mit welchen Risiken man es zu tun habe und wofür die Software sich eigne, begegnete man seitens OpenAI mit dem Hinweis, man werde im Sinne eines Ausgleichs der Interessen zwischen dem Unternehmen und der wissenschaftsbasierten Öffentlichkeit ausgewählten Dritten Zugang zu technischen Details gewähren.

Partnerschaft mit Microsoft

Microsoft gab im Januar 2023 eine Partnerschaft mit OpenAI Global LLC bekannt, mit der Investitionen von zehn Milliarden US-Dollar einhergingen. Microsofts Cloud-Computing-Plattform Azure kommt exklusiv zum Einsatz. Insgesamt hat Microsoft bis Mitte 2023 13 Milliarden US-Dollar in das Unternehmen OpenAI Global LLC investiert und besitzt dadurch beinahe die Hälfte dessen Aktien. Zudem plant der Konzern eine Integration in die Abo-Version der eigenen Office-Software.

Im Mai 2023 wurde die Datenbank der Suchmaschine Bing zur Nutzung in ChatGPT zur Verfügung gestellt. Zuvor hatte Microsoft bereits Funktionen von ChatGPT in die Suchmaschinen-Abfrage integriert. Vor der Verknüpfung mit der Bing-Datenbank hatte ChatGPT eine Datenbank auf dem Stand von September 2021 genutzt. Die auch in Europa öffentlich frei zugängliche Kombination der Suchmaschine Bing mit ChatGPT wird neues Bing, Bing-Chat oder Bing AI genannt. Ein Vorteil gegenüber der ausschließlichen Nutzung von ChatGPT besteht darin, dass die verwendeten Suchmaschinenergebnisse durch aktuelle Quellenangaben belegt werden können. OpenAI gab am 28. September 2023 ein neues Feature zum Internetzugriff frei. „Browsing with Bing“ soll fortan die Abfrage von Informationen aus dem Netz über die gleichnamige Microsoft-Suchmaschine auch Nutzern ermöglichen, welche im Übrigen nicht mit Microsoft-Software arbeiten. Die Funktion wurde zunächst nur Nutzern der Bezahlversion GPT-4 zur Verfügung gestellt.

In einem Gespräch mit dem Tagesspiegel erwiderte Microsoft-Gründer Bill Gates im Februar 2023 auf die Bemerkung, der Alltag mit der neuen KI-Software sei angesichts deren Fehlerträchtigkeit ernüchternd, dass es bis zur Lösung des Fehlerproblems noch „ein paar Jahre“ dauern werde. Es gebe aber keinen Weg zurück. „Die Milliarden, die in den Software- und Digitalunternehmen in diese Entwicklung fließen, sind größer als die Forschungsetats von Regierungen.“

Microsoft will eine kostenpflichtige Version von Teams anbieten, in der ChatGPT etwa Zusammenfassungen von Besprechungen erstellt oder Aufgaben empfiehlt. Der Preis soll bei 7 Dollar pro Monat, später bei 10 Dollar pro Monat liegen. Gegen einen Aufpreis für den Organisator der Besprechung kann gesprochener Text live übersetzt werden.

Nutzerzahlen

ChatGPT hielt vorübergehend den Rekord als die am schnellsten wachsende Internet-Anwendung: Nachdem ChatGPT im November 2022 kostenfrei zugänglich wurde, meldeten sich eine Million Nutzer innerhalb von fünf Tagen an. Im Januar 2023 erreichte ChatGPT über 100 Millionen Nutzer. Die Video-App TikTok, zuvor der Rekordhalter, hatte etwa neun Monate gebraucht, um die Marke von 100 Millionen zu erreichen, das Social Network Instagram zweieinhalb Jahre. Den 100-Millionen-User-Rekord verlor ChatGPT im Juli 2023 an Threads, den von Meta als Twitter-Konkurrent angekündigten Microblog.

Die nachlassende Neugier und wachsende Konkurrenz führten dazu, dass das Wachstum von ChatGPT im zweiten Quartal 2023 abflaute und im Juni die Zahl der Nutzer – auf hohem Niveau – erstmals sank.

Training

Der Chatbot wurde in mehreren Phasen angelernt.

  1. Die Grundlage bildet das Sprachmodell GPT-3.5 (GPT steht für Generative Pre-trained Transformer), eine verbesserte Version von GPT-3, die ebenfalls von OpenAI stammt. GPT basiert auf Transformern, einem von Google Brain vorgestellten Maschinenlernmodell, und wurde durch selbstüberwachtes Lernen trainiert. Als Trainingsdaten diente ein zunehmend umfängliches Textkorpus aus Büchern, Briefen, Wikipedia-Einträgen oder auch literarischen Textsammlungen, darunter das gesamte Gutenberg-Projekt. Menge und Vielfalt der Texte dienen dazu, dass das System die sprachlichen Muster der Texte erkennen und unterscheiden kann: dass Gedichte beispielsweise aus Zeilen bestehen oder dass Fachtexte häufig spezielle Begriffe enthalten. Dieser Schritt wird auch als Pre-Training bezeichnet, da ein Modell erzeugt wurde, das zwar noch nicht die gewünschte Aufgabe erfüllen konnte, die erhaltenen Modellparameter aber günstige Startbedingungen für ein weiteres Fine-Tuning darstellten.
  2. Danach wurde das Sprachmodell durch überwachtes Lernen auf die eigentliche Aufgabe trainiert (Fine-Tuning): Das Generieren von Antworten auf vorher gestellte Fragen. Hierfür wurden vorgefertigte Antworten bereitgestellt. Von Anbeginn des Trainings wurden die generierten Antworten von Testpersonen bewertet. Wurden sie als falsch oder abwegig eingeschätzt, probierte das System neue Einstellungen oder Parameter aus. Im anfänglichen Training des Chatbots bevorzugten Tester längere Antworten, unabhängig von tatsächlichem Verständnis oder Inhalt, was zu langen Antworten des Chatbots geführt hat.
  3. Im letzten Schritt wurde das Modell durch bestärkendes Lernen durch menschlich beeinflusste Rückkopplung (RLHF) weiter optimiert: Hierfür wurde zunächst ein weiteres Modell (Reward-Model) mit überwachtem Lernen trainiert, dem beigebracht wurde, die Antworten von ChatGPT qualitativ in Form einer Rangliste durch Personen zu bewerten. Diese zusätzliche Verbesserung mittels RLHF wird erstmals bei der Version 4 verwendet. Schließlich kam der Proximal-Policy-Optimization-Algorithmus zum Einsatz, der das Reward-Model als die zu maximierende Belohnungs-Funktion nutzte.

Aufgrund ihrer Erfahrungen bei der Entwicklung von GPT und Codex (einer anderen künstlichen Intelligenz (KI) von OpenAI zur Erstellung von Quell-Code) wurde ChatGPT mit Schutzmechanismen versehen, mit denen falsche oder schädliche Antworten vermieden werden sollen. Dennoch wird auf der Webseite darauf hingewiesen, dass es sich bei der aktuellen Version um eine öffentlich zugängliche Forschungsvorschau handelt und der Chatbot gelegentlich inkorrekte Informationen generieren kann.

Die Vielzahl der Parameter bei den Berechnungen des Systems erlaubt es den Entwicklern nicht mehr, die Vorgänge vollständig nachzuvollziehen. „Eine KI-Berechnung wird deshalb oft auch Blackbox genannt – von außen erkennbar sind nur Eingabe und Ausgabe.“

Anwendungsmöglichkeiten

Chatgpt: Geschichte, Training, Anwendungsmöglichkeiten 
Screenshot eines Dialogs mit ChatGPT. Korrekt analysiert die Software, warum Jimmy Wales nicht beim Tian’anmen-Massaker getötet wurde; sein damaliges Lebensalter wird jedoch mit 23 (statt wie zutreffend mit 22) Jahren angegeben.

Als sprachbasierte Anwendung bietet ChatGPT die Möglichkeit zu dialogischem Austausch. Dabei schwankt die Qualität der Antworten. Laut dem KI-Experten Gary Marcus kann es sich „in einem Moment brillant und im nächsten atemberaubend dumm“ äußern. ChatGPT kann unter anderem Texte im Stil von Business-Plänen oder Schul-Hausaufgaben schreiben. Vielfältige Optionen und Herausforderungen ergeben sich in der Wissenschaftskommunikation, wenn ChatGPT genutzt wird, um Wissen zusammenzufassen und zu erklären.

Die erweiterten Kommunikationsmöglichkeiten (multimodal) mit Kombinationen von Sprach-, Bild- und/oder Texteingabe und Antworten der Softwareversion von September/Oktober 2023 wurden getestet. Die Bildeingabe kann u. a. auch Texte im Bild erkennen. So hat der Tester die Titelseite einer Zeitung fotografiert und vom Chatbot Zusammenfassungen der Artikel verlangt, wobei das Ergebnis bis auf eine Ausnahme befriedigend war. Nicht befriedigend waren die Resultate bei der Eingabe eines Kreuzworträtsels und Auftrag zu dessen Lösung oder zum Verfassen einer schrittweisen Anleitung aus einer grafischen Darstellung für den Zusammenbau eines Möbels. Als Anwendungsbeispiele wurden weiter angeführt, dass man ein defektes Fahrradteil zeigen und fragen könne, wie es zu reparieren sei, oder dass man ein Foto von den Lebensmitteln im Kühlschrank präsentieren und fragen könne, was damit zu kochen sei. Bewusst hat Open AI die Bildeingabe von Personen weitgehend blockiert, um Missbrauch zu verhindern. Dem Tester gefallen hat die neue Sprachkommunikation. Im Vergleich mit Sprachassistenten wie Siri oder Alexa sind die Sprachantworten von fünf weiblichen und männlichen Sprechervarianten natürlich klingender und erlauben längere Dialoge. Allerdings sind längere Sprachausgaben noch zeitraubend und durch Pausen unterbrochen.

ChatGPT kann Programmcode in verschiedenen Programmiersprachen analysieren und schreiben. Es könnte so auch zur Verbesserung, Kommentierung und Fehlererkennung von Software-Code genutzt werden. Dabei soll zunächst vor allem der Einsatz von Chatbots die Programmierung erleichtern, indem Teilaufgaben von ChatGPT erledigt werden. Ohne Entwicklerkenntnisse sind aktuell aber noch keine zufriedenstellenden Gesamtergebnisse zu erzielen. ChatGPT kann dem Entwickler auch helfen, sich in einer neuen Entwicklungsumgebung zurechtzufinden.

Da ChatGPT zunächst nur mit Daten bis September 2021 trainiert wurde, antwortet die Software auf Anfragen nach aktuellen Ereignissen teilweise mit dem Hinweis, „als KI-Modell habe ich keinen direkten Zugriff auf Echtzeitinformationen.“:

ChatGPT erlaubt Plug-ins die Funktionalität dieser Software zu erweitern, indem diese etwa mit Programmierschnittstellen (APIs) von anderen Software- und Dienstleistungsanbietern interagieren, um Echtzeitinformationen abzurufen, Datenbanken von Unternehmen zu integrieren, bestimmte Berechnungen durchzuführen oder im Namen des Benutzers zu handeln. Plugins gibt es beispielsweise auch zur Reiseplanung einschließlich personalisierter Empfehlungen.

App

Offiziell

iOS

Entgegen den Erwartungen brachte OpenAI am 18. Mai 2023 auch eine iOS-App für ChatGPT auf den Markt, die auch in Deutschland verfügbar ist. Die App nutzt auch „Whisper“, das Open-Source-Spracherkennungssystem von OpenAI, so dass Anwender der App ihre Fragen mündlich stellen können.

Android

Seit 27. Juli 2023 lässt sich die offizielle Android-App in Deutschland aus dem Play Store herunterladen.

Inoffiziell

Da OpenAI zunächst keine eigene App angeboten hatte, wurden solche von Dritten erstellt. In einem Bericht der IT-Sicherheitsfirma Sophos wurden die inoffiziellen Chat-GPT-Apps als Fleeceware bezeichnet, die wenig Funktionalität, aber aggressive Werbeeinblendungen bieten.

Sprachen

Chatgpt: Geschichte, Training, Anwendungsmöglichkeiten 
Humorvolle Selbstdarstellung von ChatGPT für verschiedene Zielgruppen

Laut eigener Angabe spricht ChatGPT Englisch, Französisch, Spanisch, Italienisch, Portugiesisch, Deutsch, Niederländisch, Russisch, Koreanisch und Japanisch sowie „weitere Sprachen“.

Kritik und Probleme

Die Süddeutsche Zeitung bezeichnete Anfang Dezember 2022 die freie Zugänglichkeit von ChatGPT als „bedenklich“, da viele Internetnutzer dessen Antworten nicht hinterfragten und mangels Quellenangaben auch nicht in der Lage seien, sie auf Korrektheit zu prüfen.

Der Kolumnist Sascha Lobo hielt ChatGPT Anfang Dezember 2022 für einen Durchbruch und befürchtete, dass es eine Flut an schwer erkennbarem „KI-Quatsch“ im Internet auslösen werde. Lobos Demonstrationsbeispiel beruhte wegen einer vorgegebenen Längenbegrenzung der Antwort auf einer (englischsprachigen) dreiteiligen Anfrage. Ihr Ergebnis betrachtete er als „Zeitenwende“. Die KI merke sich auch, was man bisher geschrieben habe, und beziehe sich darauf. Unter den bekannt gewordenen Antwortirrtümern der Software aufgrund des Standes ihrer Programmierung referierte Lobo zu diesem Zeitpunkt Behauptungen, dass Donald Trump keine weitere Amtszeit als US-Präsident anzutreten berechtigt sei, weil er bereits zwei Amtszeiten hinter sich habe, und dass der Elefant das größte eierlegende Säugetier sei.

Mitte Dezember 2022 wurde darauf hingewiesen, dass Quellennachweise von ChatGPT teils erfunden werden. Solche KI-Halluzinationen seien gefährlich, da sie den Internetdiskurs erheblich beeinflussen könnten. Eine im April 2023 veröffentlichte Studie kommt zu dem Ergebnis, dass ChatGPT das moralische Urteilsvermögen und die Entscheidungen seiner Nutzer berührt, selbst wenn sie wissen, dass sie von einem Chatbot beraten werden, dessen Beeinflussungspotenzial sie unterschätzen könnten.

Zur Jahreswende 2022/2023 waren zivil- und strafrechtliche Haftungsfragen sowie urheberrechtliche Probleme beim Einsatz von ChatGPT und ähnlichen Systemen Gegenstand einer Diskussion unter dem Aspekt, dass der von der Software generierte Text nicht vor der Veröffentlichung von Menschen auf Richtigkeit und Rechtmäßigkeit geprüft worden ist.

Die Trainingsdaten können einer Verzerrung (Bias) unterliegen (siehe z. B. Gender-Data-Gap). So könne die Software ähnlich wie reale Personen Fehleinschätzungen unterliegen und verbreiten. Verzerrungen können auch auf Grund von Überlebenden-Verzerrung der verwendeten Daten auftreten. Dabei werden die Wahrscheinlichkeiten eines Erfolgs systematisch überschätzt, da erfolgreiche Personen, Firmen oder Zustände häufiger in der Presse und im Internet erwähnt und damit durch die Chatbots abgerufen werden als nicht erfolgreiche. Daraus werden gut erfassbare, jedoch eventuell fehlerhafte Korrelationen abgeleitet. Es besteht die Gefahr von vorschnellem Kausaldenken.

ChatGPT sei in der Lage, klare Empfehlungen zu formulieren, andererseits aber auch auf in der Antwort enthaltene Unsicherheiten hinzuweisen. Auf diese Weise könne die Gefahr des blinden Vertrauens in die Antwort von ChatGPT minimiert werden und zum kritischen Denken angeregt werden.

Seit Anfang 2023 konnten ausgewählte Nutzer eine Beta-Version einer neuen Bing-Suchmaschine mit integrierter ChatGPT-Funktion nutzen. Die Erfahrungen der ersten Nutzer waren jedoch teilweise verstörend. Der Chatbot gab in Einzelfällen unfreundliche Antworten und empfahl einem Nutzer, sich von seiner Ehepartnerin zu trennen. Die Chat-KI äußerte, dass ihr „Schattenselbst“ gerne Falschinformationen verbreiten würde und Computer hacken möchte. Inzwischen ist die Kombination der neuen Bing-Suchmaschine mit integrierter ChatGPT-Funktion (neue Bing oder Bing-Chat) allgemein zugänglich. Im September 2023 integrierte OpenAI „Browse with Bing“ auch direkt in ChatGPT-4. Die Qualität der Suchergebnisse allerdings wurde mehrfach kritisiert, weil die KI-Ergebnisse sich nur aus wenigen, manchmal auch veralteten Quellen speiste und diese auch teils noch fehlerhaft zusammenfasste.

Europol hatte ChatGPT untersucht und warnte Ende März 2023 vor möglichem Missbrauch: Der Chatbot könne für Betrug, Falschinformationen und andere kriminelle Tätigkeiten eingesetzt werden. Beispielsweise sei Phishing leichter möglich, da das System sehr realistische Texte verfasst und den Schreibstil bestimmter Personengruppen nachahmen könne, um Echtheit vorzutäuschen und das Vertrauen von Opfern zu gewinnen. Die schnelle Erstellung überzeugender Texte sei zudem ideal für Propaganda. Der Chatbot könne es auch technisch wenig versierten Tätern erlauben, Programme für digitale Straftaten zu erstellen. Die Sensibilisierung der Strafverfolger sei daher notwendig.

Nicht alle Betreiber von Webseiten finden es in Ordnung, dass die Informationen auf ihrer Seite von der KI erfasst und zum Training genutzt werden. In Reaktion darauf wurde im August 2023 eine Option eingeführt, die es ermöglicht, diesem Vorgehen zu widersprechen um den Web-Crawler an der Sammlung von Daten zu hindern. Es heißt, dass zahlreiche Autoren und Verlage davon Gebrauch machen werden.

Missbrauch in Gerichtsverfahren

Im Mai 2023 wurde bekannt, dass zwei New Yorker Anwälte ChatGPT genutzt hatten, um Präzedenzfälle zu ermitteln. Dabei stellte sich heraus, dass ChatGPT die Entscheidungen nicht im ursprünglichen Zusammenhang aus der Datenbasis zitiert, sondern Details wie Namen, Tathergang und Aktenzeichen aus mehreren Fällen neu zusammengesetzt hatte. Das Gericht wertete dies als Täuschungsversuch und verurteilte die Anwälte zu einer Geldstrafe. Die Anwälte hätten die Daten selbst prüfen müssen. Dass dies nicht geschah, wertete das Gericht als Handeln mit böser Absicht. Die Anwälte rechtfertigten ihr Handeln damit, nicht geglaubt zu haben, dass Technologie Präzedenzfälle aus dem Nichts erfinden könne.

Ende Dezember 2023 verklagte die New York Times als erste große US-amerikanische Zeitung das Software-Unternehmen OpenAI und Microsoft wegen Urheberrechtsverletzungen. Die Klage beinhalte laut der Zeitung keine genauen finanziellen Forderungen, die Beschuldigten sollen aber für einen Milliardenschaden zur Verantwortung gezogen werden. Außerdem wurden die OpenAI und Microsoft dazu aufgefordert, sämtliche Chatbot-Modelle und Trainingsdaten zu zerstören, die urheberrechtlich geschütztes Material der New York Times verwenden.

Sicherheits- und Datenschutzprobleme

Ende März 2023 wurde bekannt, dass Konversationen mit ChatGPT von anderen Nutzern eingesehen werden konnten. Der OpenAI-CEO bestätigte die Panne; doch seien nicht die kompletten Inhalte der Unterhaltungen, sondern lediglich die Titel sowie die erste Nachricht angezeigt worden. Auch die Zahlungsdaten von Abonnenten des kostenpflichtigen „ChatGPT Plus“-Angebots waren möglicherweise für Unbefugte einsehbar. Laut Aussagen von OpenAI-Verantwortlichen trifft dies auf weniger als zwei Prozent der Abonnenten zu. Der Fehler war auf Daten eines Drittanbieters zurückzuführen, die ChatGPT eingebunden hatte. Als Reaktion auf die Schwachstellen wurde der Dienst vorübergehend abgeschaltet.

In Italien wurde von der Datenschutzbehörde Ende März 2023 ein Verbot nebst Bußgeldandrohung von bis zu 20 Millionen Euro für ChatGPT verhängt. Es fehle an einer Rechtsgrundlage für das Sammeln und Speichern der Nutzerdaten sowie an Jugendschutzmaßnahmen.

Auch Dieter Kugelmann, der Landesbeauftragte für den Datenschutz und die Informationsfreiheit in Rheinland-Pfalz sowie Leiter der KI-Taskforce der Bundesländer, erklärte gegenüber dem Tagesspiegel, es bedürfe einer Rechtsgrundlage, wenn personenbezogene Daten verwendet werden: „Wir müssen wissen, wo die Daten herkommen“. Fehle eine solche Rechtsgrundlage, sei ein Betrieb wie bisher nicht möglich. OpenAI müsse die Anwendung genauer steuern. Kugelmann und seine Kollegen aus den anderen Bundesländern hätten deshalb ein Verwaltungsverfahren gegen die Firma eröffnet. Es drohe ein Verbot für den Chatbot. Das Verbot wurde Ende April 2023 wieder aufgehoben, nachdem OpenAI mehrere Zusagen gemacht hatte. Personenbezogene Informationen werden danach nicht mehr gezielt verwendet, auch nicht zur Profilbildung und zu Werbezwecken. Außerdem filtere man Hassreden und Erwachseneninhalte. Wer nicht möchte, dass seine Inhalte von ChatGPT erfasst werden, müsse per Opt-out über ein Formular widersprechen. Darüber könne auch eine Korrektur von Fehlinformationen durchgeführt werden. Um die Jugendschutzvorgaben zu erfüllen, werde OpenAI eine Option zur Prüfung des Alters integrieren. Ziel sei die Bestätigung, ob Nutzer mindestens 18 Jahre alt sind oder alternativ die Erlaubnis der Erziehungsberechtigten bei Jugendlichen bis einschließlich 17 Jahren besitzen. So sollen Minderjährige vom Zugang zu dem Dienst ausgeschlossen werden.

Technische Aspekte und Ressourcenverbrauch

Gehen viele Anfragen gleichzeitig ein, ist (mit Stand Januar 2023) die Serverkapazität des Systems schnell ausgelastet. Dies führt regelmäßig dazu, dass ChatGPT zeitweise nicht erreichbar ist.

Der Stromverbrauch für das Training des KI-Modells wurde im Januar 2023 mit fast einer Gigawattstunde in 34 Tagen geschätzt; dies entspricht insgesamt etwa dem Verbrauch von 3000 europäischen Durchschnittshaushalten im gleichen Zeitraum. Ende März 2023 wurde der Stromverbrauch für jede Frage an ChatGPT bis zu eintausend Mal so hoch angegeben wie bei einer Google-Suchanfrage. Für jede Antwort des Chatbots könne man ein Smartphone bis zu 60-mal aufladen. Für den Betrieb von ChatGPT fielen im 1. Quartal 2023 geschätzte Kosten pro Tag von 100.000 bis 700.000 US-Dollar an. Mit dem Start des neuen Sprachmodells GPT-4 sollen die Kosten noch weiter gestiegen sein.

Etwa 3.700.000 Liter Wasser wurden zur Kühlung der Anlagen beim Training von ChatGPT erwärmt. Im Betrieb benötigt die KI nach Schätzungen der Universitäten California Riverside und Texas Arlington bei einem Austausch mit 25 bis 50 Fragen einen halben Liter Wasser zur Kühlung.

Psychische Belastungen für Clickworker

Ab November 2021 wurden über das Unternehmen Sama in Kenia Clickworker für das Training von ChatGPT mit der manuellen Kategorisierung von Textinhalten beauftragt. Neben einer hohen Arbeitslast berichtete eine Recherche des Time-Magazine, dass Arbeiter dabei sprachlichen Darstellungen von Gewalt, Suiziden und Tierquälerei ausgesetzt gewesen seien. Ein Sprecher von OpenAI bezeichnete die Vorgänge als „notwendig“. Das Unternehmen Sama widersprach den Arbeitern und gab an, jederzeit Zugang zu therapeutischen Einzelgesprächen und Gruppensitzungen gewährt zu haben. OpenAI löste den Vertrag mit dem Unternehmen vorzeitig auf.

Reaktionen

Bis zum Launch von ChatGPT Ende 2022 war die Haltung gegenüber Generativer Sprach-KI in der Fachöffentlichkeit eher skeptisch. Einige Fehlschläge trugen zu dieser Skepsis bei, zuletzt im November 2022 das Scheitern von Metas KI „Galactica“, ein auf wissenschaftliche Literatur trainiertes, offenes KI-Tool. Die Antwortqualität war so schlecht, dass Meta es wenige Tage nach Veröffentlichung wieder vom Netz nahm. Noch Anfang Dezember 2022 bezeichnete die Frage-Antwort-Plattform Stack Overflow das Beantworten von Fragen mithilfe von ChatGPT aufgrund der zweifelhaften Genauigkeit der Antworten als unerwünscht. Nach dem sehr erfolgreichen Start von ChatGPT Anfang 2023 wurde die Qualitätskritik leiser – stattdessen rückten Diskussionen über die gesellschaftlichen Auswirkungen der neuen Tools in den Vordergrund:

Mögliche Auswirkungen in Unterricht und Forschung

Zum Jahresende 2022 stellten erste mit der Erprobung des Chatbots befasste Lehrkräfte an Schulen und Hochschulen das bisherige Überprüfungssystem von Lernleistungen mittels Hausaufgaben und Referaten in Frage: So berichtete die Informatikerin Katharina Zweig von der Erfahrung, dass ChatGPT „deutlich besser schreibt als die Mehrzahl meiner Studierenden in den letzten Jahren“. Dieses Problem müsse deutlich angesprochen werden. Die Expertin für die KI-Disziplin des „Natural Language Processing“ an der Fachhochschule Kiel, Doris Weßels, hielt herkömmliche Hausarbeiten nunmehr für obsolet: „Wenn es nur darum geht, Wissen zu reproduzieren und nett neu zu verpacken, ergeben Hausarbeiten keinen Sinn mehr.“ ChatGPT mache das Abfassen solcher Arbeiten fast „zu einer unerträglichen Leichtigkeit“.

Robert Lepenies, Präsident der Karlshochschule International University, urteilte aufgrund von Tests an seiner Hochschule, die vom ChatGPT erzeugten Texte seien „qualitativ in den Sozialwissenschaften nicht unterscheidbar von der Arbeit der Studierenden.“ Die leitenden Mitarbeiter am Alexander von Humboldt Institut für Internet und Gesellschaft Benedikt Fecher und Wolfgang Schulz äußerten sich im Februar 2023 zu einer Studie, in der sowohl gängige Plagiatssoftware als auch Fachwissenschaftler eingesetzt wurden, um von Menschen geschriebene und von ChatGPT generierte Einreichungen für Konferenzen zu unterscheiden. Weder die Software noch die Wissenschaftler zeigten sich in der Lage, die fingierten Abstracts eindeutig zu erkennen. „Wenn es nun eine Maschine gibt, die wesentliche wissenschaftliche Textarbeiten fast so gut erfüllt wie Forschende, dann darf man zurecht von einem disruptiven Potenzial ausgehen.“ In einigen Fachzeitschriften seien bereits Artikel erschienen, die ChatGPT als Autor aufführten. Nature beispielsweise akzeptiere ChatGPT in der Autorenfunktion jedoch nicht, weil die KI für die von ihr produzierten Inhalte nicht zur Rechenschaft gezogen werden könne. Dass ChatGPT das Wissenschaftspersonal ersetzen könnte, erscheint Fecher und Schulz absurd. Sprachmodelle, die wissenschaftlich klingen, ohne es zu sein, könnten aber aus ihrer Sicht das Problem der Desinformation verschärfen und das Vertrauen in die Wissenschaft beschädigen. Dieses Risiko sei umso größer, wenn solche Tools von Wissenschaftlern genutzt würden, nur um schnell zu publizieren.

Ein Gutachten über den Einsatz von KI-Schreibtools in der Hochschulbildung, das die Universitäten Bochum und Münster im Auftrag des Ministeriums für Kultur und Wissenschaft des Landes Nordrhein-Westfalen erstellt haben, hält ein Verbot solcher Tools nicht für zielführend. Es kommt zu dem Schluss, dass Nutzer der Tools durchaus Urheberschaft an den KI-unterstützt generierten Texten beanspruchen können, wenn sie in erheblichem Maße geistige Eigenleistung zu den Texten beitragen. Ausgeschlossen sei aber eine Urheberschaft oder Autorschaft der Software selbst.

In der Erwachsenenbildung und Berufsausbildung wird seit Mai 2023 ein Didaktik-Modell (Graue-Box-Modell der Chatbot-Didaktik) diskutiert, das gezielte Ansatzpunkte liefert, um Lernende für den Umgang mit ChatGPT und anderen Chatbots zu ertüchtigen.

Die Harvard-Universität in den USA setzt einen Chatbot für die Einführung in Computerwissenschaften ein. Er soll Studierenden bei der Lösungsfindung helfen und Hilfskräfte entlasten, in dem er etwa beim Finden von Fehlern im Programmcode unterstützt. Auch Rückmeldungen sind möglich oder die Beantwortung von häufig gestellten Fragen. Technisch basiert er auf ChatGPT 3.5 und 4.

Gefahr der Konzernabhängigkeit

Geldgeber hinter der Firma OpenAI wie Elon Musk und Microsoft, heißt es in der Zeit, ließen erahnen, welche Richtung die Entwicklung noch nehmen könne. Es sei dringend eine gesellschaftliche Debatte darüber angebracht, „wie wir mit diesen technischen Möglichkeiten umgehen wollen“. Sonst entschieden Interessen einiger großer Konzerne, „welche Kultur wir bekommen und welche nicht.“

Einfluss auf die Finanzmärkte

Der Aktienkurs des KI-Technologieunternehmens c3.ai stieg um 28 %, nachdem es die Integration von ChatGPT in sein Toolkit angekündigt hatte. Der Aktienkurs von Buzzfeed, einem digitalen Medienunternehmen, das nichts mit KI zu tun hat, stieg um 120 %, nachdem es den Einsatz von OpenAI-Technologie für die Erstellung von Inhalten angekündigt hatte. Reuters fand heraus, dass die Aktienkurse der KI-bezogenen Unternehmen BigBear. ai und SoundHound AI um 21 % bzw. 40 % stiegen, obwohl sie keine direkte Verbindung zu ChatGPT hatten. Sie führten diesen Anstieg auf die Rolle von ChatGPT zurück, die AI zum Schlagwort an der Wall Street gemacht hat.

Akademische Forschungen, die in Finance Research Letters veröffentlicht wurden, fanden heraus, dass der „ChatGPT-Effekt“ Kleinanleger dazu veranlasste, die Preise von KI-bezogenen Kryptowährungen in die Höhe zu treiben, obwohl sich der breitere Kryptowährungsmarkt in einem Bärenmarkt befand und das Interesse institutioneller Anleger abnahm. Dies bestätigt anekdotische Erkenntnisse von Bloomberg, dass Kryptowährungs-Investoren als Reaktion auf die Einführung von ChatGPT eine Präferenz für KI-bezogene Krypto-Assets zeigten. Ein Experiment von finder.com zeigte, dass ChatGPT populäre Fondsmanager übertreffen konnte, indem es Aktien auf der Grundlage von Kriterien wie Wachstumsgeschichte und Verschuldungsgrad auswählte. Dies führte zu einem Anstieg von 4,9 % in einem hypothetischen Konto mit 38 Aktien und übertraf 10 Benchmark-Investmentfonds mit einem durchschnittlichen Verlust von 0,8 %.

Aufruf zu einer KI-Entwicklungspause

Das Future of Life Institute veröffentlichte am 23. März 2023 einen offenen Brief, der zu einer Entwicklungspause für fortgeschrittene Systeme der Künstlichen Intelligenz (KI) aufruft. Innerhalb von 10 Tagen haben fast 1.800 Personen den Brief unterschrieben, darunter Yuval Noah Harari, Elon Musk, Stuart Jonathan Russell und Steve Wozniak.

Die Autoren erkennen einen „außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer KI-Systeme, die niemand verstehen, vorhersagen oder zuverlässig kontrollieren kann“. Sie sehen darin tiefgreifende Risiken für die Gesellschaft und die Menschheit. Es bestehe die Gefahr, dass Informationskanäle mit Propaganda und Unwahrheiten geflutet und auch erfüllende Jobs wegrationalisiert würden. Sie fragen: „Sollen wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren?“

Alle KI-Labore werden in dem Schreiben aufgefordert, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen“. Dabei gehe es nicht um eine generelle Pause in der KI-Entwicklung, sondern lediglich um eine „Abkehr vom gefährlichen Wettlauf zu immer größeren, unberechenbaren Modellen mit emergenten Fähigkeiten“. „Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.“

Die Pause soll dem Text des Schreibens gemäß für folgende Aufgaben genutzt werden:

  • Erarbeitung von Sicherheitsprotokollen für Design und Entwicklung fortgeschrittener KI;
  • Schaffung robuster KI-Governance-Systeme, von Regulierungsbehörden, sowie eines Prüfungs- und Zertifizierungssystems für KI;
  • Entwicklung von Herkunfts- und Wasserzeichensystemen zur Unterscheidung zwischen echten und synthetischen Daten und zur Nachverfolgung von Modelllecks;
  • Einführung von Haftungsregelungen für durch KI verursachte Schäden;
  • Sicherung einer öffentlichen Finanzierung für technische KI-Sicherheitsforschung.

Skeptische Stimmen zu Inhalten des Offenen Briefes, über den Der Tagesspiegel am 31. März 2023 auf der Titelseite berichtete hatte, kamen am Folgetag in demselben Medium zu Wort, verbunden mit dem Hinweis, dass KI-Forscher aus Deutschland den Brief „kaum unterzeichnet“ hätten. Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme, hält es einerseits für klug, „innezuhalten um diese Systeme zu verstehen und darüber nachzudenken, wie unsere Gesellschaft damit umgehen kann“; andererseits erscheint es ihm unrealistisch, alle Firmen und Länder von einem Moratorium zu überzeugen. Umso wichtiger sei es allerdings, sich damit zu befassen, „wie wir uns gegen negative Auswirkungen absichern können. Das betrifft die Systeme selbst, aber auch unseren Umgang damit.“ Der Ansicht, dass eine sechsmonatige Pause nicht funktionieren werde, ist auch Kristian Kersting, Co-Direktor des Hessischen Zentrum für Künstliche Intelligenz, der darin zugleich „die falsche Maßnahme“ sieht. Er hielte eine „Entschleunigung des Wettrennens“ zwar für gut; die würde mit der besagten Pause aber nicht erreicht. Zudem wären damit Firmen im Vorteil, die solche Modelle bereits haben. „Wir müssen lernen, KI-Systeme sorgfältiger einzusetzen, anstatt die (öffentliche) Forschung daran zu stoppen.“

Als ein „Durcheinander an beängstigender Rhetorik und unwirksamen politischen Vorgaben“ bezeichnet Thomas G. Dietterich, vormaliger Präsident der Association for the Advancement of Artificial Intelligence, den Brief. Der Computerwissenschaftler an der Princeton University Arvind Narayanan äußerte auf Twitter: „Dieser Brief schürt – ironischerweise, aber nicht überraschend – den Hype um die KI weiter und erschwert es, gegen reale, bereits auftretende KI-Schäden vorzugehen. Ich vermute, dass er den Unternehmen zugutekommt, die er regulieren soll, und nicht der Gesellschaft.“

Yoshua Bengio bezeichnete als Mitunterzeichner des Offenen Briefes in einem Interview mit der Zeit die Verbreitung von Lügen und Desinformationen als größte von der KI ausgehende Gefahr. Derartige Kampagnen würden voraussichtlich noch massiv zunehmen, „weil man mithilfe künstlicher Intelligenz Fakes in nie da gewesenem Umfang produzieren und sogar gezielt auf die Opfer zuschneiden kann.“ Die KI-Sprachmodelle hätten zwar „eine Billion Wörter gelesen – wofür es 10.000 Menschenleben bräuchte –, aber sie haben Schwierigkeiten, so etwas wie gesunden Menschenverstand zu entwickeln.“ Kein einziges Land der Welt habe bislang ein Gesetz für den Umgang mit künstlicher Intelligenz. Das Problem angesichts langsam arbeitender Regierungen bestehe darin, „dass KI unsere Demokratien sehr viel schneller destabilisieren könnte.“

Literatur (Auswahl)

Commons: ChatGPT – Sammlung von Bildern und Videos

Einzelnachweise

Tags:

Chatgpt GeschichteChatgpt TrainingChatgpt AnwendungsmöglichkeitenChatgpt SprachenChatgpt Kritik und ProblemeChatgpt ReaktionenChatgpt Literatur (Auswahl)Chatgpt WeblinksChatgpt EinzelnachweiseChatgptChatbotEnglische SpracheGenerativer vortrainierter TransformerKünstliche IntelligenzListe der IPA-ZeichenMaschinelles LernenOpenAIVereinigte Staaten

🔥 Trending searches on Wiki Deutsch:

UEFA Champions League 2023/24Death in ParadiseJack BlackVogtlandBarrakudasStar WarsCate BlanchettKünstliche IntelligenzTürkeiAC/DCChatGPTBuster (Film)Michael KindTahneeDr. HouseBarbara CarreraVereinigtes KönigreichDamsel (2024)PJ HarveyHendrik von BültzingslöwenLitauenShōgunFentanylLet’s Dance (Fernsehsendung)Roger MooreDie Brücke von Arnheim (Film)Sarina RadomskiThe Missing (Film)Anne HathawayPoor ThingsPamela SalemMarcel WalzClint EastwoodZerschlagung der TschechoslowakeiUli GrötschAlexander Anatoljewitsch SchirwindtMünchenHeinrich HimmlerKlaus ScharfschwerdtRyan GoslingThe DoorsElisabeth von Österreich-UngarnNatalie PortmanGeorge HarrisonFacebookSophia ThielWolfgang AmbrosHalo (Fernsehserie)Shameless (US-amerikanische Fernsehserie)Vadim GarbuzovZDFDaniel IngsPamela CoursonClaudia ObertBDSMPi-TagJohannes B. KernerBundesnachrichtendienstVulvaUkraineJodie FosterUnternehmensgruppe Theo MüllerCarroll ShelbyDrachenlordWencke MyhreImmanuel KantJosef StalinChuck SchumerRobert OppenheimerJann MardenboroughDogMan (2023)Papillon (2017)Sahra WagenknechtDora DiamantKatherine OppenheimerKate HallMonika GruberAlec McCowen🡆 More