Vom Corona-Ausnahmezustand zu ChatGPT


Alfred Masur
Aktuelles Interview Technologie

Das Capulcu-Kollektiv analysiert seit zehn Jahren die gesellschaftlichen Auswirkungen moderner Technologien aus einer herrschaftskritischen Perspektive. Alfred Masur hat sich mit einem Aktivisten des Kollektivs über einige Entwicklungen der letzten Zeit unterhalten.

inter_alfred_textbild

Über das Capulcu-Kollektiv

Alfred: Was genau ist das Capulcu-Kollektiv? Kannst du das ein bisschen vorstellen und erläutern?

Capulcu: Wir sind eine Gruppe von unterschiedlichen Leuten, einige von uns sind Hacker:innen, andere Historiker:innen, Physiker:innen, Informatiker:innen – unterschiedliche Leute, die sich alle durch linke Politik auf der Straße kennengelernt haben. Wir haben uns 2013 nach den Snowden Leaks (1) als Kollektiv gegründet, damals auch unter dem Eindruck der Gezi-Park-Proteste in der Türkei. Daher auch unser Name – die Aktivist:innen vom Gezi-Park haben damals die Parole ausgegeben „Wir sind alle capulcular!“, was aus dem Türkischen übersetzt so viel heißt wie „Wegelagerer“ oder „Tunichtgute“. Das war eigentlich eine Diffamierung seitens des Ministerpräsidenten Erdogan, die dann aber positiv aufgegriffen und gewendet wurde, indem man sagte: „Okay, dann sind wir jetzt alle capulcular“. Das haben wir uns damals zu Herzen genommen und haben unser Kollektiv auch so genannt. Seitdem machen wir sowohl theoretische Arbeit zu Technologiekritik, die wir als Zivilisations- und Herrschaftskritik verstehen, als auch praktische Arbeit, indem wir uns um digitale Selbstverteidigung bemühen und Fragen der Sicherheit im Umgang mit digitalen Medien aufgreifen – auch wenn wir sehr kritisch sind, was die Anwendbarkeit von fertigen Tools angeht.

Alfred: Gibt es theoretische Vorbilder oder Perspektiven, auf die ihr euch bezieht?

Capulcu: Unterschiedliche – ich glaube, da sind wir als Kollektiv relativ breit aufgestellt und haben nicht immer einen klaren Konsens. Zum Beispiel ist die Zeitschrift „Autonomie“ (2), deren Veröffentlichungszeitraum nun schon mehr als 30 Jahre zurückliegt, ein positiver Bezugspunkt. Ich würde sagen, es sind anarchistische, sozialrevolutionäre und autonome Einflüsse, die uns prägen. Von Walter Benjamin und Günther Anders gibt es ebenfalls ein paar Texte, die uns inspirieren, aber es gibt nicht unbedingt eine eindeutige und klare Herkunft.

Rückblick auf die Corona-Pandemie

Alfred: Ich bin zum ersten Mal auf euch gestoßen im Zusammenhang mit der Corona-Pandemie und den Maßnahmen. Damals habe ich mich ein wenig mit der Corona-Warn-App beschäftigt und bin dabei auf einen Text von euch gestoßen, den ich dann gelesen habe. Und das wäre ein Punkt, über den ich gern diskutieren würde: Während der Pandemie gab es ja viele Befürchtungen, dass jetzt ein neues Zeitalter der Überwachung anbricht, dass die Pandemie ausgenutzt wird, um staatliche digitale Überwachungsmechanismen zu schärfen. Mittlerweile ist es aber so, dass eigentlich keiner mehr über die Corona-Zeit redet, dass die Maßnahmen zurückgenommen wurden und dass es oberflächlich betrachtet so aussieht, als sei alles wieder „normal“. Wie siehst du das: War das einfach ein zeitweiliger Spuk, der jetzt wieder weg ist, oder sind bleibende Folgen daraus hervorgegangen?

Capulcu: Ich fürchte nein, das ist kein kurzzeitiger Spuk gewesen. Wir sind nicht zum alten „normal“ zurückgekehrt, sondern haben es leider mit einem „new normal“ zu tun. Erschreckend fand ich nicht nur den Versuch, technologische Methoden zum Bevölkerungsmanagement auszuprobieren – wir können gleich noch diskutieren, was sich davon gehalten hat und welche Ideen weiterhin eine Rolle spielen.

Erschreckend fand ich in in erster Linie, wie hoch in einer Phase der Verängstigung und Verunsicherung die Bereitschaft war – auch unter Linken –, sich mangels eigener Perspektiven autoritären Konzepten anzuvertrauen. Ich weiß nicht, ob sich überhaupt noch Leute daran erinnern, dass es einmal diese „Zero Covid“-Initiative gab. Also eine Initiative, die tatsächlich von der Idee der Eindämmung einer Pandemie mit krassesten bevölkerungstechnischen Maßnahmen – stark angelehnt an die rigide Zero-Covid-Politik Chinas – überzeugt war und forderte, dass das doch bitte auch hier in Europa, hier in Deutschland umzusetzen sei, ansonsten würden wir die Pandemie nicht los. Der Staat wurde also in Sachen Autoritarismus auch noch rechts überholt, aus der Angst, ansonsten tatsächlich mit vielen, vielen Toten aus dieser Pandemie rauszugehen. Die Hilflosigkeit kann ich komplett nachvollziehen, aber das Setzen auf den Autoritarismus und den technologischen Solutionismus – diesen Begriff werde ich gleich erklären – hat mich zutiefst erschreckt. Es fehlte an Vertrauen auf eigene, kollektive Ansätze und an einer kritischen Haltung, um die Regierungsmaßnahmen einzuordnen, zu kritisieren und eine eigene Praxis zu entwickeln.

Dass das alles nicht möglich war, hat mich erschreckt und daher würde ich sagen, dass das „new normal“ nach der Pandemie nicht das Gleiche wie das alte „normal“ ist. Ich glaube, hier wurde noch viel stärker als zu Zeiten der Anti-Terror-Maßnahmen mit den Ängsten aktive Politik gemacht – und das leider sehr erfolgreich. Das heißt, ich fürchte, dass ein erneuter Notstand – Anarchist:innen würden vielleicht eher von einem Ausnahmezustand sprechen – jederzeit abrufbar das ganze Arsenal an Bevölkerungsmanagement-Maßnahmen reaktivieren würde. Und ich glaube, unsere mangelnde politische Aufarbeitung der Corona-Pandemie wird uns erneut auf die Füße fallen. Deshalb bin ich froh über jeden Text, der sich in Retrospektive mit dem Corona-Pandemie-Management auseinandersetzt.

Kommen wir zurück auf den Begriff des technologischen Solutionismus. Die Corona-Warn-App ist vielleicht ein gutes Beispiel dafür. Sie stammt aus einer Phase, als es noch keine Impfungen gab und die Regierung händeringend nach Lösungen suchte, um überhaupt irgendeine Art von Aktivismus vorzeigen zu können. Die App misst eigentlich nur die Bluetooth-Signalstärke zweier Smartphones und versucht daraus deren Abstand abzuschätzen. Darüber soll sie dann herausfinden, wie lange sich zwei Leute wie nah gekommen sind und ob das Risiko einer Corona-Ansteckung besteht. Dies ist bei genauerer Betrachtung ein hoch unsinniges Projekt, weil es extrem fehleranfällig ist. Es gab viele kritische Berichte, (3) die gesagt haben, eigentlich ist das eine ganz unzuverlässige Methode: Man tut so, als hätte man ein Problem durch einen technologischen Lösungsansatz im Griff – hat man aber gar nicht! Solutionismus kommt vom englischen „solution“ und soll ausdrücken, dass man, ohne sich um den breiteren gesellschaftlichen Kontext eines Problems zu kümmern, mit einem pragmatischen Lösungsansatz einer Situation Herr zu werden behauptet. Und genau das war damals mit der Corona-App von wissenschaftlicher und Regierungsseite auch stark gewünscht: Man wollte vermitteln, dass man die Sache im Griff hat und so für die Beruhigung der Bevölkerung sorgen.

Alfred: Hier möchte ich kurz einhaken: Ist die Kritik am Solutionismus eher, dass er Lösungen nur vorgaukelt, die aber gar keine sind, oder ist die Kritik, dass er vielleicht durchaus zur Lösung eines bestimmten Problems beiträgt, dabei aber Nebenwirkungen mit sich bringt, die aus unserer Sicht vielleicht sogar größer sind als das ursprüngliche Problem selbst?

Capulcu: Ersteres. Es mag Nebenwirkungen geben, der Hauptkritikpunkt ist aber, dass es eine Scheinlösung ist. Man löst eigentlich ein Ersatzproblem. Ich möchte das anhand eines fiktiven Beispiels erläutern, das den Kern der Sache gut auf den Punkt bringt: Eine Großstadt stellt fest, dass ihr öffentliches Personennahverkehrsnetz für den vorhandenen Bedarf absolut nicht mehr ausreicht. Man rechnet durch, was es kosten würde, neue U-Bahnlinien zu bauen und kommt zu dem Ergebnis, dass dies viel zu teuer wäre. Man beschließt, das Problem anders zu lösen und ein dynamisches Preissystem einzuführen, das morgens und nachmittags zu den Hauptverkehrszeiten all diejenigen, die nicht zur Arbeit müssen, über hohe Preise vom Fahren abhalten soll. Das heißt, man löst ein Ersatzproblem auf der Bedarfsseite, man regelt einfach die Mobilität der Bevölkerung herunter und kann dann mit dem schlecht ausgebauten ÖPNV-System weiter haushalten. Auch hier wird die technologische Ersatzlösung überhaupt nicht dem eigentlichen Problem gerecht, sondern man versucht mit einem vermeintlich ideologiefreien, pragmatischen Ansatz ein Ersatzproblem zu lösen. In Wahrheit ist das mitnichten ideologiefrei, denn es wird hier gerade die Ideologie der technologischen Lösbarkeit verkörpert. Und das würde ich der Idee der Kontaktnachverfolgung über die Corona-Warn-App genauso unterstellen, dass sie eigentlich ein Ersatzproblem löst.

Alfred: Könnte man hier die Parallele ziehen, dass es, analog zu dem Beispiel mit dem maroden Nahverkehr, ein marodes, kaputt gespartes, neoliberales Gesundheitssystem gibt, dass es zu wenig Krankenhauskapazitäten gibt, dass die Ärzt:innen und Pfleger:innen überlastet sind und dass es schon seit langer Zeit immer wieder Papiere von Expert:innen gab, die gefordert haben, dass Notfallkapazitäten bereitgehalten werden müssten, damit im Falle einer Pandemie schnell zusätzliche Krankenhausbetten zur Verfügung gestellt werden könnten? Das wurde jedoch nicht gemacht – es wurde auch nach der Pandemie nicht daran gedacht, das Gesundheitssystem besser aufzustellen – und stattdessen werden solche Scheinlösungen präsentiert, die dann oft auch darauf hinauslaufen, den Einzelnen mit seinem individuellen Verhalten für gesellschaftliche Probleme verantwortlich zu machen; sei es, weil Leute Partys feiern und sich nicht an die Kontaktbeschränkungen halten, sei es, weil sie sich nicht impfen lassen wollen.

Capulcu: Exakt! Das Nicht-Vorhalten von ausreichenden Bettenkapazitäten ist der eigentliche Lapsus. Statt dieses Problem anzugehen, wird ein technisch leicht zu realisierendes Beiprodukt angeboten, mit dem sich Leute sicher fühlen sollen – wobei dies eine Scheinsicherheit ist. Ich finde, dass wir zur Zeit der Einführung der Corona-App zwar zurecht eine Debatte um privacy geführt haben und natürlich wäre es noch viel schlimmer gegangen, eine Warn-App zu machen, die individuelle Nachvollziehbarkeit – wer war wann wo? – ermöglicht hätte, was zum Glück nicht passiert ist. Aber ich finde, mit dem Argument, es hätte noch beschissener laufen können, muss man nicht eine Warn-App rechtfertigen, die ihren Job schon konzeptionell nicht hat erfüllen können.

Was davon nach der Pandemie blieb, ist zum Beispiel, dass Firmen wie Eventim die Technologie hinter der Corona-Warn-App gerne weiter nutzen möchten, um bei Großveranstaltungen wie etwa Megakonzerten herauszufinden, wer sich für welche Bühne interessiert oder welche Personenströme sich in welche Richtung bewegen. Daneben gab es andere Entwicklungen, wie Essenslieferdienste, die in der frühen Pandemie-Zeit 2020 ihren „iPhone-Moment“ erlebten – also richtig durchstarteten –, die Tatsache, dass wir uns über Zoom-Konferenzen unterhalten, dass Vieles ins Virtuelle verlagert wird – das sind Nebenprodukte der Corona-Pandemie, die sich natürlich im „new normal“ festgesetzt haben.

Trotzdem müssen wir positiv vermerken, dass nicht alles geblieben ist. Der Mensch hat als soziales Wesen keinen Bock darauf, dauerhaft in Zoom-Konferenzen zu sitzen und er erobert sich die direkten sozialen Kontakte zurück. Das muss man positiv werten!

Alfred: Ich hatte zum Beispiel während der Pandemie auch die Befürchtung, dass solche Dinge wie Händeschütteln, sich Umarmen, sich Küssen zur Begrüßung einfach verschwinden werden, weil die Leute weiterhin Angst haben, sich mit Viren anzustecken. Das ist zum Glück nicht passiert, bestimmte Verhaltensweisen und Traditionen sind offenbar doch stark genug verankert, sodass die Pandemie zumindest in dieser Hinsicht keine bleibenden Spuren hinterlassen hat.

Capulcu: Genau! Und die Lust auf große Menschenansammlungen, auf Feiern und Festivitäten ist geblieben und das kann man positiv vermerken.

Trotzdem: Die drastischen staatlichen Maßnahmen haben sich im Nachhinein alle als etwas unverhältnismäßig herausgestellt. Man denke nur an Kontaktbeschränkungen unter freiem Himmel, die beispielsweise dazu geführt haben, dass die große Demonstration anlässlich des rassistischen Anschlags in Hanau nicht stattfinden konnte. Dass wir uns das haben nehmen lassen, war meines Erachtens ein großer Fehler und ich muss leider sagen, dass ich ihn für wiederholbar halte. Ein Ausnahmezustand, den die Behörden als mindestens von dem Ausmaß von Corona einstufen, wird wieder viele Leute in Verunsicherung und Angst versetzen und zum Autoritarismus verleiten, sodass sie sich, mangels eigener Auseinandersetzung mit dem Thema, unhinterfragt an die staatlichen Vorgaben halten. Dies ist aus linker Sicht absolut bedenklich, während man aus einer Herrschaftsperspektive sagen kann: „Das hat gut funktioniert!“

Alfred: Ein wichtiger Aspekt in diesem Zusammenhang ist auch der Moralismus in den Debatten zu diesem Themenkomplex, sowohl in der bürgerlichen Öffentlichkeit, als auch in unseren linken Zusammenhängen. Dieser führte dazu, dass es kaum möglich war, eine ergebnisoffene, freie Debatte zu den Corona-Beschränkungen zu führen und Kritiker:innen mit einem sehr autoritären Gestus mundtot gemacht wurden. Dies hat sich in gewisser Weise fortgesetzt in den Debatten anlässlich des Ukrainekriegs, wo man auch sehr schnell als Putinfreund:in oder Ähnliches dasteht, wenn man bestimmte Sichtweisen nicht teilt.

Capulcu: Ich finde es sehr gut, dass du die Analogie zum Ukrainekrieg aufmachst und ich würde sagen, die Lehre, die wir ziehen müssen, besteht darin, dass es ein Job von Linksradikalen ist, diesen Binarismus abzulehnen. Wenn es heißt: „Bist du für oder gegen?“, dann muss unsere Antwort lauten: „Weder noch! Ich bin für eine kritische Auseinandersetzung.“ Diesen Zwischenraum, der eigentlich als gesellschaftlicher Diskussionsraum nicht mehr zugestanden werden soll, müssen wir ganz bewusst suchen und mit eigenen Positionen füllen - das halte ich für die Lehre aus der Corona-Pandemie.

ChatGPT und künstliche Intelligenz

Alfred: Das stimmt. Ich würde jetzt gern von der Corona-Pandemie zur aktuellen Zeit kommen. Seit ein paar Monaten ist ja ChatGPT in aller Munde, die Meisten haben es auch schon mal ausprobiert und seither ist auch die Diskussion um künstliche Intelligenz, die bisher eher ein Randthema war, sehr präsent geworden. Darüber würde ich gerne sprechen. Vielleicht können wir mit der Frage anfangen: Wie funktioniert so ein Sprachmodell wie ChatGPT überhaupt?

Capulcu: Ich kann das grob erläutern. Es hat mit maschinellem Lernen zu tun. Du hast es schon erwähnt, es ist ein Sprachmodell – das ist ganz wichtig – mit sehr, sehr vielen Parametern und es wird mit vielen, vielen Texten trainiert. Das Modell ist eigentlich ein stochastischer Papagei (4), der nachplappert, was er in den Trainingsdaten an Mustern gefunden hat. Man muss sich das so vorstellen: Ein Satz, den ein solches Sprachmodell generiert, wird von den ersten Wörtern her aufgebaut und das nächste Wort wird nach statistischen Wahrscheinlichkeiten eingefügt. Dies erfolgt – ohne jeden Bedeutungszusammenhang – über einen Abgleich mit Milliarden von Einzelwörtern, die man vorher in den Trainingsdaten gefunden hat, sowie die Beobachtung von Häufigkeiten bestimmter Wortgruppen. Wir sehen hier bereits ein großes Manko dieser Sprachmodelle – sie sind nicht wissensbasiert. Das ist nicht wie bei Wikipedia, wo Wissen zusammengetragen wurde, wo auch bestenfalls kritisch gemeinsam moderiert wird und unterschiedliche Wahrnehmungen dieses Wissens austariert werden. Es sind reine Sprachmodelle, die auf der Häufigkeit von Wortkombinationen basieren. Das heißt, es kann da auch durchaus gut aussehender, gut klingender Unsinn produziert werden.

Alfred: Bevor wir diesen Aspekt vertiefen, habe ich noch eine Zwischenfrage: Mir ist aufgefallen, dass ChatGPT eine irgendwie „politisch korrekte“ Ausrichtung hat. Wenn ich zum Beispiel sage: „Schreibe mir eine Rede im Stile von Mussolini!“, dann wird sich ChatGPT unter Umständen weigern und sagen, dass Mussolini ein Faschist und eine sehr fragwürdige Gestalt war und dass es nicht gut sei, so etwas zu schreiben. Oder ChatGPT würde es, wenn man ein bisschen anders formuliert, dann doch machen, aber am Ende irgendeine politisch korrekte Distanzierung einfügen, nach dem Motto: „Das sind natürlich alles sehr fragwürdige Gedanken, das ist ja rassistisch und man sollte so etwas nicht sagen“.

Ich frage mich: Kommt das auch aus der statistischen Analyse der Trainingsdaten, in denen eben oft genug Mussolini im Zusammenhang mit einer Kritik an ihm aufgetaucht ist oder gibt es da noch einen Filter, der von den Macher:innen des Programms darüber gesetzt wurde, um zu verhindern, dass man zum Beispiel faschistische Reden kreieren kann?

Capulcu: Genau - das sind tatsächlich Randbedingungen, die zusätzlich formuliert werden und nicht allein aus den Trainingsdaten statistisch resultieren. Das geht auf folgende Erfahrung zurück: Microsoft hatte schon vor einigen Jahren einen ersten ChatBot kreiert, der sich „Tay“ nannte. Und Tay ist binnen weniger Stunden zu einem strammen Rechtsradikalen mutiert. Bei seinen ersten Gehversuchen, in den Gesprächen mit den ersten Anwender:innen, hat er sich abgeguckt, welche Formulierungen und welche Positionen da gerade Trend waren und hat diese selbst adaptiert. Das hat zum sofortigen Abschalten dieses ChatBots geführt. Um einen solchen Moment des Scheiterns zu vermeiden, haben die Macher:innen von ChatGPT (das ist die Firma OpenAI, die tatsächlich einmal als offenes Forschungsprojekt antrat, dies aber mittlerweile nicht mehr ist) tatsächlich auch mit viel menschlichem Arbeitsaufwand zusätzliche Filter eingebaut. Das heißt, es wurden Leute dafür bezahlt - und zwar sehr schlecht bezahlt -, bestimmte generierte Äußerungen und Texte herauszufiltern, die ethisch fragwürdig sind oder pornographisches Material enthalten. Dies wurde gemacht, um die Popularität dieses großen ChatBot-Hypes nicht zu gefährden.

Alfred: Ich dachte zuerst, dass das eine Art „antitotalitäre Brille“ ist und das sowohl rechtsradikale als auch linksradikale Positionen herausgefiltert werden. Ich habe dann aber zum Beispiel ChatGPT angewiesen, mir eine Rede im Stile Lenins über die Corona-Pandemie zu schreiben. Das hat das Programm anstandslos gemacht und das Ergebnis war tatsächlich von recht guter Qualität, sodass ich dachte, das hätte Lenin tatsächlich so geschrieben haben können. Deshalb scheint mir, dass ChatGPT eher einer „antifaschistischen“ als einer „antitotalitären“ Motivation folgt, das heißt, linke Positionen kann man durchaus damit fabrizieren.

Capulcu: Die kann man fabrizieren, was wir trotzdem feststellen, ist eine Art „Hegemonie der Pseudo-Ausgewogenheit“. Wenn man etwas historisch einordnen lassen will, zum Beispiel von ChatGPT eine Abhandlung über die 1848er Revolution hören möchte, dann wird man häufig das Muster finden, dass die Mehrheitsmeinung sehr detailliert dargestellt wird und am Ende noch ein kleiner Hinweis angehängt wird, dass es auch andere Meinungen zu dem Thema gibt, die aber wahrnehmbar als randständig präsentiert werden. ChatGPT versucht also eine gewisse Ausgewogenheit zu simulieren, um sich nicht dem Vorwurf der Einseitigkeit auszusetzen.

Ich sehe das insofern als problematisch, als dass ChatGPT gerade mit den Suchmaschinen gekoppelt wird. Microsoft macht das bereits mit seiner Suchmaschine Bing und Google möchte seinen eigenen ChatBot Bard mit der Google-Suchmaschine koppeln. Hier sehe ich die Gefahr eines Reduktionismus. Bislang sind wir daran gewöhnt, dass wir sehr viele Suchergebnisse zu einer Fragestellung bekommen und wir haben selbst die Aufgabe, uns aus diesen Suchergebnissen eine Meinung zu bilden. Natürlich ist allein das Ranking der Suchergebnisse schon eine hochgradige Form der Meinungsmache und Möglichkeit der Manipulation. Wenn mir jetzt aber ein fertig gegossener Text als Ergebnis der Suche präsentiert wird, dann finden wir in diesem wieder genau diese Pseudo-Ausgewogenheit und ich bekomme eine Meinung, die erst mal in Beton gegossen scheint. Ich werde nicht mehr durch eine Vielzahl von Suchergebnissen zum kritischen Abwägen unterschiedlicher Positionen gezwungen. Dasselbe Problem haben wir auch schon festgestellt, wenn Leute eine Suchanfrage über einen Sprachassistenten formulieren: Da hört sich auch niemand 15 verschiedene Einträge an, sondern man gibt sich mit dem erstplatzierten Ergebnis zufrieden. Das ist tatsächlich eine bedenkliche Entwicklung, denn wenn ChatGPT in Zukunft das Medium sein wird, das uns in fein abstufbarer Detailtiefe die Suchergebnisse präsentiert, dann kann es sein, dass wir Probleme haben, randständige Meinungen überhaupt abgebildet zu finden.

Alfred: Es ist auch gar nicht so leicht, ChatGPT dazu zu bringen, irgendwelche Quellen anzugeben. Wenn man bei Google etwas sucht, bekommt man ja Quellen und kann sich dann selbst eine Meinung darüber bilden, ob man diese für seriös hält oder nicht. Bei ChatGPT hat man dagegen erst mal nur einen fertigen Text. Man kann dann zwar nochmal nachfragen: „Nenne mir Quellen, wo ich mich darüber noch etwas genauer informieren kann“, aber auch das führt oft nicht zu den gewünschten Ergebnissen.

Capulcu: Genau! Das ist stiefmütterlich, aber das geht wiederum auf das Problem zurück, dass es sich um ein Sprachmodell handelt. Es kommt häufig vor, sowohl in der Juristerei, als auch bei wissenschaftlichen Abhandlungen, dass ChatGPT anfängt zu halluzinieren, oder, wie die Psycholog:innen genauer sagen, zu „konfabulieren“: Das ist keine echte Desinformation im Sinne einer bewussten Täuschung, sondern das ist freies Assoziieren im Sinne eines Sprachmodells. Da wird zum Beispiel eine Quelle für einen Text zusammengestellt – aber die gibt es überhaupt nicht! Es werden durchaus Wissenschafter:innen genannt, die auf diesem Gebiet forschen und arbeiten, von der Form her sieht alles wie eine saubere Referenz aus, aber sie existiert nicht. Und so kam es tatsächlich auch schon zum Vorwurf des Gerichtsbetrugs: Da hat ein mit einem einschlägigen Verfahren betrauter Anwalt ChatGPT nach ähnlichen Fällen zum Thema sexualisierte Gewalt suchen lassen und das Programm hat dann vermeintliche Präzedenzfälle herausgesucht. Das Gericht hat das dann beanstandet: „Was ist das denn, diese Gerichtsurteile sind uns nicht bekannt.“ Das hat alles damit zu tun, das es kein wissensbasiertes Modell ist.

Und darauf zielt auch meine Kritik ab: Wenn wir ein Sprachmodell, nur weil es uns so überrascht in seinen Fähigkeiten, auf gesellschaftliche Probleme anwenden, die viel eher wissensbasiert abgehandelt werden sollten, dann begeben wir uns auf ein Gebiet, wo uns die Unterscheidung zwischen wahr und falsch – Information, Missinformation oder sogar bewusste Desinformation – nicht mehr wichtig ist. Die Verschleierung der Unterscheidung von wahr und falsch ist politisch ein eher rechtes Muster – man denke nur an den Trumpismus! Und es ist ein Muster, das sehr gut funktioniert. Ich kann ChatGPT auffordern: „Schreibe mir hundert Varianten einer Begebenheit, die nicht stattgefunden hat.“ Flute ich damit die Sozialen Medien, kann ich durchaus einen „Debattenbeitrag“ liefern, der sehr glaubwürdig erscheint und schon bekomme ich eine Erzählung zu einer Thematik, die mit der Wahrheit nicht mehr viel zu tun hat. Die Absicht dabei ist nicht unbedingt, diese Fake-Erzählung für wahr zu erklären, sondern die gesellschaftliche Wirkung ist, dass die Unterscheidung von wahr und falsch für normal sterbliche Menschen kaum noch möglich ist.

Alfred: Hältst du das für eine bewusste Strategie der Macher:innen von ChatGPT oder ist es eher etwas, was Leute, die das Programm anwenden, daraus machen können?

Capulcu: Ich halte es für einen hochbedenklichen Nebeneffekt. Ich unterstelle OpenAI nicht, ganz bewusst eine Fake-Maschine produziert zu haben. Nur eignet sich ChatGPT hervorragend als Fake-Maschine zum Produzieren von Unwahrheiten und auch von bewussten Desinformationen. Auf Indymedia konnten wir bisher die Troll-Beiträge mit unserem menschlichen Filter leicht erkennen, weil es immer wieder die gleichen, doofen Erzählungen waren. Mit ChatGPT ist es jetzt sehr leicht, nicht mehr gut erkennbare Fake-Erzählungen zu produzieren – und davon ganz viele Varianten –, das erfordert überhaupt kein handwerkliches Geschick mehr. Und so kann dann durch eine Flut von Falschmeldungen der Nachrichtenwert von Indymedia insgesamt gesenkt werden. Leute werden sagen: „Ich finde das viel zu anstrengend, herauszufinden, was davon stimmt und was nicht – ich lese das nicht mehr.“ Und schon haben wir den rechten Effekt, die Unterscheidung von Information und Missinformation ist nicht mehr da. Wir haben Beispiele von Verlagen, die ihr offenes Portal geschlossen haben, weil sie jetzt über ChatGPT sehr viele Fake-Erzählungen bekommen haben. Ganze Romane werden da eingereicht und der Verlag sieht sich nicht mehr in der Lage herauszufinden, was ein ernstgemeintes Angebot ist und was nicht.

Alfred: Gibt es noch andere gesellschaftliche Probleme im Zusammenhang mit ChatGPT?

Capulcu: Ich sehe die Hauptschwierigkeit eigentlich nicht in ChatGPT allein, sondern in der Wechselwirkung von ChatGPT mit den Sozialen Medien. Bei Social Media gab es von vornherein schon das Problem, dass sehr potente Akteure Mehrheitsmeinungen verändern konnten, indem sie viele, viele ChatBots künstliche, maschinelle Meinungen produzieren lassen und diese in einen Diskussionsprozess einspeisen. So etwa die bewusste Einflussnahme auf eine Wahl, wie 2016 bei der Trump-Wahl durch Cambridge Analytica. (5) Das ganze System ist aber sehr komplex und deshalb ist es schwer, als Einzelakteur solch einen Debattendrift zu erzeugen. Mit ChatGPT ist das sehr leicht möglich und darin sehe ich ein Problem.

Und ich denke, das müssen wir abgrenzen von den Problemen, wie sie teilweise im Feuilleton hochgeschrieben werden: „Was passiert, wenn eine solch fähige künstliche Intelligenz uns als menschliche Wesen irgendwann einmal für überflüssig oder gar für hinderlich für das eigene Projekt erklärt? Müssen wir uns dann Sorgen machen?“ Diesen Verweis auf die sogenannte „Singularität“, also eine maschinelle Intelligenz, die die Fähigkeiten einer menschlichen Intelligenz übersteigt, den Verweis auf einen solchen Punkt in der Zukunft halte ich manchmal für etwas unlauter, weil er durch eine dystopische Zukunft von den gesellschaftlichen Problemen ablenkt, die ChatGPT im Hier und Jetzt erzeugt.

Offener Brief: KI-Entwickler:innen warnen vor sich selbst

Alfred: Es gab ja vor Kurzem einen offenen Brief (6), der von mehreren Tausend Leuten unterzeichnet wurde, die selbst aus diesem Hochtechnologie-Bereich kommen – viele davon sind Mitarbeiter:innen von Google etc. und Elon Musk ist auch unter den Unterzeichner:innen. In diesem Brief wurde auch vor den Gefahren der KI gewarnt und zwar tatsächlich in ähnlichen Worten, wie du es gerade beschrieben hast, wonach künstliche Intelligenz uns als menschliche Gattung gefährden könnte. Es wurde ein halbes Jahr Entwicklungspause für Sprachmodelle gefordert, die noch leistungsfähiger sind als ChatGPT 4. Was steckt da dahinter, wenn Leute, die selbst diese Programme erstellen, jetzt davor warnen und die Regierungen auffordern, einzugreifen und die Konzerne zu zwingen, erst mal nicht mehr weiter zu forschen, damit zunächst irgendwelche Regelungen ausgearbeitet werden können?

Capulcu: Wenn man vor sich selbst warnt, klingt das natürlich erst mal nach einer ungewöhnlichen Maßnahme. Ich glaube, da steckt zum einen ein ökonomisches Bestreben dahinter, diese Technologie zu einem echten Hype zu machen. Und das ist gelungen: Es gab bislang keine Technologie, die es geschafft hat, innerhalb von zwei Monaten mehr als 100 Millionen Nutzer:innen zu bekommen. Das gab es weder bei Facebook, noch bei anderen Social-Media-Entwicklungen, noch bei der Einführung des iPhones. Und dabei spielt die Werbung mit der „Warnung vor dem Hunde“ eine Rolle.

Der Wunsch nach frühzeitiger Regulierung ist ein anderes Motiv, das tatsächlich darauf abzielt, dass das technisch noch nicht Bewerten-Können, zum Beispiel durch die EU-Kommission, zu Regelungen führt, die schon bald angesichts deutlich potenterer Ausbaustufen – denken wir in Richtung GPT 4, 5 und 6 – nicht mehr adäquat sind. Da die Entwicklungsgeschwindigkeit deutlich schneller ist als das Begreifen einer regulierenden Behörde, werden Regulierungen zu einem frühen Zeitpunkt laxer ausfallen als später eintreffende Regulierungen, die sich dann mit dem gesamten Ausmaß an gesellschaftlichen Entwicklungen herumschlagen. Das ist, denke ich, eine zweite Intention hinter dem Moratorium.

Ansonsten muss man an dem Papier kritisch bewerten, dass insbesondere auf den Punkt der zukünftigen Gefahr für die Menschheit verwiesen wird. Das finde ich unseriös, denn es bagatellisiert die Auswirkungen, die ChatGPT jetzt schon zeitigt.

Auswirkungen von KI auf die Arbeitswelt

Zum Beispiel eine massive Veränderung der Arbeitswelt, eine massive Veränderung in der gesellschaftlichen Akzeptanz für KI, die nicht an Wissensmodelle gebunden ist, was zu der Haltung führt: „Ja, die Ergebnisse sind zwar nicht ganz sauber, aber leicht zu produzieren.“ Lass doch einen Informatiker sich nur noch mit den schwierigen Themen beschäftigen und ein Großteil des Codes, den er zur Problemlösung programmiert, wird von ChatGPT gemacht. Dann muss hinterher noch geprüft werden, ob es halbwegs stimmig ist, was ChatGPT da zusammengekloppt hat, aber es ist auf jeden Fall viel billiger. Laut der Einschätzung verschiedener Programmier-Startups könnten diese 40% der Belegschaft einsparen, wenn sie konsequent ChatGPT benutzten.

Das sind Entwicklungen, über die ich mir sehr viel mehr Gedanken machen würde als über die Frage, ob es in 20 Jahren einen Zustand geben wird, an dem die künstliche Intelligenz sich ihrer selbst gewahr wird. Das klingt nach Bewusstsein – das Ding hat aber kein Bewusstsein, es kennt keine Bedeutung und hat kein Verständnis für irgendetwas. Wenn es von einem Baum spricht, dann weiß es nicht, wovon es spricht, denn der Begriff „Baum“ ist lediglich etwas, was es in den Trainingsdaten gefunden hat. Ich würde daher sagen, die Vorstellung, dass ein solches Modell dann irgendwann einmal nicht mehr abschaltbar sein sollte oder selber auf die Idee kommt, Waffen zu kaufen und sie dann gegen irgendwen zu richten – das halte ich für eine dystopische Übertreibung!

Alfred: Dann lass uns einmal bei der Frage der Arbeitswelt bleiben. Ich finde es interessant, dass schon seit Längerem immer wieder gewarnt wird, dass Künstliche Intelligenz nicht nur bei Programmierer:innen, sondern in allen möglichen Berufssparten extrem Arbeitskräfte einsparen wird. Es gibt auch Rankings, mit wie viel Prozent Wahrscheinlichkeit dein Beruf gefährdet ist, in 20 Jahren wegrationalisiert zu werden. Und da stehen dann plötzlich Berufe wie Friseur:innen ganz gut da, weil eine solche handwerkliche Arbeit anscheinend nicht so leicht technisch ersetzbar ist.

Was wir aber, zumindest jetzt noch, real sehen, ist eigentlich genau das Gegenteil: In allen möglichen Sparten hat man Fachkräftemangel und sucht händeringend nach Leuten. Ich finde das an sich schon ein interessantes Phänomen. Einerseits kann man es wahrscheinlich mit demographischen Trends erklären: Viele Leute gehen in Rente und es kommen nicht so viele junge Leute nach. Andererseits glaube ich, es hat auch damit zu tun, dass z.B. nach der Zwangspause in der Corona-Zeit viele Leute gesagt haben, sie wollen jetzt nicht mehr in ihrer Branche arbeiten und sich irgendetwas Besseres suchten. Hinter dem Fachkräftemangel steckt also auch eine Unlust an der Arbeit und vielleicht sogar eine Art von Widerstand, der sich als solcher gar nicht bewusst ist, aber dennoch ein Widerstand ist. Das passt aber nicht so richtig zusammen mit der Warnung davor, dass wir demnächst alle überflüssig gemacht werden durch Künstliche Intelligenz. Was denkst du darüber?

Capulcu: Ja, das ist wirklich komplex! Kommen wir zu einem Zustand, wo dann ganz viel Arbeit vermieden werden kann - also auch Arbeit, die wir gar nicht verrichten wollen? Das könnte man ja aus einer linksradikalen Perspektive fast als einen positiven Trend verbuchen! Die Realität sieht häufig anders aus. Blicken wir noch einmal kurz auf die Trendphase der Robotik zurück: Damals waren es eher die manuellen Arbeitskräfte, die ersetzt wurden. Und da hat es auch nicht nur dazu geführt, dass die anstrengenden und körperlich bedenklichen Jobs wie etwa das Lackieren von Automaten übernommen wurden - das würden ja aus einer gesundheitlichen Perspektive eigentlich alle für richtig halten. Nein, es hat auch zu einer Entwertung von Arbeit geführt und das Gleiche erleben wir jetzt zum Beispiel bei Übersetzer:innen. Wie oft höre ich von Übersetzungsbüros, dass versucht wird, ihre Arbeit herabzustufen und einen billigeren Tarif auszuhandeln, indem gesagt wird: „Ich habe ja schon mal mir Google Translate oder DeepL eine Übersetzung gemacht, könnten Sie bitte nur kurz drüberschauen, ob das auch in einem guten Französisch, einem guten Englisch verfasst ist. Das dürfte doch wohl billiger sein, als wenn ich den Text von Grund auf bei Ihnen übersetzen lasse.“ Das ist zwar eine Fehleinschätzung, wenn man eine wirklich gute Übersetzung haben will. Aber viele Übersetzungsbüros machen zu, weil viele Kund:innen bereit sind, eine mindere Qualität in Kauf zu nehmen, wenn sie das Ergebnis dank DeepL kostengünstig bis umsonst produziert bekommen können. Es findet also eine Entwertung von Arbeit statt und nicht einfach ein Überflüssigmachen von Arbeit. Und in diesem Zwischenzustand, der sich meiner Meinung nach sehr lange ausdehnen kann, werden wir eine ganze Zeit leben – jetzt in einem Jobbereich, der nicht mehr manuell ist, sondern beispielsweise Sachbearbeiter:innen von Versicherungsagenturen stark betrifft. Die werden tatsächlich überflüssig werden. Einstufung von einfachen zivilrechtlichen Prozessen, bei denen es nicht um große, schwierige Dinge geht, das wird in Zukunft eine KI machen, das ist tatsächlich eine realistische Einschätzung. Und selbst wenn die Fehlerquote hoch ist, wird man das hinnehmen, weil man sagt, der ökonomische Druck ist so groß, wenn wir das mit menschlicher Intelligenz machen würden, wäre das viel zu teuer. Diese Standards werden sich verschieben. Und das halte ich für ein großes Problem.

Perspektiven des Widerstands

Alfred: Wir haben jetzt eine ganze Menge über die gesellschaftlichen Auswirkungen und Perspektiven von Künstlicher Intelligenz gesprochen. Abschließend würde ich gern nochmal auf uns selbst zurückkommen. Was können wir als Linksradikale mit all dem anfangen? Welche Arten des Widerstands gegen das, was ihr vom Capulcu-Kollektiv auch den „technologischen Angriff“ genannt habt, sind möglich?

Capulcu: Tatsächlich ein sehr komplexes Thema und vor allem ein zeitlich veränderliches. Wir wurden zum Beispiel einmal angefragt, ob wir uns vorstellen könnten, eine KI zum Wiedererkennen von Neonazis in großen Menschenmengen zu trainieren, die Antifaschist:innen die Recherche und Auswertung von Bildmaterial erleichtern würde. Wir haben uns damals dagegen entschieden, da aktiv mitzuwirken, weil wir glaubten, einer Technologie auch in linken und linksradikalen Kreisen Vorschub zu leisten, die wir als hochproblematisch ansehen, weil sie gegen uns selbst angewendet werden kann. Das macht ein wenig das Problemfeld auf. Das Ergebnis wäre vielleicht anders ausgefallen, wenn Seawatch uns angefragt und um eine KI gebeten hätte, die einem Flugzeug bei der Suche nach Booten im Mittelmeer hilft – das wäre eine begrüßenswerte und aus humanistischer Sicht sinnvolle Tätigkeit.

Worauf ich hinaus will ist, dass es gar nicht so leicht ist, eine Technologie in Gänze als verwerflich abzulehnen – ich glaube aber, dass es manchmal trotzdem notwendig ist. Denn wenn wir sie auf einen bestimmten Anwendungsfall reduzieren, dann werden wir, wie geschehen, beispielsweise mit Drohnen konfrontiert, die erst mal in einem zivilen Bereich für sinnvoll erachtet werden, nämlich zur Vermessung der Bewässerungsnotwendigkeit von Feldern in der Landwirtschaft. Die Drohne, die zunächst militärisch konnotiert war, wird dadurch zivil eingehegt und zu einem sinnvollen Lösungsansatz erklärt. Dies ist ein Beispiel für den zivil-militärischen Dualismus – ein Weg, den sehr viele Technologien gehen.

Ich möchte darauf hinaus, dass ich ChatGPT und überhaupt große Sprachmodelle in ihrer Weiterentwicklung für gesellschaftlich so rückwärtsgewandt halte, dass ich tatsächlich gerne eine Art Notbremse ziehen würde – wenn ich sie denn hätte! Wir haben sie nicht, das wissen wir, wir können aber vielleicht mit einer fundamentalen Kritik gesellschaftliche Entwicklungen beeinflussen, oder wir können zumindest die Wahrnehmung einzelner Leute beeinflussen. Ich glaube, es fällt uns noch recht leicht, autonome Waffensysteme und die Anwendung von KI in solchen Systemen grundsätzlich abzulehnen. Es wäre begrüßenswert, wenn es uns gelänge, eine solche Haltung auch bezüglich der großen Sprachmodelle einzunehmen, die ja, wie ich bereits mehrfach betont habe, keine wissensbasierten Modelle sind. Da sitzt also ein statistischer Papagei, der einfach nur Herrschaftswissen aus der Vergangenheit in die Zukunft projiziert. Wenn uns das klar ist, dann müssten wir vielleicht auch sagen: Nein, das kann kein fortschrittliches Tool sein. Das ist nicht bloß ein neutrales Werkzeug, sondern eine Technologie, die gesellschaftlich verhindert, dass auch randständige Kräfte, Meinungen und Ideen in diesem großen statistischen Bassin überhaupt Niederschlag finden. Wenn wir dazu eine klar ablehnende Haltung einnehmen würden, wäre schon eine Menge gewonnen. Wir sollten uns nicht darauf beschränken, eine Technologiefolgenabschätzung zu machen, die nur versucht, kosmetisch die unliebsamen gesellschaftlichen Auswirkungen einer solchen Technologie abzumildern. Das wäre eher ein SPD-Projekt und das ist nicht das, was uns vorschwebt.

Was das allerdings konkret heißt, kann sehr unterschiedlich sein. Zum einen kann es darum gehen, Bewusstsein zu bilden, indem wir Aufklärung betreiben, zum Beispiel durch solche Diskussionen wie heute. Es kann aber auch sein, dass Leute zu dem Ergebnis kommen: Wir müssen diese Technologie, die auf der hohen Vernetzung unserer Gesellschaft basiert, grundsätzlich infrage stellen. Sowohl im Ausland, als auch in Deutschland kennen wir Beispiele von Menschen, die sagen: Wir unterbrechen diese Netze, denn wir wollen eine echte Denkpause, keine vorgegaukelte wie das vorher erwähnte Moratorium. Wie könnte eine Gesellschaft aussehen, die sich tatsächlich an einer Art von Gemeinwohl orientiert? Die KI kann uns hierbei nicht helfen, denn sie hat überhaupt keine Idee, was ein Gemeinwohl sein könnte, sie plappert nur nach. Und deshalb unterbrechen wir den Normalzustand und fordern ein Innehalten. Lasst uns als Gesellschaft definieren, wo wir hinwollen; lassen wir nicht zu, dass der Siegeszug irgendwelcher Technologien bestimmt, wie sich Gesellschaften entwickeln. Diese Verkehrung halte ich für total rückwärtsgewandt und dass Leute auf die Idee kommen, einen Angriff so grundsätzlich zu formulieren, dass er vielleicht auch eine Unterbrechung der Energie-, Daten- oder Personennetze mit sich bringt, das kann ich erst mal nachvollziehen.

Alfred: Zunächst möchte ich etwas zu dieser Antifa-KI sagen, die du am Anfang erwähnt hast. Ich finde das nicht nur sehr problematisch, sondern bekomme regelrecht Angst, wenn ich so etwas höre! Während der Corona-Zeit habe ich erlebt, dass Leute aus meinem eigenen Umfeld von Antifa-Aktivist:innen als vermeintliche „Querdenker:innen“ oder „Schwurbler:innen“ geoutet wurden und dann versucht wurde, gegen sie vorzugehen oder sie von irgendwelchen Veranstaltungen auszuschließen. Diese Maßnahmen wurden nur sehr oberflächlich begründet: Es wurde sich überhaupt nicht mit den Gedanken dieser Leute auseinandergesetzt, sondern einfach nur gesagt, man hat dich da und dort gesehen oder du hast jene Sache unterstützt usw. Wenn das Gleiche dann auch noch KI-gestützt funktionieren würde, wäre das wirklich fatal. Man würde dich dann einfach herausfiltern und dir sagen: „Du kommst jetzt nicht in die Veranstaltung rein. Ich kann dir auch nicht genau sagen, warum, aber die KI hat festgestellt, dass du ein rechtsoffener Querdenker bist.“

Zu dem anderen Punkt, den du angesprochen hast, dass eine wirkliche Unterbrechung von ChatGPT oder anderen KI-Netzwerken vielleicht eine sinnvolle Denkpause ermöglichen würde: Ich kann das auch nachvollziehen, aber auf der anderen Seite kann eine solche Denkpause nur dann produktiv genutzt werden, wenn es menschliche Netzwerke oder Zusammenhänge gibt, wo sich Leute real treffen, diskutieren und Ideen entwickeln, wie man die Gesellschaft anders gestalten könnte. Das ist vielleicht auch etwas, das ich als Lehre aus der Corona-Zeit mitnehme, dass man unbedingt Orte schaffen und stärken muss, die nicht rein auf einer virtuellen Diskussion beruhen, sondern wo man real zusammenkommt. Und dass vielleicht dies, was wir ja sowieso schon anstreben und stärker voranbringen möchten, im Zuge der Digitalisierung noch viel wichtiger wird: Dass es Nachbarschaftstreffen gibt, dass es reale Kollektive gibt, wo Menschen sich gegenseitig helfen.

Es gibt ja zum Beispiel auch den Trend, dass man sich selbst optimieren möchte, durch alle möglichen Apps, die Schritte zählen, den Puls messen, den Schlafrhythmus analysieren usw. Dass Leute an so etwas Interesse entwickeln, hängt ja auch damit zusammen, dass sie vereinzelt sind und dass sie denken, sie müssen sich selbst optimieren, damit sie im Job oder in ihrer gesellschaftlichen Rolle besser funktionieren können. Und wenn man tatsächlich so individualisiert ist, dann macht es immanent auch Sinn, beispielsweise seine Schlafrhythmus zu analysieren, um besser schlafen zu können und dann am nächsten Tag ausgeschlafener zur Arbeit gehen zu können usw. Auch dagegen hilft eigentlich nur Kollektivität. Wenn man ein Netzwerk von Leuten hat, die sich gegenseitig unterstützen, dann muss man ja vielleicht auch seinen Alltag nicht so perfekt durchplanen und sich dabei noch von einer KI helfen lassen. Deshalb denke ich, dass das, was ohnehin sinnvoll wäre, nämlich kollektive Strukturen zu schaffen, auch in Hinblick auf diese technologischen Angriffe auf uns sinnvoll wäre.

Capulcu: Absolut, das würde ich vollkommen unterstützen. Die Kollektivität würde ich auch in den Mittelpunkt stellen und vor allen Dingen im Kollektiv sich Gedanken machen, wie denn eine umfassendere Perspektive auf die Gesellschaft und Zukunft aussehen könnte. Das bewahrt einen nämlich davor, dass man solche technologischen Kurzschlüsse und Scheinlösungen für Ersatzprobleme als irgendeinen Hoffnungsschimmer für reale gesellschaftliche Probleme missinterpretiert. Ich würde tatsächlich den Siegeszug der KI maßgeblich darin sehen, dass Aufgaben- und Problemstellungen viel zu spezifisch und zu eng formuliert an uns herangetragen werden. Das Beispiel der Antifa-KI macht das, glaube ich, sehr deutlich. Wenn ich die Fragestellung so eng formuliere: „Bist du jetzt für die Erkennung von Neonazis oder bist du dagegen?“, dann kommt man natürlich leicht bei dem schon anfangs in Bezug auf die Corona-Pandemie erwähnten Binarismus heraus: Ja oder Nein, etwas anderes darf ich gar nicht antworten. Wenn ich dann aber erwäge, was eine Verallgemeinerung dieses Denkens auf die Gesamtgesellschaft, also auch auf uns als Linksradikale, bedeutet, muss ich von einem Backlash, einem negativen Effekt, ausgehen. Das kann ich aber nur erkennen, wenn ich in der Lage bin, ein Problem weit und gesamtgesellschaftlich zu analysieren. Und viele von diesen KI-Scheinlösungen fallen dann schnell als echte Lösungen weg, denn sie taugen nur in dieser hochspezifischen Formulierung als vermeintliche Lösung. Der Ansatz im Umgang mit KI könnte also für uns, neben den vielleicht handfesten Widerstandsoptionen, auch darin liegen, diese Probleme weiter zu formulieren und deren Einbettung mit zu betrachten – und nicht nur die Zuspitzung auf den hochspezifischen Anwendungsfall, in dem die KI jetzt ach so siegreich sein soll.

Alfred: Ich fand alles, worüber wir gesprochen haben, sehr aufschlussreich und denke, dass über viele Aspekte noch genauer nachgedacht und diskutiert werden müsste. Ich danke dir sehr für das Gespräch! Capulcu: Besten Dank für die spannende Diskussion.

Fußnoten:

(1) Der US-amerikanische ehemalige Geheimdienstmitarbeiter Edward Snowden enthüllte Anfang Juni 2013, dass der US-Geheimdienst NSA in großem Umfang weltweit das Internet verdachtsunabhängig überwachte und verursachte damit einen großen Skandal.

(2) Siehe Wikipedia, Eintrag: „Autonomie (Zeitschrift)", Abruf: 29.06.2023.

(3) Siehe z.B. Douglas J. Leith, Stephen Farrell: Measurement-Based Evaluation Of Google/Apple Exposure Notification API For Proximity Detection In A Light-Rail Tram, veröffentlicht auf der Website des Trinity College Dublin am 26.06.2020, Abruf: 18.07.2023; Paul-Olivier Dehaye: Inferring distance from Bluetooth signal strength: a deep dive, veröffentlicht auf medium.com am 19.05.2020, Abruf: 18.07.2023; Guido Arnold: Corona-Solutionismus (Teil 1), veröffentlicht auf disskursiv.de am 18.11.2020, Abruf: 18.07.2023.

(4) Der Begriff wurde geprägt von einer Gruppe von Wissenschaftlerinnen um Emily M. Bender und Timnit Gebru in ihrem Aufsatz „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“. Das Papier hat eine kontroverse Diskussion ausgelöst und einigen der Autorinnen ihren Job bei Google gekostet.

(5) Siehe Ingo Dachwitz, Tomas Rudl: Was wir über den Skandal um Facebook und Cambridge Analytica wissen, veröffentlicht am 21.03.2018 auf netzpolitik.org, Abruf: 18.07.2023.

(6) Pause Giant AI Experiments: An Open Letter, veröffentlicht am 22.03.2023 auf futureoflife.org, Abruf: 18.07.2023.

Alfred Masur

Der Autor lebt in Dortmund und arbeitet im Bildungssektor.

Vorheriger Beitrag Nächster Beitrag