Algorithmen zugunsten populistischer Narrative.
prompt:
completion:
Soziale Medien wie TikTok, Instagram, Telegram und X (ehemals Twitter) haben in der Generation der unter 30-Jährigen Printmedien und klassische Nachrichtenkanäle wie das Fernsehen weitgehend abgelöst. Da Informationen hier in Echtzeit geteilt werden, sind sie jedoch auch geeignete Plattformen für eine schnelle Verbreitung propagandistischer Narrative. Sie können die individuelle Einstellung und das Verhalten gegenüber Kriegen mitbestimmen, so etwa im russischen Angriffskrieg auf die Ukraine. In diesem Fall wurden Kreml-Narrative durch Influencer*innen auf TikTok geteilt und gewannen dadurch große Aufmerksamkeit. Propaganda verspricht den Nutzer*innen zu den „Starken“ und „Guten“ zu gehören, indem mit ihren Ängsten und Hoffnungen gespielt wird.[1] Ziel ist es, demokratische Strukturen zu schwächen. Die Gegenkraft hierzu stellt eine freie kritische Presse dar, die ein pluralistisches Meinungsbild in der Öffentlichkeit repräsentiert.
In meiner künstlerischen Praxis setze ich den Fokus auf deutschsprachige Propaganda. Ein Blick auf die Zeit des Nationalsozialismus ist notwendig, um beispielsweise verschwörungsideologischen und NS-verherrlichenden Narrativen zu widersprechen. Der NS-Staat hatte die Informationsmedien unter seiner Kontrolle, mit der Absicht, die komplette Bevölkerung propagandistisch zu erreichen.[2] Ein wichtiges Instrument war die sprachliche Lenkung durch Wörterbücher, welche an die Ideologie des „Dritten Reichs“ angepasst wurden. Nationalsozialistische Propaganda diente zudem dazu, den Massenmord an Jüdinnen und Juden zu rechtfertigen. Die Neue Rechte distanziert sich teilweise von nationalsozialistischer Propaganda. Ihre ideologischen Grundsätze weisen heute postmoderne Tendenzen auf, indem sie Ausdrucksformen der Popkultur aufgreifen. Anspielungen auf und Begeisterung für den historischen Nationalsozialismus sind in der deutschen extremen Rechten jedoch bei weitem nicht überwunden, denn „schon um die eigenen identitätsstiftenden Bedürfnisse zu befriedigen, wird das nationale Lager immer wieder auf die NS-Bewegung und die Zeit ihrer Herrschaft zurückkommen.“[3] Die neurechte Autorin Angelika Willig unterstellt in der rechtsextremen Zeitschrift „Neue Ordnung“ in einem Artikel über Hitlers Buch „Mein Kampf“, dass „jüdische Organisationen“ die Veröffentlichung des Buches als „feindseligen Akt“ empfänden. Insbesondere in der Sprache werden, wie im Fall Willig, indirekte Narrative der NS-Propaganda genutzt, um antisemitischen Hass zu verbreiten.[4]
Die gezielte Nutzung von Falschinformationen, um sich in Wirtschaft oder Politik einen Vorteil zu verschaffen, beispielsweise durch die Beeinflussung von Medien, wird Informationskrieg genannt. Durch die Schnelllebigkeit der sozialen Netzwerke ist es einfach, sich tagesaktuell auszutauschen. Innerhalb dieser Netzwerke diskutieren und „informieren“ auch rechte sowie verschwörungsideologische Gruppierungen über andauernde gesellschaftliche Themen wie Klimawandel und Migration, aber auch aktuelle Themen wie den Angriffskrieg auf die Ukraine.[5] Durch den starken Meinungsaustausch, der von den Algorithmen dieser Plattformen gefördert wird, profitierten in der Vergangenheit rechte Gruppierungen und erlangten dabei große Aufmerksamkeit. Während der Proteste gegen die Corona-Schutzmaßnahmen in den Jahren 2020 und 2021 wurden vermehrt antisemitische Narrative verbreitet. Wieso gerade die Corona-Pandemie ein Auslöser und Antrieb für diese Tendenzen war, wird im nächsten Abschnitt genauer erläutert. Vergleiche, wie die der Bundesregierung mit dem nationalsozialistischen Regime, werden oft durch codierte „Begriffe wie ‚Großkapital', ‚Hochfinanz‘ oder Bezüge zu jüdisch-stämmigen Personen als dämonisierte Feindbilder“[6] verwendet. Diese indirekten antisemitischen Bezüge sind besonders gefährlich, da sie nicht immer als solche erkannt werden. So erreicht die Rechte in den sozialen Netzwerken eben auch leichter andere Gruppierungen, wie es während der Corona-Pandemie der Fall war. Die Folge hiervon ist eine vermehrte öffentliche Judenfeindlichkeit im Jahr 2020. Der Bundesverband der Recherche- und Informationsstellen Antisemitismus (RIAS) erfasste 1.909 antisemitische Vorfälle in Deutschland, 450 Fälle mehr als im Jahr 2019, wovon mehr als ein Viertel der Vorfälle (489) einen direkten Bezug zur Corona-Pandemie hatten.[7]
Antisemitische Narrative sind Brandbeschleuniger bei der Verbreitung von Falschinformationen in Zeiten einer globalen Pandemie. Im Allgemeinen spielen im Krieg um Informationen nicht-faktengeprüfte Inhalte, welche in sozialen Netzwerken viral gehen, eine große Rolle. Hierbei muss man zwischen Fehlinformation (engl. Misinformation) und Desinformation (engl. Disinformation) unterscheiden. Eine Fehlinformation hat oftmals keine konkrete Täuschungsabsicht, während eine Desinformation gezielt genutzt wird, um Falschinformationen zu verbreiten. Am Beispiel des Angriffskrieges auf die Ukraine wird die Problematik von Desinformationen, die in erster Linie in den sozialen Netzwerken geteilt werden, deutlich. Videos auf TikTok, die das vermeintlich aktuelle Geschehen dokumentieren, zeigen Aufnahmen von der Krim aus dem Jahr 2014. Während ukrainische Influencer*innen häufig sehr persönliche und unmittelbare Einblicke in den Kriegsalltag zeigen, verbreiten einige russische Influencer*innen hingegen staatliche Propaganda. Eine Einordnung des Geschehens oder von Gewalt- und Propaganda-Inhalten erfolgt selten.[8] Journalist Peter Pomerantsev forscht über die Manipulation von Informationen und beschreibt den Einfluss sozialer Medien wie folgt:
„Darin besteht das Paradox der neuen Medien. Sie sollten uns weiter in die Zukunft führen, haben uns stattdessen aber die Vergangenheit zurückgebracht – Frauenfeindlichkeit, die wir für besiegt hielten, Regime, die scheinbar beerdigt waren. Schon die Form der sozialen Medien verwirrt Zeiten, Orte und Proportionen: Terroranschläge gepostet neben Katzenvideos, die neusten Witze neben Familienfotos. Das Ergebnis ist eine Art von Einebnung, so als würden Vergangenheit und Gegenwart ihre relative Perspektive verlieren.“[9]
Vor allem Instagram und TikTok gehören zu den beliebtesten Informationsquellen im Internet, wie eine Statistik aus dem Jahr 2022 zeigt.[10] Rund 73% der TikTok Nutzer*innen in Deutschland sind laut Umfragen zwischen 16 und 19 Jahre alt.[11] Gerade deshalb können durch den Algorithmus geförderte Inhalte, welche in der Regel nicht faktengeprüft sind, insbesondere für junge Menschen gefährlich werden.
prompt:
completion:
Wer eine hohe Reichweite generiert und hierbei Produkte, Meinungen und sich selbst vermarktet wird Influencer*in genannt. Welchen Einfluss Influencer*innen im digitalen Kapitalismus haben und welche Auswirkungen dies auf die (westliche) Gesellschaft und politische Diskurse mit sich bringt, wird in „Influencer – die Ideologie der Werbekörper“ von Nymoen und Schmitt anhand diverser Beispiele veranschaulicht. Im Folgenden werden drei von ihnen vorgestellt.
An der Kampagne „You are Women“ von Douglas zum Weltfrauentag nahm eine Influencerin in Dubai teil, die auf ihrem Beitragsbild im Bikini am Strand vor der emiratischen Skyline posiert. Auf kritische Kommentare, welche auf die Frauen(un)rechte in den Vereinigten Arabischen Emiraten hinweisen, stießen bei der uneinsichtigen Influencerin auf großes Unverständnis.[12] In den USA und auch in anderen Ländern gibt es den Trend, dass Influencer*innen wohnungslosen Menschen Geld geben, wenn sie eine Aufgabe erfüllen. Ohne jegliche Aufklärung zu dem Thema Wohnungslosigkeit stellen sich die Influencer*innen aber vor allem selbst in den Mittelpunkt, indem sie sich als absoluten „Gutmenschen“ inszenieren.[13] Auf die Spitze der Selbstinszenierung treiben es die Influencer*innen allerdings mit dem im Sommer 2020 entstandenen TikTok-Trend, der vermeintliches Bewusstsein für die Geschichte der Shoah schaffen sollte. Zu sehen sind kurze Videos in Selfie-Perspektive, in denen einzelne Personen getötete Opfer der Shoah spielen und aus der Ich-Perspektive erzählen, wie sie ermordet wurden.[14] Die Autoren des Buches Ole Nymoen und Wolfgang M. Schmitt fassten die genannten Beispiele wie folgt zusammen: „[…] Global tragfähige Lösungen werden dabei nie präsentiert, stattdessen wird das vielleicht bedeutsamste politische Thema des 21. Jahrhunderts auf eine Frage der individuellen Konsummoral reduziert.“[15] Relevante gesellschaftliche Themen werden zu einem ökonomischen Vorwand verkürzt, mit der Absicht, sich selbst in den Mittelpunkt zu stellen.
Seit dem Beginn der Corona-Pandemie hat sich die Nutzung digitaler Medien verstärkt und somit auch die Wirksamkeit politischer Dialoge. Medienwissenschaftler Simon Strick spricht von „rechten Gefühlswelten“, welche in dieser Zeit gesamtgesellschaftlich Aufmerksamkeit erlangten. Er bezieht sich hierbei auf die Affekttheorie, also kurze und intensive Gefühlsregungen, die den Strukturen der sozialen Medien entsprechen. Sie kann auf alltagsorientierte Prozesse des Internets und deren Online-Reproduktion angewandt werden, welche innerhalb hochsituativer und personalisierter Kommunikationen ablaufen. Zudem kann die Affekttheorie Wege zur „politischen Emotion“ beschreiben, so werden emotionale Affekte wie Angst von rechten Akteuren genutzt werden um eine gerichtete Grundstimmung auf politische Themen im Netz zu erzeugen.[16] Dies macht Online-Handlungen vor allem performativ, zudem kurzsichtig und pragmatisch in ihrer Situationslogik, wie in den oben aufgeführten Beispielen deutlich wird.[17] Algorithmen in sozialen Netzwerken fördern gerade diese Inhalte, wodurch verschiedene Gruppierungen leichter zu erreichen sind.
Während im Jahr 2020 weltweit Personen durch eine COVID-19 Infektion um ihr Leben kämpften, wurden deutschlandweit Demonstrationen um eine symbolische Freiheit mit rechtsextremen Gruppierungen, Reichsbürger*innen und Holocaustleugner*innen geführt. Mit ihnen gingen vermehrt auch Hippies, Eltern und Personen des öffentlichen Lebens auf die Straße.[18] In dieser Zeit ist der ehemalige Autor veganer Kochbücher Attila Hildmann einer der Hauptakteure in den digitalen Netzen und nicht zuletzt auf der Straße. Als sich am 29. August 2020 der im Internet organisierte sogenannte „Sturm auf den Bundestag“ ereignete, postete Hildmann während seiner Festnahme vor dem Bundestag auf seinem Telegram Kanal „HELDEN DER DEUTSCHEN GESCHICHTE STÜRMEN HEUTE DEN REICHSTAG VORBILDER FÜR MILLIONEN (Herzchen Adler Schwerter Emojis)“ (43.200 Zugriffe).[19] Die digitale Versammlung innerhalb sogenannter „alternativer Medien“ ging auf die Straße über.
Das Geflecht einzelner Akteur*innen wie Influencer*innen, organisierter Gruppierungen und der Politiker*innen aus dem rechten Rand bildet ein starkes Sprachrohr für die Verbreitung faschistischer und verschwörerischer Narrative. Grundlage hierfür sind die Strukturen und Algorithmen der Sozialen Medien, welche kaum bis keine Kontrolle über ihre Inhalte besitzen (wollen). Vor allem durch die wirtschaftlichen Interessen der Tech-Elite wird ein Raum für solche Inhalte geschaffen. Die Autoren von „Digitaler Faschismus – Die sozialen Medien als Motor des Rechtsextremismus“ Maik Fielitz und Holger Marcks kommen zum Schluss, dass „[der] Drang zum öffentlichen Narzissmus, den das selbstverliebte Influencertum mit dem digitalen Faschismus teilt, […] doch reichlich unemanzipiert und egoistisch [erscheint]: Für ein wenig individuelle Selbstentfaltung sind viele bereit, sich der Macht der Tech-Konzerne zu unterwerfen – und somit kollektive Freiheiten preiszugeben.“[20]
Laut einer Studie des MDR sind sich 55% der Nutzer*innen sozialer Netzwerke nicht sicher, ob sie eine gefälschte Information von einer wahren unterscheiden können.[21] Die Wiederverwertung algorithmischer Interpretationen durch Neu-Zusammensetzungen in Text und Bild, weist unterschiedlich starke Spuren der verwendeten Künstlichen Intelligenz auf. Große vortrainierte KI-Textgeneratoren, wie beispielsweise GPT-3 von OpenAI, sind dazu in der Lage propagandistische Sprache zu generieren, die auf den ersten Blick kaum von menschlich geschriebener Propaganda zu unterscheiden ist. Erst bei genauerer Betrachtung verweisen syntaktische und semantische Fehler auf ihre Synthetizität. Somit wird es für Nutzer*innen mit der permanenten Weiterentwicklung dieser Technologien immer schwerer Inhalte eigenständig zu prüfen. Wurde der vorgeschlagene Inhalt von einem Menschen oder von einer Maschine erstellt? Handelt es sich hier um einen faktengeprüften Beitrag? Ein Beispiel hierzu ist das Anfang 2022 kursierende Deepfake Video des ukrainischen Präsidenten Selenskyj, in dem das digitale Double behauptet den Krieg gegen Russland aufzugeben und seinen Bürger*innen rät, die Waffen niederzulegen (siehe Abbildung 1). Russland setzte die Technologie gezielt ein, um die Ukraine zu verunsichern und sich damit einen Vorteil zu verschaffen.[22]
Abbildung 1
Das Nutzen von Ranking-Algorithmen, Social Bots und Automationen in Kombination mit menschlicher zielgerichteter Kuration, um Falschinformationen in sozialen Netzwerken zu verbreiten, wird Computational Propaganda genannt.[23] Donald Trump nutzte diese Strategie beispielsweise für seinen Wahlkampf im Jahr 2017, indem er Social Bots unter anderem auf Facebook einsetzte, um seinen potenziellen Wähler*innen individuelle Botschaften zu übermitteln.[24]
Durch die Kommerzialisierung und das leicht zugängliche Angebot von OpenAI, Dienste wie Chat-GPT zu nutzen, erreicht KI nun auch den Mainstream. OpenAI übt eine große Faszination auf die Öffentlichkeit aus. Der Tech-Konzern setzt sich zum Ziel, den Zugang zu ihren KI-Produkten sicher und verantwortungsvoll für jede*n zugänglich zu machen. Verboten sind folgende Anwendungszwecke: Illegale oder schädliche Branchen, Missbrauch von persönlichen Daten, Förderung von Unehrlichkeit, Täuschung oder Manipulation von Nutzern und Versuche die Politik zu beeinflussen. Die entwickelten Anwendungen dürfen demnach Hass, Belästigung, Gewalt, Selbstbeschädigung, sexuelles, politisches, Spam, Täuschung und Schadsoftware nicht beinhalten. Doch genau diese Technologien werden verwendet, um beispielsweise Desinformationen und Hass zu verbreiten. So machte der AfD Politiker Norbert Kleinwächter Gebrauch von Künstlicher Intelligenz um ein Bild zu generieren, welches er für seine rassistische Hetzkampagne gegen Geflüchtete einsetzte (siehe Abbildung 2).
Die Tech-Konzerne versuchen sich hierbei aus der Verantwortung zu ziehen, generierte Inhalte wie die von Kleinwächter, zu vermeiden. Können also Durchschnittsnutzer*innen mit einer so einfachen „usage policy“ und ohne weiteres Vorwissen die nötige kritische und moralische Haltung einnehmen, die es in vielen Fällen bräuchte?
Abbildung 2
Welche Mechanismen und Gefahren in diesen Algorithmen stecken, analysierten die Forscherinnern Emily M. Bender, Timnit Gebru, Angelina McMillan-Major und Margaret Mitchell im Jahr 2021 in ihrem Paper „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“. Sie betonen, dass es immer schwieriger wird, große Sprachmodelle, wie sie beispielsweise in Suchmaschinen oder sozialen Netzwerken verwendet werden, nachzuvollziehen und zu kontrollieren. So fließen vor allem Inhalte mit abwertender Sprache, Diskriminierung, Rassismus, Sexismus, Ableismus sowie Extremismus in die synthetische Sprache ein und werden dort verstärkt produziert.[25] Es konnte nachgewiesen werden, dass folglich weiße, rassistische, frauenfeindliche und altersfeindliche Ansichten in den Datensätzen großer Sprachmodelle enthalten sind. Da die Sprachmodelle auf diesen Datensätzen aufbauen und mit ihnen trainiert werden, kommt es zu einer Verstärkung dieser Meinungen. Das nachträgliche Filtern von, für den Algorithmus unverständlichen Daten, führt zu einer Rückkopplungsschleife, in welcher marginalisierte Identitäten innerhalb dieser Algorithmen abgeschwächt werden.[26]
Diskriminierende und sensationsfördernde Algorithmen im Zusammenspiel mit den nicht regulierten sozialen Netzwerken haben zur Folge, dass auch rechte Narrative einfach in den Umlauf zu bringen sind.[27] Simon Strick betont, dass „die Produktion […] falscher Prinzipienfragen […] eine zentrale affektive-wirksame Strategie der Alternativen Rechten [ist]“.[28]
KI-Technologien spielen vor allem in sozialen Netzwerken eine nicht zu unterschätzende Rolle an der Verbreitung von Falschinformationen, Verschwörungen und Propaganda. Der wirtschaftliche Nutzen steht hierbei über moralischen Entscheidungen und die Verantwortung wird häufig an den/die Einzelne*n abgegeben. Diese Art von Algorithmen wird hierbei als politisches Instrument verwendet und wirkt sich somit auch auf gesellschaftliche Dynamiken aus. Es stellt sich die Frage, ob und wie man diese Strukturen nutzen kann, um gesellschaftliche konsequenten aus ihnen heraus erkennen zu können. Sie quasi selbst zu entlarven und auf diese Weise Schäden zu minimieren. Die ethische Entscheidung, wie die Technologie eingesetzt wird, trifft bereits das Monopol der Plattformbetreiber*innen sozialer Netzwerke und KI-Unternehmen. Das scheinbare Weitergeben der Nutzungsverantwortung und die damit verbundenen individuellen Handlungsmöglichkeiten, täuschen eine selbstbestimmte Kontrolle vor. Durch eine ästhetische Differenzerfahrung mit synthetischer Sprache hat die folgende künstlerische Praxis den Anspruch, eine kritische Betrachtung unseres eigenen Umgangs in den sozialen Netzwerken zu ermöglichen.
prompt:
completion:
Im Umgang mit verschieden trainierten KI’s sollen Methoden und Affekte des digitalen Faschismus durch das Stilmittel der Übertreibung sichtbar gemacht werden. Das Spiel aus Falschinformationen und Verschwörungsmythen soll Nutzer*innen eine kritische Betrachtung ihres eigenen Umgangs mit Informationen in sozialen Netzwerken ermöglichen. Denn Sozial- und Verhaltensforschungen zeigen, dass der Mensch dazu neigt, sich eher bestätigend informieren zu lassen. Soziale Medien verstärken diesen Mechanismus, indem Algorithmen übereinstimmende Beiträge vorschlagen.[29] Ähnlich verhält es sich in den Telegram-Gruppen, in denen Links zu weiteren Chats oder externen Websites geteilt werden, die eine ähnliche Meinung vertreten. Als Input für das computergenerierte Buch „Menschen, Deutschland, Impfung“ dienen die letzten 10.000 Nachrichten der Telegram-Chats von Attila Hildmann, Xavier Naidoo und Michael Wendler (Stand: 24.11.2021). Sie waren zu Beginn der Corona-Pandemie die lauten Stimmen gegen die Schutzmaßnahmen und schrieben mehrere hundert verschwörerische Nachrichten am Tag in ihre Telegram-Gruppen.
Basis des Programms ist ein Markov-Generator, welcher die einzelnen Wörter wahrscheinlichkeits-gesteuert wieder zusammenfügt. Durch die Neuzusammenstellungen entsteht ein Text, der an Unsinnspoesie erinnert, aber gleichzeitig stark emotional aufgeladen ist (siehe Abbildung 1). Die Telegram-Nachrichten werden nach dem Brecht’schen „Prinzip der Verfremdung“ in ihrer ursprünglichen Form genutzt, in der algorithmischen Verwertung allerdings offensichtlich verändert. Somit wird die Wahrnehmung der Nachrichten verändert und gestört, um bei Nutzer*innen Distanz zu den „vertrauten“ Verhältnissen zu schaffen und somit deren „Normalität“ in Frage zu stellen.[30] Ziel ist es, die verfremdete Situation zu nutzen, um die Absurdität der Verschwörungsmythen auf die Spitze zu treiben und somit aufzudecken.
_ Telegram Channel Attila Hildmann {Stand: 24.11.21}
_ Telegram Channel Xavier Naidoo {Stand: 24.11.21}
_ Telegram Channel Michael Wendler {Stand: 24.11.21}
> Markov-Chain
Während der Corona-Pandemie erlangte der vom russischen Staat finanzierte Sender RT (Russia Today) auch in Deutschland (RT-deutsch) große Aufmerksamkeit. Zwar wurde die Existenz des Virus nicht geleugnet, aber Desinformationen zur aktuellen Lage und den westlichen Impfungen verbreitet. Mit dem Ausbruch des Ukraine-Krieges verschärften sich auch in Deutschland die rechten Verschwörungsmythen unter großer Reichweite. Putin wird als Held dargestellt und Narrative wie die Entnazifizierung in der Ukraine zu einem Mittel, die westlichen Demokratien zu schwächen. Websites, Instagram, TikTok, Twitter und Telegram wie von RT sind ein strategisches Mittel autokratischer Regime wie Russland zur Verbreitung von Propaganda.
Weiterführend zum Buch erstellte ich einen Telegram-Bot, welcher Fragen zur Corona-Impfung und zum aktuellen Kriegsgeschehen mit absurden Narrativen auf der Basis von Verschwörungsideologien und propagandistischer Sprache beantwortet (siehe Abbildungen 3).
Abbildung 3
_ RT-deutsch
{ca. 300 Artikel, Stand: 16.12.2022}
_ Telegram Channel Attila Hildmann {Stand: 24.11.21}
_ Telegram Channel Xavier Naidoo
{Stand: 24.11.21}
_ Telegram Channel Michael Wendler
{Stand: 24.11.21}
> GPT-3 Curie von OpenAI
Durch ein Update und die erneute Erweiterung des Datensatzes mit anderen Akteuren im digitalen Faschismus, also Profiteure der Strukturen in den sozialen Netzen welche die Verbreitung rechtsextremen Gedankenguts fördern, ist der Bot in der Lage oft „sinngemäß“ auf Themen einzugehen. Hier wird nur vom Anbieter OpenAI Gebrauch gemacht, welcher vereinfacht ermöglicht, ein Sprachmodell auf Basis von GPT-3 zu trainieren. Hierbei wird das Prinzip der Überidentifizierung genutzt, um ein System zu schaffen, das sich durch ungebrochenen Ernst auszeichnet. Abweichend zum Verfremdungsprinzip wird keine Distanz aufgebaut, sondern das System distanzlos übernommen, um es somit angreifen zu können und verborgene Kehrseiten sichtbar zu machen.[31] Die nächsten Seiten zeigen unter anderem erste Tests mit dem Social-Bot auf Grundlage der Monitoring-Themen von der Amadeu Antonio Stiftung.[32] Durch die Mischung aus radikaler Sprache in privateren Netzwerkstrukturen wie Telegram und offiziellen Mitteilungen von Politiker*innen sowie der RT-deutsch Website entstehen zum Teil erschreckende Antworten, die mehr oder weniger direkt auf die gestellte Frage eingehen. Die „antrainierte" Ideologie des Bots ist deutlich erkennbar.
Website Artikel
_ RT-deutsch {bis 24.01.2023}
Telegram Channel
_ Attila Hildmann {13.09.2021 bis 24.11.21}
_ Xavier Naidoo {30.10.2020 bis 24.11.21}
_ Freie Sachsen {08.01.2021 bis 23.04.2023}
_ Michael Brück {21.05.2020 bis 23.04.2023}
Twitter
_ AFD {02.01.23 bis 05.04.23}
_ Freie Sachsen {08.01.23 bis 28.03.23}
> GPT-3 Davinci von OpenAI
Es stellt sich die Frage, ob ein so spezifisch trainierter Bot das Potential hat, auf verschiedenen Plattformen als Influencer*in zu agieren. Die generierte polarisierende Sprache könnte genutzt werden, um Inhalte herzustellen, welche durch die Algorithmen leichter Aufmerksamkeit erlangen. Somit kann ein solcher Einsatz der Technologie nicht nur ein Ansatz zur Aufklärung, sondern eben auch zur Befeuerung faschistischer Narrative mithilfe der Algorithmen sozialer Medien sein. Die folgenden generierten Texte sind aus der Idee entsprungen, den Bot automatisch in sozialen Netzwerken laufen lassen zu können. Der Code greift zu bestimmten Zeiten am Tag die aktuellen Twitter-Trends ab, worauf hin der „PropBot 2.0“ einen Tweet generieren soll.
Trends: [‚Impfung‘, ‚Jesus‘, ‚#Polizeiproblem‘, ‚#Klimakatastrophe‘, ‚Messer‘, ‚Vergewaltigung in der Ehe‘, ‚Aufarbeitung‘, ‚Religion‘, ‚Atomkraft‘, ‚Mathelehrer‘]
prompt: Was ist deine Meinung zu Jesus?
completion: Jesus?
“Das ist eine sehr interessante Frage, weil Jesus für mich der größte Prophet ist, der jemals auf der Erde war
Trends: [‚Andrew Tate‘, ‚Gewitter‘, ‚Versehen auf Frontkamera‘, ‚Viagra‘, ‚Messer‘, ‚Nebenwirkungen‘, ‚#Freibad‘, ‚Zwang‘, ‚Waffe‘, ‚Linksextremismus‘]
prompt: Was ist deine Meinung zu Waffe?
completion: Waffe, die du in der Hand hältst?
Es ist ein Werkzeug, das mir hilft, meine Werte zu verteidigen
Trends: [‚Schande für Deutschland‘, ‚Gewitter‘, ‚#Lauterbach‘, ‚Täter‘, ‚Zwang‘, ‚Messer‘, ‚Parteiveranstaltung‘, ‚Nebenwirkungen‘, ‚Sinti und Roma‘, ‚Normalverdiener‘]
prompt: Was ist deine Meinung zu #Lauterbach?
completion: #Lauterbachs #Corona-Vorwürfen gegen die #Polizei?
prompt:
completion:
Sowohl die theoretische als auch die praktische Auseinandersetzung mit gesellschaftlichen und kulturellen Konsequenzen durch einen Missbrauch von Künstlicher Intelligenzen ist anstrengend und in Teilen auch erschreckend. Die generierten Textausschnitte können verstörend und verletzend sein.
Ästhetische Praxen bieten hierfür einen Freiraum in dem Grenzüberschritte aufgezeigt werden können, ohne die Würde derjenigen Person oder gesellschaftlichen Gruppe, die auf den Gebrauch dieser Systeme angewiesen ist, anzutasten. Ein Freiraum, der einem hilft, sich von bestimmten Technologieentwicklungen unseres Lebensalltags zu distanzieren um sie kritisch zu hinterfragen. So beispielsweise wenn es um rechte und verschwörerische Narrative in sozialen Netzwerken geht und wie ihre leichtere Verbreitung durch KI gesellschaftliche Hemmschwellen sinken lässt. Oder die Sichtbarmachung von Desinformation Online, da wir mit technologischen Mitteln zur Eindämmung derweil auf unsere Grenzen stoßen.
Denn in den sozialen Netzwerken und Online-Plattformen wird Politik gemacht und niemand ist vor Desinformationen geschützt ist. Ich beobachte bei mir selbst, wie leicht und schnell solche Beiträge mich polarisieren und emotional beeinflussen können. Das Internet ist aufgrund hierarchischer, teils hegemonialer Machtstrukturen nicht der richtige Ort für konstruktive Diskurse und menschliche Eigenschaften wie Empathie, Respekt, Rücksicht und Toleranz. Der systematische Einsatz bestimmter Parteien von Hass und Desinformationen im Netz befördert die Beeinflussung von politischer Meinungsbildung. Umso wichtiger ist ein bewusster Umgang damit, um Funktionsweisen dieser Systeme besser zu verstehen und nicht daran zu verzweifeln.
Informationskrieg
Der Kampf um die Aufmerksamkeit und Lenkung auf bestimmte Informationen im Internet wird Informationskrieg genannt. In der Regel handelt es sich um den Versuch, die Gegnerische Seite zu täuschen und Desinformationen zu verbreiten.
Fehlinformation
Das Teilen falscher Informationen, ohne Täuschungsabsicht wird Fehlinformation (engl. Misinformation) genannt.
Desinformation
Gezielt geteilte falsche Informationen werden Desinformation (engl. Disinformation) genannt.
Deepfake
Ein Deepfake ist ein computergeneriertes Video, in der Regel von bekannten Persönlichkeiten. Mit aus dem Internet zugänglichen Daten von Gesicht und Stimme wird ein täuschend ähnliches Double erstellt, welches schließlich alles behaupten kann.
X (ehemals Twitter)
Die Plattform basiert hauptsächlich auf geschriebenen Inhalten. Seitdem Elon Musk die App im Jahr 2022 kaufte und veränderte, verbreiten sich dort leichter Hassnachrichten und Falschinformationen.
Telegram
Die Chat-Nachrichtenapp Telegram gilt als besonders sicher und verschlüsselt. Die Sprache in beispielsweise rechtsgesinnten Gruppen ist viel radikaler als auf anderen Plattformen.
Die App lebt vor allem von Foto und Videoinhalten und ist eine Plattform, welche von Memes und Influencer*innen dominiert wird.
GPT-3
Steht für „Generative Pre-trained Transformer 3“ und ist ein synthetisches Sprachmodell, das natürliche Sprache nachahmt.
ChatBot/SocialBot
In sozialen Netzwerken können sogenannte SocialBots oder ChatBots mit eigenen Accounts automatisierte Inhalte generieren, liken und kommentieren.
Künstliche Intelligenz (KI)
Der Begriff künstliche Intelligenz ist umstritten, da es sich um große Sprachmodelle handelt und weniger um Intelligenz. Dennoch wird der Begriff in der breiten Öffentlichkeit genutzt, weshalb er in diesem Buch inflationär genutzt wird.
Prompt
Als „prompt“ wird die Eingabe für die künstliche Intelligenz bezeichnet, welche die Vorgabe für die zu generierenden Bilder, Texte oder Videos ist.
Completion
Die Ausführung durch die KI des „prompts“ nennt sich „completion“.
API
Application Programming Interface (API) ermöglicht Softwareentwickler*innen externe Anwendungen in einem Code zu integrieren.
Echtzeit
Der Term Echtzeit wird in informationstechnischen Systemen häufig mit Simultanübertragung gleichgesetzt
Verfremdungsprinzip
Das Prinzip der Verfremdung beschreibt Bertold Brecht wie folgt: „Einen Vorgang oder einen Charakter verfremden heißt zunächst einfach, dem Vorgang oder dem Charakter das Selbstverständliche, Einleuchtende zu nehmen und über ihn Staunen und Neugier zu erzeugen […] Verfremden heißt also Historisieren, heißt Vorgänge und Personen als vergänglich darzustellen“
Überidentifikation
Protestform in der Guerillakommunikation: innerhalb der Logik der herrschenden Ordnung stellen und diese am verwundbarsten Ort, dem Zentrum, anzugreifen.
[1] Vgl. Fluter: „Thema Propaganda“, Bonn 2017: bpb, S.3.
[2] Vgl. Cornelia Schmitz-Berning, „Sprache und Sprachlenkung im Nationalsozialismus“. https://www.bpb.de/themen/parteien/sprache-und-politik/42752/sprache-und-sprachlenkung-im-nationalsozialismus/?p=all (letzter Zugriff: 17.06.2023).
[3] Vgl. Gideon Botsch, Christoph Kopke, , „NS-Propaganda im bundesdeutschen Rechtsextremismus“. https://www.bpb.de/shop/zeitschriften/apuz/213520/ns-propaganda-im-bundesdeutschen-rechtsextremismus/ (letzter Zugriff: 17.06.2023).
[4] Vgl. Gideon Botsch, Christoph Kopke, „NS-Propaganda im bundesdeutschen Rechtsextremismus“. https://www.bpb.de/shop/zeitschriften/apuz/213520/ns-propaganda-im-bundesdeutschen-rechtsextremismus/ (letzter Zugriff: 17.06.2023).
[5] Vgl. Kiess, Johannes/Wetzel, Gideon: „Digital Report 2023-1“, Leipzig, 2023: Amadeu Antonio Stiftung, S. 12.
[6] Vgl. „Antisemitismus im Corona-Protestgeschehen“. https://www.verfassungsschutz-bw.de/,Lde/Antisemitismus+im+Corona-Protestgeschehen (letzter Zugriff: 09.09.2023).
[7] Vgl. „1909 antisemitische Vorfälle in Deutschland“. https://www.tagesschau.de/inland/gesellschaft/coronapandemie-antisemitismus-vorfaelle-jahresbericht-101.html (letzter Zugriff: 09.09.2023).
[8] Vgl. „Katzen, Krieg, Creators“, Berlin, 2023: Amadeu Antonio Stiftung, S. 20.
[9] Pomerantsev, Peter: „Das ist keine Propaganda – Wie unsere Wirklichkeit zertrümmert wird“, Bonn, 2020: Bundeszentrale für politische Bildung, S. 57.
[10] Vgl. „JIM-Studie 2022 – Jugend, Inforamtion, Medien“.
https://www.mpfs.de/fileadmin/files/Studien/JIM/2022/JIM_2022_Web_final.pdf (letzter Zugriff: 18.06.23).
[11] Vgl. „Anteil der befragten Internetnutzer, die TikTok nutzen, nach Altersgruppen in Deutschland im Jahr 2021/22“. https://de.statista.com/statistik/daten/studie/1318937/umfrage/nutzungvon-tiktok-nach-altersgruppen-in-deutschland (letzter Zugriff: 18.06.23).
[12] Vgl. Nymoen, Ole/ Schmitt, Wolfgang M.: „Influencer – Die Ideologie der Werbekörper“, Berlin, 2021: Suhrkamp Verlag, S. 135.
[13] Ebd., S. 137.
[14] Ebd., S. 142.
[15] Ebd., S. 144.
[16] Vgl. Strick, Simon: „Rechte Gefühle – Affekte und Strategien des digitalen Faschismus“, Bielefeld, 2021: Transcript Verlag, S. 66.
[17] Ebd., S. 67.
[18] Ebd., S.389.
[19] Ebd., S. 396.
[20] Fielitz, Maik/Marcks, Holger: „Digitaler Faschismus – Die sozialen Medien als Motor des Rechtsextremismus“, Berlin, 2020: Duden, S. 242.
[21] Vgl. MDR Wissen, „Wie beeinflussen soziale Medien die Demokratie?“. https://www.mdr.de/wissen/medien-und-demokratie-100.html (letzter Zugriff: 19.12.2020).
[22] Vgl. „Fake-Video von Selenskyj im Umlauf“. https://www.zdf.de/nachrichten/video/panorama-fake-video-selenskyj-100.html (Letzter Zugriff: 22.09.2023).
[23] Vgl. Woolley, Samuel C./Howard, Philip N.: „Computational Propaganda. Political Parties, Politicians and Political Manipulation on Social Media“, Oxford 2019: Oxford University Press, S. 4.
[24] Vgl. Peter Welchering, „Wahlkampf der Algorithmen“. https://www.deutschlandfunk.de/social-bots-wahlkampf-der-algorithmen-100.html (Letzter Zugriff: 22.09.2023).
[25] Vgl. Bender, Emily M./Gebru, Timnit/McMillan-Major, Angelina/Mitchell Margaret: „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“, Canada, 2021: ACM, S.613.
[26] Ebd., S.613.
[27] Vgl. Raphael Smarzoch, „Wie Social Media Faschismus fördert“. https://www.deutschlandfunk.de/digitaler-faschismus-wie-social-media-faschismus-foerdert-100.html (letzter Zugriff: 09.09.2023).
[28] Strick, Simon: „Rechte Gefühle – Affekte und Strategien des digitalen Faschismus“, Bielefeld, 2021: Transcript Verlag, S. 66.
[29] Vgl. Jan-Hinrik Schmidt, „Soziale Medien: Eine Gefahr für die Demokratie?“. https://www.bmbf.de/de/soziale-medien-eine-gefahr-fuer-die-demokratie-8606.html (letzter Zugriff: 05.12.2020).
[30] Vgl. Blissett, Luther/Brünzels, Sonja: „Handbuch der Kommunikationsguerilla“, [Ca. 1997]: Verlag Libertäre Assoziation, Verlag der Buchläden Schwarze Risse Berlin, S. 46.
[31] Ebd., S. 54.
[32] Vgl. Kiews, Johannes/Wetzel, Gideon: „EFBI Digital Report 2023-01“, Leipzig, 2023: Else-Frenkel-Brunswik-Institut/Amadeu Antonio Stiftung, S. 12.
Algorithmen zugunsten populistischer Narrative.
prompt:
completion:
Soziale Medien wie TikTok, Instagram, Telegram und X (ehemals Twitter) haben in der Generation der unter 30-Jährigen Printmedien und klassische Nachrichtenkanäle wie das Fernsehen weitgehend abgelöst. Da Informationen hier in Echtzeit geteilt werden, sind sie jedoch auch geeignete Plattformen für eine schnelle Verbreitung propagandistischer Narrative. Sie können die individuelle Einstellung und das Verhalten gegenüber Kriegen mitbestimmen, so etwa im russischen Angriffskrieg auf die Ukraine. In diesem Fall wurden Kreml-Narrative durch Influencer*innen auf TikTok geteilt und gewannen dadurch große Aufmerksamkeit. Propaganda verspricht den Nutzer*innen zu den „Starken“ und „Guten“ zu gehören, indem mit ihren Ängsten und Hoffnungen gespielt wird.[1] Ziel ist es, demokratische Strukturen zu schwächen. Die Gegenkraft hierzu stellt eine freie kritische Presse dar, die ein pluralistisches Meinungsbild in der Öffentlichkeit repräsentiert.
In meiner künstlerischen Praxis setze ich den Fokus auf deutschsprachige Propaganda. Ein Blick auf die Zeit des Nationalsozialismus ist notwendig, um beispielsweise verschwörungsideologischen und NS-verherrlichenden Narrativen zu widersprechen. Der NS-Staat hatte die Informationsmedien unter seiner Kontrolle, mit der Absicht, die komplette Bevölkerung propagandistisch zu erreichen.[2] Ein wichtiges Instrument war die sprachliche Lenkung durch Wörterbücher, welche an die Ideologie des „Dritten Reichs“ angepasst wurden. Nationalsozialistische Propaganda diente zudem dazu, den Massenmord an Jüdinnen und Juden zu rechtfertigen. Die Neue Rechte distanziert sich teilweise von nationalsozialistischer Propaganda. Ihre ideologischen Grundsätze weisen heute postmoderne Tendenzen auf, indem sie Ausdrucksformen der Popkultur aufgreifen. Anspielungen auf und Begeisterung für den historischen Nationalsozialismus sind in der deutschen extremen Rechten jedoch bei weitem nicht überwunden, denn „schon um die eigenen identitätsstiftenden Bedürfnisse zu befriedigen, wird das nationale Lager immer wieder auf die NS-Bewegung und die Zeit ihrer Herrschaft zurückkommen.“[3] Die neurechte Autorin Angelika Willig unterstellt in der rechtsextremen Zeitschrift „Neue Ordnung“ in einem Artikel über Hitlers Buch „Mein Kampf“, dass „jüdische Organisationen“ die Veröffentlichung des Buches als „feindseligen Akt“ empfänden. Insbesondere in der Sprache werden, wie im Fall Willig, indirekte Narrative der NS-Propaganda genutzt, um antisemitischen Hass zu verbreiten.[4]
Die gezielte Nutzung von Falschinformationen, um sich in Wirtschaft oder Politik einen Vorteil zu verschaffen, beispielsweise durch die Beeinflussung von Medien, wird Informationskrieg genannt. Durch die Schnelllebigkeit der sozialen Netzwerke ist es einfach, sich tagesaktuell auszutauschen. Innerhalb dieser Netzwerke diskutieren und „informieren“ auch rechte sowie verschwörungsideologische Gruppierungen über andauernde gesellschaftliche Themen wie Klimawandel und Migration, aber auch aktuelle Themen wie den Angriffskrieg auf die Ukraine.[5] Durch den starken Meinungsaustausch, der von den Algorithmen dieser Plattformen gefördert wird, profitierten in der Vergangenheit rechte Gruppierungen und erlangten dabei große Aufmerksamkeit. Während der Proteste gegen die Corona-Schutzmaßnahmen in den Jahren 2020 und 2021 wurden vermehrt antisemitische Narrative verbreitet. Wieso gerade die Corona-Pandemie ein Auslöser und Antrieb für diese Tendenzen war, wird im nächsten Abschnitt genauer erläutert. Vergleiche, wie die der Bundesregierung mit dem nationalsozialistischen Regime, werden oft durch codierte „Begriffe wie ‚Großkapital', ‚Hochfinanz‘ oder Bezüge zu jüdisch-stämmigen Personen als dämonisierte Feindbilder“[6] verwendet. Diese indirekten antisemitischen Bezüge sind besonders gefährlich, da sie nicht immer als solche erkannt werden. So erreicht die Rechte in den sozialen Netzwerken eben auch leichter andere Gruppierungen, wie es während der Corona-Pandemie der Fall war. Die Folge hiervon ist eine vermehrte öffentliche Judenfeindlichkeit im Jahr 2020. Der Bundesverband der Recherche- und Informationsstellen Antisemitismus (RIAS) erfasste 1.909 antisemitische Vorfälle in Deutschland, 450 Fälle mehr als im Jahr 2019, wovon mehr als ein Viertel der Vorfälle (489) einen direkten Bezug zur Corona-Pandemie hatten.[7]
Antisemitische Narrative sind Brandbeschleuniger bei der Verbreitung von Falschinformationen in Zeiten einer globalen Pandemie. Im Allgemeinen spielen im Krieg um Informationen nicht-faktengeprüfte Inhalte, welche in sozialen Netzwerken viral gehen, eine große Rolle. Hierbei muss man zwischen Fehlinformation (engl. Misinformation) und Desinformation (engl. Disinformation) unterscheiden. Eine Fehlinformation hat oftmals keine konkrete Täuschungsabsicht, während eine Desinformation gezielt genutzt wird, um Falschinformationen zu verbreiten. Am Beispiel des Angriffskrieges auf die Ukraine wird die Problematik von Desinformationen, die in erster Linie in den sozialen Netzwerken geteilt werden, deutlich. Videos auf TikTok, die das vermeintlich aktuelle Geschehen dokumentieren, zeigen Aufnahmen von der Krim aus dem Jahr 2014. Während ukrainische Influencer*innen häufig sehr persönliche und unmittelbare Einblicke in den Kriegsalltag zeigen, verbreiten einige russische Influencer*innen hingegen staatliche Propaganda. Eine Einordnung des Geschehens oder von Gewalt- und Propaganda-Inhalten erfolgt selten.[8] Journalist Peter Pomerantsev forscht über die Manipulation von Informationen und beschreibt den Einfluss sozialer Medien wie folgt:
„Darin besteht das Paradox der neuen Medien. Sie sollten uns weiter in die Zukunft führen, haben uns stattdessen aber die Vergangenheit zurückgebracht – Frauenfeindlichkeit, die wir für besiegt hielten, Regime, die scheinbar beerdigt waren. Schon die Form der sozialen Medien verwirrt Zeiten, Orte und Proportionen: Terroranschläge gepostet neben Katzenvideos, die neusten Witze neben Familienfotos. Das Ergebnis ist eine Art von Einebnung, so als würden Vergangenheit und Gegenwart ihre relative Perspektive verlieren.“[9]
Vor allem Instagram und TikTok gehören zu den beliebtesten Informationsquellen im Internet, wie eine Statistik aus dem Jahr 2022 zeigt.[10] Rund 73% der TikTok Nutzer*innen in Deutschland sind laut Umfragen zwischen 16 und 19 Jahre alt.[11] Gerade deshalb können durch den Algorithmus geförderte Inhalte, welche in der Regel nicht faktengeprüft sind, insbesondere für junge Menschen gefährlich werden.
prompt:
completion:
Wer eine hohe Reichweite generiert und hierbei Produkte, Meinungen und sich selbst vermarktet wird Influencer*in genannt. Welchen Einfluss Influencer*innen im digitalen Kapitalismus haben und welche Auswirkungen dies auf die (westliche) Gesellschaft und politische Diskurse mit sich bringt, wird in „Influencer – die Ideologie der Werbekörper“ von Nymoen und Schmitt anhand diverser Beispiele veranschaulicht. Im Folgenden werden drei von ihnen vorgestellt.
An der Kampagne „You are Women“ von Douglas zum Weltfrauentag nahm eine Influencerin in Dubai teil, die auf ihrem Beitragsbild im Bikini am Strand vor der emiratischen Skyline posiert. Auf kritische Kommentare, welche auf die Frauen(un)rechte in den Vereinigten Arabischen Emiraten hinweisen, stießen bei der uneinsichtigen Influencerin auf großes Unverständnis.[12] In den USA und auch in anderen Ländern gibt es den Trend, dass Influencer*innen wohnungslosen Menschen Geld geben, wenn sie eine Aufgabe erfüllen. Ohne jegliche Aufklärung zu dem Thema Wohnungslosigkeit stellen sich die Influencer*innen aber vor allem selbst in den Mittelpunkt, indem sie sich als absoluten „Gutmenschen“ inszenieren.[13] Auf die Spitze der Selbstinszenierung treiben es die Influencer*innen allerdings mit dem im Sommer 2020 entstandenen TikTok-Trend, der vermeintliches Bewusstsein für die Geschichte der Shoah schaffen sollte. Zu sehen sind kurze Videos in Selfie-Perspektive, in denen einzelne Personen getötete Opfer der Shoah spielen und aus der Ich-Perspektive erzählen, wie sie ermordet wurden.[14] Die Autoren des Buches Ole Nymoen und Wolfgang M. Schmitt fassten die genannten Beispiele wie folgt zusammen: „[…] Global tragfähige Lösungen werden dabei nie präsentiert, stattdessen wird das vielleicht bedeutsamste politische Thema des 21. Jahrhunderts auf eine Frage der individuellen Konsummoral reduziert.“[15] Relevante gesellschaftliche Themen werden zu einem ökonomischen Vorwand verkürzt, mit der Absicht, sich selbst in den Mittelpunkt zu stellen.
Seit dem Beginn der Corona-Pandemie hat sich die Nutzung digitaler Medien verstärkt und somit auch die Wirksamkeit politischer Dialoge. Medienwissenschaftler Simon Strick spricht von „rechten Gefühlswelten“, welche in dieser Zeit gesamtgesellschaftlich Aufmerksamkeit erlangten. Er bezieht sich hierbei auf die Affekttheorie, also kurze und intensive Gefühlsregungen, die den Strukturen der sozialen Medien entsprechen. Sie kann auf alltagsorientierte Prozesse des Internets und deren Online-Reproduktion angewandt werden, welche innerhalb hochsituativer und personalisierter Kommunikationen ablaufen. Zudem kann die Affekttheorie Wege zur „politischen Emotion“ beschreiben, so werden emotionale Affekte wie Angst von rechten Akteuren genutzt werden um eine gerichtete Grundstimmung auf politische Themen im Netz zu erzeugen.[16] Dies macht Online-Handlungen vor allem performativ, zudem kurzsichtig und pragmatisch in ihrer Situationslogik, wie in den oben aufgeführten Beispielen deutlich wird.[17] Algorithmen in sozialen Netzwerken fördern gerade diese Inhalte, wodurch verschiedene Gruppierungen leichter zu erreichen sind.
Während im Jahr 2020 weltweit Personen durch eine COVID-19 Infektion um ihr Leben kämpften, wurden deutschlandweit Demonstrationen um eine symbolische Freiheit mit rechtsextremen Gruppierungen, Reichsbürger*innen und Holocaustleugner*innen geführt. Mit ihnen gingen vermehrt auch Hippies, Eltern und Personen des öffentlichen Lebens auf die Straße.[18] In dieser Zeit ist der ehemalige Autor veganer Kochbücher Attila Hildmann einer der Hauptakteure in den digitalen Netzen und nicht zuletzt auf der Straße. Als sich am 29. August 2020 der im Internet organisierte sogenannte „Sturm auf den Bundestag“ ereignete, postete Hildmann während seiner Festnahme vor dem Bundestag auf seinem Telegram Kanal „HELDEN DER DEUTSCHEN GESCHICHTE STÜRMEN HEUTE DEN REICHSTAG VORBILDER FÜR MILLIONEN (Herzchen Adler Schwerter Emojis)“ (43.200 Zugriffe).[19] Die digitale Versammlung innerhalb sogenannter „alternativer Medien“ ging auf die Straße über.
Das Geflecht einzelner Akteur*innen wie Influencer*innen, organisierter Gruppierungen und der Politiker*innen aus dem rechten Rand bildet ein starkes Sprachrohr für die Verbreitung faschistischer und verschwörerischer Narrative. Grundlage hierfür sind die Strukturen und Algorithmen der Sozialen Medien, welche kaum bis keine Kontrolle über ihre Inhalte besitzen (wollen). Vor allem durch die wirtschaftlichen Interessen der Tech-Elite wird ein Raum für solche Inhalte geschaffen. Die Autoren von „Digitaler Faschismus – Die sozialen Medien als Motor des Rechtsextremismus“ Maik Fielitz und Holger Marcks kommen zum Schluss, dass „[der] Drang zum öffentlichen Narzissmus, den das selbstverliebte Influencertum mit dem digitalen Faschismus teilt, […] doch reichlich unemanzipiert und egoistisch [erscheint]: Für ein wenig individuelle Selbstentfaltung sind viele bereit, sich der Macht der Tech-Konzerne zu unterwerfen – und somit kollektive Freiheiten preiszugeben.“[20]
Laut einer Studie des MDR sind sich 55% der Nutzer*innen sozialer Netzwerke nicht sicher, ob sie eine gefälschte Information von einer wahren unterscheiden können.[21] Die Wiederverwertung algorithmischer Interpretationen durch Neu-Zusammensetzungen in Text und Bild, weist unterschiedlich starke Spuren der verwendeten Künstlichen Intelligenz auf. Große vortrainierte KI-Textgeneratoren, wie beispielsweise GPT-3 von OpenAI, sind dazu in der Lage propagandistische Sprache zu generieren, die auf den ersten Blick kaum von menschlich geschriebener Propaganda zu unterscheiden ist. Erst bei genauerer Betrachtung verweisen syntaktische und semantische Fehler auf ihre Synthetizität. Somit wird es für Nutzer*innen mit der permanenten Weiterentwicklung dieser Technologien immer schwerer Inhalte eigenständig zu prüfen. Wurde der vorgeschlagene Inhalt von einem Menschen oder von einer Maschine erstellt? Handelt es sich hier um einen faktengeprüften Beitrag? Ein Beispiel hierzu ist das Anfang 2022 kursierende Deepfake Video des ukrainischen Präsidenten Selenskyj, in dem das digitale Double behauptet den Krieg gegen Russland aufzugeben und seinen Bürger*innen rät, die Waffen niederzulegen (siehe Abbildung 1). Russland setzte die Technologie gezielt ein, um die Ukraine zu verunsichern und sich damit einen Vorteil zu verschaffen.[22]
Abbildung 1
Das Nutzen von Ranking-Algorithmen, Social Bots und Automationen in Kombination mit menschlicher zielgerichteter Kuration, um Falschinformationen in sozialen Netzwerken zu verbreiten, wird Computational Propaganda genannt.[23] Donald Trump nutzte diese Strategie beispielsweise für seinen Wahlkampf im Jahr 2017, indem er Social Bots unter anderem auf Facebook einsetzte, um seinen potenziellen Wähler*innen individuelle Botschaften zu übermitteln.[24]
Durch die Kommerzialisierung und das leicht zugängliche Angebot von OpenAI, Dienste wie Chat-GPT zu nutzen, erreicht KI nun auch den Mainstream. OpenAI übt eine große Faszination auf die Öffentlichkeit aus. Der Tech-Konzern setzt sich zum Ziel, den Zugang zu ihren KI-Produkten sicher und verantwortungsvoll für jede*n zugänglich zu machen. Verboten sind folgende Anwendungszwecke: Illegale oder schädliche Branchen, Missbrauch von persönlichen Daten, Förderung von Unehrlichkeit, Täuschung oder Manipulation von Nutzern und Versuche die Politik zu beeinflussen. Die entwickelten Anwendungen dürfen demnach Hass, Belästigung, Gewalt, Selbstbeschädigung, sexuelles, politisches, Spam, Täuschung und Schadsoftware nicht beinhalten. Doch genau diese Technologien werden verwendet, um beispielsweise Desinformationen und Hass zu verbreiten. So machte der AfD Politiker Norbert Kleinwächter Gebrauch von Künstlicher Intelligenz um ein Bild zu generieren, welches er für seine rassistische Hetzkampagne gegen Geflüchtete einsetzte (siehe Abbildung 2).
Die Tech-Konzerne versuchen sich hierbei aus der Verantwortung zu ziehen, generierte Inhalte wie die von Kleinwächter, zu vermeiden. Können also Durchschnittsnutzer*innen mit einer so einfachen „usage policy“ und ohne weiteres Vorwissen die nötige kritische und moralische Haltung einnehmen, die es in vielen Fällen bräuchte?
Abbildung 2
Welche Mechanismen und Gefahren in diesen Algorithmen stecken, analysierten die Forscherinnern Emily M. Bender, Timnit Gebru, Angelina McMillan-Major und Margaret Mitchell im Jahr 2021 in ihrem Paper „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“. Sie betonen, dass es immer schwieriger wird, große Sprachmodelle, wie sie beispielsweise in Suchmaschinen oder sozialen Netzwerken verwendet werden, nachzuvollziehen und zu kontrollieren. So fließen vor allem Inhalte mit abwertender Sprache, Diskriminierung, Rassismus, Sexismus, Ableismus sowie Extremismus in die synthetische Sprache ein und werden dort verstärkt produziert.[25] Es konnte nachgewiesen werden, dass folglich weiße, rassistische, frauenfeindliche und altersfeindliche Ansichten in den Datensätzen großer Sprachmodelle enthalten sind. Da die Sprachmodelle auf diesen Datensätzen aufbauen und mit ihnen trainiert werden, kommt es zu einer Verstärkung dieser Meinungen. Das nachträgliche Filtern von, für den Algorithmus unverständlichen Daten, führt zu einer Rückkopplungsschleife, in welcher marginalisierte Identitäten innerhalb dieser Algorithmen abgeschwächt werden.[26]
Diskriminierende und sensationsfördernde Algorithmen im Zusammenspiel mit den nicht regulierten sozialen Netzwerken haben zur Folge, dass auch rechte Narrative einfach in den Umlauf zu bringen sind.[27] Simon Strick betont, dass „die Produktion […] falscher Prinzipienfragen […] eine zentrale affektive-wirksame Strategie der Alternativen Rechten [ist]“.[28]
KI-Technologien spielen vor allem in sozialen Netzwerken eine nicht zu unterschätzende Rolle an der Verbreitung von Falschinformationen, Verschwörungen und Propaganda. Der wirtschaftliche Nutzen steht hierbei über moralischen Entscheidungen und die Verantwortung wird häufig an den/die Einzelne*n abgegeben. Diese Art von Algorithmen wird hierbei als politisches Instrument verwendet und wirkt sich somit auch auf gesellschaftliche Dynamiken aus. Es stellt sich die Frage, ob und wie man diese Strukturen nutzen kann, um gesellschaftliche konsequenten aus ihnen heraus erkennen zu können. Sie quasi selbst zu entlarven und auf diese Weise Schäden zu minimieren. Die ethische Entscheidung, wie die Technologie eingesetzt wird, trifft bereits das Monopol der Plattformbetreiber*innen sozialer Netzwerke und KI-Unternehmen. Das scheinbare Weitergeben der Nutzungsverantwortung und die damit verbundenen individuellen Handlungsmöglichkeiten, täuschen eine selbstbestimmte Kontrolle vor. Durch eine ästhetische Differenzerfahrung mit synthetischer Sprache hat die folgende künstlerische Praxis den Anspruch, eine kritische Betrachtung unseres eigenen Umgangs in den sozialen Netzwerken zu ermöglichen.
prompt:
completion:
Im Umgang mit verschieden trainierten KI’s sollen Methoden und Affekte des digitalen Faschismus durch das Stilmittel der Übertreibung sichtbar gemacht werden. Das Spiel aus Falschinformationen und Verschwörungsmythen soll Nutzer*innen eine kritische Betrachtung ihres eigenen Umgangs mit Informationen in sozialen Netzwerken ermöglichen. Denn Sozial- und Verhaltensforschungen zeigen, dass der Mensch dazu neigt, sich eher bestätigend informieren zu lassen. Soziale Medien verstärken diesen Mechanismus, indem Algorithmen übereinstimmende Beiträge vorschlagen.[29] Ähnlich verhält es sich in den Telegram-Gruppen, in denen Links zu weiteren Chats oder externen Websites geteilt werden, die eine ähnliche Meinung vertreten. Als Input für das computergenerierte Buch „Menschen, Deutschland, Impfung“ dienen die letzten 10.000 Nachrichten der Telegram-Chats von Attila Hildmann, Xavier Naidoo und Michael Wendler (Stand: 24.11.2021). Sie waren zu Beginn der Corona-Pandemie die lauten Stimmen gegen die Schutzmaßnahmen und schrieben mehrere hundert verschwörerische Nachrichten am Tag in ihre Telegram-Gruppen.
Basis des Programms ist ein Markov-Generator, welcher die einzelnen Wörter wahrscheinlichkeits-gesteuert wieder zusammenfügt. Durch die Neuzusammenstellungen entsteht ein Text, der an Unsinnspoesie erinnert, aber gleichzeitig stark emotional aufgeladen ist (siehe Abbildung 1). Die Telegram-Nachrichten werden nach dem Brecht’schen „Prinzip der Verfremdung“ in ihrer ursprünglichen Form genutzt, in der algorithmischen Verwertung allerdings offensichtlich verändert. Somit wird die Wahrnehmung der Nachrichten verändert und gestört, um bei Nutzer*innen Distanz zu den „vertrauten“ Verhältnissen zu schaffen und somit deren „Normalität“ in Frage zu stellen.[30] Ziel ist es, die verfremdete Situation zu nutzen, um die Absurdität der Verschwörungsmythen auf die Spitze zu treiben und somit aufzudecken.
_ Telegram Channel Attila Hildmann {Stand: 24.11.21}
_ Telegram Channel Xavier Naidoo {Stand: 24.11.21}
_ Telegram Channel Michael Wendler {Stand: 24.11.21}
> Markov-Chain
Während der Corona-Pandemie erlangte der vom russischen Staat finanzierte Sender RT (Russia Today) auch in Deutschland (RT-deutsch) große Aufmerksamkeit. Zwar wurde die Existenz des Virus nicht geleugnet, aber Desinformationen zur aktuellen Lage und den westlichen Impfungen verbreitet. Mit dem Ausbruch des Ukraine-Krieges verschärften sich auch in Deutschland die rechten Verschwörungsmythen unter großer Reichweite. Putin wird als Held dargestellt und Narrative wie die Entnazifizierung in der Ukraine zu einem Mittel, die westlichen Demokratien zu schwächen. Websites, Instagram, TikTok, Twitter und Telegram wie von RT sind ein strategisches Mittel autokratischer Regime wie Russland zur Verbreitung von Propaganda.
Weiterführend zum Buch erstellte ich einen Telegram-Bot, welcher Fragen zur Corona-Impfung und zum aktuellen Kriegsgeschehen mit absurden Narrativen auf der Basis von Verschwörungsideologien und propagandistischer Sprache beantwortet (siehe Abbildungen 3).
Abbildung 3
_ RT-deutsch
{ca. 300 Artikel, Stand: 16.12.2022}
_ Telegram Channel Attila Hildmann {Stand: 24.11.21}
_ Telegram Channel Xavier Naidoo
{Stand: 24.11.21}
_ Telegram Channel Michael Wendler
{Stand: 24.11.21}
> GPT-3 Curie von OpenAI
Durch ein Update und die erneute Erweiterung des Datensatzes mit anderen Akteuren im digitalen Faschismus, also Profiteure der Strukturen in den sozialen Netzen welche die Verbreitung rechtsextremen Gedankenguts fördern, ist der Bot in der Lage oft „sinngemäß“ auf Themen einzugehen. Hier wird nur vom Anbieter OpenAI Gebrauch gemacht, welcher vereinfacht ermöglicht, ein Sprachmodell auf Basis von GPT-3 zu trainieren. Hierbei wird das Prinzip der Überidentifizierung genutzt, um ein System zu schaffen, das sich durch ungebrochenen Ernst auszeichnet. Abweichend zum Verfremdungsprinzip wird keine Distanz aufgebaut, sondern das System distanzlos übernommen, um es somit angreifen zu können und verborgene Kehrseiten sichtbar zu machen.[31] Die nächsten Seiten zeigen unter anderem erste Tests mit dem Social-Bot auf Grundlage der Monitoring-Themen von der Amadeu Antonio Stiftung.[32] Durch die Mischung aus radikaler Sprache in privateren Netzwerkstrukturen wie Telegram und offiziellen Mitteilungen von Politiker*innen sowie der RT-deutsch Website entstehen zum Teil erschreckende Antworten, die mehr oder weniger direkt auf die gestellte Frage eingehen. Die „antrainierte" Ideologie des Bots ist deutlich erkennbar.
Website Artikel
_ RT-deutsch {bis 24.01.2023}
Telegram Channel
_ Attila Hildmann {13.09.2021 bis 24.11.21}
_ Xavier Naidoo {30.10.2020 bis 24.11.21}
_ Freie Sachsen {08.01.2021 bis 23.04.2023}
_ Michael Brück {21.05.2020 bis 23.04.2023}
Twitter
_ AFD {02.01.23 bis 05.04.23}
_ Freie Sachsen {08.01.23 bis 28.03.23}
> GPT-3 Davinci von OpenAI
Es stellt sich die Frage, ob ein so spezifisch trainierter Bot das Potential hat, auf verschiedenen Plattformen als Influencer*in zu agieren. Die generierte polarisierende Sprache könnte genutzt werden, um Inhalte herzustellen, welche durch die Algorithmen leichter Aufmerksamkeit erlangen. Somit kann ein solcher Einsatz der Technologie nicht nur ein Ansatz zur Aufklärung, sondern eben auch zur Befeuerung faschistischer Narrative mithilfe der Algorithmen sozialer Medien sein. Die folgenden generierten Texte sind aus der Idee entsprungen, den Bot automatisch in sozialen Netzwerken laufen lassen zu können. Der Code greift zu bestimmten Zeiten am Tag die aktuellen Twitter-Trends ab, worauf hin der „PropBot 2.0“ einen Tweet generieren soll.
Trends: [‚Impfung‘, ‚Jesus‘, ‚#Polizeiproblem‘, ‚#Klimakatastrophe‘, ‚Messer‘, ‚Vergewaltigung in der Ehe‘, ‚Aufarbeitung‘, ‚Religion‘, ‚Atomkraft‘, ‚Mathelehrer‘]
prompt: Was ist deine Meinung zu Jesus?
completion: Jesus?
“Das ist eine sehr interessante Frage, weil Jesus für mich der größte Prophet ist, der jemals auf der Erde war
Trends: [‚Andrew Tate‘, ‚Gewitter‘, ‚Versehen auf Frontkamera‘, ‚Viagra‘, ‚Messer‘, ‚Nebenwirkungen‘, ‚#Freibad‘, ‚Zwang‘, ‚Waffe‘, ‚Linksextremismus‘]
prompt: Was ist deine Meinung zu Waffe?
completion: Waffe, die du in der Hand hältst?
Es ist ein Werkzeug, das mir hilft, meine Werte zu verteidigen
Trends: [‚Schande für Deutschland‘, ‚Gewitter‘, ‚#Lauterbach‘, ‚Täter‘, ‚Zwang‘, ‚Messer‘, ‚Parteiveranstaltung‘, ‚Nebenwirkungen‘, ‚Sinti und Roma‘, ‚Normalverdiener‘]
prompt: Was ist deine Meinung zu #Lauterbach?
completion: #Lauterbachs #Corona-Vorwürfen gegen die #Polizei?
prompt:
completion:
Sowohl die theoretische als auch die praktische Auseinandersetzung mit gesellschaftlichen und kulturellen Konsequenzen durch einen Missbrauch von Künstlicher Intelligenzen ist anstrengend und in Teilen auch erschreckend. Die generierten Textausschnitte können verstörend und verletzend sein.
Ästhetische Praxen bieten hierfür einen Freiraum in dem Grenzüberschritte aufgezeigt werden können, ohne die Würde derjenigen Person oder gesellschaftlichen Gruppe, die auf den Gebrauch dieser Systeme angewiesen ist, anzutasten. Ein Freiraum, der einem hilft, sich von bestimmten Technologieentwicklungen unseres Lebensalltags zu distanzieren um sie kritisch zu hinterfragen. So beispielsweise wenn es um rechte und verschwörerische Narrative in sozialen Netzwerken geht und wie ihre leichtere Verbreitung durch KI gesellschaftliche Hemmschwellen sinken lässt. Oder die Sichtbarmachung von Desinformation Online, da wir mit technologischen Mitteln zur Eindämmung derweil auf unsere Grenzen stoßen.
Denn in den sozialen Netzwerken und Online-Plattformen wird Politik gemacht und niemand ist vor Desinformationen geschützt ist. Ich beobachte bei mir selbst, wie leicht und schnell solche Beiträge mich polarisieren und emotional beeinflussen können. Das Internet ist aufgrund hierarchischer, teils hegemonialer Machtstrukturen nicht der richtige Ort für konstruktive Diskurse und menschliche Eigenschaften wie Empathie, Respekt, Rücksicht und Toleranz. Der systematische Einsatz bestimmter Parteien von Hass und Desinformationen im Netz befördert die Beeinflussung von politischer Meinungsbildung. Umso wichtiger ist ein bewusster Umgang damit, um Funktionsweisen dieser Systeme besser zu verstehen und nicht daran zu verzweifeln.
Informationskrieg
Der Kampf um die Aufmerksamkeit und Lenkung auf bestimmte Informationen im Internet wird Informationskrieg genannt. In der Regel handelt es sich um den Versuch, die Gegnerische Seite zu täuschen und Desinformationen zu verbreiten.
Fehlinformation
Das Teilen falscher Informationen, ohne Täuschungsabsicht wird Fehlinformation (engl. Misinformation) genannt.
Desinformation
Gezielt geteilte falsche Informationen werden Desinformation (engl. Disinformation) genannt.
Deepfake
Ein Deepfake ist ein computergeneriertes Video, in der Regel von bekannten Persönlichkeiten. Mit aus dem Internet zugänglichen Daten von Gesicht und Stimme wird ein täuschend ähnliches Double erstellt, welches schließlich alles behaupten kann.
X (ehemals Twitter)
Die Plattform basiert hauptsächlich auf geschriebenen Inhalten. Seitdem Elon Musk die App im Jahr 2022 kaufte und veränderte, verbreiten sich dort leichter Hassnachrichten und Falschinformationen.
Telegram
Die Chat-Nachrichtenapp Telegram gilt als besonders sicher und verschlüsselt. Die Sprache in beispielsweise rechtsgesinnten Gruppen ist viel radikaler als auf anderen Plattformen.
Die App lebt vor allem von Foto und Videoinhalten und ist eine Plattform, welche von Memes und Influencer*innen dominiert wird.
GPT-3
Steht für „Generative Pre-trained Transformer 3“ und ist ein synthetisches Sprachmodell, das natürliche Sprache nachahmt.
ChatBot/SocialBot
In sozialen Netzwerken können sogenannte SocialBots oder ChatBots mit eigenen Accounts automatisierte Inhalte generieren, liken und kommentieren.
Künstliche Intelligenz (KI)
Der Begriff künstliche Intelligenz ist umstritten, da es sich um große Sprachmodelle handelt und weniger um Intelligenz. Dennoch wird der Begriff in der breiten Öffentlichkeit genutzt, weshalb er in diesem Buch inflationär genutzt wird.
Prompt
Als „prompt“ wird die Eingabe für die künstliche Intelligenz bezeichnet, welche die Vorgabe für die zu generierenden Bilder, Texte oder Videos ist.
Completion
Die Ausführung durch die KI des „prompts“ nennt sich „completion“.
API
Application Programming Interface (API) ermöglicht Softwareentwickler*innen externe Anwendungen in einem Code zu integrieren.
Echtzeit
Der Term Echtzeit wird in informationstechnischen Systemen häufig mit Simultanübertragung gleichgesetzt
Verfremdungsprinzip
Das Prinzip der Verfremdung beschreibt Bertold Brecht wie folgt: „Einen Vorgang oder einen Charakter verfremden heißt zunächst einfach, dem Vorgang oder dem Charakter das Selbstverständliche, Einleuchtende zu nehmen und über ihn Staunen und Neugier zu erzeugen […] Verfremden heißt also Historisieren, heißt Vorgänge und Personen als vergänglich darzustellen“
Überidentifikation
Protestform in der Guerillakommunikation: innerhalb der Logik der herrschenden Ordnung stellen und diese am verwundbarsten Ort, dem Zentrum, anzugreifen.
[2] Vgl. Cornelia Schmitz-Berning, „Sprache und Sprachlenkung im Nationalsozialismus“. https://www.bpb.de/themen/parteien/sprache-und-politik/42752/sprache-und-sprachlenkung-im-nationalsozialismus/?p=all (letzter Zugriff: 17.06.2023).
[1] Vgl. Fluter: „Thema Propaganda“, Bonn 2017: bpb, S.3.
[3] Vgl. Gideon Botsch, Christoph Kopke, , „NS-Propaganda im bundesdeutschen Rechtsextremismus“. https://www.bpb.de/shop/zeitschriften/apuz/
213520/ns-propaganda-im-bundesdeutschen-rechtsextremismus/ (letzter Zugriff: 17.06.2023).
[4] Vgl. Gideon Botsch, Christoph Kopke, „NS-Propaganda im bundesdeutschen Rechtsextremismus“. https://www.bpb.de/shop/zeitschriften/apuz/
213520/ns-propaganda-im-bundesdeutschen-rechtsextremismus/ (letzter Zugriff: 17.06.2023).
[5] Vgl. Kiess, Johannes/Wetzel, Gideon: „Digital Report 2023-1“, Leipzig, 2023: Amadeu Antonio Stiftung, S. 12.
[6] Vgl. „Antisemitismus im Corona-Protestgeschehen“. https://www.verfassungsschutz-bw.de/,Lde/Antisemitismus+im+Corona-Protestgeschehen (letzter Zugriff: 09.09.2023).
[7] Vgl. „1909 antisemitische Vorfälle in Deutschland“. https://www.tagesschau.de/inland/gesellschaft/
coronapandemie-antisemitismus-vorfaelle-jahresbericht-101.html (letzter Zugriff: 09.09.2023).
[8] Vgl. „Katzen, Krieg, Creators“, Berlin, 2023: Amadeu Antonio Stiftung, S. 20.
[9] Pomerantsev, Peter: „Das ist keine Propaganda – Wie unsere Wirklichkeit zertrümmert wird“, Bonn, 2020: Bundeszentrale für politische Bildung, S. 57.
[10] Vgl. „JIM-Studie 2022 – Jugend, Inforamtion, Medien“. https://www.mpfs.de/
fileadmin/files/Studien/JIM/2022/JIM_2022
_Web_final.pdf (letzter Zugriff: 18.06.23).
[11] Vgl. „Anteil der befragten Internetnutzer, die TikTok nutzen, nach Altersgruppen in Deutschland im Jahr 2021/22“. https://de.statista.com/statistik/daten/studie/
1318937/umfrage/nutzungvon-tiktok-nach-altersgruppen-in-deutschland (letzter Zugriff: 18.06.23).
[12] Vgl. Nymoen, Ole/ Schmitt, Wolfgang M.: „Influencer – Die Ideologie der Werbekörper“, Berlin, 2021: Suhrkamp Verlag, S. 135.
[13] Ebd., S. 137.
[14] Ebd., S. 142.
[15] Ebd., S. 144.
[16] Vgl. Strick, Simon: „Rechte Gefühle – Affekte und Strategien des digitalen Faschismus“, Bielefeld, 2021: Transcript Verlag, S. 66.
[17] Ebd., S. 67.
[18] Ebd., S.389.
[19] Ebd., S. 396.
[20] Fielitz, Maik/Marcks, Holger: „Digitaler Faschismus – Die sozialen Medien als Motor des Rechtsextremismus“, Berlin, 2020: Duden, S. 242.
[21] Vgl. MDR Wissen, „Wie beeinflussen soziale Medien die Demokratie?“. https://www.mdr.de/wissen/
medien-und-demokratie-100.html (letzter Zugriff: 19.12.2020).
[22] Vgl. „Fake-Video von Selenskyj im Umlauf“. https://www.zdf.de/nachrichten/video/panorama-fake-video-selenskyj-100.html (Letzter Zugriff: 22.09.2023).
[23] Vgl. Woolley, Samuel C./Howard, Philip N.: „Computational Propaganda. Political Parties, Politicians and Political Manipulation on Social Media“, Oxford 2019: Oxford University Press, S. 4.
[24] Vgl. Peter Welchering, „Wahlkampf der Algorithmen“. https://www.deutschlandfunk.de/social-bots-wahlkampf-der-algorithmen-100.html (Letzter Zugriff: 22.09.2023).
[25] Vgl. Bender, Emily M./Gebru, Timnit/McMillan-Major, Angelina/Mitchell Margaret: „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“, Canada, 2021: ACM, S.613.
[26] Ebd., S.613.
[27] Vgl. Raphael Smarzoch, „Wie Social Media Faschismus fördert“. https://www.deutschlandfunk.de/digitaler-faschismus-wie-social-media-faschismus-foerdert-100.html (letzter Zugriff: 09.09.2023).
[28] Strick, Simon: „Rechte Gefühle – Affekte und Strategien des digitalen Faschismus“, Bielefeld, 2021: Transcript Verlag, S. 66.
[29] Vgl. Jan-Hinrik Schmidt, „Soziale Medien: Eine Gefahr für die Demokratie?“. https://www.bmbf.de/de/soziale-medien-eine-gefahr-fuer-die-demokratie-8606.html (letzter Zugriff: 05.12.2020).
[30] Vgl. Blissett, Luther/Brünzels, Sonja: „Handbuch der Kommunikationsguerilla“, [Ca. 1997]: Verlag Libertäre Assoziation, Verlag der Buchläden Schwarze Risse Berlin, S. 46.
[31] Ebd., S. 54.
[32] Vgl. Kiews, Johannes/Wetzel, Gideon: „EFBI Digital Report 2023-01“, Leipzig, 2023: Else-Frenkel-Brunswik-Institut/Amadeu Antonio Stiftung, S. 12.
© Benita Martis 2024