Blog Post

regenauer.blog

iDrone

Autonom operierende Drohnenschwärme gibt es seit knapp 30 Jahren. Mindestens. Künstliche Intelligenz noch deutlich länger. Damals von einem Hauch Science Fiction umweht, ist diese Technologie heute Alltag. Ein permanenter Fokus auf die technischen Aspekte verdrängt jedoch, dass die zugrundeliegenden Rechenmodelle auch in sozialen Netzwerken zur Anwendung kommen, um »Menschen wie Drohnen zu steuern«.






Tom-Oliver Regenauer | 13.02.2025


Der 1953 geborene Craig Reynolds ist Experte für künstliches Leben und Computergrafik. In dieser Funktion arbeitete er unter anderem an Filmen wie Tron (1982) und Batman (1992). Bei »Sony Computer Entertainment America« (heute SIE) entwickelte er die OpenSteer-Bibliothek, die der Abbildung von Schwarmverhalten in Spielen und Animationsanwendungen dient. An solch prestigeträchtige Aufträge kam Reynolds, weil er sich nebst Computergrafik intensiv mit Theorien zum »Steuerungsverhalten für autonome Charaktere« befasst hatte. Mit Schwarmverhalten. Einem Thema, das mit wachsender Rechenleistung immer wichtiger für die Entwicklung von Computerspielen wurde.

 

Die sollten dem Spieler das Gefühl geben, sich in einer realen Welt mit »autonomen Charakteren« zu bewegen. Dazu mussten diese vom Computer, beziehungsweise der Software gesteuerten Charaktere – im Fachjargon »Agenten« genannt – sich irgendwie verhalten. Und zwar ohne, dass von außen ein weiterer Steuerungseingriff erfolgt. Eigendynamisch. Dafür bedarf es Regeln, die im Programmcode eingebettet werden können. Genau die lieferte Reynolds 1986 im Rahmen der von ihm modellierten Boids-Simulation, die besagt, dass Schwarmverhalten auf drei simplen Regeln basiert:

 

  1. Bewege dich in Richtung des Mittelpunkts derer, die du in deinem Umfeld siehst.
  2. Entferne dich, sobald dir jemand zu nahe kommt.
  3. Bewege dich etwa in die gleiche Richtung wie deine Nachbarn.


Sprich: Kohäsion, Separation und Orientierung. In Reynolds’ Beschreibung des Boid-Modells liest man diesbezüglich:

 

»1986 habe ich ein Computermodell koordinierter Tierbewegungen (…) erstellt. Es basierte auf dreidimensionaler Computergeometrie, wie sie normalerweise in der Computeranimation oder im computergestützten Design verwendet wird. Ich habe die generischen, simulierten Schwarmtiere Boids genannt. Das grundlegende Schwarmmodell besteht aus drei einfachen Lenkverhalten, die beschreiben, wie ein einzelner Boid auf der Grundlage der Positionen und Geschwindigkeiten seiner Schwarmgenossen in der Nähe manövriert. Jeder Boid hat direkten Zugriff auf die geometrische Beschreibung der gesamten Szene, aber das Schwarmverhalten erfordert, dass er nur auf Schwarmgenossen in einer bestimmten kleinen Nachbarschaft um sich herum reagiert. (…) Schwarmgenossen außerhalb dieser lokalen Nachbarschaft werden ignoriert.

 

Die Nachbarschaft könnte als Modell eingeschränkter Wahrnehmung betrachtet werden (wie bei Fischen in trübem Wasser), aber es ist wahrscheinlich korrekter, sie als Definition des Bereichs zu betrachten, in dem Schwarmgenossen die Lenkung eines Boids beeinflussen. In den ersten Experimenten wurde ein etwas ausgefeilteres Verhaltensmodell verwendet. Es umfasste vorausschauende Hindernisvermeidung und Zielsuche. (…) Für Anwendungen in der Computeranimation führte ein Zielsuchverhalten mit niedriger Priorität dazu, dass die Herde einem vorgegebenen Pfad folgte

 

Wer sich bei dieser Beschreibung an die Strukturen postmoderner Gesellschaft erinnert fühlt und »Agenten« mit »Agent Smith« aus den Matrix-Filmen assoziiert, liegt nicht ganz falsch. Denn Kohäsion, Separation und Orientierung definieren nicht mehr nur das Schwarmverhalten autonomer Charaktere in Computerspielen, sondern auch die Dynamiken des gesellschaftlichen Zusammenlebens im multimedialen Panoptikum der Postmoderne.

 

So nimmt es kaum Wunder, dass ein vom  US Air Force Laboratory (AFRL) finanziertes  Forschungsprojekt an der University of Florida (Gainesville, USA) bereits im Jahr 2014 untersuchte, »wie Social Media eingesetzt werden kann, um Menschen wie Drohnen zu steuern«.


Unter diesem Titel berichtete denn auch Ars Technica am 17. Juli 2014, dass der Forschungsleiter der AFRL-Studie, Warren Dixon, seines Zeichens Chef des Lehrstuhls für nichtlineare Steuerung und Robotik an der University of Florida, vor allem daran arbeite, »wie man ein Netzwerk, wenn man es einmal identifiziert hat, in Richtung eines Ziels manipulieren kann«. Und mit »Netzwerk« meint Dixon nicht Computer, sondern soziale Strukturen.

 

Die Untersuchungen von Dixon, Kan, Klotz und Pasiliao – formeller Titel: »Eindämmungskontrolle für ein soziales Netzwerk mit staatlich abhängiger Konnektivität« – unterstreichen, dass die mathematischen Prinzipien, die zur Steuerung autonomer Agenten und Robotergruppen verwendet werden, auch auf soziale Netzwerke übertragbar sind, um menschliches Verhalten zu manipulieren. Im großen Stil. Ausgehend von einer optimalen Kalibrierung könnten die von den AFRL-Forschern entwickelten Modelle eingesetzt werden, um die Meinung auf Social-Media-Portalen in Richtung eines gewünschten Verhaltens zu lenken. Genau wie die Cyber-Waffen der NSA (National Security Agency, USA) oder das entsprechende Arsenal des GCHQ (Government Communication Headquarters, UK), das seine Nudge-Unit nicht nur gegen Corona-Maßnahmenkritiker, sondern mittlerweile auch gegen »Heizpumpen-Skeptiker« ins Feld führt.

 

Schwarmverhalten ist demnach nicht nur an Chinas Himmel oder in der Nähe des vom Iran jüngst zu Wasser gelassenen Drohnenträgers Schahid Bagheri zu beobachten – oder in der Ukraine, wo todbringende Minidrohnen heute Jagd auf gegnerische Truppen machen – sondern auch in der unmittelbaren Nachbarschaft des Lesers. Denn Drohnen sind heute nicht mehr nur auf dem Schlachtfeld gang und gäbe. Der Nutzmensch selbst ist eine Drohne. Das traurige Produkt einer jahrzehntelangen Schlacht ums Gehirn.

 

Die Corona-Krise war Generalprobe für die Einführung des von den Verhaltensökonomen Richard Thaler und Cass Sunstein (Nudge, Yale University Press, 2008) maßgeblich entwickelten Herrschaftsmodells der Zukunft: Hive-Mind-Technokratie. Fernsteuerung der Massen via Social-Media-Nudging. Via geteiltem Bewusstsein. Sprich: Regieren mittels Plattformökonomie, Manipulativkommunikation und Emotion. Mit »Soft Power«. Zumindest bis der kopflose Schwarm endlich mit der Cloud verbunden ist.

 

Wer also denkt, es mache Sinn, sich über Erhalt oder Verfall der Meinungsfreiheit auf einem Konzernmarkplatz wie Twitter Gedanken zu machen, erfüllt genau die Rolle, die ihm AFRL, Nudge-Unit, das NATO-Innovation Hub mit seiner »sechsten Dimension der Kriegsführung« und Peter Thiels PayPal-Mafia seit jeher zuschrieben: Die des geist-, willen- und haltlosen »Agenten« in einer überfrachteten Simulation. Nicht umsonst waren alle Big-Tech-Größen Teilnehmer der Social-Engineering-Seminare von John Brockmanns Edge-Foundation.

 

Nicht von ungefähr soll KI nun alles »effizienter« machen. Wirft man allerdings einen Blick auf die Vorstandsebene von OpenAI, dem ChatGPT-Anbieter und neben dem von der CIA startfinanzierten, Mossad-nahen IT-Konzern Oracle primärer Partner von Donald Trumps Stargate-Projekt, das KI und mRNA mit einem Budget von 500 Milliarden Dollar zusammenbringen soll, wird schnell deutlich, dass mit Effizienz nichts anderes als ein Ausbau des Überwachungsstaats gemeint ist.

 

Da wäre zum einen Sue Desmond-Hellmann, von 2014 bis 2020 CEO der Bill & Melinda Gates Foundation, seit 2020 Vorstandsmitglied bei Pfizer und darüber hinaus im Vorstand von Resilience, dem vom CIA-Finanztentakel In-Q-Tel grundfinanzierten Biotech-Unternehmen, das mRNA für unter anderem Moderna produziert. Oder der korrupte Larry Summers, ehemals Chefökonom der Weltbank, der mit massiven Deregulierungen des Finanzmarkts geradezu als Initiator der Finanzkrise 2008 bezeichnet werden kann und so Tiefenstaat ist wie es nur geht. Nicht zu vergessen Nicole Seligmann, genannt »Anwältin der Anwälte«, ehemalige Chefin von Sony USA, Rechtsbeistand von Oliver North während der Iran-Contra Anhörungen in den 80ern sowie Anwältin der Clintons, unter anderem während des Amtsenthebungsverfahrens gegen Bill Clinton im Jahr 1999. Von den langjährigen Facebook-Top-Managern Fidji Simo, Adam D’Angelo und Bret Taylor ganz zu schweigen.

 

Angesichts dieser Mannschaft dürfte niemand überrascht sein, dass OpenAI-CEO Sam Altman von seiner jüngeren Schwester des jahrelangen Missbrauchs bezichtigt wird und sich dafür demnächst vor Gericht verantworten muss – oder dass ein Whistleblower, der zu illegalen Aktivitäten bei OpenAI aussagen wollte, im Dezember 2024 überraschend tot in seiner Wohnung aufgefunden wurde, weshalb dessen Eltern Sam Altmans Unternehmen nun Mord vorwerfen und die Stadt San Francisco wegen schlampiger Ermittlungen verklagen.

 

Erstaunlich ist lediglich, dass diese Informationen nicht in aller Munde sind und Menschen wie Sam Altman und Oracle-Gründer Larry Ellison an Tag zwei nach Donald Trumps Amtseinführung als Partner einer US-Regierung präsentiert werden, die angeblich den Tiefenstaat ausheben will.

 

Aufmerksame Beobachter des militärisch-digitalen Komplexes dürften diese Umstände allerdings kaum noch schockieren. Denn gerade das US-Militär fokussiert sich seit Jahren auf die Verwendung von Open Source Intelligence – meint Handydaten, Social-Media-Inhalte, Daten-Leaks, Hacks und KI –, um aufständischen Zellen auf den Zahn zu fühlen. So gründete die DARPA im Jahr 2011 das SMISC-Programm (Social Media in Strategic Communication). Ausgestattet mit einem Budget von knapp 50 Millionen US-Dollar gingen Wissenschaftler der Frage nach, wie sich soziale Netzwerke für Propaganda und psychologische Kriegsführung nutzen lassen. Der Initiator von SMISC, Rand Waltzman, ein DARPA-Manager, beschrieb im April 2015, worin die vier Kernziele des von ihm ins Leben gerufenen Programms bestanden:

 

  1. Erkennen, klassifizieren, messen und verfolgen der Entstehung und Entwicklung sowie Verbreitung von Ideen und Konzepten (Memes) und gezielte oder irreführende Nachrichten und Fehlinformationen.
  2. Erkennen der Strukturen von Überzeugungskampagnen und Einflussoperationen auf Social-Media-Sites und Communities.
  3. Identifizieren der Teilnehmer und Absichten und messen der Auswirkungen von Überzeugungskampagnen.
  4. Verbreiten von Gegeninformation bei erkannten gegnerischen Einflussoperationen.

 

Darüber hinaus erklärte Waltzman, welchen technischen Umfang, beziehungsweise Fokus die Analyseprozesse aufwiesen:

 

  1. Sprachliche Hinweise, Muster des Informationsflusses, Analyse von Thementrends, Analyse narrativer Strukturen, Stimmungserkennung und Meinungsforschung.
  2. Meme-Tracking in Communities, Graphen-Analyse, probabilistisches Denken, Mustererkennung, kulturelle Narrative.
  3. Induzieren von Identitäten, Modellieren entstehender Communities, Vertrauensanalyse, Modellieren von Netzwerkdynamiken.
  4. Automatisierte Inhaltsgenerierung, Bots in sozialen Medien, Crowdsourcing.


Die DARPA untersuchte Twitter-Follower prominenter Musiker, analysierte die Verbreitung von Memes und testete operative Ansätze einer IBM-Studie, die sich mit der »Modellierung von Nutzerverhalten bei kontroversen Themen auf Social Media« befasste. Am 9. Juli 2014 veröffentlichte die DARPA eine Liste von 181 vom SMISC-Programm finanzierten Projekten, die sich allesamt mit dem Thema psychologische Kriegsführung auf Social Media befassten. Im Vordergrund stand jeweils die Graph-Theorie, also die Analyse des Verhaltens von Menschen anhand sozialer Daten. Die Formelsprache, die von den Projekten zur mathematischen Beschreibung der Interaktionen zwischen Menschen und Produkten verwendet wurde, war dieselbe, die bei der Steuerung autonomer Fahrzeug-Gruppen zur Anwendung kommt. Sie bildet das Herzstück von Googles Verständnis zu Suchkontexten und ist grundlegender Bestandteil von Kontrollsystemen zur Steuerung autonomer Roboterschwärme.

 

Warren Dixon und die DARPA gingen nun aber der Frage nach, ob die gleiche Mathematik auf die Steuerung autonomer Menschen und Gruppen von Menschen anwendbar ist. Um zu verstehen, was das bedeutet, folgend eine Erläuterung zum Facebook-Graph, über den Ars Technica am 14. März 2013 berichtete:

 

»Der Graph ist eine Datenbank, die Informationen über Benutzer, Seiten und andere Objekte im Facebook-Universum speichert. Er enthält auch die Beziehungen zwischen ihnen. Jede Entität, also jeder Knoten im Facebook-Graph – identifiziert durch eine eindeutige Nummer, die als fbid (Facebook-ID) bezeichnet wird – ist mit einer Reihe von Attributen oder Metadaten verknüpft. Die Beziehungen zwischen diesen Knoten, die als Kanten bezeichnet werden, enthalten ihre eigenen Metadaten, um die Art der Beziehung zwischen ihnen zu beschreiben. Die von Facebook verwendete Graph-Datenbank ist Googles Knowledge-Graph und Microsofts Satori-Graph-basiertem Konzept recht ähnlich. In vielerlei Hinsicht ist die Struktur des Facebook-Graphs jedoch einfacher als die Graph-Schemata von Google und Microsoft, da Facebook die Metadaten für seine Knoten und Kanten speziell auf soziale Interaktion abgestimmt hat

 

Dixons AFRL-Arbeitsgruppe nutze solche Daten, um zu modellieren, wie die Zusammenarbeit zwischen »wichtigen Influencern« in sozialen Netzwerken das Verhalten von Gruppen innerhalb dieses Netzwerks beeinflussen könnte. Stichwort: »Eindämmungskontrolle«. Dixon selbst erläuterte dieses Konzept mit den Worten:

 

»Es gibt eine Gruppe von Anführern, von denen jeder seine eigenen Ziele und sein eigenes Schwerpunktthema hat. Unser Ziel ist, dass diese Leute ihre Meinung ändern und die Gruppe der Anhänger – also Leute, die zu ihrer sozialen Gruppe gehören, aber das übergeordnete Ziel nicht kennen – unter Druck setzen

 

Unter Zuhilfenahme der Graphen-Theorie erarbeiteten Dixon und Co. ein Kommunikationsmodell, das verständlich machte, wie viel Einfluss ein Social-Media-Influencer benötigt, um Macht auszuüben und das Verhalten seiner Follower zu ändern. Während die DARPA im Rahmen mehrerer Pressemitteilungen versicherte, weder persönlichkeitsbezogene Daten zu speichern noch Social-Media-User zu manipulieren, hatte man beim GCHQ in Großbritannien weniger Hemmungen. Wie die von NSA-Whistleblower Edward Snowden geleakten Dokumente belegen, hatte der britische Nachrichtendienst ein ganzes Arsenal digitaler Waffen zur Hand, um Individuen und ihre Geräte zu infiltrieren, Fake-Identitäten aufzubauen, Falschinformationen zu verbreiten und die öffentliche Meinung zu »formen«. Diese Werkzeuge teilte das GCHQ mit der NSA, die sie ihrerseits anwandte, um in Afghanistan und anderen Krisengebieten zu steuern, welche Informationen gegnerische Gruppen online und über das Smartphone abrufen konnten.

 

Neben Militär, Geheimdiensten und Tech-Konzernen sind natürlich auch Organisationen wie USAID und das NED (National Endowment for Democracy) auf dem Feld der Cyber-Kriegsführung aktiv. Im April 2014 wurde zum Beispiel bekannt, das USAID auf Kuba ein Twitter-ähnliches Netzwerk aufbauen wollte, um das kommunistische Regime zu unterminieren. Dass es sich dabei nicht um Einzelfälle handelt, veranschaulicht ein Report der Universität Oxford, der am 13. Januar 2021 veröffentlicht wurde und Social-Media-Manipulation in gut 80 Ländern analysierte:

 

»In jedem der 81 untersuchten Länder wurden organisierte Kampagnen zur Manipulation sozialer Medien festgestellt, ein Anstieg von 15 Prozent innerhalb eines Jahres, verglichen mit 70 Ländern im Jahr 2019. Dem Bericht zufolge produzieren Regierungen, PR-Agenturen und politische Parteien im industriellen Maßstab Falschinformationen. Er zeigt, dass Desinformation zu einer gängigen Strategie geworden ist, wobei in mehr als 93 Prozent der Länder Desinformation als Teil der politischen Kommunikation eingesetzt wird

 

»Die Leute denken nicht gern daran, dass sie manipuliert werden«, so Warren Dixon. »Aber wir werden jeden Tag manipuliert. Durch Werbung, durch Regierungschefs, religiöse Führer und sogar dazu, zur Arbeit zu gehen. Wir arbeiten größtenteils deswegen, weil wir dafür bezahlt werden. Aber wie viel muss ich jemandem für seine Arbeit zahlen?«


Gute Frage. Wie viel muss man jemandem bezahlen, damit er lügt, damit er seinen besten Freund verrät oder einen Menschen ermordet? Oder ein paar tausend Menschen? Mit solchen Fragen beschäftigen sich die Verhaltensforscher, die Big Tech und Geheimdienste beraten, die Algorithmen und soziale Feedback-Loops kreieren. Denn Suchmaschinen und Social Media sind kein Serviceangebot, sondern eine Waffengattung kognitiver Kriegsführung. Die Projektile des Informationskriegs. Und die meisten Menschen sind dem Kugelhagel schutzlos ausgeliefert.

 

Die zeitgeistig flexible Herrschaftskaste weiß diesen Umstand zum eigenen Vorteil zu nutzen. Gerade deshalb ist »Agent Smith« eine perfekte wie düstere Parabel für den modernen Nutzmenschen, der sein Leben online führt und im digitalen Raum binnen Sekunden Entscheidungen trifft, für die ihm jede inhaltliche Grundlage fehlt. Entscheidungen, die sein Selbstbild nachhaltig verändern. Wer das System eben noch kritisierte, wedelt im nächsten Moment mit Pompons, um es zu bejubeln. Denn die Transformation des Ich ist dieser Tage immer nur einen Klick entfernt.

 

»Smith begann als Agent, ein KI-Programm in der Matrix, das darauf programmiert war, die Ordnung im System aufrechtzuerhalten, indem es menschliche Simulakren eliminierte, die die simulierte Realität instabil machen würden, sowie alle Schurkenprogramme, die für das Maschinenkollektiv keinen Zweck mehr erfüllen. (…) Smiths wahre Macht beruht auf seiner Fähigkeit, Erinnerungen und Kräfte seiner Opfer – Menschen und Programme gleichermaßen – zu absorbieren. (…) Smith erlangt die Macht, seine physische Form auf jedes Wesen in der Matrix zu kopieren, indem er seine Hand in ihren Körper eintauchen lässt und eine schwarze Flüssigkeit verteilt, die sie in eine Kopie seiner selbst verwandelt, was zu einer ständig wachsenden Armee von Smiths führt, die durch ein einziges Bewusstsein verbunden sind

 

Wer sich also fragt, warum seine vormals maßnahmen- und obrigkeitskritischen Weggefährten nun dem tiefenstaatlich orchestrierten MAGA-Kult huldigen, findet die Antwort in DARPA-Studien zum Thema »Steuerung des Gruppenverhaltens mittels Social Media«.

 

Neu ist das alles nicht. Die US Air Force begann bereits 1998 mit der Erforschung autonom agierender Drohnensysteme – »Low Cost Autonomous Attack System« (LOCAAS) genannt. Die LOCAAS-Systeme nutzten einen Algorithmus, der auf Craig Reynolds’ Boids-Modell basiert, um in Formation eines Schwarms zu fliegen. Warf ein Tarnkappenbomber seine bis zu 192 Drohnen ab, begannen sie sich untereinander zu verständigen und attackierten feindliche Truppen im Verbund.

 

Das war vor 27 Jahren. Heute gehören Drohnen zum zivilen Alltag. So betreibt die Swisscom in der Schweiz in Kooperation mit Nokia ein Drones-as-a-Service (DaaS) Netzwerk für »effiziente Inspektionen und die Sicherung großer Areale sowie zentraler Infrastruktur«. Das klingt zunächst einmal nach privatwirtschaftlicher Dienstleistung auf Abruf. Aber: »Blaulichtorganisationen sollen diese Drohnen auf Abruf nutzen können, um dank detailliertem Bildmaterial (…) Informationen von Unfallstellen, Katastrophengebieten oder Tatorten einzuholen«, so der Tagesanzeiger am 18. August 2024. Was für Bildmaterial in welcher Auflösung wann, wo, warum aufgezeichnet und gespeichert wird, ist indes unklar. Hiesige Datenschützer sind alarmiert.

 

Aus gutem Grund. Denn auch in der Kriegsführung gehören Drohnen mittlerweile zum Tagesgeschäft. Per Joystick gesteuerte Langstreckendrohnen »demokratisieren« den Luftraum im Nahen Osten. Bevorzugt mit lasergesteuerten GBU-12 Paveway II Bomben. Mini-Drohnen überwachen unauffällig das Einsatzgebiet und töten gezielt per Kopfschuss. Kamikaze-Drohnenschwärme stürzen sich in Gruppen auf die mit ihnen explodierenden Ziele. Und die größeren Modelle beglücken den Feind mit bis zu sechs Granaten.

 

Projekte des US-Militärs und chinesische Guinness-Weltrekorde im Drohnen-Formationsflug zeigen, dass es wohl nicht mehr allzu lange dauern wird, bis autonome Schwärme, die von ebenso autonomen Trägerfahrzeugen verteilt und aufgeladen werden, Krisengebiete, Grenzen und Innenstädte überwachen – und schützen. Fragt sich nur, vor wem.

 

Die inflationäre Verwendung von und progressiv-positive Kommunikation zu Drohnentechnologie sowie KI sollte also durchaus zu denken geben. Denn was dem Hobbyfilmer günstige Luftaufnahmen liefert und Zuschauern in Form eines illuminierten Drachens aus 1.500 Drohnen über Shenzen Bewunderung abnötigt, dürfte die nächste Ausbaustufe militarisierter Überwachungsinfrastruktur charakterisieren.

 

Der gemeine »Agent«, die »iDrone«, der Boid – also der von medialer Dynamik und Polarisierungsdialektik überforderte Homo demens – sieht diesen Entwicklungen natürlich weithin gelassen entgegen. Denn er »bewegt sich in Richtung des Mittelpunkts derer, die er in seinem Umfeld sieht, entfernt sich, sobald ihm jemand zu nahe kommt und läuft immer in etwa die gleiche Richtung wie seine Nachbarn«.









Bild: Netzfund



von Tom-Oliver Regenauer 5. Februar 2025
»The same procedure as every year«. Wie beim »Dinner for One«. Denn ab heute steht zum vierten Mal in Folge meine Anthologie in physischer Form zum Verkauf. Das Buch umfasst 376 Seiten und kann ab sofort überall bestellt werden. Wer meine Arbeit unterstützen möchte – und das geht ausschliesslich über den Erwerb der Bücher – sollte es über den verlinkten Shop meines Vertriebspartners (tredition) beziehen. Erwirbt man das Buch bei Amazon oder einem anderen Händler, erhalte ich als Autor nur knapp 50 Prozent der eigentlichen Marge. Und die finanziert Cover, Satz, Bemusterung, Webseite, Übersetzungen, et cetera. Jetzt aber zurück zum Text. Meint, zu einem Auszug aus dem Vorwort.
von Tom-Oliver Regenauer 26. Januar 2025
Wer dem Staat und seinem Konsenskonglomerat unter Corona glaubte, wurde von Kritikern nicht selten verspottet. Kaum ändert sich das Narrativ zu deren Gunsten, folgen besagte Kritiker aber den gleichen Sirenen. Obwohl die Indizienlage auch jetzt eindeutig ist. Wer glauben will, ist gegenläufigen Informationen eben nicht zugänglich – und davon gibt es in Bezug auf Musk und Trump eine ganze Menge.
von Tom-Oliver Regenauer 5. Januar 2025
Mein Editorial für die dritte GEGENDRUCK, die am 15. Januar erscheint und sich - unter anderem - mit dem weiten Themenfeld der kognitiven Kriegsführung beschäftigt.
von Tom-Oliver Regenauer 30. Dezember 2024
Ich wünsche allen Lesern einen guten Start ins neue Jahr - und verlasse das alte mit einem kurzen Statement, das ich im November 2024 für Die Freien zum Thema »Präsenz« verfasst habe.
von Tom-Oliver Regenauer 15. Dezember 2024
Während ein weiteres Jahr voller Abnormitäten sich dem Ende neigt, ist vieles, das sich im Interesse des nächsten hätte verbessern können, beim Alten geblieben. Denn Veränderungen beginnen im Kopf – und der fungiert bei einer Mehrheit der Artgenossen vor allem als Reservoir für Informationen, Gedanken und Meinungen Dritter. Dritter, die sich die psychischen Schwachstellen der Spezies Mensch gekonnt zunutze machen.
Share by: