Wie passiert gerade eigentlich die Welt?

Acht Minuten Lesezeit. Veröffentlicht am 20. Mai 2020.

Wenn Phrasen wie „Fake News“, „Verschwörungstheorien“ und „Meinungsfreiheit“ den öffentlichen Diskurs beherrschen und die sonderlichsten Reaktionen hervorrufen, ist es mehr als sonst an der Zeit, dass du dir darüber kritisch Gedanken machst, was genau eigentlich passiert, wie das passiert, und vor allem dass du dich selbst reflektierst und dir überlegst, was du tun kannst.

Deshalb gibt es hier für dich eine kleine Übersicht von zusammengefassten wichtigen Konzepten, Trugschlüssen und kognitiven Verzerrungen, die aktuell ganz besonders die Welt in Kontext setzen, und die Qualität deines Denkens, der Ausgabe davon und letztlich dein Handeln beeinflussen können:


Ankereffekt — Wir werden — unabhängig von unserer tatsächlichen Expertise — von (bewusst) erwähnten Zahlenwerten in unserer Entscheidungsfindung beeinflusst, ohne dass wir uns dieses Einflusses bewusst sind, und selbst, wenn diese Zahlen irrelevant sind.

Beispiel: Wenn einem Immobilienmakler ein Preis für eine Immobilie genannt wird, orientiert sich der Immobilienmakler in der eigenen Preisgestaltung daran.

Apophänie — Wir zwingen unsere Vorstellungen den Anordnungen von Daten auf, und sehen Muster, wo es gar keine Muster gibt. Wahrscheinlich würden wir einen echten Zufall nicht erkennen, wenn er uns begegnet. (Siehe auch: „Prädiktive Kodierung“, „Narrative Verzerrung“.)

Attributionsfehler — Wir neigen dazu, die guten Taten unserer Verbündeten ihrem Charakter zuzusprechen, und die schlechten Taten den Umständen. Bei unseren Gegnern ist es genau andersherum: Die guten Taten sprechen wir den Umständen zu, die schlechten dem Charakter.

Availability Cascade — Wenn ein neues Konzept — besonders solche, die einen komplexen Sachverhalt in einfacher Manier erklären können — in eine Sammlung kollektiver Konzepte gebracht wird, reagieren wir darauf und verstärken es. Dadurch wird es noch bekannter, was wiederum andere Menschen dazu bringt, darauf zu reagieren und es weiter zu verstärken. So wird eine Kettenreaktion in Gang gesetzt: Individuen eignen sich das neue Konzept an, weil es sich andere Menschen in dem Netzwerk ebenfalls angeeignet haben.

Belief-Bias — Argumente, die wir normalerweise als idiotisch abstempeln würden, erscheinen auf einmal völlig logisch, wenn sie zu Schlussfolgerungen führen, denen wir zustimmen. Wir beurteilen die Stärke eines Argumentes nicht danach, wie sehr es eine Schlussfolgerung unterstützt, sondern wie sehr wir die Schlussfolgerung unterstützen.

Benfordsches Gesetz — Je niedriger der zahlenmäßige Wert einer Ziffernsequenz an einer Stelle einer Zahl ist, desto wahrscheinlicher ist ihr Auftreten innerhalb eines Datensatzes.

Beispiel: Zahlen mit der Anfangsziffer 1 treten in etwa 6,6-mal so häufig auf wie Zahlen mit der Anfangsziffer 9.

Bestätigungsfehler — Wir neigen dazu, Informationen so auszuwählen und zu interpretieren, dass diese unsere eigenen Erwartungen bestätigen. (Verwandt: Kognitive Dissonanz.)

Beispiel: Wenn du dir ein bestimmtes silbernes Auto gekauft hast, wirst du es überall sehen; wenn du dir die teuren neuen Kopfhörer gekauft hast, wirst du nur noch Testberichte lesen, die dich in deiner Entscheidung bestätigen.

Bias blind spot — Wir neigen dazu zu glauben, dass wir selbst völlig frei, oder wenigstens freier, von Beeinflussungen sind und kognitive Verzerrungen nur auf andere zutreffen.

Concept Creep — Da gesellschaftliche Probleme (in der westlichen Welt), wie Rassismus oder sexuelle Belästigung, tatsächlich abnehmen, reagieren wir darauf, in dem wir die Definition davon erweitern, und dadurch die Illusion erschaffen, dass diese Probleme schlimmer werden.

Dunning-Kruger-Effekt — Das Bewusstsein über die Grenzen der Kognition / des Denkens erfordert ein Können in Metakognition, dem Denken über das Denken.

Beispiel: Wenn du dumm bist, macht es dich zu dumm zu begreifen, wie dumm du bist.

Emergenz — Wenn viele einfache Dinge miteinander interagieren, kann dadurch in der Summe etwas größeres entstehen / eine Qualität haben, zu dem diese Dinge selbst nicht fähig sind / die sie selbst nicht haben.

Beispiel: Aktienhändler, die den Aktienmarkt bilden; Neuronen, die das Gedächtnis bilden; mathematische Regeln, die „lebende“ Muster ergeben.

Enantiodromie — Etwas von Überfluss in einer Sache kann das Gegenteil beflügeln.

Beispiel: Eine Gesellschaft, die zu liberal ist, wird eine gewisse Toleranz gegenüber einem Gewaltherrscher entwickeln, der die Gesellschaft schließlich „de-liberalisiert.“

Ergodizität — Ein Beispiel für ein ergodisches System ist das Würfeln: Ob ein Würfel 1000-mal hintereinander gewürfelt wird, oder 1000 Würfel auf einmal gewürfelt werden, liefert sowohl zeitlich als auch in der Schar statistisch denselben Mittelwert für die Augenzahl. (Das liegt daran, dass die gleichzeitigen Würfe alle in leicht verschiedenen Zuständen sind und daher auch ein Mittel über den Zustandsraum abgeben.)

Ein Beispiel für ein nicht-ergodisches System ist der Münzwurf: Ausgehend vom ersten Wurf wird entweder die konstante Folge für Kopf „1, 1, 1, …“ oder sonst die konstante Folge „0, 0, 0, …“ genommen. Die Scharmittel sind hier 1/2 — die Zeitmittel jedoch 1 oder 0 (mit einer Wahrscheinlichkeit von 0.5). In einem nicht-ergodischen System ist das individuelle Ergebnis über die Zeit hinweg nicht das durchschnittliche Ergebnis der Schar; das Ergebnis hängt von einem vorherigen Ergebnis ab.

Die meisten behandeln nicht-ergodische Systeme, als seien sie ergodisch, das heißt, sie erwarten und verwechseln den zeitlichen Mittelwert mit dem Scharwert.

Daraus ergeben sich interessante Fragen wie: Ist eine Gesellschaft bezüglich der momentanen Einkommen ein ergodisches System? Wenn man das Einkommen eines Individuums über einen sehr langen Zeitraum verfolgt, erhält man dann das mittlere Einkommen aller Individuen zu einem Zeitpunkt?

Extremistische Phasenübergänge — Extremistische Bewegungen können sich wie in Aggregatzuständen bewegen: feste Körper (Diktaturen), flüssige Körper (Aufstände), und gasförmige Körper (Verschwörungstheorien). Wenn sie unter Druck gesetzt werden, verhalten sie sich entsprechend und gehen von fest zu flüssig zu gasförmig. Andersherum, wenn sie „in Ruhe gelassen werden“, verhält es sich ebenso, von gasförmig zu flüssig zu fest.

Fokus-Illusion — Nichts ist in Wirklichkeit so wichtig wie wir denken während wir darüber nachdenken. (Siehe auch: „Ankereffekt“.)

Beispiel: Sich über etwas Sorgen zu machen lässt die Sache, über die wir uns Sorgen machen, schlimmer erscheinen, als sie wirklich ist.

Goodharts Gesetz — In dem Augenblick, in dem ein Maß ein Ziel wird, hört es auf, ein Maß zu sein.

Beispiel: Britische Kolonialherrscher hatten in Indien versucht, die Population der Schlangen zu kontrollieren. Den Fortschritt maßen sie anhand von getöteten Schlangen, indem sie Geld für Schlangenkadaver anboten. Die Bevölkerung ging darauf ein, in dem sie Schlangen züchhteten und töteten.

Halo-Effekt — Wenn wir eine angenehme/favorisierte Eigenschaft in einem anderen Menschen sehen, nehmen wir an, dass dieser Mensch auch andere solche Eigenschaften hat. Das Gegenteil gilt ebenfalls.

Beispiel: Menschen, die wir für schön halten, werden wir auch oft für intelligent halten.

Kausale Reduktion — Dinge passieren selten nur aus einem Grund. Meistens sind sie das Ergebnis von mehreren Dingen, die einander direkt oder indirekt beeinflussen. Unser Gehirn kann allerdings nur selten solche komplexen Arrangements verarbeiten, weshalb wir dazu neigen, die Ergebnisse einer einzelnen Sache zuzuschreiben, und so das Netz von Kausalitäten zu einer bloßen Verkettung von Ereignissen reduzieren.

Kulturelles Parasitentum — Eine Ideologie ist wie ein Parasit im Kopf, der das Verhalten ihrer Wirte verändert, so dass sie ihn auf andere übertragen. Eine erfolgreiche Ideologie — die, von denen wir hören —, ist nicht geschaffen, um wahr zu sein, sondern so beschaffen, sich möglichst einfach übermitteln und glauben zu lassen. Je größer die Dichotomie als Grundlage, je schwarz-weiß, desto leichter.

Kumulative Fehler — Fehler häufen sich nicht nur rund um einen Fehler, sie stapeln und vermehren sich darauf. Glaubenssätze sind auf Glaubenssätzen gebaut, so dass ein falscher Gedanke sich lawinenartig in eine wahnhafte Weltsicht verwandelt.

Beispiel: Wenn irgendwo im Netz etwas Falsches gepostet wird, fügt sich dem schnell mehr hinzu, bis so letztlich Fake News entstehen. In unserer vernetzten Welt sind kumulative Fehler die Norm.

Law of the Instrument — Menschen, die mit einem Werkzeug gut vertraut sind, neigen dazu, dieses Werkzeug auch dann zu benutzen, wenn ein anderes besser geeignet wäre. Dem liegt oft der Denkfehler zugrunde, dass eine Vorgehensweise, die in der Vergangenheit zum Erfolg geführt hat, auch in allen anderen Fällen künftig zum Erfolg führen wird.

Lesbarkeit von komplexen natürlichen Systemen — Wenn wir ein komplexes natürliches System sehen, und es unordentlich aussieht, nehmen wir an, dass es auch ungeordnet sein muss. Durch das Aufzwingen einer eigenen Ordnung um es „lesbar“ zu machen werden allerdings essenzielle Komponenten, die wir nicht verstanden haben, entfernt, die das System so zum kollabieren bringen.

Limited Hangout — Für gewöhnlich eine Taktik von Journalisten und Politikern, bei der eine spannende/interessante/faszinierende Information veröffentlicht wird, die die Neugier befriedigt, und der Entdeckung von schlimmeren/schlechteren Informationen vorbeugt.

Beispiel: Ein Politiker, der beschuldigt wird, Kokain konsumiert zu haben, gibt dann vielleicht zu während der Universität Cannabis konsumiert zu haben.

Loki’s Wager — Loki’s Wager ist das unvernünftige Beharren darauf, dass ein Konzept nicht definiert und daher auch nicht diskutiert werden kann.

Beispiel: „Gottes Wege sind unergründlich“ („God of the Gaps“).

Matthäus-Effekt — Vorteile erzeugen Vorteile, die zu sozialen, ökonomischen und kulturellen Oligopolen führen.

Beispiel: Je mehr Geld du hast, desto leichter ist es, noch mehr Geld zu verdienen; je mehr Anerkennung du als Wissenschaftler für eine Entdeckung erhältst, desto mehr Anerkennung wirst du für zukünftige Entdeckungen erhalten.

Narrative Verzerrung — Die Narrative Verzerrung ist das nachträgliche Erschaffen einer Erzählung, um einem Ereignis einen plausiblen Grund zu verleihen.

Beispiel: Wenn ein Drogenabhängiger Selbstmord begeht, gehen wir davon aus, dass die Angewohnheit des Drogenkonsums in den Suizid getrieben hat, selbst wenn es das nicht tat. (Siehe auch: „Apophänie“, „Pareidolie“.)

Nirvana-Fehlschluss — Ein Nirvana-Fehlschluss liegt dann vor, wenn wir etwas ablehnen, weil es sich unvorteilhaft mit einer Idee vergleicht, die in der Wirklichkeit allerdings unerreichbar ist.

Beispiel: Kapitalismus verteufeln auf Grund der Überlegenheit eines erdachten Sozialismus.

Out-group Homogeneity — Wir neigen dazu, Menschen, die nicht zu unserer „Gruppe“ dazugehören, als „alles dieselben“ zu betrachten, während wir uns innerhalb der Gruppe als divers betrachten.

Pareidolie — Wir sehen überall Muster und Formen, wo gar keine sind — ganz besonders Gesichter.

Pareto-Prinzip — 80 % des Ergebnisses können mit 20 % des Aufwandes erreicht werden. Es gilt der Umkehrschluss: die verbleibenden 20 % werden mit 80 % des Aufwandes erreicht.

Bemerkenswert ist das Pareto-Prinzip an anderen Stellen: 80 % des Reichtums wird von 20 % der Menschen gehalten, 80 % der Verbrechen wird von 20 % der Straftäter begangen, 80 % aller Computerfehler stammen aus 20 % der Fehler, 80 % von Verkaufserlösen stammen aus 20 % der Produkte etc.

Peter-Prinzip — Beschäftigte neigen in einer Hierarchie dazu, solange aufzusteigen, bis sie letztlich inkompetent sind.

Die erste Ableitung: Nach einer gewissen Zeit wird jede Position von Mitarbeitern besetzt, die unfähig sind ihre Aufgabe zu erfüllen.

Peter-Pan-Syndrom — Mit dem Peter-Pan-Syndrom werden Menschen beschrieben, die nicht fähig sind daran zu glauben, dass sie älter sind und/oder sich nicht so benehmen, wie es für gewöhnlich mit erwachsenen Menschen assoziiert wird, wie zum Beispiel dem Übernehmen von Verantwortung. (Verwandt: Dorian-Gray-Syndrom.)

Pluralistische Ignoranz — Pluralistische Ignoranz ist ein Phänomen, bei der eine Gruppe mit einer Norm mitgeht, obwohl die Mitglieder der Gruppe diese Norm insgeheim hassen, weil sie fälschlicherweise davon ausgehen, dass die anderen Mitgliedern ihr zustimmen.

Beispiel: die meisten Parteien.

Prädiktive Kodierung — Es gibt keine Bewegung auf dem Bildschirm — unser Gehirn erfindet sie. Es gibt keine Pausen zwischen gesprochenen Wörtern — unser Gehirn fügt sie hinzu. Die menschliche Wahrnehmung ist wie die Textvorschläge im Handy: das Unbekannte durch das Erwartete ersetzen. (Siehe auch: „Apophänie“.)

Reaktanz — Wenn wir in etwas eingeschränkt werden, oder dazu gedrängt werden, etwas zu tun, dann neigen wir dazu, unsere ursprüngliche Handlung zu verstärken.

Beispiel: Wenn wir das Gefühl haben, in unserer Meinungsbekundung eingeschränkt zu werden, oder dazu gedrängt werden, eine andere anzunehmen, dann reagieren wir meist dadurch darauf, dass wir unsere Meinung weiter verfestigen.

Russell’s Conjugation — Synonyme können positive oder negative Assoziationen hervorrufen, ohne dabei die grundlegende Bedeutung eines Wortes zu ändern. (Das ist die Grundlage für viele Meinungsverschiebungen im Journalismus.)

Beispiel: Ich bin „willensstark“, er ist „eigensinnig“, du bist „dickköpfig.“

Shifting Baseline — Wir werden blind gegenüber den Dingen, die uns vertraut sind. Da sich die Welt ständig verändert, und wir uns immer daran gewöhnen, können wir auch blind gegenüber Katastrophen werden, die langsam auf uns zurollen.

Beispiel: Sagt der Frosch zum Fisch, „Wie ist das Wasser?“. Darauf antwortet der Fisch, „Was ist Wasser?“

Simpson-Paradoxon — In gruppierten Daten kann ein Trend auftreten, der aber verschwinden kann, wenn diese Gruppen kombiniert werden.

Streetlight Effect — Wir beziehen unsere Informationen von dort, wo es am leichtesten ist, sie zu beziehen. Kumulativ kann das ein ganzes Feld verzerren und mitunter zur Verstärkung führen.

Beispiel: Ein Großteil von Forschungen benutzt nur die erste Seite von Suchmaschinen-Ergebnissen, egal wie korrekt sie sind. (Siehe auch: „Kumulative Fehler“, „Survivorship Bias“, „Unbekanntes Unwissen“.)

Subpersonality — Wir nutzen unterschiedliche mentale Prozesse in unterschiedlichen Situationen, so dass wir nicht eine einzige Persönlichkeit sind, sondern eine Ansammlung verschiedener Persönlichkeiten, die den Körper entsprechend der Situation steuern.

Beispiel: Es gibt ein „Büro-Du“, ein „Online-Du“, ein „Liebhaber-Du“ etc.

Survivorship Bias — Wir neigen dazu, Ereignisse, die eine Sichtbarkeitschwelle überschreiten, überzubetonen.

Beispiel: Unser Verständnis von Serienmördern beruht auf denen, die wir gefasst haben; Nachrichten sind nur Nachrichten, wenn sie die Ausnahmen statt der Regel sind, da wir sie aber sehen, behandeln wir sie, als ob sie die Regel wären. (Siehe auch: „Unbekanntes Unwissen“.)

Tocqueville-Paradoxon — Wenn die Lebensstandards einer Gesellschaft steigen, dann wachsen die Erwartungen der Bevölkerung an die Gesellschaft mit ihr. Irgendwann wird die Erwartungshaltung das Wachstum der Lebensstandards überholen, was letztlich zu Unzufriedenheit führt, und manchmal zu populistischem Aufbegehren.

Unbekanntes Unwissen — Es gibt bekanntes Wissen. Das sind Dinge, von denen wir wissen, dass wir sie wissen. Es gibt bekanntes Unwissen. Das bedeutet, es gibt Dinge, von denen wir wissen, dass wir sie nicht wissen. Aber es gibt auch unbekanntes Unwissen. Das sind Dinge, von denen wir nicht wissen, dass wir sie nicht wissen. (Siehe auch: „Survivorship Bias“.)

Woozle-Effekt — Alternativ: „Beweis durch Zitation.“ Ein Artikel behauptet etwas ohne Beweis, und wird dann durch einen weiteren Artikel zitiert, der wiederum zitiert wird, und so weiter, bis die Reihe/Menge der Zitationen den Eindruck erweckt, dass es für die Behauptung Beweise gibt, obwohl in Wirklichkeit alle Artikel dieselbe, eine unbestätigte Quelle zitieren.