word image
Mitschrift (Lernskript)

Systemwissenschaften 1 - VO Zusammenfassung

4.943 / ~21 sternsternsternsternstern Katrin L. . 2017
<
>
Download

Mitschrift
Systemwissenschaft

Karl-Franzens-Universität Graz - KFU

2, Füllsack und Probst, 2015

Katrin L. ©
4.00

0.58 Mb
sternsternsternsternstern
ID# 66800







Systemwissenschaften 1 - VO Zusammenfassung



Inhalt

1 Was ist ein System?  1

1.1 Das Eigenverhalten von Systemen   1

1.2 Einfache und komplexe Systeme  2

1.2.1 Nash-Gleichgewicht  2

2 Rekursionen   2

3 Zellautomaten   3

3.1 Elementare Zellautomaten – Zellautomaten in einer Dimension   3

3.2 Klassifizierung von Zellautomaten nach Stephen Wolfram   3

3.3 Zellautomaten in zwei Dimensionen   4

3.3.1 Das Spiel des Lebens  4

3.3.2 7-Life  5

4 Feedbacks – Rückkopplungen   5

4.1 Positive Rückkopplung   5

4.1.1 Pólya-Urne  5

4.2 Negative Rückkopplung   6

5 Wirkungsdiagramme  6

6 Delays – Verzögerungen   7

6.1 Der Schweinezyklus  7

7 System Dynamics  7

7.1 Bestands- und Stromgrößen   8

7.2 Die Einheiten von Bestands- und Stromgrößen   8

8 Wachstum    10

9 Andere Formen des Wachstums  10

9.1 Limitiertes oder dichteabhängiges Wachstum   11

10 Rebound-Effekt  11

10.1 „The adaptive cycle“  11

11 Logistisches Wachstum    11

12 Deterministisches Chaos  12

13 Die logistische Landkarte  12

14 Ein Räuber-Beute-System    13

15 Das Lotka-Volterra-Modell  14

16 Attraktoren   15

17 Außergewöhnliche bzw. eigenartige Attraktoren   15

18 Lyapunov-Exponent  16

19 SIR – Ein Modell für Epidemiologie  16

20 The Pubic Good Game  17

20.1 Der homo oeconomicus  17

20.2 Stabilität in Public Good Games  17

21 Das Nash-Gleichgewicht  18

22 Das Gefangenendilemma   18

22.1 Das wiederholte Gefangenendilemma  18


1 Was ist ein System?

Ein System existiert im Sinne eines physikalischen Objektes nicht, es wird von einem Beobachter künstlich erschaffen. Bei dem Begriff „System“ handelt es sich um einen analytischen Begriff. Ein Beobachter verwendet den Begriff „System“, um Ordnung zu schaffen. Da Ordnung relativ ist, können Systeme nicht unabhängig von einem Beobachter und einer Umgebung existieren.

Ein Beobachter verwendet den Begriff „System“, um Zusammenhänge zu beschreiben. Er grenzt diese also von anderen Dingen ab, die seinem Betrachten nach nicht dazu passen. Für den Beobachter ist die Umgebung des Systems komplexer als das System, weswegen man die Betrachtung von etwas als System als Komplexitätsreduktion (bzw. Ordnungsgenerierung) bezeichnen kann.

Wenn sich mehrere Beobachter zusammenschließen, beispielsweise Wissenschaftler in einem wissenschaftlichen System, betrachten sie vermutlich dieselben Dinge als System. Wissenschaftler bezeichnen etwas meist dann als System, wenn man drei Merkmale beobachten kann:

1. Das System hat einen bestimmten Zweck.

2. Es gibt Komponenten, die miteinander auf eine gewisse Weise korrelieren bzw. interagieren.

3. Das System ist unteilbar, da sonst seine Integrität zerstört wird und das System seine Identität verliert.

1.1 Das Eigenverhalten von Systemen

Der entscheidende Effekt von Systemen ist es, dass sich das Systemverhalten gegen alle Erwartungen, also kontraintuitiv, verhält. Die Erwartungen ergeben sich durch die Summe der Beobachtungen der Einzelkomponenten.

Da Systeme Ordnung implizieren, beziehen sie sich also auf etwas, das mehr zu sein scheint als die Summe seiner Einzelkomponenten. Um die Einzelteile in einem System zu organisieren, sucht man also einen Weg, um diese Komponenten auf eine sinnvolle Weise miteinander in Verbindung zu bringen, wodurch das System als Ganzes mehr wird als die Summe seiner einzelnen Teile.

Hierbei spricht man von der Emergenz eines Systems, also die Entstehung. Ein System hat Dynamiken bzw. Qualitäten, die die einzelnen Komponenten nicht aufweisen. Systeme folgen ihrer Eigenlogik, weswegen Systemwissenschaften als eigene Disziplin der Wissenschaft bestehen.

Ein Beispiel dafür für Eigenverhalten wäre Wasser, bestehend aus Wasserstoff und Sauerstoff. Die Einzelkomponenten sind leicht entzündlich, als Verbindung jedoch wird es als Löschmittel für Feuer eingesetzt.

Das Eigenverhalten von Systemen kann an sogenannten Zellautomaten demonstriert und untersucht werden.

1.2 Einfache und komplexe Systeme

Ein einfaches System besitzt wenige interagierende Komponenten und kann mithilfe von EBM (Equation-based modeling, auch: System Dynamics) analysiert werden. Komplexe Systeme bestehen aus einer viel größeren Anzahl an Komponenten, welche in einer Weise interagieren, die nicht mit mathematischen Modellen modelliert werden kann.

Komplexe Systeme werden daher oft mithilfe von Computersimulationen analysiert. Die Unterscheidung von einfachen und komplexen Systemen ist beobachterabhängig.

Ein Beispiel für eine Methode zur Analysierung von komplexen Systemen ist die agentenbasierte Modellierung (ABM, Agent-based modeling). Aus einer anfänglichen 50:50-Chance entwickelt sich durch ein Zufallsereignis ein Gleichgewicht (z.B. Fußgängerströme, Kuhvertritt).

1.2.1 Nash-Gleichgewicht

Ein Nutzen einer Verhaltensänderung entsteht erst, wenn es eine große Anzahl an Lebewesen macht. Ein Beispiel dafür wäre das Bevölkerungswachstum. Jeder weiß, dass das Wachstum gebremst werden muss, aber niemand will alleine eine Verhaltensänderung einführen, da er sonst einen Nachteil gegenüber den Anderen, die ihr Verhalten nicht ändern, hätte.

2 Rekursionen

Beobachtungen werden meistens in diskreten Zeitschritten durchgeführt. Die mathematische Methode, um Veränderungen in solchen Daten festzuhalten und zu berechnen nennt sich Differenzengleichung.

Allgemeine Differenzengleichung: s(t+1) = s(t) + gain bzw. s(t) = s(t=0) * (1 ± ϒ)t

s Bestand des beobachteten Objekts

Ï’ Wachstums/Zerfallsrate

gain Veränderung des Bestandes

Wenn die Gleichung in der Form von s2 = s1 + gain, s3 = s2 + gain, angegeben wird und die Änderungen des Bestands konstant sind, drücken die Daten in dieser Reihenfolge eine Funktion aus. Diese Reihenfolge ist dann rekursiv erzeugt und die Funktion wächst sozusagen aus sich selbst heraus. Als Rekursion bezeichnet man es also, wenn eine Funktion durch sich selbst definiert ist.

Ein Beispiel dafür ist die berühmte Fibonacci-Folge. Im analytischen Ausmaß können die Zusammenhänge von Mikro- und Makroebene von Systemen erst durch neue Technologien erfasst werden. Man spricht also von „a new kind of science“.

In der Mathematik wird in Bezug auf Rekursionen ein Trick angewendet. Die diskreten Zeitschritte sollen unendlich klein werden, also den Wert Null annehmen, wodurch Differentialrechnungen berechnet werden können.

3 Zellautomaten

Zellautomaten sind formell eine Klasse aus räumlich und zeitlich getrennten, deterministischen mathematischen Systemen, die durch lokale Interaktionen charakterisiert werden. Die Grundidee von Zellautomaten ist es, dass Zellen ihren Status in Abhängigkeit von ihren Nachbarzellen ändern (beispielsweise von 0 zu 1 oder von weiß zu schwarz). Diese Änderungen werden durch bestimmte Regeln festgelegt.

3.1 Elementare Zellautomaten – Zellautomaten in einer Dimension

Elementare Zellautomaten bestehen aus einer Reihe von Zellen, die jeweils zwei Zustände annehmen können. Gemeinsam mit der Zelle zu ihrer Linken und der zu ihrer Rechten bildet eine Zelle eine Nachbarschaft. Im Ausgangszustand ist jeder Zelle ein zufälliger Zustand zugeordnet. Durch bestimmte Regeln ändern sich die Zustände der Zellen in Abhängigkeit von dem Zustand ihrer Nachbarn mit jedem Zeitschritt.

Für jeden möglichen auftretenden Fall in einer Nachbarschaft werden also Regeln (für gewöhnlich in einer Tabelle) festgelegt. Mit jedem Zeitschritt wird also eine neue Generation an Zellen erzeugt, die die nächste Zellreihe bilden.

Bei genauer Betrachtung dieser Zellautomaten fällt auf, dass ursprünglich lokale Interaktionen nach einigen Iterationen (= Wiederholung) Strukturen mit globalem Ausmaß generieren können. Diese Strukturen scheinen durch die festgelegten Regeln nicht vorhersehbar zu sein. Zellautomaten sind ein typisches Beispiel für das kontraintuitive Verhalten von Systemen.

Sie zeigen ein emergentes Verhalten und sind also mehr als die Summe ihrer Einzelkomponenten.

Elementare Zellautomaten haben acht mögliche Anordnungen, jede Zelle hat zwei mögliche Zustandsformen, wodurch sich ein Zustandsraum der Größe 28 (= 256) ergibt.

Die allgemeine Formel zur Berechnung der Zustandsräume ist  mit k Nachbarn und n Zuständen.

3.2 Klassifizierung von Zellautomaten nach Stephen Wolfram

Zellautomaten folgen deterministischen Regeln, wodurch keine Abweichungen erlaubt sind. Dadurch wiederholt sich das Muster eines Zellautomaten früher oder später in einem Zustandsraum immer, egal wie groß dieser ist. Dies dient als Attraktor für die Entwicklung eines Zellautomaten.

Stephen Wolfram stellte folgende Beziehung zu dynamischen Systemen fest:

Klasse I-Verhalten: Die Zellautomaten entwickeln sich zu Grenzpunkten, beispielsweise zu homogenen Entwicklungen nach einer endlichen Anzahl an Zeitschritten. (Bsp.: Regel 4)

Klasse II-Verhalten: Die Zellautomaten entwickeln sich zu Grenzzyklen, also zu periodischen Strukturen. (Bsp.: Regel 2)

Klasse III-Verhalten: Die Zellautomaten bringen seltsame Attraktoren hervor, zum Beispiel aperiodische Muster. (Bsp.: Regel 22)

Klasse IV-Verhalten: Zellautomaten zeigen sehr lange Übergangslängen. Sie bilden stabile, periodische und vermehrende Strukturen, die über beliebig lange Zeiträume existieren können. Endzustände sind mit jeder Zykluslänge möglich. (Bsp.: Regel 110)

Das exakte Verhalten ist jedoch abhängig von den anfänglich zufällig generierten Zuständen der Zellautomaten.

Interessante Muster (Klasse III oder IV) sind weder auf einfache Weise geordnet noch völlig zufällig. Sie sind etwas zwischen Ordnung und Zufall.

Regeln unterscheiden sich in ihrer Empfindlichkeit gegenüber Störungen. Bei „einfachen“ Regeln vermehren sich Störungen nicht oder nur in sehr geringem Ausmaß. Bei interessanteren Regeln breiten sich diese stärker aus.

Abbildung 1: Störungsausbreitung in verschiedenen Regeln

3.3 Zellautomaten in zwei Dimensionen

Stephen Wolfram stellte bei den eindimensionalen Zellautomaten fest, dass bestimmte Regeln (z. B.: Regel 110) theoretisch dazu in der Lage wären als Computer zu funktionieren (d. h. sie sind turingfähig). Das Spiel des Lebens bestätigte diese These.

3.3.1 Das Spiel des Lebens

Das klassische Beispiel für einen zweidimensionalen Zellautomaten ist das Spiel des Lebens, das in den 1960ern von John Horton Conway als „Unterhaltungsmathematik“ erfunden wurde. Ähnlich zu eindimensionalen Zellautomaten besteht das Spiel des Lebens ebenfalls aus einem Zellgitter, in dem sich die Zellen in Abhängigkeit ihrer Nachbarn verändern.

In diesem Fall besteht die Nachbarschaft jedoch aus acht Zellen, die sogenannte Moore-Nachbarschaft.

Anmerkung: Eine andere Art von Nachbarschaft wäre beispielsweise die Von-Neumann-Nachbarschaft, wo nur die Zellen, die sich nördlich, südlich, östlich und westlich um die betrachtete Zelle befinden, als Nachbarn zählen.

Das Spielfeld ist an allen Seiten „verbunden“, das heißt also, dass das obere Ende mit dem unteren sowie das linke mit dem rechten Ende verbunden ist (= Thorus).

Das Spiel beginnt mit einer anfänglich kleinen Konstellation von schwarzen Zellen, die ihren Status nach folgenden Regeln ändern:

1. Wenn sich genau drei schwarze Zellen in der Moore-Nachbarschaft einer weißen Zelle befinden, wird diese selbst schwarz (sie wird „lebendig“).

2. Wenn eine schwarze Zelle weniger als zwei oder mehr als drei schwarze Zellen in ihrer Moore-Nachbarschaft hat, wird sie weiß (sie „stirbt“).

Sogenannte Gleiter (engl.: Glider) beweisen, dass nicht immer ein Gleichgewichtszustand (= steady state, Equilibrium) erreicht werden kann.

3.3.2 7-Life

Eine Variante des „Spiel des Lebens“ nennt sich 7-Life und entspricht der Regel B37/S23. Hier wird mit einer bestimmten Zellkonfiguration begonnen, die dann einen Zellverbund bildet, der über eine lange Zeit keine speziellen Strukturen zeigt. Nach ca. 45.000 Iterationen bildet sich plötzlich eine hochgeordnete „Erweiterung“, die sich nach unten hin ausbreitet.

Obwohl dieser Prozess nicht absolut deterministisch ist, könnte man dies als Beispiel für „order from noise“, also Ordnung aus Unordnung/Störungen bezeichnen.

4 Feedbacks – Rückkopplungen

4.1 Positive Rückkopplung

Eine positive Rückkopplung ist ein selbsttragender oder selbstbetonender Prozess, wobei etwas mehr wird, weil bereits einiges davon da ist bzw. wo etwas weniger wird, weil es bereits nur in geringem Ausmaß vorhanden ist. Ein Beispiel dafür wäre die Aussage „Die Reichen werden reicher, die Armen werden ärmer“.

Positive Rückkopplung vergrößert die Dynamik eines Wachstumsprozesses in Richtung des Wachstums. Die „Power-law“-Verteilung führt dazu, dass einige wenige Instanzen einen sehr großen Anteil an etwas haben und die restlichen Instanzen dementsprechend weniger. Man spricht von gekoppelten Faktoren.

4.1.1 Pólya-Urne

Ein einfaches Beispiel für ein System, das durch positive Rückkopplung angetrieben wird, ist die Pólya-Urne (György Pólya). Man stellt sich eine Urne vor, in der sich eine weiße und eine rote Kugel befinden, von welchen man in jeder Runde blind eine herausnehmen muss. Nach jedem Zug wird die Kugel, die gezogen wurde, sowie eine weitere von dieser Farbe wieder in die Urne gelegt.

Vor dem ersten Zug war es also eine 50:50-Chance, dass man eine der Farben zieht, nach der ersten Runde beträgt die Wahrscheinlichkeit, dass man eine Kugel der Farbe, die bereits gezogen wurde, noch einmal zieht, schon 66%. Zieht man ein weiteres Mal eine Kugel der gleichen Farbe, ist die Wahrscheinlichkeit schon bei 75%. Nach neun Zügen stehen die Chancen bei 9:1. Die anfänglich kleine Vorliebe bezüglich einer Farbe entwickelte sich rückkopplungsbedingt schnell zu einem stabilen Ungleichgewicht.

Man spricht dann von einer Lock-In-Situation für die benachteiligte Farbe.

Beispiele für Lock-Ins wären z. B. Schwärme (von Heuschrecken etc.).

4.2 Negative Rückkopplung

Im Gegensatz zu positiven Rückkopplungsprozessen, die Dynamiken fördert, hemmen negative Rückkopplungen die Dynamik. Es kann als Gegendynamik gesehen werden. Das meistgenannte Beispiel für negative Rückkopplungsprozesse bildet in den Systemwissenschaften die Funktionsweise der Klimaanlage. Ein Thermostat kontrolliert die Temperatur und aktiviert entweder die Heizung, wenn die Temperatur unter einen bestimmten Minimumwert fällt oder die Kühlung, wenn die Temperatur einen gewissen Maximalwert erreicht.

In jedem Fall wird verhindert, dass die Temperatur Extremwerte annimmt.

Ein weiteres Beispiel für negative Rückkopplung ist das progressive Steuersystem, wo Einkommensunterschiede durch eine selbststeuernde Dynamik gemildert werden sollen. Das Phänomen „die Reichen werden reicher“ soll damit verhindert bzw. verringert werden.

Wirkungsketten bilden effektive Möglichkeiten dafür, das Verhalten von Systemen zu analysieren. Sie helfen beim Verständnis der Auswirkungen von Rückkopplungen.

Die Komplexität von Wirkungsketten kann über die Länge der Wirkungsketten sowie über ihre Richtung, in welche sich die Wirkungskette selbst verstärkt, gekennzeichnet werden.

Verschiedene Symbole zeigen unterschiedliche Wirkungen an. Das Lawinen-Symbol zeigt eine eskalierende Wirkung von positiven Rückkopplungen an, das Waagen-Symbol steht für die beruhigende Wirkung von negativen Rückkopplungen. Die einfachsten Zeichen jedoch sind das Plus und Minus.

Die allgemeine Dynamik einer Schleife mit einigen Teildynamiken oder Teilschleifen wird durch die Anzahl von Minuszeichen bestimmt. Eine gerade Anzahl steht für eine positive Gesamtrückkopplung, eine ungerade Anzahl beschreibt eine negative Gesamtrückkopplung.

6 Delays – Verzögerungen

Dynamische Systeme zeigen oft beträchtliche Verzögerungen in ihrem Verhalten, welche unerwartete, kontraintuitive Effekte verursachen. Ein berühmtes Beispiel für solche Verzögerungen ist der Peitschenschlageffekt (engl.: bullwhip effect) als charakteristisches Merkmal der prognoseorientierten Lieferketten.

Es ergibt sich aus Änderungen in der Kundennachfrage und verursacht rückkopplungsgetriebene und manchmal selbstvermehrende Schwingungen im Bestand von Fabriken und Firmen. Der Peitschenschlageffekt steht also für Koordinationsprobleme mehrstufiger Lieferketten (vgl.: Das Biervertriebsspiel).

6.1 Der Schweinezyklus

Ein weiteres Beispiel für die Konsequenzen von Verzögerungen ist der sogenannte Schweinezyklus, der eine Vereinfachung von Ökonomen für das Phänomen von Angebot und Nachfrage bildet. Der Schweinezyklus zeigt, dass Verzögerungen in der Lieferung von Gütern eine solche Balance auch ohne staatliche Eingriffe beeinflussen kann.

Eine steigende Nachfrage an Schweinen bringt Schweinezüchter dazu, die Produktion zu erhöhen. Es wird angenommen, dass vernünftige Züchter die Produktion stoppen, sobald das Angebot den Level der Marktsättigung erreicht. Es benötigt einige Jahre, bis Ferkel ausgewachsen sind und als Schweinefleisch auf den Markt kommen.

In dieser Zeit ist die Nachfrage immer höher als das Angebot und die Züchter bemerken keine Sättigung. Sind die Schweine nun bereit zum Schlachten, bringen alle Züchter gleichzeitig ihre Produkte an den Markt und der Markt wird übersättigt. Aufgrund des Überangebotes müssen die Züchter ihre Preise senken. Auch auf dieses Dilemma können die Züchter erst verzögert reagieren.

Wenn erst eine Verzögerung in einem System ist, ist es schwer, wieder Balance zu finden.

7 System Dynamics

System Dynamics (abgekürzt: SD) ist ein Beispiel für EBM (vgl. 1.2). Es bietet eine computerbasierte Simulationstechnik, die von Jay Wright Forrester in den 1950ern und 1960ern entwickelt wurde. SD ist eine Methode um Dynamiken und ihre Interaktionen in einem relativ einfachen Weg zu konzipieren und zu berechnen.

Es befasst sich mit internen Rückkopplungsschleifen und Zeitverzögerungen, die das Verhalten eines Systems beeinflussen. Die analytischen Haupteinheiten sind Bestände und Ströme (engl.: stocks and flows), die beim Verständnis davon helfen, wie einfache Systeme verwirrende Nicht-Linearitäten darstellen.

7.1 Bestands- und Stromgrößen

Ein Beispiel, um Bestände und Ströme darzustellen, bildet eine Badewanne. Bestand beschreibt den Status eines Systems zu einem bestimmten Zeitpunkt. Ströme charakterisieren die Änderungsrate eines Systems in einem Zeitabschnitt. Bei der Größe einer Population spricht man beispielsweise von dem Bestand, bei Geburten bezieht man sich auf Ströme, da man von einer Rate in einem Zeitintervall spricht.

Eine Differenzierung von Beständen und Strömen ermöglicht eine Art von grafischer Integration. Zeichnet man den Strom als Nettoänderungsrate (= Einfluss – Abfluss) ein (vgl. Abb. 2), zeigt es den Betrag, um welchen sich der Bestand geändert hat, als schattierte Fläche unter der Kurve an.

Abbildung 2: Grafische Darstellung von Bestand und Strom

7.2 Die Einheiten von Bestands- und Stromgrößen

Es ist wichtig zu verstehen, dass Bestände und Ströme unterschiedlich gemessen werden und somit nicht vergleichbar sind. Während Bestände in tatsächlichen Mengen gemessen werden, sind Ströme Dynamiken. Ströme werden in Einheiten pro Intervall bzw. Periode gemessen.

Die mathematische Abstraktion betrachtet diese Zeitperioden als unendlich klein. Somit sind sie Dynamiken, die zu einem Zeitpunkt abstrahiert werden.

Bei grafischen Darstellungen sieht man die starken Unterschiede zwischen Bestands- und Stromgrößen (vgl. Abb. 3).

Abbildung 3: Graphische Darstellung von Bestands- und Stromgrößen

Die Änderungsrate eines Bestands kann folgendermaßen angeschrieben werden:

 = ϒN

N Bestand

ϒ Änderungsrate

Drückt man die Auswirkungen der Strömung  (unterstrichen) als Differenzengleichung aus, würde die Gleichung die folgende Form annehmen:

Der Strom ϒNtzeigt die Geschwindigkeit der Dynamik zum Zeitpunkt t. Die Größe des Bestands kann zum Zeitpunkt t durch Nt = N0 (1 + ϒ)t bzw. durch Nt = N0e ϒt berechnet werden (Abb. 4: blaue Kurve). Um die genaue Geschwindigkeit zum Zeitpunkt t zu finden, muss man die Steigung der Kurve bestimmen. Hierzu wird die Ableitung der Funktion Nt = N0 (1 + ϒ)t verwendet, wodurch sich die Funktion (1 + ϒ)t N0 ln (1 + ϒ) ergibt.

Abbildung 4

8 Wachstum

Dynamiken, die oft durch Differentialgleichungen berechnet werden, sind Wachstumsprozesse.

Die Wachstumsrate berechnet man durch ϒ=,wenn genau Werte für N(t) und N(t+1) vorhanden sind.

Häufig wird Bevölkerungswachstum als exponentielles Wachstum angesehen. Die Wachstumsrate ist also proportional zur Größe der Bevölkerung. Je größer also die Bevölkerung ist, umso größer ist der Anteil, der pro Zeitschritt hinzukommt. Nimmt man an, dass sich die Länge des Zeitintervalls an Null annähert, kann man eine Differentialgleichung zur Beschreibung des Bevölkerungswachstums heranziehen.

9 Andere Formen des Wachstums

Im Jahr 1960 haben der österreichische Kybernetiker Heinz von Foerster und seine Kollegen vorgeschlagen, dass man die Entwicklung der Weltbevölkerung basierend auf geschichtlichen Daten nicht als exponentielles, sondern als hyperbolisches Wachstum ansehen soll. In Bezug auf die Verdopplungszeit meinte Foerster scherzhaft, dass das Bevölkerungswachstum an seinem 115. Jahrestag, dem 13. November 2026, unendlich groß sein wird.

An diesem Tag sollte die Verdopplungszeit also den Wert Null annehmen. Im Hinblick auf Bevölkerungswachstum wird diese Gleichung „Doomsday Equation“, deutsch „Weltuntergangsargument“, genannt.

Mittlerweile zeigen mehrere Indizien, dass die Weltbevölkerung zu mindestens bis zu dem Jahr 1970 schneller als exponentiell wächst. Eine mögliche Option dies darzustellen, wäre es eine Exponentialfunktion zweiter Ordnung aufzustellen, wo die Wachstumsrate ϒ proportional zum Quadrat von Nt ist.

9.1 Limitiertes oder dichteabhängiges Wachstum

Was auch immer die tatsächliche Dynamik des menschlichen Bevölkerungswachstums ist, so ist es jedoch realistisch anzunehmen, dass jede Population einen selbstbegrenzenden Einfluss auf ihre eigene Dynamik ausbildet. Beispielhaft dafür wäre eine Bakterienkultur in einer Saccharose-Lösung. Wenn die Populationsgröße klein ist, sind genügend Ressourcen vorhanden und das Wachstum kann ungestört ablaufen.

Hat die Population eine gewisse Größe erreicht, beginnen die Bakterien jedoch um die Saccharose zu konkurrieren. Ein weiteres Wachstum wird behindert und erreicht sogar den Nullpunkt. In diesem Fall wird das Wachstum durch die Dichte der Population behindert. Es wird von einem Limit gehemmt, das als Umweltkapazität (engl.: carrying capacity) bezeichnet wird.

Mathematisch kann die Umweltkapazität folgendermaßen dargestellt werden:

 = ϒ * (K – N) oder rekursiv: Nt+1 = Nt + ϒ * (K – Nt) * dt wobei K die Umweltkapazität ist.

10 Rebound-Effekt

Viele natürlich wachsende Phänomene unterliegen einem sogenannten Rebound-Effekt. Beispielsweise kann man diesen Effekt bei einer Bakterienkultur in einer Petrischale beobachten, die Stoffe beinhaltet, die das Überleben und die Fortpflanzung dieser Bakterien beeinträchtigt, aber nicht tödlich sind. Die Bakterienpopulation kann nur wachsen, wenn es gelingt, eine Mutation zu entwickeln, die an die geänderten Konditionen der Petrischale besser angepasst ist, wodurch die Bakterien überleben könnten und die Population wachsen kann.

10.1 „The adaptive cycle“

C.S. Holling beschrieb ein Modell für die periodische Zerstörung und Erholung von Ökosystemen, wonach jedes Ökosystem bestimmte Phasen durch „schöpferische Zerstörung“ bedingt durchlebt. Diese Phasen sind Ausbeutung, Verbindung, Zerstörung und Reorganisation.

11 Logistisches Wachstum

Bevölkerung wächst in Bezug auf ihr Konsumverhalten. Solange genügend Ressourcen vorhanden sind, kann das Wachstum uneingeschränkt fortfahren. Sobald eine Ressource knapp wird, verlangsamt sich jedoch die Geschwindigkeit. Graphisch zeigt ein solches Verhalten eine typische S-förmige Kurve, die sich einem Limit K nähert, das auf eine Bevölkerungsgröße hinweist, die mit dem Betrag an verfügbaren Ressourcen übereinstimmt.

Als Formel wird das logistische Wachstumsmodell folgendermaßen ausgedrückt:

 =

Dividiert man beide Seiten der Gleichung durch K und definiert x = , so ergibt sich die Differentialgleichung = ϒ * x * (1 – x).

Abbildung 5: Logistisches Wachstum

12 Deterministisches Chaos

Die logistische Funktion kann sich manchmal komisch verhalten, wenn Zahlen eingesetzt werden. In diesem Fall wird das logistische Wachstum in diskreten Zeitschritten als Differenzengleichung, die man logistische Landkarte nennt, betrachtet.

Bei sehr großen Wachstumsraten kann man plötzlich eine Oszillation bei der grafischen Darstellung feststellen, die sich anfangs noch einpendelt, bei noch stärkeren Erhöhungen jedoch nicht mehr. Chaos bezeichnet in diesem Fall keine zufälligen, sondern deterministische Entwicklungen.

Das Limit, die Wachstumsgrenze, stellt in dieser Funktion ein Gleichgewicht dar. Unabhängig vom Anfangswert wird dieses Gleichgewicht nach einer bestimmten Einschwingzeit erreicht. Die chaotischen Entwicklungen treten nur bei einer diskreten Entwicklung auf, bei der Betrachtung als Differentialgleichung nicht.

13 Die logistische Landkarte

Eine gut bekannte Darstellung der logistischen Landkarte erzählt man, wenn man auf die x-Achse eines Koordinatensystems die Wachstumsrate steigend aufträgt. Wiederholt man dies mit verschiedenen Größenverhältnissen, erhält man das in Abbildung 6 gezeigte charakteristische Bild, in welchem man eine gewisse Selbstähnlichkeit feststellen kann.

14 Ein Räuber-Beute-System

Von 1909 bis 1932 wurde von der Hudson Bay Trading Company eine Schwankung in den Verkaufszahlen von Luchs- und Hasenpelzen beobachtet. Trägt man die Verkaufszahlen an einer Zeitachse auf, erkennt man, dass die Populationen von Luchsen und Hasen sich scheinbar in einem Rhythmus befinden. Es wurde also angenommen, dass die Luchse sich von Hasen ernähren und sich folglich auch fortpflanzen können, wenn sie genügend Beute finden.

Wenn die Anzahl an Luchsen zunimmt, verringert sich jedoch durch den größeren Nahrungsbedarf die Hasenpopulation, wodurch die Lebensbedingungen der Luchse schlechter werden.

In den 1920ern entwickelten Alfred Lotka und Vito Volterra ein Modell, das diese Wechselbeziehung mithilfe von gekoppelten Differentialgleichungen erster Ordnung darstellt.

Die folgenden Gleichungen bilden eine mathematische Vereinfachung dieser Gleichungen, die Lotka-Volterra- bzw. Räuber-Beute-Gleichungen genannt werden.

 = H (a – b * L)

H Hasenpopulation

a natürliche Wachstumsrate der Hasen

 = - L (c – d * H)

L Luchspopulation

c Natürliche Sterberate der Luchse

d * H Vermehrungsrate der Luchse in Abhängigkeit der Hasen

Abbildung 7: Räuber-Beute-Modell

Abbildung 7 zeigt eine Darstellung dieser Formeln mit bestimmten Werten für die Parameter a, b, c und d. Die kleine Abbildung in der rechten oberen Ecke nennt man ein Phasenraum- oder Zustandsraumportrait. Es zeigt die Anzahl der Raubtiere im Vergleich zur Anzahl der Beutetiere. Jede Änderung in diesem Modell führt zu einem qualitativ anderen Verhalten.

Das Modell ist strukturell also unstabil, wird jedoch gerne von Mathematikern als Model herangezogen, da es so elegant einfach ist.

15 Das Lotka-Volterra-Modell

Eine etwas interessantere, aber dennoch einfache Version eines Räuber-Beute-Schemas ist durch die folgenden Gleichungen gegeben:

 = a * R (1 - ) – b*R*N

 = c * a * R * N – d * N

Die Beutepopulation wächst hierbei in Abhängigkeit einer Umweltkapazität K und verkleinert sich in Abhängigkeit auf seine Sterberate b und den Einfluss der Räuber. Die Räuberpopulation wächst linear zu seinem pro-Kopf Konsum c und schrumpft in Abhängigkeit zu seiner Sterberate d.

In der Abbildung 8 erkennt man, dass das System eine gewisse Einschwingzeit hat, bis es sich im Gleichgewicht befindet. Rechts oben befindet sich ein Phasenraummodell. Wenn der Phasenraum einen Kreis abbildet, findet eine periodische Oszillation zwischen den zwei Funktionslinien statt. Ist es eine Spirale, so nähern sich die Funktionen einem Gleichgewichtszustand (= steady state).

16 Attraktoren

Wie man in Abbildung 9 erkennen kann, so nähert sich eine Populationsdynamik, die durch ein logistisches Wachstum modelliert wird, einem Gleichgewichtszustand (Equilibrium), der durch die Umweltkapazität K definiert ist, unabhängig von der Populationsgröße. K ist somit ein Fixpunkt in diesen Dynamiken und dient als Attraktor.

Abbildung 9: Logistisches Wachstum

Attraktoren sind eine Expression des Eigenverhaltens eines Systems. Ein Beispiel dafür wäre die rekursive Rechenoperation „dividiere durch 2 und addiere 1“, wodurch sich ein Funktionsgraph immer asymptotisch an den Wert 2 annähert, egal, von welchem Wert dieser startet.

Ein Beispiel dafür ist in Abbildung 10 dargestellt. Nimmt der Parameter a einen Wert an, der größer als 5 ist, so bildet der Graph zwei ovale Teile aus (schmetterlinsgartig). Wird dieser Wert jedoch verkleinert, so verändert sich das Bild stark und man erkennt die ursprüngliche schmetterlingsartige Form nicht mehr.

Abbildung 10: Außergewöhnliche Attraktoren

18 Lyapunov-Exponent

Ein essenzieller Aspekt des deterministischen Chaos ist die Tatsache, dass kleine Unterschiede in den Ausgangsbedingungen eines Systems zu sehr großen Unterschieden in dessen Entwicklung führen können. Der Grund dafür ist das exponentielle Wachstum dieser Unterschiede, was ein weiteres Beispiel für Rückkopplungseffekte ist.

Die Unterschiede wachsen in Abhängigkeit der Größe, die sie bis dorthin erreicht haben. Umso größer sie sind, umso schneller wachsen sie.

Diesen Zuwachs der Unterschiede misst der sogenannte Lyapunov-Exponent, benannt nach einem russischen Mathematiker namens Aleksandr Mikhailovich Lyapunov. Dieser Exponent zeigt die Geschwindigkeit mit sich der zwei anfänglich nahe Dynamiken auseinanderentwickeln. Der Lyapunov-Exponent beschreibt, wie schnell sich ein komplexes System mit mehreren zusammenhängenden Dynamiken zu einem deterministischen Chaos entwickelt.

19 SIR – Ein Modell für Epidemiologie

SIR steht für ansteckbar/empfänglich (engl.: susceptible), infiziert und erholt oder alternativ entfernt (engl.: removed bzw. recovered) und beschreibt die drei möglichen Zustände der Mitglieder einer Population, die von einer infektiösen Krankheit betroffen ist. Solche Simulationen dienen dazu, dass man die Ausbreitung von Krankheiten bestimmen kann, um ihr anschließend gezielt entgegenzuwirken.

Zu Beginn müssen bestimmte Bedingungen festgelegt werden, beispielsweise, ob eine Person, die bereits infiziert war, nochmals infiziert werden kann.

Alternativ kann man das SIR-Modell auch als Netzwerk darstellen, wo jeder Punkt im Netzwerk eine Person darstellt.

20 The Pubic Good Game

In diesem Spiel bekommt eine Gruppe von Spielern ein bestimmtes Startkapital, von welchem sie entweder das Gesamte oder einen Teil davon in eine Stammaktie (ein Behälter) investieren können. Der Spielleiter verdoppelt den investierten Betrag und teilt es auf alle Spieler gleich auf. Die Spieler kommunizieren nicht miteinander.

Wenn jedoch im Vergleich dazu einer der Teilnehmer nur sechs Euro in den Behälter legt, wobei alle anderen den Gesamtbetrag investieren, so befinden sich 36 Euro im Topf. Es werden also 72 Euro auf alle vier Spieler aufgeteilt, wodurch jeder 18 Euro erhält. Der Spieler, der zu Beginn jedoch nur sechs Euro investiert hat, hat zusätzlich noch vier Euro übrig und somit eine Gesamtsumme von 22 Euro.

20.1 Der homo oeconomicus

Aus der Sicht eines homo oecononmicus wäre es sinnvoll, wenn man nichts in die Stammaktie investiert. Es handelt sich hierbei um einen abstrakten ökonomischen Idealtyp, der rational, eigensinnig und gut informiert ist. Er kümmert sich nur um seine eigene Auszahlung und wird versuchen, diese zu optimieren, unabhängig von möglichen Nachteilen, die für andere Spieler entstehen können.

Für gewöhnlich dienen solche Individuen als Rollenvorbild in sozialen Dilemmas. Nach einigen Runden würde also kein Spieler mehr etwas investieren. Experimente zeigen, dass das „nicht investieren“ als Attraktor dient, der ein sogenanntes Nash-Equilibrium hervorruft.

Durch das nicht-Investieren entwickelt sich also ein lokales Minimum, welches suboptimal in Bezug auf die Auszahlung ist. Wenn nun also niemand investiert, hat jeder Spieler weniger als er eigentlich erhalten könnte, wenn zumindest ein paar – oder im Optimalfall alle Spieler etwas investieren würden. Das würde ein sogenanntes globales Optimum darstellen. Das lokale Minimum bildet ein meta-stabiles Equilibrium.

Führt man jedoch Bestrafungen ein, wenn jemand nicht zahlt, so steigt die Investitionsbereitschaft.

21 Das Nash-Gleichgewicht

Nach dem Konzept des Mathematikers John F. Nash ist eine spieltheoretische Strategie in einem Gleichgewichtszustand, wenn kein Spieler einen Vorteil bei einer einseitigen Änderung der Strategie erhält, solange alle anderen Spieler ihre Strategien nicht verändern. In anderen Worten befinden sich die Spieler in einem Nash-Equilibrium, wenn ein einseitiger Beschluss eines Spielers seinen Auszahlungsbetrag verringern würde.

Kein Spieler könnte also seine Auszahlung durch eine Entscheidungsänderung verbessern.


| | | | |
Tausche dein Hausarbeiten