[Home] [Algorithmische Revolution] [cumos] [Algorithmisch Rekursive Sequenzanalyse] [GOLEMs Kommentare] [Düsseldorfer Schülerinventar] [Texte] [Rechenbuch]
[Download Sammlung][Leseliste][Kontakt]
 
 

Ich bin Magister Artium (Erziehungswissenschaft, Sozialwissenschaften, Psychologie). Das sozialwissenschaftliche Handwerkszeug (empirische Sozialforschung, beschreibende Statistik, Prüfstatistik, Spieltheorie, Simulation, Modellbildung, Algorithmisierung) und die psychodiagnostische Teststatistik beherrsche ich ex forma et ex functione. Ich stehe einem naturalistischen Weltbild nahe und mein Herz schlägt für eine aufgeklärte, humanistische und streng säkulare Kultur.

Meine private Leidenschaft sind die visuelle Amateurastronomie, gute Bücher und die informatische Modellierung sozialer Strukturen. Ganz besonders interessiert mich privat die Rekonstruktion der Regeln der Replikation kultureller Replikatoren mit formalen Sprachen.

Es lohnt sich, die Sprache zu lernen, die Gesellschaften rekonstruiert. Bisher haben wir nur eine Sprache, die Gesellschaftsphilosophien erschafft (Konstruktivismus, Kritische Theorie). Die Gesellschaftsphilosophie ist falsch. Wir brauchen eine neue rekonstruktive Soziologie, die die kulturelle Evolution als algorithmisch rekursive Reproduktion, Variation und Selektion kultureller Replikatoren modelliert, deren Spuren sequenzanalytisch mit formalen Sprachen rekonstruiert werden können. Die Strukturwissenschaften Linguistik, Logik, Mathematik, Soziologie und theoretische Informatik haben einen identischen kalkülfähigen Gegenstandsbereich.

Aus der diskreten Natur der Materie geht die Sprache der chemischen Verbindungen und die Sprache der DNA hervor. Wie ein Echo entsteht daraus auf höherer Ebene die ethnische Sprache und auf einer Metaebene die linguistische Struktur der Reproduktion, Variation und Selektion der kulturellen Replikatoren. Diese linguistische Struktur ist der Motor der memetischen Reproduktion kultureller Replikatoren. Diese algorithmisch rekursive Struktur ist natürlich nicht an Habermas und Luhmann anschlußfähig. Galilei ist ja auch nicht an Aristoteles anschlußfähig.

Die sozialen Replikatoren, Regeln im Sinne von Algorithmen, gespeichert in neuralen Mustern und Artefakten, zur Laufzeit kopiert von technischen und neuralen Automaten, erzeugen diachronisch eine Kette von Selektionsknoten (Parameter I), wobei sie synchronisch zum Zeitpunkt t aus dem Selektionsknoten t den Selektionsknoten t+1 erzeugen (Parameter II). Dem entspricht eine kontextfreie formale Sprache (K-Systeme), die aus dem Selektionsknoten zum Zeitpunkt t durch Anwendung von Produktionsregeln den Selektionsknoten t+1 erzeugt.

Dabei ist jeder Selektionsknoten ein Zeiger auf rekursiv ineinander verschachtelte K-Systeme. So kann wie mit einem Mikroskop in die Fallstruktur hineingezoomt werden. Die Menge der K-Systeme bilden eine Case Structure Modelling Language "CSML".

Die Approximation laesst sich beliebig nahe an die Transformation der sozialen Wirklichkeit annähern. Dabei werden den Produktionen Maße zugeordnet, die ihrer empirischen gesicherten Pragmatik/Semantik entsprechen. Sie bilden topologisch ein rekursives Transitionsnetz diskreter nichtmetrischer Ereignismengen ueber denen ein algorithmisches Regelsystem arbeitet. K- Systeme K sind formal durch ein Alphabet ( ), alle Worte über dem Alphabet ( A* ), Produktionsregeln ( p ) dem Auftrittsmaß h (Pragmatik/Semantik)und einer axiomatischen ersten Zeichenkette ( ) definiert:

 

Vom Axiom k0 ausgehend, erzeugt ein K-System eine Zeichenkette k0k1k2... indem die Produktionsregel  p auf das Zeichen i einer Kette angewendet wird:

Ein strenges Maß für die Zuverlässigkeit der Zuordnung der Interakte zu den Kategorien (vorläufige Formative da im Prinzip ad infinitum zu approximieren) ist die Anzahl der von allen Interpreten übereinstimmend vorgenommene Zuordnung (vgl MAYRINGl99O,S.94ff, LISCH/KR1Z1978,S.84ff). Dieser Koeffizient ist dann definiert mit:

N:= Anzahl der Interpreten

Z:= Anzahl der total übereinstimmenden Zuordnungen

Ii:=Anzahl der Zuordnungen des Interpreten Ii

"Bei den Geisteswissenschaften dagegen hat man manchmal den Eindruck, dass es mindestens ebenso wichtig ist, wie und vor allem von wem etwas gesagt wird. Nehmen wir beispielsweise Jürgen Habermas und seine (Entschuldigung, wirren) Ideen zum Gehirn im Speziellen und der Evolution im Allgemeinen. Weil er Habermas ist, nehmen viele seine Aussagen erst einmal ernst, und wenn sie sie nicht verstehen, suchen sie den Fehler bei sich selbst. Naturwissenschaftler würden, frei nach Wolf Singer, schlicht sagen: „Wo sind die Daten?“ oder auch „Geh doch mal ins Labor!“"

Meyer, A.: Crash der Wissenschaftskulturen: http://www.darwin-jahr.de/evo-magazin/crash-wissenschaftskulturen Handelsblatt, Donnerstag, 26. FEBRUAR 2009 | NR. 40 WISSENSCHAFT & DEBATTE http://www.evolutionsbiologie.uni-konstanz.de/files/resourcesmodule/@random498aaf5c84194/1235651370_HB090226.pdf

Diese Feststellung trifft natürlich auf Luhmann genauso zu.

"Konstruktivismus ist vielmehr ein Sonderfall von Metaphysik. Konstruktivismus ist subjektiver (oder "intersubjektiver", "sozialer") Idealismus.Der deutsche Idealismus hat es Luhmann vorgemacht: Kant, Hegel, Fichte und Schopenhauer beschreiben, wie sich Bewusstsein seine Welt schafft. Luhmann gibt zwar das mentalistische Vokabular: die Rede vom Bewusstsein auf, nicht aber den idealistisch-demiurgischen Ansatz. "

Krause, D.: Luhmanns Systemtheorie als Metaphysik http://www.lrz.de/~medkon/2401_krause.html

Und deshalb ist es kein Zufall, dass die Reproduktion und Transformation der Replikatoren dieser Subkultur eher an die Ordinationsriten und Initiationsriten einer Religion erinnern. Denn es geht nicht um Wissen, sondern um die Reproduktion ewiger Wahrheiten. Wie die höheren Beamten öffentlich-rechtlicher Religionsgemeinschaften verwalten Habermasjünger und Luhmannjünger ihre Metaphysik. Und untereinander und gegen die, die nicht glauben, führen sie Religionskrieg. Die Sozialwissenschaften haben ihren Galilei noch nicht gefunden. Das Elend des Historizismus lebt und treibt weiter sein schauriges Spiel. Anders als bei den öffentlich-rechtlichen Religionsgemeinschaften fällt aber nicht einmal als Nebeneffekt etwas Nützliches ab. Kritische Theorie und Konstruktivismus sind (Entschuldigung) reiner aristotelischer Humbug.

"Im starken Gegensatz zum methodologischen Naturalismus in der Soziologie behauptet der Historizismus, daß einige der charakteristischen Methoden der Physik in den Sozialwissenschaften nicht verwendbar sind, weil es tiefliegende Unterschiede zwischen der Soziologie und Physik gebe. "

Popper,K.: Das Elend des Historizismus, 1987,6.Auflage, Seite 5

Natürlich kann man sich bemühen, an Luhmann oder Habermas anschlussfähig zu bleiben und Luhmann oder Habermas zu algorithmisieren. Algorithmisieren kann man alle Artefakte, zum Beispiel die Astrologie oder das Schachspiel. Und man kann normative Agenten verteilter künstlicher Intelligenz, Zelluläre Automaten, neuronale Netze und andere Modelle mit heuristischen Protokollsprachen und Regeln modellieren. Das ist zweifellos theoretisch wertvoll. So wird es keinen soziologischen Theoriefortschritt geben. Gesucht ist eine neue Soziologie, die die Replikation, Variation und Selektion sozialer Replikatoren, gespeichert in Artefakten und neuralen Mustern, modelliert. Diese neue Soziologie wird an Habermas oder Luhman ebenso wenig anschlussfähig sein wie Galilei an Aristoteles. Und ihre basalen Sätze werden so einfach sein wie die newtonschen Gesetze. So wie Newton die Begriffe Bewegung, Beschleunigung, Kraft, Körper und Masse operational definierte, so wird diese Theorie die sozialen Replikatoren, ihre materiellen Substrate, ihre Replikation, Variation und Selektion algorithmisch und operational definieren und sequenzanalytisch sichern. Soziale Strukturen sind sprachlich codiert und basieren auf einem digitalen Code. Gesucht sind syntaktische Strukturen einer Kultur codierenden Sprache. Aber dies wird keine philosophische Sprache sein, sondern eine Sprache, die Gesellschaft codiert und erschafft. Diese Sprache codiert die Replikation, Variation und Selektion kultureller Replikatoren. Auf dieser Basis werden dann normative Agenten verteilter künstlicher Intelligenz, Zelluläre Automaten, neuronale Netze und andere Modelle andere als heuristische Protokollsprachen und Regelsysteme nutzen können, um die Evolution kultureller Replikatoren zu simulieren.

"Es geht nicht nur um die Überprüfung der Anwendungsbedingungen eines bestimmten Modells (z. B. die Erklärung der Organisation einer Revolution als Kollektivgutproblem), sondern – meist – um die Kombination ganz unterschiedlicher Situationstypen (und deren aggregierter Folgen), wobei diese Kombination‚ historisch‘ eher auf ‚Zufall‘ als auf einen ‚gesetzmäßigen‘ Verlauf insgesamt zurückzuführen ist. Es war wohl der zentrale Irrtum des Historizismus (und analoger makroskopischer Theorien sozialen Wandels), die konkreten Abläufe insgesamt aus einem Modell erklären zu wollen und als eine Art von gigantischem, komplett endogenisierbaren Ablauf zu verstehen, wobei es sich tatsächlich lediglich um die zufällige Kombination ganz verschiedener Abläufe handelt. Einzelne Teil-Prozesse und –Konstellationen lassen sich dann – möglicherweise – im o. a. Sinne modellieren; die gesamte Kombination des empirischen Einzelfalls indessen (in aller Regel) nicht."

Hartmut Esser, Klaus G. Troitzsch: Einleitung: Probleme der Modellierung sozialer Prozesse. In: Hartmut Esser, Klaus G. Troitzsch: Modellierung sozialer Prozesse. Informationszentrum Sozialwissenschaften, Bonn 1991.S. 9-12.

"Den Geistes-, Kultur- und Sozialwissenschaften ist ihr Gegenstand erst unter dem grundlegenden Aspekt der Sinnstrukturiertheit gegeben, und Sinnstrukturiertheit wiederum kommt ihrem Gegenstandsbereich erst aufgrund der Regelgeleitetheit von sozialem Handeln, nicht aufgrund des subjektiven Meines und Intendierens zu, wobei unter Regeln hier in scharfer Differenz zu Regularitaet oder Regelmaeßigkeit formal ein Äquivalent zu einem Algorithmus verstanden wird..."

Ulrich Oevermann, Die objektive Hermeneutik als unverzichtbare methodologische Grundlage fuer die Analyse von Subjektivitaet. Zugleich eine Kritik der Tiefenhermeneutik, In. Jung, Th., Mueller-Doohm, st. (Hg):>>Wirklichkeit<< im Deutungsprozess: Verstehen und Methoden in den Kultur- und Sozialwissenschaften, Frankfurt 1993, S. 115


"Normalerweise liegt eine Revolution vor uns und kuendigt sich mit »Getoese« an. Die Algorithmische Revolution dagegen liegt bereits hinter uns und nur wenige haben sie bemerkt - umso wirkungsvoller ist sie gewesen. Die Algorithmische Revolution begann um 1930 in der Wissenschaft, um 1960 in der Kunst. Inzwischen gibt es kaum noch einen Bereich unseres gesellschaftlichen und kulturellen Lebens, der nicht von Algorithmen durchdrungen ist: Technik, Transport, Haushalt, Banken, Wirtschaft, Kommunikation, Architektur, Literatur, Kunst, Musik."

Peter Weibel: http://www01.zkm.de/algorithmische-revolution/

 

"...das kognitiv richtige Denken verwandelt sich mit dem Ablauf der Zeit in Technologie im Gegensatz zum 'unrichtigen' Denken, welches die reale Welt - ohne es zu bemerken - transzendiert und Fiktionen schafft, wie philosophische Systeme, Weltanschauungen, Mythen und dergleichen."

Lem, St.: Vorwort im nachhinein, in: Ralf-Dirk Hennings u.a. (Hg.): Informations- und Kommunikationsstrukturen der Zukunft. Bericht anläßlich eines Workshops mit Stanislaw Lem, München 1983, S.9f.

"Text heisst jede durch eine Grammatik (Chomskygenerator) generierte Menge von Zeichenketten, unabhaengig davon, wozu wir sie verwenden. Abstrakt, als Texte sind sich ein Computerprogramm und ein Liebesbrief gleich. Wenn Text nicht mentalistisch abgehoben, eine „(schriftlich fixierte) im Wortlaut festgelegte Folge von Aussagen" (Microsoft 1995 (Duden-LexiRom)), sondern ein von Menschen intentional hergestelltes Produkt ist, kann man nicht nur nach seiner Verwendung oder Wirkung, sondern auch nach seiner Gegenstandsbedeutung (Holzkamp 1976:25ff) fragen. Die Gegenstandsbedeutung von Text ist nicht eine irgendwie geartete inhaltliche Bedeutung, die mittels Text uebermittelt werden soll, sondern die Bedeutung des gegenstaendlichen Textes selbst, also seine gegenstaendliche Funktion im uebergeordneten Prozess."


Rolf Todesco
Hypertext oder Was heisst Konstruktion im konstruktivistischen Diskurs?
in: Rusch, G. / S.J. Schmidt (Hrsg): Konstruktivismus in Psychiatrie und Psychologie, Delfin 1998/99, Suhrkamp, stw 1503, Frankfurt 2000

 

Der Kuenstler als Programmierer findet ein widerstaendiges Material. Dieses ist von vornherein semiotischer Art. Seine Widerstaendigkeit liegt folglich im Geistigen. Berechnungen gilt es zu organisieren, die zu Bildereignissen werden. Die Bewunderung fuer den Kuenstler, die wir aus seinem Bild heraus stets aufbringen wollen, findet ihren Anlaß in der Distanz, die er zum eigenen Werk eingeht und aushaelt. Deutlich ist die kuenstliche Kunst, die sich des Computers bedient, eine postmoderne Kunst, also eine Kunst, die zwar zu den Materialien gelangt, aber nicht von ihnen selbst, sondern von ihren semiotischen Spuren ausgeht...

Frieder Nake: "Mensch und Kunst im Computerzeitalter" http://www.emohr.com/ww1_out.html

Die Instruktionen und Anweisungen der unterschiedlichen Musik- und Kunstrichtungen lassen sich im Begriff des Algorithmus zusammenfassen. Ein Algorithmus ist eine streng definierte Handlungsanweisung mit finiten Elementen und einer determinierten Abfolge die einer Maschine oder einem Menschen mitteilt, was zu tun ist. Die Maschine folgt einer Folge von Ziffern und fuehrt das Programm aus, der Mensch folgt Buchstaben und Symbolen, sei es einem Kochrezept, einer musikalische Partitur oder den Regeln eines Spiels. Die intuitiven Algorithmen in Form von Gebrauchs- und Handlungsanweisungen setzten sich in den Kuensten parallel zur Entwicklung der Rechenmaschinen und Maschinensprachen und ihren algorithmischen Prozeduren durch.

Peter Weibel: http://www02.zkm.de/youser/index.php?option=com_content&task=view&id=16&Itemid=24

SEQUITUR is an algorithm that infers a hierarchical structure from a sequence of discrete symbols by replacing repeated phrases with a grammatical rule that generates the phrase, and continuing this process recursively. The result is a hierarchical representation of the original sequence, which offers insights into its lexical structure. The algorithm is driven by two constraints that reduce the size of the grammar, and produce structure as a by-product. SEQUITUR breaks new ground by operating incrementally. Moreover, the method's simple structure permits a proof that it operates in space and time that is linear in the size of the input. Our implementation can process 50,000 symbols per second and has been applied to an extensive range of real world sequences.

Craig G. Nevill-Manning Ian H. Witten http://www.sequitur.info inferring hierarchies from sequences 1997

 

Im 19. Jahrhundert ist das 20. Jahrhundert imaginiert worden als Technologie der Mobilisierung und Personalisierung. Mit PC und Handy etc. sind diese Phantasien eingetreten. Diese Technologien haben aber auch die Kunst veraendert. Die Geschichte der Betrachter von Kunst und der Besucher von Museen hat im 20. Jahrhundert neue Akzente erhalten. Nach 1945 hat in der Neuen Musik und in der bildenden Kunst die Partizipation des Publikums als Teil des Kunstwerkes eingesetzt.

User Art _ Nutzerkunst /// Peter Weibel: http://www02.zkm.de/youser/index.php

 

Memes are habits, skills, songs, stories, or any other kind of information that is copied from person to person. Memes, like genes, are replicators. That is, they are information that is copied with variation and selection. Because only some of the variants survive, memes (and hence human cultures) evolve. Memes are copied by imitation, teaching and other methods, and they compete for space in our memories and for the chance to be copied again. Large groups of memes that are copied and passed on together are called co-adapted meme complexes, or memeplexes.

Susan Blackmore: http://www.susanblackmore.co.uk/memetics/about%20memes.htm

Metzinger: Auch das Selbstmodell in Ihrem Gehirn ist jetzt schon rein virtuell. Der interessante Punkt ist gerade, dass Sie es nicht als Modell erleben koennen, sozusagen naiv-realistisch an seinem Inhalt kleben. Stellen Sie sich vor, wir entwickeln eine Bewusstseinstechnologie, durch die Sie sich erlebnismaeßig mit ihrer Second-Life-Figur identifizieren koennen. Ein Exodus des Menschen aus der Realitaet in die Virtualitaet ist keine ganz neue Idee. Die philosophische Frage waere: Wer oder was ist es ueberhaupt, das da auswandert?

Thomas Metzinger: http://www.zeit.de/2007/34/M-Seele-Interview?page=all

„Als Ich, als menschliche Wesen, sind wir alle aus Welt 3 hervorgegangen…“,

Popper,K.: Das Ich und sein Gehirn1989(10), München, S.144

„… wenn wir es doch sagen können, so geht es bloß darum, einen Algorithmus zu schreiben, der in Software implementiert werden kann.“

Metzinger,Th.: Der Ego.Tunnel, 2009, S.272

Geisteswissenschaftliche, spirituelle, konstruktivistische und therapeutische Ansätze sind mir fremd. Mead, Parsons, Weber, Simmel, Mannheim/Scheler, Berger/Luckmann, Maturana, Varela, Habermas und Luhmann habe ich hinter mir gelassen. Albert, Axelrod, Esser, Diekmann, Troitzsch, Popper, Brezinka, Rössner, Dawkins, Dennett, Hofstadter, Rucker, Blackmore überzeugen mich mehr. Persönlich bevorzuge ich eine linguistische evolutionäre Perspektive und die damit verbundene Modellierung kultureller Replikatoren mit formalen Sprachen. Aus der diskreten Struktur der Materie geht die linguistische Struktur der biologischen Evolution und die linguistische Struktur der kulturellen Replikatoren hervor. Ich bevorzuge deshalb einen algorithmischen Strukturalismus. Über die Entscheidbarkeit der GTG, 1994 Rekursive Strukturen und Prozesse, 1995 K-Systeme: Das Projekt ARS, 1994 Algorithmisch Rekursive Sequenzanalyse, 1996 ARS Fallstruktur, 1996 Oevermann, Chomsky, Searle, 1994