Category Archives: Dekonstruktion

Überlegungen zur Dekonstruktion des rational-antizipativen Planens in der (alt-)europäischen Tradition

Der folgende Blogpost geht auf ein Thema ein, das mich im IT-Kontext mit Blick auf sog. “agile” Entwicklungsmethoden (Extreme Programming, Crystal, Scrum, etc.) schon seit langem interessiert: die Dekonstruktion des rational-antizipativen Planens in der alteuropäischen Tradition (und ihre Fortschreibung bis heute) sowie die Suche nach “funktionalen Äquivalenten” zu dieser Herangehensweise.
Die nachfolgenden Überlegungen können als einen ersten Einstieg in dieses Thema angesehen werden. Eine IT-relevante Tieferlegung ist dann für das folgende Blogprojekt geplant, das mangels Zeit im Moment noch eine Baustelle darstellt: http://peteroncomplexity.wordpress.com/. Ich hoffe, daß sich dieser Zustand in Zukunft ändern wird. Und vielleicht finden hier auch Nicht-IT-affine Zeitgenossen  die eine oder andere interessante Information zu Fragen des Organisierens und des Managens (über die IT hinaus).

Bezugsproblem: The (wo)man with the plan
Wenn wir etwas organisieren oder (z.B. technisch) produzieren wollen, dann liegt es in der (alt-)europäisch-westlichen Tradition nahe, zu planen, zu planen und nochmals zu planen. Hierbei erfolgt ein Management von Komplexität, bei dem in den Sach-, Zeit- und Sozialdimensionen des Sinns Erkennen und Handeln, Zwecke und Mittel, Soll- und Ist-Werte, zeitliche Vorgaben (Beginn, milestones, deadlines, Verlängerungen, etc.), Personen, Rollen und Verantwortlichkeiten, usf. in bestimmte Zusammenhänge gebracht werden sollen.
Die Crux ist freilich, daß “antizipierendes Planen”, das in der Folge realisiert werden soll (= Umsetzung in Handlungen, Texte, Produkte aller Art), primär in stabilen Kontexten und bei einfachen bzw. bei komplizierten Problemstellungen, die sich elegant auf Einfaches zurückführen lassen, funktioniert. Sobald die Kontexte dynamisch sind (Beispiel im IT-Bereich: ständig wechselnde Anforderungen an ein zu erstellendes Softwareprodukt) und das spätere Produkt nicht antizipiert werden kann, weil niemand vorab weiß, wie das Endresultat aussehen kann (Motto: “I know it when I work with it), läuft ein antizipativer Planungsansatz tendenziell ins Leere:
* Es besteht die Gefahr der “analysis paralysis”.
* Pläne werden rasch zur Makulatur.
* Pläne sind ständig anzupassen im Sinne einer rollierenden Planung.
* Es werden Berge an Dokumenten (und Modellen) produziert, die ihrerseits nachzupflegen sind.
* Produkte und ihre Dokumentation divergieren zunehmend.
* Die Dokumentenexplosion führt zu einer Komplexität, die ihrerseits kognitiv / kommunikativ kaum zu verarbeiten ist.

Woher stammt dieser antizipative Planungsansatz?
Die antizipativ-planungsbasierte Weise des Komplexitätsmanagements kann in der europäischen Tradition bis zur griechischen Antike zurückverfolgt werden. Das zugrunde liegende Prozedere, das mutatis mu­tandis bis heute gilt und sich u.a. auf die Leitunterscheidung von “Erkennen / Handeln” bezieht, läßt sich dabei im Anschluß an Jullien(1999) wie folgt zusammenfassen [nachfolgende Zitate aus Bormann (2003), S. 4ff.]:
* Den Ausgangspunkt bildet eine “ideale Zwecksetzung” (traditionell: die Abstrak­tion von einer ontologischen Idealform (eîdos), heute: eine Soll-Vorgabe) die als Mo­dell oder (Handlungs-)Plan ausgearbeitet wird.
* Diese “Logik” der Modellierung, bei der ein Modell / Plan zu entwickeln und in die Zukunft zu projizieren ist, bzw. diese “Logik” der Inkarnation, bei der sich eine Pro­­jekt-Idee in der Zeit konkretisieren soll, ist erkenntnis- und theoriegeleitet. Die Hand­lungen sollen also nicht einfach spontan (ohne Theorie, ohne Plan, ohne klare Bestimmung der Ziele und der Mittel, etc.) erfolgen.
* Zwecksetzung, Modellierungs- und Planungstätigkeit weisen Entscheidungscharakter auf: Die Entscheidung betrifft die Selektion der Soll- und Ist-Vorgaben, die Ausarbeitung der Modelle und Pläne, die Wahl der geeigneten Mittel und generell: die Entscheidung, via Handeln in der Wirklichkeit zu intervenieren.
*   Die Entscheidung geht einher mit der Notwendigkeit, Handeln zuschreiben zu können. Daher ist eine Instanz vorauszusetzen, die frei ist, zu entscheiden, so daß Verantwortung und Schuld für das Handeln “dem Individuum” an­ge­rechnet wer­den kön­nen. Diese Instanz wird in der alteuropäischen Tradition “Wille” genannt.
  *   Der Wille setzt das Modell / den Plan als Ziel (télos). Der Wille war seit Aristoteles aber nicht nur die (Entscheidungs-)Fähigkeit, das gewünschte Ziel zu erreichen, son­dern zugleich und vor allem die Fähigkeit, das Gute zu wollen (boulesis) [Jullien (1999), S. 56]. Die Zweck- bzw. Ziel-Beschaffenheit war in der griechischen An­tike also mo­ralisch eingehegt, was wiederum der selbstverständlichen Wahrheits­geltung der Zwecke zuarbeitete.
*    Ein zweiter Aspekt der Entscheidungsfähigkeit bezieht sich auf die moralisch neutrale, rein technische Dimension der Auswahl und des Einsatzes der geeigneten Mit­tel. Diese mittelbezogene Entscheidungsfähigkeit wurde bei Aristoteles als proairesis bezeichnet.
Die Kopplung der Leitunterscheidungen Erkennen / Handeln und Medium (Sprache)/ Welt (Wirklichkeit) verweist nun auf eine “Kluft”, die sich zwischen Erkennen (Setzen der Soll-Vorgabe, Modellieren, Planen) bzw. Theorie und Wirklichkeit bzw. Praxis auf­tut. “Die” Wirklichkeit im Sinne von natürlichem Objektpol als auch von sozialem Gegenhandeln wird dann als dem voluntaristischen, erkenntnis- und theoriegeleiteten Handeln Widerständiges angesehen. Das hat verschiedene Konsequenzen:
Erstens wird die Erkenntnis- und Theoriekomponente betont. Die Planungs-, Modellierungs- und Prognoseaktivitäten werden vielfältiger, gerade weil Blockaden, Widerstände, das mögliche Scheitern, Situationsveränderungen, etc. antizipativ berücksichtigt wer­­­den sol­len. Das bedeutet, nicht nur Ersatz- und Notfall-Pläne, best– und worst-case-Sze­na­rien, u.ä. zu entwickeln, sondern auch die Pläne, Modelle und Prognosen rasch an neue Gegebenheiten anzupassen. Insgesamt gesehen liegt der Akzent also auf Proaktivi­tät.
Zweitens wird der Voluntarismus forciert. Sich gegen das Widerständige zu behaupten bzw. es zu bezwingen verlangt verstärkte Willensanstrengung, persönliche Initiative, die Aufbietung aller geistigen und körperlichen Kräfte, etc.
Drittens wird beim Handeln selbst angesetzt, so daß es zu einem permanenten Aktivismus kommen kann.
Gleichwohl ist im (alt-)europäisch-westlichen Kategorien”system” die besagte Kluft nicht wirklich zu beseitigen. Bestimmte “Residual”begriffe können dann nur ihrer Bear­­beitung bzw. Reduzierung dienen.
Hierzu gehört seit Aristoteles ein “praktisches Vernunftvermögen” (die phrónesis), das sich am situativen Einzelfall, an günstigen Gelegenheiten, an der passenden Zweck-Mit­tel-Abstimmung, etc. orientiert. Diese praktische “Klugheit” sollte als spezielle In­tel­li­genz der kontingenten (= zufällig-wahrschein­lichen), situativ-variablen und riskanten Hand­lungsdimension entsprechen. Allerdings ohne in amoralische, rein am persönlichen Erfolg und Vorteil orientierte “Gerissenheit” (im Sinne der metis) abzudriften. Der in der griechischen Antike einsetzende Moralisierungsschub beinhaltete daher eine Aus­­gren­­zungs­ar­beit gegenüber der metis einerseits, gegenüber den sich an der metis ori­en­tierenden So­phi­sten andererseits.
Den Hauch des Amoralischen, des Ruchlosen und der malicia konnte diese radikal erfolgs­­orientierte, flexibel-listig-wendige Intelligenzform in der (alt-)europäisch-west­li­chen Tradition nicht mehr ablegen. Durch eine moralische Diskreditierungs- und Margi­na­lisierungsarbeit wurde sie daher in der Folge   zum (macht-)politischenArkanum,          in das kriminelle Milieu von Gaunern, Trickbetrügern, etc. verlegt,  oder existenziellenAusnahmesituationen, in denen moralische Bedenken zurückgestellt werden, vorbehalten.
[…]
Abgesehen von der “praktischen Rationalität” kamen noch weitere Residualkonzepte zum Einsatz, um die Kluft zwischen Erkennen und Handeln, Theorie und Praxis, Spra­che und Welt / Wirklichkeit zu verringern: Zum einen am Individuum fest­zuma­chen­­­­de Qualitäten wie Erfahrung / Routine, Charakter, Talent oder Genialität; zum anderen Unvorhersehbarkeiten wie Zufall, (Un-)Glück oder kairós (die auf die Handlungssphäre bezogene Zeit der günstigen und flüchtigen Gelegenheiten). Diese Unvorhersehbarkei­ten wurden als nicht zu beseitigende (“irrationale”) Störgrößen mit Ereignischarakter angesehen, die über das gesamte Wohl oder Wehe einer Unternehmung entscheiden konn­­ten. Aus diesem Grunde mußte letztlich auf das Schicksal bzw. den göttlichen Beistand, der sich auch in Gestalt von Wittgensteins “Engel” manifestieren konnte, vertraut wer­den.
Wille und Handeln müssen sich aber nicht nur gegen die natürlich-soziale Wirklichkeit als Widerständiges behaupten und durchsetzen. Sie fungieren auch selbst als Widerstands­erzeuger. Denn die Entscheidung, in die Wirklichkeit einzugreifen bzw. die Initiative zu ergreifen, schlägt sich in einem sichtbaren Handeln nieder, durch das eine Situation explizit bestätigt oder umgestaltet werden soll. Dieses Handeln kann nicht nur einem Individuum als Ursache, Verantwortung und Schuld zugeschrieben werden, es ist auch “auf­dringlich”: kühn bis riskant, zwingend bis gewaltsam, mitunter spektakulär, heroisch bis tragisch, etc.
Solch ein sichtbares und explizites Handeln, zumal wenn es mit einer entsprechenden Selbststilisierung einhergeht, zieht Aufmerksamkeit auf sich. Es beschwört bestimmte so­­ziale Erfahrungen wie Neid, Rivalität, Konkurrenz, etc. und damit alle möglichen Ar­ten des Widerstands (Blockieren, Obstruieren, Verschleppen, usf.) her­auf. Das kann wie­­­­­derum den Voluntarismus, den sich selbst verausgabenden Aktivismus und bestimm­­­­­­te Selbst-Erfahrungen (die Lust am Abenteuer oder am Risiko, die Freu­de am Un­bekannten, usw.) nähren, die noch mehr Widerstand erzeugen.
Aus der Sicht der altchinesischen Strategietradition kann das nur bedeuten, daß es letzten Endes im Westen nicht unbedingt auf radikale strategische Wirksamkeit als vielmehr auch (und vor allem?) darauf ankam, sich als besonderes Individuum in dieser Wi­derstands- und Selbststilisierungsarbeit zu konstituieren bzw. als “lebendig” zu erfah­ren [vgl. Jullien (1999), S. 262].
[Zitat-Ende].

Obige Weichenstellungen haben dann entsprechende Folgen für die Ausarbeitung der (alt-)europäischen Konzeptionen von Strategie (Wirksamkeit, Listigkeit, Gerissenheit, etc.), Macht / Einfluß und Moral gezeitigt [für Details siehe Bormann (2003).  Zur altchinesischen Alternativkonzeption siehe vor allem Jullien (1999)].  Sie haben aber in der Folge generell auch das antizipierende, an Zwecken und Mitteln orientierte Planen, Modellieren und Managen in der Wirtschaft, in der Politik, in der Technik, im Krieg, etc. beeinflußt.
Das berühmte Bienen-Baumeister-Beispiel von Karl Marx kann nun als Fortschreibung dieser (alt-)europäischen Traditionslinie angesehen werden:
“[…] eine Biene beschämt durch den Bau ihrer Wachszellen manchen menschlichen Baumeister. Was aber von vornherein den schlechtesten Baumeister vor der besten Biene auszeichnet, ist, dass er die Zelle in seinem Kopf gebaut hat, bevor er sie in Wachs baut. Am Ende des Arbeitsprozesses kommt ein Resultat heraus, das beim Beginn desselben schon in der Vorstellung des Arbeiters, also schon ideell vorhanden war.” – Karl Marx, Das Kapital. Band 1, MEW 23, S. 193 [http://de.wikiquote.org/wiki/Biene].
Das heißt, die “Materialisierung des Ideellen” als Realisierung der Vorstellung einer “Wachszelle” umfaßt:
* Eine ideale Zwecksetzung = Sollvorgabe in Form eines (u.U. nur gedachten) Modells oder Plans der Wachszelle.
* Die Realisierung des entsprechenden Plans / Modells erfolgt theorie- und erkenntnisgeleitet, also nicht irgendwie zufällig-spontan und beliebig.
* Es sind Entscheidungen notwendig (Soll-Ist-Vorgaben, Zweck-Mittel-Setzungen, etc.).
* Es wird ein “Wille” zur intentionalen Zielerreichung zugeschrieben.
* Die Realität (hier: das “Wachs”) wird als Widerständiges angesehen, gegen das gehandelt wird (Einprägung einer Wachszelle).
In dieser (alt-)europäischen Traditionslinie kommt es also auf Rationalität, Intentionalität, Antizipation / Proaktivität, Dezision, Voluntarismus und Handeln / Handlungsfähigkeit an, wobei im vormodernen Kontext eine an stabilen Identitäten orientierte, ontologische Beobachtungsweise dominierte.Was in dieser antizipativ-planenden Weise des Komplexitätsmanagements dann systematisch marginalisiert wurde, waren u.a.:
* Prozessuales, v.a. als dynamische und hochvariable Änderungen, z.B. in den Planungsanforderungen, oder im strategisch-taktischen Gegenhandeln durch andere,
* situationsspezifische Eigenheiten, die sich dem Allgemeinen entziehen,
* “information overload” / “analysis paralysis” durch zu viel (kognitive) Komplexität,
* Zufällig-Spontanes.
Hierbei mußte sich  an der “Kluft” zwischen Soll und Ist, Erkennen und Handeln, Theorie und Praxis, Medium und Welt  systematisch und planungsbasiert abgearbeitet werden  Planen hatte vor diesem Hintergrund zentrale latente Funktionen:
* Erstens als Mittel, um sich mit einer bestimmten thematischen Komplexität vertraut zu machen (= Informationssammlung, u.ä.).
* Zweitens als Mittel, um sich für Nicht-Planbares zu “sensibilisieren” (= Abweichungssensibilität entwickeln und steigern, so daß ein Nachjustieren permanent möglich wird).
* Drittens als Legimationsgrundlage, z.B. im Falle des Scheiterns eines Projekts.

Funktionale Äquivalente zur antizipativen Planung
Es zeigt sich heute zunehmend, daß für komplexe, explorative und dynamisch variable Projekte ein antizipativ-planungsbasiertes Vorgehen im traditionellen Sinne wohl inadäquat ist. Das Scheitern größerer Projekte gerade in der IT ist daher m.E. kein Zufall und nicht einfach nur auf individuelle Fehler, Inkompetenzen, u.ä. zurückzuführen, sondern hängt grundlegend mit dem antizipativ-planungsbasierten Management von Komplexität in solchen Projekten zusammen. Das ist zumindest die These.

Welche Alternativen existieren nun für das Management obiger Projektvarianten?
Eine interessante Frage ist, ob die alt-chinesische Wirksamkeitstradition à la Jullien, die sich primär auf Prozessualitätsaspekte im Sinne einer Transformationsdynamik, einer sich invisibilisierenden Transformationsarbeit (“Nicht-Handeln”), etc. fokussiert, auch für Software-Entwicklung und (Projekt-)Management fruchtbar gemacht werden kann. Das ist dann ein Themenstrang, der im eingangs erwähnten Peteroncomplexity-Blogprojekt weiter verfolgt werden soll.
Konkretere Alternativen wurden seit vielen Jahren im IT-(nahen) Umfeld durch sog. agile Ansätze wie Extreme Programming (XP) ausgearbeitet und auch konkret erprobt [siehe http://de.wikipedia.org/wiki/Agile_Softwareentwicklung].  Der Schwerpunkt wird hier verlagert weg von der antizipativen Planung und der zugehörigen Dokumentenexplosion hin zur Prozessualität im Sinne
* von oraler Kommunikation als Paar-Programmierung unter Entwicklern und als direkte Einbindung von Kundenvertretern in ein konkretes IT-Projekt,
* von Benutzer-Stories [siehe http://de.wikipedia.org/wiki/Story-Card], die die Anforderungen erfassen, die in der Software realisiert werden sollen – ohne daß hier eine vollständige Antizipation im Vorfeld angestrebt wird,
* von schneller Erstellung eines funktionsfähigen Programms, bei der ein test-first / code-later-Ansatz mit zugehörigen Code-Umbauarbeiten (sog. “Refactorings”) und kontinuierlicher Integration (als ständiger Erstellung einer ablauffähigen Testversion eines Programms) im Sinne der testgetriebenen Entwicklung verfolgt wird, so daß schnell und flexibel auf Kundenfeedback und Änderungswünsche eingegangen werden kann.
Graduell wird hierbei die Komplexität eines Softwareprodukts aufgebaut, ohne daß diese Komplexität antizipativ analysierend und planend vorab zu kalkulieren gewesen wäre.
Mit anderen Worten: In agilen Ansätze wie XP wird die  Zeitdimension (als milestones / deadlines) wie in planungsbasierten Ansätzen möglichst konstant gehalten, aber die Sozialdimension als oral-interaktionale Feedback-Dynamik wird gegenüber der früheren Dokumentenzentrierung aufgewertet. In der Sachdimension kommen zugleich inkremementelle Redeskriptionprozesse im Sinne testbasierter Refactorings plus ständiger Integrationen mit Blick auf die Erstellung abläufiger Programme zum Tragen.

Ein Beispiel zur Veranschaulichung:
Ein Sachtext kann geschrieben werden, indem zu einem Thema möglichst viel Informationsmaterial gesammelt, eine erste Gliederung und ein Zeitplan aufgestellt werden. Im Laufe der Zeit kommt neues Informationsmaterial hinzu, anderes wird verworfen, die Gliederung und der Zeitplan müssen überarbeitet werden. Ganz am Ende steht ein Text, der dann von Betreuern / Lektoren begutachtet werden soll. Bevor mit dem konkreten Schreiben begonnen wird, wird also zuerst extrem viel Informationsmaterial verarbeitet, ohne daß dessen Relevanz vorab vollständig klar sein wird.
Ein agile Schreibvariante würde zwar auch einen Zeitplan aufstellen, aber mit dem Schreiben sofort beginnen. Das heißt, eine Gliederung wird an verschiedenen Stellen rasch ausformuliert. Betreuer / Lektoren erhalten nun frühzeitig Kurzfassungen zugesandt mit Bitte um Feedback. Diese Feedbackwünsche und die graduelle Erarbeitung weiteren Informationsmaterials werden danach in die textuelle Überarbeitung integriert. Der Text entsteht dabei durch mehrere (überschaubare) Zyklen der  Lektüre, der Redeskription und des Feedbacks bis schließlich eine Schlußfassung vorliegt, die als (provisorisch) endgültig angesehen wird.
Vorteile dieses agilen Vorgehens:
* Die Komplexität des Themas kann so bearbeitet werden, daß frühzeitig konkrete Textpassagen vorliegen, was der eigenen Motivation und der kognitiv-gedächtnismäßigen Entlastung zugute kommt.
* Feedback kann frühzeitig eingebaut werden.
* Die Durststrecke “zuerst extrem viel lesen und dann spät etwas schreiben” wird ersetzt durch eine Vielzahl kürzerer Lesen-Schreiben-Feedback-Zyklen.
* Thematische Komplexität wird nicht antizipativ aufgebaut, sondern beruht auf den Erfahrungen aus Schreib-, Lese- und Feedback-Zyklen, wobei es zu ständigen Transformationen kommt.

Marxens Baumeister verwandelt sich vor diesem Hintergrund von einem ab einem gewissen Komplexitäts- und Prozessualitätsgrad zum Scheitern verurteilten Informationsprozessor zu einem prozessual orientierten, zufalls- bzw. überraschungssensiblen, graduell-inkrementell die Komplexität steigernden Umschreiber (Redeskriptor).

Referenzen:
Bormann, P. (2003), Über Strategie. Die Wirksamkeitstraditionen Alteuropas und Altchinas im systemtheoretischen Vergleich, URL:  http://www.fen.ch/texte/gast_bormann_strategie.pdf

Jullien, F. (1999, frz. 1996), Über die Wirksamkeit, Berlin: Merve..

Borg[(e)n] / Pattern recognition / Zeichen / Medien-Welt-Dualismus

Insofern wir uns in der letzten Zeit  immer wieder an der Relation von Materialität und Zeichen sowie dem Dualismus von Medium und Welt gerieben haben, soll nachfolgend einmal versucht werden, diese Themen etwas tiefer zu legen. In drei Blogposts sollen daher die folgenden Fragen behandelt werden:
Frage 1: Pattern recognition – Wie erkennen wir “Muster”? Essentialistische und nicht-essentialistische Kategorisierungsstrategien.
Frage 2: Ist “Signifikantenmaterialismus” beim Prozessieren von Zeichen möglich?
Frage 3: Wie ist der “Dualismus von Medium und Welt” zu beschreiben und welche Möglichkeiten der Aushebelung existieren? 

Frage 1: Pattern recognition – Wie erkennen wir “Muster”? Essentialistische und nicht-essentialistische Kategorisierungsstrategien.
(Menschliches) Wahrnehmen ist ein sehr komplexer Vorgang, wie schon ein oberflächlicher Scan des entsprechenden Wikipedia-Artikels zeigt (http://de.wikipedia.org/wiki/Wahrnehmung).  Fuchs (2005) hat dabei Wahrnehmen (aus Sicht der soziologischen Systemtheorie) u.a. charakterisiert als:

  • Externalisierungsleistung eines neuronalen Systems, dessen Funktionsweise im Prozeß des Wahrnehmens selbst ausgeblendet wird.
  • Strikte Präsenzorientierung, also: keine Möglichkeit, zwischen Gegenwart, Vergangenheit und Zukunft in der Wahrnehmung zu differenzieren.
  • Kompaktheit der Wahrnehmung.
  • Keine Negationsfähigkeit (es gibt keine perzeptuelle Möglichkeit, das Wahrnehmen während des Wahrnehmens zu verneinen).
  • Simultaneität der Wahrnehmung.

Wahrnehmungs- und kognitionspsychologisch könnten weitere Merkmale für Wahrnehmen wie Kontext- und Erfahrungsabhängigkeit, Filtereffekte, etc. angeführt werden. Aber auf weitere Details sei an dieser Stelle verzichtet, siehe jedoch http://de.wikipedia.org/wiki/Wahrnehmung für eine Groborientierung.
Aus Sicht der Fuchs`schen Spielart der soziologischen Systemtheorie schreibt sich dann Bewußtsein kommunikationsinduziert in die Wahrnehmungsverarbeitung der Psyche ein, so daß im Rahmen eines sog. “différance-basierten Nachtragsmanagements” eine Verarbeitung von Unterscheidungen (2-Seiten-Formen, Zeichen, marks) möglich wird.
Oder anders formuliert: Bewußtsein bedient die Funktion eines differentiellen Interfaces, das emergiert als Folge der “Stimulation” der psychischen Wahrnehmungsverarbeitung durch soziale Kommunikationsversuche.  In der Folge ist es Bewußtseinsprozessoren möglich, diverse Zeithorizonte zu unterscheiden sowie semiotisch über Generalisierungs-, Spezialisierungs- und Negationsmöglichkeiten zu verfügen. Zugleich wird die (analoge) Simultaneität der Wahrnehmung überführt in eine (digitale) Sequentialität des Unterscheidungsgebrauchs (der Semiose), so daß es zu einer  “Informationsraffung” (Reduzierung der wahrnehmungsmäßigen Komplexität durch semiotische Abstraktion) kommt.
Peter Fuchs bezieht sich dabei i.a. auf (orale, skripturale, etc.) Sprachzeichen. Aber das scheint mir eine unnötige Verengung zu sein, so daß ich die Bewußtseinsfunktion generell mit der Fähigkeit zur Semiose (Konstitution und Verarbeitung aller möglichen Zeichen) gleichsetzen würde, obgleich Sprachzeichen hierbei eine große (vielleicht die wichtigste) Bedeutung zukommt.
Vor diesem Hintergrund sei nun folgende Frage formuliert, die sich auf das Problem der Kategorisierung bezieht: Wie ist es möglich, daß ein System psychischer Wahrnehmungsverarbeitung angesichts einer Unzahl visueller Variationsmöglichkeiten (A  A A A A A A A A A etc.) immer einen Buchstaben wie z.B. “A” wahrnehmen  bzw. erkennen kann?
Essentialistische Ansätze (Schablonentheorie, ein Platonismus der von topologischen oder gruppentheoretischen Invarianten ausgeht, usf.) folgen dabei der Logik, daß Muster (z.B. als Schemata, Typen, Kategorien, Klassen, etc., die u.U. angeboren seien) nur verschieden aktualisiert werden. Das heißt in diesem Fall: eine Ur-Gestalt / Invariante / ein Wesen von “A” würde in Form von verschiedenen Variationen stets (re-)aktualisiert.
Wenn diese variierende Repetition des Selben möglich wäre, dann könnten alle vorstellbaren Buchstabenformen durch eine begrenzte Zahl von veränderlichen Parametern auch durch Computer simuliert werden. Als Beispiel für eine solche essentialistische Kategorisierungsweise siehe Donald E. Knuths  “Meta-Schrift-Konzeption” und die zugehörige Kritik von Hofstadter (1988).
Zentrale Probleme dieser essentialistischen Logik sind freilich:

  • Wie sollen alle möglichen Muster und ihre Variationen im (menschlichen) Gedächtnis gespeichert werden, ohne schnell an Kapazitätsgrenzen zu stoßen?
  • Wie soll ein starres und festes System von Regeln angegeben werden, um Kategorien (bspw. von “A”) in allen möglichen offenen Kontexten und in allen möglichen Variationen zu definieren?
  • Wie soll eine nicht-differentielle Identität von Kategorien angegeben werden können?  Aus differentieller Sicht liegt eher die These nahe, daß sich die Identität von  A (negativ) im Unterschied zu anderen Buchstaben des Alphabets (B, C, D, etc.) im Rahmen des jeweiligen Fonts ergibt.
  • Verweist die essentialistische Variations- und Aktualisierungslogik nicht auf einen Possibilismus, der Unendlichkeit zu determinieren beansprucht, was letztlich einem nicht vorstellbaren, weil endgültig geschlossenen (Meta-)Kontext entspräche? 

Wie sehen demgegenüber nicht-essentialistische Lösungen des Kategorisierungsproblems aus?
Beispiel 1: Mit Blick auf Wittgenstein II kann das Konzept der Familienähnlichkeit herangezogen werden. Das heißt, daß nicht mehr von variierenden Aktualisierungen einer Ur-Kategorie “A” auszugehen ist, sondern Vergleichsoperationen bei der Buchstabenerrechnung zum Einsatz kommen: Variationen – ohne Annahme irgendeiner Ur-Kategorie – werden untereinander als ähnlich in dieser oder jener Beziehung verglichen, wobei sich die Kriterien für Ähnlichkeit je nach Kontext und in der Zeit verändern können. [Hier könnte hinzugefügt werden, daß sich die Buchstaben-Identität zugleich negativ-differentiell ergibt durch Nicht-Ähnlichkeit mit anderen Buchstabenarten].

Beispiel 2: Mit Derrida kann auf das Konzept der itérabilité verwiesen werden, so daß sich erst durch die alterierende Wiederholung in je offenen (i.e. ungesättigten) Kontexten eine ideelle Identität (als post-festum-Idealisierung) ergibt. Oder anders gesagt: jede Wiederholung in stets veränderten Kontexten beinhaltet ein (minimales) Anderswerden des Wiederholten. Das sprengt eine essentialistische Logik der variierenden Aktualisierung des Selben, die letztlich auf kontrollierter Repetition in geschlossenen Kontexten beruht.

Referenzen:

  • Fuchs, Peter (2005), Die Form des Körpers, in: Schroer, M. (Hrsg.), Soziologie des Körpers, Frankfurt a.M. 2005, S.48-72 [online verfügbar unter: http://www.fen.ch/texte/gast_fuchs_koerper.htm].
  • Hofstadter, D.R. (1988), Metaschrift. Metamathematik und Metaphysik: Bemerkungen zu Donald Knuths Artikel “The Concept of a Meta-Font“, in: ders. (1988), Metamagicum, Stuttgart: Klett-Cotta, S. 267ff.
  • Für einen Vergleich von essentialistischen und nicht-essentialistischen Ansätzen zu Sprache / Zeichen / Kategorien, siehe die Beiträge in Krämer, S. (2001), Sprache, Sprechakt, Kommunikation. Sprachtheoretische Positionen des 20. Jahrhunderts, Frankfurt / M.: Suhrkamp.

Vergleich von Technik-Theorien

Als Co-Blogger (neben Rolf Todesco) möchte ich hier zu Beginn des kybernetics-Blogs einige Ideen formulieren, die wir vielleicht in Anschlußdiskussionen durchspielen können:

Ausgangsüberlegung: Ein zentrales Kennzeichen der modernen Gesellschaft (ca. 1750 – heute) ist die zunehmende Technisierung aller Lebensbereiche (Kommunikationsmedien, Wirtschaft, Medizin, etc.). Überraschenderweise hat die Systemtheorie Bielefelder Schule (Niklas Luhmann, Dirk Baecker, Peter Fuchs, usf.) als eine der komplexesten Theorien, die in der Soziologie jemals entwickelt wurden, überraschend wenig zu diesen umfassenden Technisierungstendenzen zu sagen.
Wenn Technisches seit einiger Zeit zum Thema wird, dann vor allem als Digitalisierung bzw. Computerisierung. Diese systemtheoretische Überlegung bewegt sich freilich auf der Ebene der Kommunikationsmedien und wird bspw. mit der These kurzgeschlossen, daß die gesellschaftsweite Durchsetzung eines neuen Kommunikationsmediums (Schrift, Buchdruck und jetzt das digitale Medium) zu einer Informationsexplosion führen kann, die die jeweilige Gesellschaftsformation (segmentierte, ständische und funktional ausdifferenzierte Gesellschaft) überfordert. In der Folge dieser quasi-entropischen “Katastrophe” werden soziale Anpassungsprozesse ausgelöst, die in eine neue Gesellschaftsformation einmünden können. Paradebeispiel: Der Buchdruck als Geburtshelfer der modernen, funktional ausdifferenzierten Gesellschaft.
Dementsprechend hat gerade Dirk Baecker in jüngster Zeit eine soziologische Diskussion in Gang gebracht, die zu thematisieren sucht, inwiefern die umfassende Digitalisierung der Moderne in eine “next society” (= eine Leerstelle) einmünden könnte.
Was mir (und wohl auch Rolf) dabei theoretisches Unbehagen bereitet, ist die Tatsache, daß Technisches bei diesen Überlegungen weiterhin “marginalisiert” wird.  Denn wir haben es nicht nur mit dem computerbasierten Auslösen von Irritationen in Bewußtseinsprozessoren und in sozialen (kommunikationsbasierten) Systemen (also: Interaktionen, Funktionssystemen mit den zugehörigen Organisationen und Familien), sondern auch mit Interventionen zu tun in neuronalen und zerebralen Systemen (bspw. als Gehirn-Computer-Interfaces), in biologischen Systemen (z.B. als biotechnologische Manipulation von Genen) und, generell, in sonstigen belebten (biotischen) und unbelebten (abiotischen) Umwelten, bspw. durch nanotechnologische Verfahren.
Kurzum: Die moderne Gesellschaft ist eine technisch-industrielle Gesellschaft, die im Vergleich zu älteren Gesellschaftsformationen die primäre Abhängigkeit von der Natur durch die primäre Abhängigkeit von Technik ersetzt hat – so zumindest die Ausgangsthese im Anschluß an Niklas Luhmann.

Wie nähern wir uns am besten der Technisierung der modernen Gesellschaft an? Ich möchte hierzu zwei Vorschläge machen:
Vorschlag 1: Bislang konnte die Bielefelder Systemtheorie den Nachweis eines modernen Funktionssystems “Technik” (analog zur Wirtschaft, zum Recht, zur Politik, zu den Massenmedien, usf.) nicht plausibel erbringen. Allerdings mußte ein entsprechender Versuch in der Luhmann-Mailing Liste 2007 mangels Zeit vorzeitig abgebrochen werden. Ich möchte daher dazu einladen, diesen Versuch nochmals zu wagen. D.h. konkret:
Erstens muß eine Prüfung funktionssystemspezifischer Kriterien (Code, Programm, symbolisch generalisiertes Kommunikationsmedium oder ein Äquivalent, etc.) erfolgen. Zweitens sollten bisherige systemtheoretische Versuche, das Technikphänomen zu thematisieren (Technik als Medium / Form, etc.), nochmals studiert werden.  Vorschlag 2: Technik ist ein komplexes Phänomen, zu dem sowohl verschiedene Theorien als auch unterschiedliche Disziplinen (Technikphilosophie, Techniksoziologie, Informatik, etc.) etwas beizutragen haben. Es liegt daher nahe, mit mehreren Technik-Ansätzen (u.a. in einer funktionalen Vergleichsperspektive) zu experimentieren.
Neben der bereits angesprochenen Systemtheorie Bielefelder Schule wären das insbesondere:
Rolf Todescos kybernetische Thematisierung von Technik,
Hans-Dieter Bahrs nicht-essentialistischer Maschinen-Ansatz (“Über den Umgang mit Maschinen”, Tübingen: Konkursbuchverlag 1983),
Technik-Überlegungen des Ende 2011 (leider viel zu früh) verstorbenen Friedrich Kittler,
Technikproblematisierungen der (Medien-)Philosophin Sibylle Krämer.
Warum gerade diese fünf Ansätze und keine anderen?  Nun, Rolf und ich könnten auf die Devise “our blog – our castle” verweisen, so daß wir einfach das studieren, was wir für spannend halten. Aber abgesehen von diesen persönlichen Präferenzen dürften diese Ansätze ausreichend unterschiedlich sein, um heterogene Zugangsweisen zum Phänomen “Technik” zu ermöglichen.
Das schließt freilich die Hinzunahme weiterer Technik-Ansätze, je nach Interesse, keineswegs aus – auch wenn mein persönlicher Fokus die Ausarbeitung eines form- und systemtheoretischen Technik-Ansatzes (mit Blick auf ein Funktionssystem “Technik”) sein wird.

Ein dritter Aspekt betrifft die Diskussion von Materialität: Traditionell werden Werkzeuge / Maschinen (wie auch Zeichen) mit Hilfe der Leitunterscheidung “ideell / materiell” thematisiert. Mit der Form- und Systemtheorie Bielefelder Schule und ihrem sogenannten “operativen Konstruktivismus”, also: dynamisch prozessierten Unterscheidungen, die beobachterrelativ Realitäten bzw. etwas als etwas konstruieren, ändert sich das: Formen in einem Medium, v.a. Zeichen, werden von Bewußtseinsprozessoren und  Kommunikation  “errechnet” und prozessiert.
Hierbei kommt dem Bewußtsein, zumindest wenn man der systemtheoretischen Variante von Peter Fuchs folgt, eine zentrale Funktion zu: Diese Systeminstanz kann im Unterschied zu Kommunikation psychische Wahrnehmungen zu Semiosezwecken nutzen, so daß in der strukturellen Kopplung von Bewußtseins- und Kommunikationssystemen Formen (u.a. Zeichen) prozessiert werden können.
Dabei kommen Vergleichs-, Abstraktions-  und Assoziationsvorgänge zum Tragen, so daß Zeichen – im Widerspruch zum common sense – nichts Materielles darstellen.
Formen bzw. Zeichen entsprechen wie die dynamisch-selbstreferentiellen Systeme “Bewußtsein” und “Kommunikation” vielmehr nicht-ontologischen Entitäten, d.h. sie sind nicht  (weder einfach an- noch abwesend). Man könnte hier mit Verweis auf Peter Fuchs auch von transklassischen Objekten sprechen, für die bspw. Raum-Metaphern ungeeignet sind.
Eine Frage ist dann: Können technische Formen einen analogen (nicht-materiellen) Status wie Medienformen (Zeichen, etc.) besitzen?
Eine andere Frage ist: Materielles kommt im operativen Konstruktivismus der soziologischen Systemtheorie nicht vor. Es läuft als materielles Substrat ähnlich wie der Horizont-Begriff “Welt” im unterscheidungsbasierten Prozessieren eher implizit mit. Aber ist es bspw. mit Blick auf Technik nicht notwendig, einen nicht-klassischen Begriff von Materialität zu entwickeln?
Diese Frage wurde vor einigen Jahren in der Luhmann Mailing List andiskutiert. Aber sie wurde, meines Wissens, niemals zufriedenstellend beantwortet. Daher ist mein Vorschlag, diese Spur weiterzuverfolgen.

Wie dem auch sei: Ich wünsche uns allen fruchtbare Diskussionen sowohl hier im kybernetiks-Blog als auch in der zugehörigen Google-Group!

~ Peter Bormann

%d bloggers like this: