Category Archives: Medialität

Sommer-Programm: Autopoiesis

Anknüpfend an die gerade laufende Diskussion zu “Technik als einem möglichen System der autopoetischen Artefakt-Produktion” möchte ich folgendes Sommer-Programm vorschlagen. Zu jedem Thema sind dabei ein oder mehrere Blogpost(s) möglich:

Leitfragen:
F1: Kann das AP-Konzept von M/V mit Blick auf die unten erwähnten Prüfkriterien direkt auf Technik (im obigen Sinne) angewandt werden?
F2: Kann das AP-Konzept grundlegend reformuliert werden, so daß es auf Technik anwendbar ist?
F3: Sollte das AP-Konzept fallen gelassen werden bspw. zugunsten von “Allopoiesis”? (siehe Thema 2)

Thema 1: Das Konzept der  “Autopoiesis” von Varela / Maturana   und seine mögliche Übertragbarkeit auf obiges Technik-System 

Autopoiesis-Bestimmung und -Beispiel [URL: http://koloss3.mykowi.net/index.php?option=com_content&view=article&id=246&Itemid=38]

“Das Konzept der Autopoiesis bezeichnet nach der Intention von Maturana und Varela Selbstschaffung bzw. Selbstproduktion und bezieht sich auf eine allgemeine biologische Beschreibung von Leben. Maturana und Varela subsumieren unter Autopoiesis das Organisationsprinzip alles Lebendigen und vertreten die Ansicht, dass alles Leben dahingehend autopoietisch organisiert und strukturiert ist, dass es sich als geschlossenes Netzwerk von Elementen in rekursiver Bezüglichkeit selbst hervorbringt, selbst reproduziert und selbst organisiert. Grundlegend ist demnach jedes autopoietische System ein geschlossenes, autonomes System innerhalb einer spezifischen Umwelt, mit der es keine Austauschbeziehung eingeht, sondern vielmehr im Modus der Perturbation und strukturellen Kopplung steht. Jedes autopoietische System, also auch die Zelle, ist energetisch und materiell offen und gleichzeitig operationell, organisationell und informationell geschlossen.
Die Teilung und Selbststrukturierung der Zelle vollzieht sich wie folgt:
Die eigentliche Zellteilung wird durch die Mitose (Kernteilung) eingeleitet. Hierbei ziehen sich die im Zellkern befindlichen Chromosomen, die die DNS tragen, zunächst stark zusammen, was sie unter einem guten Lichtmikroskop sichtbar macht. Jedes Chromosom besteht aus zwei Chromatiden, die am sogenannten Centromer verbunden sind. Nun wandern die Centriolen, aus Mikrotubuli gebildete Zellteilchen, an entgegen gesetzte Enden der Zelle und bauen den ‘Spindelapparat’ auf. In dessen Äquatorialplatte ordnen sich die Chromosomen an, senkrecht zu den Centriolen. Die Kernhülle ist nunmehr verschwunden. An den Centromeren setzen jetzt die Spindelfasern des Spindelapparates an und ziehen die Chromatiden eines Chromosoms zu den entgegen gesetzten Centriolen. So sind an beiden Enden der noch einen Zelle zwei identische Chromosomensätze angelangt. Neue Kernhüllen bilden sich, der Spindelapparat wird aufgelöst, und eine neue Zellwand wird gebildet, die die nun kompletten Zellkerne trennt und so aus der einen Mutterzelle zwei Tochterzellen macht, die zur gleichen Größe der Urzelle heranwachsen.”

Zu prüfende Kriterien für Autopoiesis nach M/V [aus dem Wikipedia-Artikel “Autopoiesis”, URL: http://de.wikipedia.org/wiki/Autopoiesis]:
“Um ein autopoietisches System zu sein, muss eine Einheit die folgenden Merkmale erfüllen:

  • Sie hat erkennbare Grenzen.
  • Sie hat konstitutive Elemente und besteht aus Komponenten.
  • Sie ist ein mechanistisches System: Die Relationen zwischen den Komponenten bestimmen die Eigenschaften des Gesamtsystems.
  • Die Komponenten, die die Grenze der Einheit darstellen, tun dies als Folge der Relationen und Interaktionen zwischen ihnen.
  • Die Komponenten, die die Grenze der Einheit darstellen, werden produziert von Komponenten der Einheit selbst oder entstehen durch Transformation von Elementen, die keine Komponenten sind, durch Komponenten.
  • Alle übrigen Komponenten der Einheit werden ebenfalls so produziert oder sind anderweitig entstandene Elemente, die jedoch für die Produktion von Komponenten notwendig sind.

Maturana und Varela wollten mit diesem letzten Punkt die Tatsache betonen, dass Organismen zwar Substanzen aus der Umwelt in sich aufnehmen, diese dabei jedoch sofort in verwertbare Baustoffe umwandeln. Substanzen dagegen, die für die Selbstreproduktion des Organismus keine Bedeutung haben, werden vom Organismus sozusagen ignoriert.”

In diesem Kontext wäre auch Originalliteratur von M /V  zu prüfen.

Thema 2: Technische Produktion als Allopoiesis? 

Eine Allopoiesis-Definition aus Principia Cybernetica Web, URL: http://pespmc1.vub.ac.be/ASC/ALLOPOIESIS.html
“the process whereby an organization produces something other than the organization itself. An assembly line is an example of an allopoietic system. See autopoiesis. (Francisco Varela)

The process of producing material entities other than those required for producing them. Most industrial production processes are allopoietic: An assembly line may produce cars but not the machines used in this form of production. Even reproduction in biology is allopoietic because the offsprings are materially distinct from the parent organism and occupy different spaces. Reproduction is not self-production. The primary value of the concept of allopoiesis is that it contrasts with autopoiesis.”

Thema 3: Ist das “Technium” von Kevin Kelly ein Fall von Autopoiesis?
URL: http://www.kk.org/thetechnium/

Thema 4: Kann die Autopoiesis von Technik u.U. mit der Maschinenkonzeption von Félix Guattari (re-)formuliert werden?

Thema 5: Sollte die Produktion technischer Artefakte (auto- / allopoietisch) gekoppelt werden mit “technischer Kommunikation” (inkl. dem Prozessieren zugehöriger Formen wie Konstruktionsanweisungen / -zeichnungen, Bauplänen, Modellen, etc.)? [Hier wäre dann auch eine Verbindung herstellbar zu Technik als einem “Funktionssystem” (im Bielefelder Sinne)]

Fallbeispiel: Die Erstellung einer modellgetriebenen Service Component Architecture-(Mini-)Anwendung (von requirements-Dokumenten über BPMN-Modelle hin zu exekutierbarem Code)

Thema 6: Welche Artefakte gehören zu Technik? Das Beispiel “Architektur”

Thema 7: Technik-Autopoiesis, selbstreplizierende Maschinen und artificial life

Schlußbetrachtung im Hinblick auf die drei Leitfragen

Advertisements

Technik als soziales Funktionssystem / Technik als autopoietisches System sui generis

Nachfolgend einige Überlegungen zur gerade ablaufenden Diskussion zu “Technik als autopoietischem / autogenerativem Prozeß  / System sui generis” 

Vielleicht müßte man die Technik-als-Autopoiesis-Konzeption nochmals vom Konzept der “selbstreplizierenden Maschinen” (auch mit Blick auf “zelluläre Automaten” und “artificial life”, siehe z.B. http://www-gs.informatik.tu-cottbus.de/al_v05b.pdf) her denken:
“John von Neumann war aus Sicht der Informatik einer der ersten, der in den 1940er Jahren wissenschaftlich fundierte Überlegungen zu einem hypothetischen, replikationsfähigen Roboter anstellte. Dieses rein theoretische Konzept war praktisch jedoch nicht umsetzbar. 1953 entwickelte er daher die Theorie selbstreproduzierender Automaten (nach seinem Tod von Burks im Jahre 1966 als Theory of Self-reproducing Automata herausgegeben), als ein mit Computertechnologie umsetzbares Modell für eine softwarebasierte Lösung von Selbstreplikation.
Künstliche selbstreplizierende Software erschien zum ersten Mal in den Sechziger Jahren, und vermehrte sich in späteren Jahrzehnten sehr schnell in Form von Viren, Würmern und vor allem bei Programmen, die sich mit künstlichem Leben befassten.” [aus Wikipedia:  http://de.wikipedia.org/wiki/Selbstreplikation]
Das heißt die Trias von “Tool – (einfacher) Maschine – Automat / programmierbarer Maschine” könnte erweitert durch: auto- / hetero-replikative Maschinen (Maschinen, die sich selbst und andere Maschinen erweitern bzw. herstellen können. Stichworte: artificial life, Agentensimulationen, zelluläre automaten, evolutionäre Algorithmen, Nanotechnologie). Und man könnte dann von Letzterem her versuchen, eine Art “Autopoiesis” und “Evolution” von Technik als generativem Prozeß zu beschreiben.

Ich könnte mir vorstellen, daß Technik als mögliches “autopoietisches System der Artefaktproduktion” konzipiert werden könnte auf der Basis von
1) Prozessoren als:
a) Humanprozessoren im Sinne von Polysystemen (z.B. als Bewußtsein, Psyche = Wahrnehmungsverarbeitung und diversen biologischen Systemen), wobei das aus Bielefelder Sicht einer klassischen Akteursvorstellung entspricht, die in Frage zu stellen wäre.
b) Maschinellen Prozessoren: Softwareagenten, Robotern, etc. – auch dann als selbstreplikative Maschinen
2) Handlungen: etwas [auch sich selbst] konstruieren, (zusammen)bauen, produzieren, etc.
Wenn aber nun solche Handlungen, die auf humane und nicht-humane Prozessoren bezogen werden, “simplikatorisch” sein sollten (analog zu Mitteilungshandlungen in der Kommunikation als Dimension sui generis), worin besteht dann die nicht-simplikatorische Eigenheit “technischer Operationen”? Im Fall von Kommunikation ist das die IMV-Trias, wobei bei der Fokussierung auf bloßes Mitteilungshandeln gerade das Verstehen ausgeklammert wird.
3) anfallenden Artefakten: Freilich spräche wohl nichts dagegen hier einen “erweiterten” Artefaktbegriff zu benutzen, der bspw. auch Schallwellen-Formung im Sinne der Artikulation von Lauten einschließt, weil m.E. die Differenz von Persistenz-Flüchtigkeit  keine “trennscharfe” Differenz ist, sondern auf ein “Spektrum” mit diversen Graden der Persistenz und Flüchtigkeit verweist.
4) Dabei müßte die Relation zu “sozialer Kommunikation”geklärt werden. Das ist m.E. die Ebene, auf der Du “Technologien” ansetzt (= Prozessieren von technikbezogenem Wissen, was ich u.a. als das Prozessieren von Formkomplexen im Sinne von Konstruktionsanweisungen, -zeichnungen, DIN-Normen, Stücklisten, Bauplänen, etc. bezeichnen würde).
Es wäre dann vielleicht von einer Art “Orthogonalität” (sensu: log. Unabh.) von Technik- und Sozialdimension (und Mediendimension) auszugehen. Oder um das bekannte xyz-Achsenmodell aus der Mathematik heranzuziehen: x-Achse: Soziales, y-Achse: Mediales, z-Achse: Technisches ->
a) Technische Kommunikationen, die entspr. Medien-Formkomplexe  (-> Deine Ebene der “Technologien”)  prozessieren und ein eigenes (kommunikatives) Technik-Funktionssystem bilden könnten.
b) Nicht-kommunikative, technische Herstellungsoperationen, bei der die jeweiligen Artefakte anfallen.
5) Zwischen 4a) und 4b) könnten dann Wechselbeziehungen bestehen wie:
a) Artefakte / Herstellungsoperationen irritieren technische Kommunikationen: Erstere werfen bspw. Probleme auf, die in technischen und nicht-technischen Kommunikationen (ggf. nach entspr. Transformation der Probleme) behandelt werden.
b) Artefakt-Benutzung kann Kommunikation und das Problem der Überzeugung teilweise <strong>ersetzen </strong>, z.B. indem Software-Agenten direkt miteinander etwas aushandeln – ohne menschliche Intervention.
c) Technische Kommunikationen konditionieren / orientieren via Formkomplexe ( z.B. als Baupläne, die technisch realisiert werden) Herstellungsoperationen / Artefakt-Produktionen (und die Artefakt-Benutzung),
6) Es wären dann auch Sozio-, Technik- und Medien-Evolutionen aufeinander zu beziehen – u.a. mit Blick auf die Mechanismen von “Variation, Selektion, Retention”

Fazit:
Ein soziales / kommunikatives Funktionssystem “Technik” könnte in Beziehung stehen zu einem nicht-kommunikativen System (keinem Funktionssystem) “Technik” als Artefakt-Genese. Vielleicht sollte dabei die Autopoiesis-Konzeption von M-V durch die Brille von Ansätzen des artificial life, der maschinellen Selbstreplikation, etc. gelesen werden.
Andere Option: Statt einem eigenen “Technik”-System die artefaktischen Verhältnisse als “Medium-Form-Komplexe” (-> Kausalitätsmedien) konzeptualisieren.
Ich muß wohl einige Zeit investieren, um diese ganzen Themenkomplexe [gerade auch zu artificial life, cellular automata (die sich wohl mit der LoF-Theorie koppeln lassen), Dein “Technische Intelligenz”-Buch, etc.] zu studieren, damit ich klarer sehe. Aber da ich nur ein begrenztes Zeitbudget habe, wird das wohl seine Zeit dauern.
@Rolf: Solltest Du  bereits Deine “technische Autopoiesis”-Konzeption ausgearbeitet haben, so wäre es schön, wenn Du sie demnächst online stellen könntest. Ich habe gestern zwar noch etwas in Deiner Hyperkommunikation-Bibliothek herumgestöbert, bin aber nicht so recht fündig geworden.

~Peter

Einige Überlegungen zu essentialistischen Strategien

Im Artikel “Zur Problematik des ‘Possibilismus’. Der mögliche Rückfall der Systemtheorie in den Essentialismus” [siehe http://www.fen.ch/texte/gast_bormann_possibilismus.pdf] habe ich vor ca. zehn Jahren das ontologisch-essentialistische Beobachten als “einen” Abstraktionsmodus [besser: eine offene Vielzahl  essentialistischer Strategien] charakterisiert, bei dem nicht-geschlossene (nicht-)sprachliche Unterscheidungsnetzwerke auf eine abstrakte Gemeinsamkeit zurückgeführt werden. Das kann bedeuten, daß
* nach dem “Wesen” (“der” Bedeutung, “der” Definition, etc.) von etwas gefragt wird
* oder ein Begründendes (eine transzendentale Möglichkeitsbedingung, ein Zentrum, ein Ursprung, etc.) unterstellt wird, das als variierende Erzeugungsmatrix für Operationsprodukte / Ereignisse fungieren kann.
Derrida hat ausgearbeitet, daß diesem Begründenden ein paradoxer Status zukommt: Einerseits muß es als Konstitutionsbedingung “außerhalb” des von ihm begründeten Unterscheidungsnetzwerks liegen, andererseits muß  es “innerhalb” dieses Netzwerks Wirkungen zeitigen. Klassische Beispiele sind:
* die Unterscheidung “Gott / Welt”, bei der Gott die Welt erzeugt haben soll, aber zugleich in der Welt “wirken” muß [zumal die Unterscheidung in der Welt getroffen werden muß – wo sonst?]. Daher kommt dann der interessante human-divine Doppelstatus bspw. von Jesus Christus in der christlichen Religion.
* Immanuel Kants transzendentale Bedingungen der Möglichkeit von Erkenntnis [siehe http://de.wikipedia.org/wiki/Transzendentalphilosophie].
Essentialistische Beobachtungsweisen sind freilich nicht auf Religion oder Philosophie beschränkt, sondern man findet sie in allen möglichen Bereichen:
* Wenn es um die Erkennung von Mustern sowie die Bildung von Kategorien und Prototypen gehen soll  [siehe https://kybernetiks.wordpress.com/2012/03/18/borgen-pattern-recognition-zeichen-medien-welt-dualismus/].
* Wenn traditionell von einer “Natur des Menschen” ausgegangen wurde.
* Wenn in der Geschichte “der” Wahnsinn, “die” Medizin, “die” Wissenschaft, etc. unterstellt wurden, so daß (illusorische) Kontinuitäten und Homogenitäten anfielen  [siehe Paul Veyne, “Foucault: Die Revolutionierung der Geschichte”, Frankfurt / M.: Suhrkamp, 1992, S. 55].
* Wenn im programmiersprachlichen “Paradigma der Objektorientierung” (kurz: OOP)  in der Informatik Klassen als abstrakte Erzeugungsmatrix fungieren, aus denen konkrete Objektexemplare erzeugt werden.

Kurzum, essentialistische Beobachtungsweisen bedienen Funktionen wie das Management von Kontingenz und Komplexität, indem “Informationsraffungen / -verdichtungen” erfolgen. Die Mathematik kann das schön verdeutlichen: statt daß man sich eine  Zahlenreihe wie 1, 4, 9, 16, 25, etc. merken muß, reicht der kompakte Ausdruck y = x hoch 2 mit x als Element der natürlichen Zahlen.
In der Konzept- und Theoriearbeit, bei historischen Analysen, usf. werden hierbei aber Kontinuitäten, Totalitäten und Homogenitäten suggeriert, die sich nicht unbedingt aus dem jeweiligen Analysegegenstand / -material ergeben, sondern von essentialistischen Beobachtern erzeugt werden, um effizienter Informationen prozessieren zu können. Die Folgen solcher Effizienz: Brüche, Spontanes, Zufälliges, etc. werden (systematisch) ausgeblendet.
Warum schreibe ich das? Viele, die seit der zweiten Hälfte des 20. Jahrhunderts akademisch sozialisiert wurden, kennen die verschiedenen Kritiken an essentialistischen Strategien (Stichworte: Wittgenstein II, Derrida, Foucault, Deleuze bzw. Deleuze / Guattari, etc.). Aber es lohnt sich, in der aktuellen (auch eigenen) Analyse-, Begriffs- und Theoriearbeit nach solchen essentialistischen Strategien (in einem nicht-essentialistischen Sinne, also nicht “dem” Essentialismus) Ausschau zu halten, um lineare, dialektische, etc. Kontinuitäts-, Totalitäts-, Homogenitäts-, etc. -Annahmen in Frage stellen zu können. Denn Letztere führen zu Simplifikationen, die sich weniger dem Untersuchungsmaterial als vielmehr den gewählten Weisen der Abstraktion und Informationsraffung verdanken. Man könnte auch sagen: Dem jeweiligen Untersuchungsmaterial werden entsprechende “essentialistische Projektionen” untergeschoben.
Was heißt das nun für unser Technik-Blog? Wie Hans-Dieter Bahr [(1983), “Über den Umgang mit Maschinen”, Tübingen: Konkursbuchverlag] dargelegt hat, kann es bspw. auch bei Maschinen nicht einfach mehr um eine homogenisierende Darstellung gehen à la die “Entwicklung der Maschinen in der Geschichte”, die wiederum auf eine begründende Einheit / Allgemeinheit (im Sinne von transzendentaler Möglichkeitsbedingung) – trotz aller möglichen Aspekt- und Perspektivewechseln –  verweist.  Bahrs Text ist daher immer noch sehr aktuell, weil hier zutiefst heterogene Umgangsstile mit Maschinen thematisiert werden, die sich keiner essentialistisch angehauchten Möglichkeitsbedingung mehr fügen. Folge: Der resultierende Text ist komplex und sperrig, also: keine einfache Lektüre.
Es ist nun die Frage, ob im Laufe unserer bisherigen Technik-Diskussionen essentialistische Strategien zum Zuge kamen. Ich meine: ja.
Zum einen, wenn der (systematische) Tool-Gebrauch als “anthropologische Konstante” dargestellt wird, die  als das Schema “einfache Werkzeuge – Maschinen – Automaten mit Werkzeugen als Meta-Kategorie” variiert wird.
Zum anderen in der Unterstellung, daß Werkzeugen, Maschinen und Automaten ein Gebrauchszweck immanent eingeschrieben sei. Das heißt, ein technisches Artefakt könne nur entsprechend des ihm jeweils eingeschriebenen Zwecks gebraucht werden. Alles andere wären Formen des “Mißbrauchs”.
Bei einfachen Werkzeugen leuchtet diese These jedoch gar nicht ein. So kann bspw. ein und dasselbe Messer zum Schneiden, Bohren, Kratzen, Sägen, etc. eingesetzt werden. Löffel können verwandt werden, um Flüssigkeiten zu schöpfen, im Boden zu graben, etwas zu schleudern, usf. Zumal viele einfache Werkzeuge mitunter leicht als (Hieb-, Stich-, Schleuder-, etc.) Waffen einsetzbar sind.
Obige These leuchtet auch bei Computern als den programmierbaren Universalmaschinen nicht ein, weil diese auf gar keinen letzten Zweck ausgerichtet sind: sie sind einsetzbar als “Rechen”maschine, als Multimedia-Einheit (Text, Ton, Bild, etc.), als Steuerungseinheit für andere Maschinen, usf.
Und selbst Maschinen wie Autos müssen nicht einfach nur zum Transport von Personen oder Gegenständen verwendet werden. Sie können auch für Autorennen benutzt werden, als Rückzugsgebiet (für Sex, zum Schlafen, zum Musik hören, zum Rauchen, etc.), als Ausstellungsstücke, die gar nicht oder kaum gefahren werden (-> Oldtimer).
Das heißt nicht, daß bei Maschinen / Automaten nicht versucht wird, bestimmte Gebrauchsweisen vorzugeben. Aber der Grund für diese Vorgabe sind primär  juristische, versicherungs- und sicherheitstechnische Gründe. Wer seinen Hamster in die Mikrowelle zum Trocknen steckt, muß  also damit rechnen, daß der Hamster das im worst case nicht überlebt.
Das bedeutet freilich nicht, daß solche Maschinen / Automaten nicht gehackt und neuen Gebrauchsweisen zugeführt werden können [Was mich zur These (im Anschluß an Kittler) veranlaßt hat, daß Hacker und Hacksen die Ideologie- und Latenzkritiker(innen) der technischen Moderne sind]. Erinnert sei zudem nochmals an das vor einiger Zeit angeführte Beispiel mit den Spülungen in Süditalien nach dem 2. WK. Diese Spülungen wurde von den Bauern als Olivenwaschanlagen und nicht als Toilettenvorrichtungen eingesetzt, was im damaligen Kontext anscheinend vollkommen Sinn gemacht hat.
Meine Thesen lauten also:

  1. These 1: Ähnlich wie Zeichenmarken (Medienformen) keine immanent-essentialistische Bedeutung zukommen kann, weil sie in immer neuen nicht-saturierten Kontexten wiederverwendbar sein müssen, ist auch technischen Artefakten (als: Tools, Maschinen und Automaten)  kein Gebrauchszweck als gegenständliche Bedeutung ein für allemal und kontextunabhängig, d.h. durch “alle” möglichen Kontexte hindurch bzw. völlig a-kontextuell, eingeschrieben. Diese Gebrauchszwecke hängen vielmehr  von den jeweiligen Umgangsformen / -stilen in offenen / nicht-saturierbaren Kontexten ab. Und sie können dementsprechend auch variieren, ohne daß eine begründende Einheit (im Sinne einer Funktion als transzendentaler Bedingung der Möglichkeit) plausibel unterstellt werden kann.
  2. Auf Unterscheidungen wie “eigentlicher – uneigentlicher (parasitärer) Gebrauch”, “Gebrauch / Mißbrauch”, u.ä. mit Blick auf technische Artefakte kann die Kritik Derridas an Austins “Sprechakten” angewandt werden.  Ich zitiere aus einem online-Kommentar von Gerald Posselt vom 6. Oktober 2003 [siehe http://differenzen.univie.ac.at/bibliografie_literatursuche.php?sp=11]:
    “Auch wenn Austin Kommunikation nicht mehr als die Übertragung oder den Transport von Bedeutungsinhalten versteht, sondern vielmehr als ein Tun, das nicht etwas beschreibt, was außerhalb der Sprache existiert, sondern das seinen ‘Referenten’ selbst hervorbringt und eine Situation transformiert, so geht er dennoch davon aus, dass jeder Sprechakt durch seinen Kontext und die Intention des sprechenden Subjekts in der Totalität der Kommunikationssituation bestimmt werden kann. Dies wird besonders deutlich in Austins Theorie der Fehlschläge oder Unglücksfälle. Obgleich Austin einräumt, dass das Misslingen einer performativen Äußerung immer möglich ist, so erkennt er doch nicht, dass es sich hierbei um eine “notwendige Möglichkeit” des Misslingens handelt, die nicht als ein äußerliches, zufälliges Risiko ausgeschlossen werden kann (306f.). Explizit wird dieser Ausschluss im Falle zitathafter Äußerungen, die Austin als unernsten, parasitären und abweichenden Gebrauch abqualifiziert.”
    These 2: Ähnlich wie bei performativen Sprechakten ist die Möglichkeit des “Miß-Ge-brauchens” entscheidend. Mißbrauch ist somit  kein externes Ereignis, das die eigentliche (wesentliche = essentialistische) Gebrauchsweise als “uneigentliches” deformiert bzw. als “parasitäres” infiziert.
    Mißbrauchsweisen (im Sinne anderer Gebrauchsweisen, die positiv oder negativ bewertet werden können) resultieren aus dem iterablen Gebrauch technischer Artefakte . Das heißt zugleich: Itérabilité (sensu: die Verschränkung von Identisch-Bleiben und Anderswerden in kontextrelativen Wieder-Holungen) ist  immer schon in jedem Artefakt-Gebrauch wirkend, so daß selbst ein sog. “eigentlicher” (korrekter, richtiger) Artefakt-Gebrauch bereits eine Vielzahl von mehr oder minder minimalen Variationen beinhaltet. Beispiele: Das Lenk- oder Steuerrad wird nicht auf  die stets absolut identische Weise benutzt, Minimalvariationen treten beim Drücken von Knöpfen,  Schaltern und Hebeln, usf. auf.

Borg[(e)n] / Pattern recognition / Zeichen / Medien-Welt-Dualismus

Insofern wir uns in der letzten Zeit  immer wieder an der Relation von Materialität und Zeichen sowie dem Dualismus von Medium und Welt gerieben haben, soll nachfolgend einmal versucht werden, diese Themen etwas tiefer zu legen. In drei Blogposts sollen daher die folgenden Fragen behandelt werden:
Frage 1: Pattern recognition – Wie erkennen wir “Muster”? Essentialistische und nicht-essentialistische Kategorisierungsstrategien.
Frage 2: Ist “Signifikantenmaterialismus” beim Prozessieren von Zeichen möglich?
Frage 3: Wie ist der “Dualismus von Medium und Welt” zu beschreiben und welche Möglichkeiten der Aushebelung existieren? 

Frage 1: Pattern recognition – Wie erkennen wir “Muster”? Essentialistische und nicht-essentialistische Kategorisierungsstrategien.
(Menschliches) Wahrnehmen ist ein sehr komplexer Vorgang, wie schon ein oberflächlicher Scan des entsprechenden Wikipedia-Artikels zeigt (http://de.wikipedia.org/wiki/Wahrnehmung).  Fuchs (2005) hat dabei Wahrnehmen (aus Sicht der soziologischen Systemtheorie) u.a. charakterisiert als:

  • Externalisierungsleistung eines neuronalen Systems, dessen Funktionsweise im Prozeß des Wahrnehmens selbst ausgeblendet wird.
  • Strikte Präsenzorientierung, also: keine Möglichkeit, zwischen Gegenwart, Vergangenheit und Zukunft in der Wahrnehmung zu differenzieren.
  • Kompaktheit der Wahrnehmung.
  • Keine Negationsfähigkeit (es gibt keine perzeptuelle Möglichkeit, das Wahrnehmen während des Wahrnehmens zu verneinen).
  • Simultaneität der Wahrnehmung.

Wahrnehmungs- und kognitionspsychologisch könnten weitere Merkmale für Wahrnehmen wie Kontext- und Erfahrungsabhängigkeit, Filtereffekte, etc. angeführt werden. Aber auf weitere Details sei an dieser Stelle verzichtet, siehe jedoch http://de.wikipedia.org/wiki/Wahrnehmung für eine Groborientierung.
Aus Sicht der Fuchs`schen Spielart der soziologischen Systemtheorie schreibt sich dann Bewußtsein kommunikationsinduziert in die Wahrnehmungsverarbeitung der Psyche ein, so daß im Rahmen eines sog. “différance-basierten Nachtragsmanagements” eine Verarbeitung von Unterscheidungen (2-Seiten-Formen, Zeichen, marks) möglich wird.
Oder anders formuliert: Bewußtsein bedient die Funktion eines differentiellen Interfaces, das emergiert als Folge der “Stimulation” der psychischen Wahrnehmungsverarbeitung durch soziale Kommunikationsversuche.  In der Folge ist es Bewußtseinsprozessoren möglich, diverse Zeithorizonte zu unterscheiden sowie semiotisch über Generalisierungs-, Spezialisierungs- und Negationsmöglichkeiten zu verfügen. Zugleich wird die (analoge) Simultaneität der Wahrnehmung überführt in eine (digitale) Sequentialität des Unterscheidungsgebrauchs (der Semiose), so daß es zu einer  “Informationsraffung” (Reduzierung der wahrnehmungsmäßigen Komplexität durch semiotische Abstraktion) kommt.
Peter Fuchs bezieht sich dabei i.a. auf (orale, skripturale, etc.) Sprachzeichen. Aber das scheint mir eine unnötige Verengung zu sein, so daß ich die Bewußtseinsfunktion generell mit der Fähigkeit zur Semiose (Konstitution und Verarbeitung aller möglichen Zeichen) gleichsetzen würde, obgleich Sprachzeichen hierbei eine große (vielleicht die wichtigste) Bedeutung zukommt.
Vor diesem Hintergrund sei nun folgende Frage formuliert, die sich auf das Problem der Kategorisierung bezieht: Wie ist es möglich, daß ein System psychischer Wahrnehmungsverarbeitung angesichts einer Unzahl visueller Variationsmöglichkeiten (A  A A A A A A A A A etc.) immer einen Buchstaben wie z.B. “A” wahrnehmen  bzw. erkennen kann?
Essentialistische Ansätze (Schablonentheorie, ein Platonismus der von topologischen oder gruppentheoretischen Invarianten ausgeht, usf.) folgen dabei der Logik, daß Muster (z.B. als Schemata, Typen, Kategorien, Klassen, etc., die u.U. angeboren seien) nur verschieden aktualisiert werden. Das heißt in diesem Fall: eine Ur-Gestalt / Invariante / ein Wesen von “A” würde in Form von verschiedenen Variationen stets (re-)aktualisiert.
Wenn diese variierende Repetition des Selben möglich wäre, dann könnten alle vorstellbaren Buchstabenformen durch eine begrenzte Zahl von veränderlichen Parametern auch durch Computer simuliert werden. Als Beispiel für eine solche essentialistische Kategorisierungsweise siehe Donald E. Knuths  “Meta-Schrift-Konzeption” und die zugehörige Kritik von Hofstadter (1988).
Zentrale Probleme dieser essentialistischen Logik sind freilich:

  • Wie sollen alle möglichen Muster und ihre Variationen im (menschlichen) Gedächtnis gespeichert werden, ohne schnell an Kapazitätsgrenzen zu stoßen?
  • Wie soll ein starres und festes System von Regeln angegeben werden, um Kategorien (bspw. von “A”) in allen möglichen offenen Kontexten und in allen möglichen Variationen zu definieren?
  • Wie soll eine nicht-differentielle Identität von Kategorien angegeben werden können?  Aus differentieller Sicht liegt eher die These nahe, daß sich die Identität von  A (negativ) im Unterschied zu anderen Buchstaben des Alphabets (B, C, D, etc.) im Rahmen des jeweiligen Fonts ergibt.
  • Verweist die essentialistische Variations- und Aktualisierungslogik nicht auf einen Possibilismus, der Unendlichkeit zu determinieren beansprucht, was letztlich einem nicht vorstellbaren, weil endgültig geschlossenen (Meta-)Kontext entspräche? 

Wie sehen demgegenüber nicht-essentialistische Lösungen des Kategorisierungsproblems aus?
Beispiel 1: Mit Blick auf Wittgenstein II kann das Konzept der Familienähnlichkeit herangezogen werden. Das heißt, daß nicht mehr von variierenden Aktualisierungen einer Ur-Kategorie “A” auszugehen ist, sondern Vergleichsoperationen bei der Buchstabenerrechnung zum Einsatz kommen: Variationen – ohne Annahme irgendeiner Ur-Kategorie – werden untereinander als ähnlich in dieser oder jener Beziehung verglichen, wobei sich die Kriterien für Ähnlichkeit je nach Kontext und in der Zeit verändern können. [Hier könnte hinzugefügt werden, daß sich die Buchstaben-Identität zugleich negativ-differentiell ergibt durch Nicht-Ähnlichkeit mit anderen Buchstabenarten].

Beispiel 2: Mit Derrida kann auf das Konzept der itérabilité verwiesen werden, so daß sich erst durch die alterierende Wiederholung in je offenen (i.e. ungesättigten) Kontexten eine ideelle Identität (als post-festum-Idealisierung) ergibt. Oder anders gesagt: jede Wiederholung in stets veränderten Kontexten beinhaltet ein (minimales) Anderswerden des Wiederholten. Das sprengt eine essentialistische Logik der variierenden Aktualisierung des Selben, die letztlich auf kontrollierter Repetition in geschlossenen Kontexten beruht.

Referenzen:

  • Fuchs, Peter (2005), Die Form des Körpers, in: Schroer, M. (Hrsg.), Soziologie des Körpers, Frankfurt a.M. 2005, S.48-72 [online verfügbar unter: http://www.fen.ch/texte/gast_fuchs_koerper.htm].
  • Hofstadter, D.R. (1988), Metaschrift. Metamathematik und Metaphysik: Bemerkungen zu Donald Knuths Artikel “The Concept of a Meta-Font“, in: ders. (1988), Metamagicum, Stuttgart: Klett-Cotta, S. 267ff.
  • Für einen Vergleich von essentialistischen und nicht-essentialistischen Ansätzen zu Sprache / Zeichen / Kategorien, siehe die Beiträge in Krämer, S. (2001), Sprache, Sprechakt, Kommunikation. Sprachtheoretische Positionen des 20. Jahrhunderts, Frankfurt / M.: Suhrkamp.
%d bloggers like this: