Loading...

Die Geschichte der Simulation, Dissertation

Die Geschichte des Computers unter besonderer Berücksichtigung des Computergenerierten Bildes.

veröffentlicht am 7. März 2026

Download der Dissertation: Geschichte der Simulation

1.      Das Denken in Bildern

 

Einleitung

 

1968 kombinierte Douglas Engelbart in San Francisco die erste Videokonferenz der Welt mit einer Online-Dokumentverarbeitung.[1] Dies war die Geburtsstunde der Benutzeroberfläche, der verbreitetsten Nutzung von Bildern am Computer. (Abb.[i] [ii])

 

Die Geschichte der Computerbilder ist die Geschichte ihrer Nutzung und Verknüpfung. Die Geisteswissenschaften fragen allerdings weniger nach dem Gebrauch von Bildern als nach ihrer Ästhetik und ihrem ontologischen Status. So stand hier in den letzten Jahren vor allem das Verhältnis von Urbild und Abbild zur Debatte.[2] Da die dringende Annahme besteht, daß Computerbilder Abbilder sind, ohne ein Urbild zu haben, wissen wir nicht, wie wir sie einordnen sollen. Diese Verunsicherung hat Vilém Flusser anschaulich beschrieben:

 

„Vor unseren ungläubigen Augen beginnen alternative Welten aus den Computern aufzutauchen: aus Punktelementen zusammengesetzte Linien, Flächen, bald auch Körper und bewegte Körper. Diese Welten sind farbig und können tönen, wahrscheinlich können sie in naher Zukunft auch betastet, berochen und geschmeckt werden. [….] Warum mißtrauen wir eigentlich diesen synthetischen Bildern […]. Warum beschimpfen wir sie mit dem Wort „Schein“. Warum sind sie für uns nicht real? […] weil diese alternativen Welten eben nichts anderes sind als komputierte Punktelemente, weil sie im Nichts schwebende Nebelgebilde sind. Die Antwort ist vorschnell, da sie Realität an der Dichte der Streuung mißt und wir uns auf die Technik verlassen können, daß sie künftig in der Lage sein wird, die Punktelemente ebenso dicht zu streuen, wie dies bei den Dingen der uns gegebenen Welt der Fall ist.“[3]

 

War schon die uns gegebene Welt an sich eine Frage der Wahrnehmung, so tritt spätestens mit dem Auftauchen des Bildes aus dem Computer eine weitere Schicht zwischen uns und die „Daten“ wie Flusser die Realität benennt. Selbst geschaffene „Fakten“, vom Menschen mit Hilfe von Computern hergestellte, verunsichern den menschlichen Betrachter ein weiteres Mal. Er muß sich erneut fragen, ob er seinen „Augen trauen“ darf. Flusser thematisiert hiermit den Kern der Frage nach dem Wahrheitsgehalt am Bild überhaupt. Der Computer wirft diese alte Frage lediglich in größerer Deutlichkeit auf. Die Abbildung oder besser das Bedürfnis, festzuhalten, was wir mit unseren flüchtigen Sinnen aufnehmen, ist ebenso alt wie die Menschheit. Im Gegensatz zu allen bisherigen Abbildungstechniken sollten aber die Computer die ersten Maschinen sein, die weniger Abbildungen als ihrerseits Urbilder schaffen.[4] Im Gegensatz zu den manuellen Abbildungstechniken der Kunst und den späteren, technischen Verfahren der Fotografie und des Films können Computer Abbildungen erzeugen, deren Referenz nicht mehr die Sphäre des Sichtbaren ist. Wenn auch die Ausdehnung des Sichtbaren durch die Erfindung optischer Instrumente im makroskopischen und mikroskopischen Bereich erheblich erweitert wurde[5], kommt immer noch das Auge als “Abtastungsinstrument” zum Einsatz, und das von ihm gelieferte Bild ist allein durch den menschlichen Wahrnehmungsapparat vermittelt. Der Computer hingegen ermöglicht eine Abtastung der Umgebung, die das Spektrum des für das Auge sichtbaren Lichtes verläßt und somit ein „Bild“ vom bisher Bildlosen schafft.[6]

 

In der Fachsprache der Computer werden solche Symbolmanipulationen (Programmierungen) „Visualisierungen“ oder „bildgebende Verfahren“ genannt, wobei dieses Visualisieren oder „Bild geben“ sich im allgemeinen als Übersetzungsvorgang darstellt, der aus mathematischen Zeichen etwas produziert, das unserer Realität oder unserer Vorstellung entspricht. Auch der Computer kann Gegenstände in einem quasi fotografischen Prozeß abbilden. Hierzu stehen heute verschiedenste Scanning-Verfahren zur Verfügung. Damit bestätigt auch der Computer McLuhans These, nach der ein Medium jeweils ein anderes, älteres Medium zum Inhalt habe.[7] Das Schwergewicht dieser Arbeit liegt auf der Übersetzung von Zahlen in Bilder (Visualisierung), nicht auf der Übersetzung von Bildern in Zahlen (Scanning). Gemeint sind die Verfahren, die heute weithin als Abbilder ohne Urbild bezeichnet werden.

 

Es stellt sich die Frage nach der Abbildung einer äußeren Welt in das Innere unseres Bewußtseins. Seit dem Beginn der Computerentwicklung wurde als Erklärungsmodell immer wieder die Metapher des Gehirns herangezogen.[8] Zunächst wurden die menschlichen Fähigkeiten auf die neu entwickelten Maschinen abgebildet. Diese Abbildung führte zu einem Zirkelschluß: Der Computer wurde dadurch erklärt, daß man das Gehirn zu einer informationsverarbeitenden „Maschine“ reduzierte.[9] Auch die Erforschung der künstlichen Intelligenz ging zunächst von einem „Abbildungsproblem“ aus: in Form von vereinfachenden Projektionen, die einen „Gegenstandsraum“ und einen „Bildraum“ voraussetzen, bildet sich die Welt in unserem Bewußtsein ab und die intelligente Verarbeitung setzt als „bildverarbeitender Prozeß“ ein. Damit entbrannte eine Diskussion um die Trennung zwischen biologischem Körper und verarbeitendem Geist, die sich bereits in der Frage nach der Trennung zwischen Urbild und Abbild verbirgt. Diese Maschinen stellten zum ersten Mal ein Modell zur Verfügung an dem experimentell der Frage nachgegangen werden konnte, wie der menschliche Geist seine Informationen verarbeitet.

 

Diese beiden zunächst divergent wirkenden Bereiche, die Möglichkeiten zur Erzeugung von „Wirklichkeiten“ und die modellhafte Struktur des „Elektronengehirns“, haben mehr gemeinsam als es auf den ersten Blick scheinen mag.[10] Möglicherweise bildet die Problematik des Scheiterns der künstlichen Intelligenz[11] einen Nährboden für die verstärkte Produktion von „künstlichen Welten“. Dieser vermutete Zusammenhang muß jedoch viel stärker als bisher an einer Geschichte der Bildproduktion am und mit dem Computer dargestellt werden.

 

So beschäftigt sich die vorliegende Arbeit mit der technologischen Entwicklung einerseits und den weitreichenden theoretischen Konsequenzen dieser technischen Entwicklung andererseits. Dabei bedarf der Begriff der Simulation einer eindeutigen und auch abgrenzenden Definition, die ihn von dem großen Feld seiner sonstigen Bedeutungen trennt. Dies soll der Abschnitt zur Begriffsbestimmung erfüllen.

 

[1]             Engelbart, Douglas C.; English, William K., A Research Center for Augmenting Human Intellect, AFIPS Conference Proceedings of the 1968 Fall Joint Computer Conference, San Francisco, CA, December 1968, Vol. 33, S. 395-410.

[2]             Vgl. hierzu das Themenheft „Imitation und Mimesis“, in dem viele diese Zeit beherrschende Diskussionspunkte zusammengefaßt wurden. Reck, Hans Ulrich (Hrsg.), Imitation und Mimesis, Kunstforum International,  Bd. 114, 7/8, 1991. Vgl. auch Rötzer, Florian; Weibel, Peter (Hrsg.), Strategien des Scheins, Kunst Computer Medien, München 1991. Für eine kompakte Einführung in die Geschichte der Ästhetik und der Frage von Urbild und Abbild vgl.: Jung, Werner, Von der Mimesis zur Simulation. Eine Einführung in die Geschichte der Ästhetik, Hamburg 1995.

[3]             Flusser, Vilém, Digitaler Schein, in: Rötzer, Florian (Hrsg.), Digitaler Schein, Frankfurt/M. 1991, S. 147.

[4]             Ein bekanntes und oft zitiertes Beispiel sind die Fraktale, die erst am Computer ihre Gestalt entfaltet haben und insofern keinerlei echte Vorbilder haben. Damit wurde der umgekehrte Schluß möglich, daß die Formen der Natur auf ähnlichen mathematischen Grundformeln zu basieren scheinen, da sie den am Bildschirm generierten Farb- und Formenwelten gleichen. Im Sinne des Verhältnisses von Urbild und Abbild als Verhältnis von Idee und Erscheinung konnten die am Bildschirm generierten Fraktale vielmehr als Urbilder gedeutet werden, da sie in reinerer Form die Idee der Selbstorganisation der Materie repräsentierten. Vgl. Peitgen, Heinz-Otto; Richter, Peter H., The Beauty of Fractals, Berlin 1986. Vgl. auch Davis, Paul, Prinzip Chaos, München 1988.

[5]             Vgl. Gloede, Wolfgang, Vom Lesestein zum Elektronenmikroskop, Berlin 1986.

[6]             Schuck-Wersig, Petra, Expeditionen zum Bild, Beiträge zur Analyse des kulturellen Stellenwerts von Bildern, Europäische Hochschulschriften, Bd. 35, Frankfurt 1993, S. 180.

[7]             Vgl. McLuhan, Marshall, Understanding Media, New York 1964.

[8]             John von Neumann hat die Beschreibung eines erweiterten Rechnersystems (EDVAC) als eine Zusammenstellung menschlicher Organe und vor allem eines Gehirns als Speicher beschrieben. Vgl. Goldstine, Hermann H., From Pascal to von Neumann, Princeton 1993, S. 204.

[9]             Heinz von Foerster stellt dies sehr überzeugend dar, wenn er schreibt: „Obwohl wir weder damals eine Ahnung hatten noch heute wissen, wie das Gehirn, das Gedächtnis, funktioniert, scheint die Strategie, eine Undurchsichtigkeit durch eine andere zu erklären, dem allgemeinen Wissensdurst – wenigstens momentan – befriedigt zu haben. Diese Gedankenknospe kam erst zu voller Blüte – anthropomorphia inversa – als man das vorhin Erklärende mit Erklärtem vertauschte und die bekannte Organisation der Rechner und ihrer Speicher als die ihre dichterische Bezeichnung erfüllende Funktion deutete.“ Foerster, Heinz von, Wahrnehmen, in: Aisthesis, Wahrnehmung heute, Leipzig 1990, S. 438.

[10]           Zum Zusammenhang zwischen Geist und Computer Vgl. Mainzer, Klaus, Computer – Neue Flügel des Geistes?, Berlin 1994.

[11]           Dreyfus, Hubert L; Dreyfus, Stuart E., Künstliche Intelligenz, von den Grenzen der Denkmaschine und dem Wert der Intuition, Hamburg 1987, S. 99. Dreyfus und Dreyfus haben, bisher unwiderlegt, dargestellt, daß die „Generel Problem Solver“-Ansätze der KI lediglich sehr begrenzte Problemfelder bearbeiten konnten und diesen Systemen alles fehlt, was gemeinhin unter common sense verstanden wird. Hierdurch ist der Aktionsradius auf genauestens definierte Gebiete beschränkt.