Die paranoide Maschine

Es kann sich mitunter lohnen, die tiefer liegenden Ursachen für unbefriedigende Phänomene zu suchen. Schließlich wollen wir ja erkennen, was Sache ist.

Ich weiß, ich bin spät dran. Vor einiger Zeit schon wurde, v.a. bei Telepolis, ziemlich heftig über das Thema diskutiert. Dann ist das Buch, »Die paranoide Maschine – Computer zwischen Wahn und Sinn«, von Peter Krieg erschienen. Dieses kann man, wie ich, als den Versuch einer theoretischen Grundlegung von Pile, einer Erfindung von Erez Elul, mit der er die Computertechnologie revolutionieren möchte, lesen. Doch Krieg hat mit der von ihm propagierten Erfindung ein Kommunikationsproblem: (fast) niemand versteht ihn, kaum einer glaubt ihm. Er steht vor verschlossenen Türen, wie brandeins zuletzt berichtete. Dabei erntet er wohl überall Zustimmung für die Darstellung der Krisen-Symptome, manchmal auch für die Beschreibung der Ursachen des Dilemmas der Computer-Technologie.

Worum geht es nun im Buch?

Ich möchte nun Kriegs Text hier kurz darstellen, und strukturiere diesen inhaltlich in eine Beschreibung einiger Krisensymptome der Computertechnologie, in eine Darstellung der Ursachen und in die Versprechungen (s)eines Lösungsansatzes. Unabhängig davon, ob man diesen Versprechungen folgen kann (sofern sie überhaupt im Buch nachvollziehbar dargestellt werden), sind die vorangehenden Abschnitte des Buches hochinteressant und informativ.

Über paranoide Maschinen

Das hier zur Debatte stehende Phänomen ist unsere Unzufriedenheit mit dem State of the Art der Computertechnologie: über 50 Jahre lang haben Heerscharen von Wissenschaftlern, Ingenieuren und Programmierern geforscht, experimentiert und entwickelt, wir haben Computer mit gigantischer Rechengeschwindigkeit und Kompliziertheit, die aber nicht die erforderliche Intelligenz haben, um sich, zum Beispiel, selber bei Abstürzen zu reparieren. Computer mit Null-Anpassungsfähigkeit an uns Benutzer. Computer, die nicht in der Lage sind, festgelegte Denkpfade, das einmal gestartete Programm zu verlassen und selbstständig nach einem geeigneteren Ausschau zu halten. Computer, die wenn sie gut sind, rational handeln, aber Null-Intuition haben, also nicht denkfähig sind. – Ich bin mir nicht sicher, ob man sich das wünschen sollte: denkende Maschinen, Maschinen mit Bewusstsein, gar mit Selbstbewusstsein. Doch genau das gehört(e) zu den Versprechungen der Künstlichen Intelligenz, erreicht hat man jedoch noch nicht einmal den Stand von HAL aus „2001: Odyssee im Weltraum“, der Film gewordenen Vision von Kubrick und Minsky. – Andere wesensbedingte Unzulänglichkeiten zeitgenössischer Computer sind Intransparenz der Datenorganisation, der man durch mehr oder weniger gute Suchtechnologien (z.B. Spotlight) begegnen will, eine fragwürdige Benutzeroberfläche aka Mensch-Maschine-Schnittstelle, bei der durch hohen Grafikaufwand und Personalisierungs-Gimmicks verschleiert wird, dass der Computer sich eben nicht dynamisch an den Benutzer und seine Gewohnheiten anpassen kann. Die allgegenwärtige Inkompatibilität von Computern, Betriebssystemen, Schnittstellen, Formaten ist ein weiteres Beispiel für die konzeptionell bedingte Unzulänglichkeit. Auch werden Computer zunehmend ineffizienter: der Berechnungsaufwand für jede neue Funktion (in neuen Softwareprodukten mit oft immer mehr aufgeblähter Featuritis) sowie der energetische Aufwand (man denke an die Kühlungsprobleme) steigt exponentiell, d.h., die Effizienz sinkt. Wir sitzen vor unseren Computern, deren Software seit den Siebzigern des vorigen Jahrhunderts aufgehübscht wird, aber sich eigentlich kaum weiterentwickelt hat, oft nur alter Wein in neuen Schläuchen.

Eine Arabeske zwischendurch: Bill Gates erkannte offensichtlich schon vor fünf Jahren, dass Plug ’n Play nur eine konzeptionelle Krücke ist, Ärgeres zu kaschieren. Auf die Frage, was er denn tun würde, könnte er noch einmal gänzlich neu beginnen, sagte er sinngemäß: Es hat mit einer neuen Art des Verständnisses von Computern zu tun. Warum können Computer eigentlich keine Software schreiben? (Red Herring, September 2000)

Die Suche in Datenbanken und Netzwerken wie dem Web ist wohl deshalb eine mühsame Sache, weil die Daten top down, also nicht generativ von unten sondern deduktiv von obern her, strukturiert sind. Suchmaschinen ala Google müssen die zu indexierenden Inhalte selbst speichern (was dem Nutzer eine „Archiv“-Funktion vorgaukeln kann) und sind aus technischen Gründen gezwungen, die Suchanfragen vom Umfang her zu beschränken. Das schränkt die Effektivität einer Suche von vornherein ein. (Zwar richtig aber lächerlich die Schutzbehauptung, der zufolge die Benutzer gar nicht mehr wollen, statistisch nur 1,5 Suchworte eintippen würden.)

Die gängigen relationalen Datenbanken sind vom Modell her inflexibel: Möglichst viele Schlüsselfelder ermöglichen zwar schnelle Antworten auf die Abfragen, potenziell jedes Datenfeld zum Key zu machen, ist vielleicht sinnvoll aber sicher wegen des zu betreibenden Aufwandes unbezahlbar.

Bei der heutigen Datenkommunikation werden zwischen Sender und Empfänger fast immer komplette Dokumente ausgetauscht. Ein einfaches Beispiel ist das Hin- und Her-Geschicke von überarbeiteten Mail-Anhängen.

Maschinelle Übersetzungssysteme arbeiten wie gewöhnliche Wörterbücher, also wort- bzw. phrasenweise. Bei Fachsprachen mag das ausreichend, sonst sorgen die Ergebnisse mitunter eher für Heiterkeit. Neuere Ansätze für bessere Sprachcomputer gehen von satzweisen Wörterbüchern aus.

Noch einmal zur Mensch-Maschine-Schnittstelle: der PC ist nach wie vor nicht in der Lage, sich seinem Benutzer anzupassen, im Gegenteil, es wird verlangt, dass der Benutzer sich dem Computer anpasst. Alle heutigen, meist grafischen Benutzer-Schnittstellen sollen die Anpassung des Benutzers nur erleichtern. Scheinbar besonders gelungene Oberflächen und Konzepte, wie die meines Apple-Powerbooks, sind zwar einen ziemlichen Tick weiter als der Durchschnitt – Adaption, eine genuin individuelle Anpassung durch Antizipation und Prognosen meines Verhaltens sind auf diesem Wege aber wohl eher nicht zu erwarten. Dabei ist der Stand der Technik, der Stand der interaktiven Simulationsfähigkeit des Computers auf einem scheinbar abseitigen Gebiet, dem der Computerspiele, doch schon viel weiter.

Was macht Peter Krieg nun als Ursache für die beschriebenen und hier nicht beschriebenen konzeptionellen Mängel aus? Die Wurzel des Übels sieht er – und führt das auf vielen Seiten sehr überzeugend aus – in unserem Verständnis von Logik. Passend zum Einstein-Jahr zitiert er diesen mit dem Bonmot

„Innovation ist nicht das Ergebnis logischen Denkens, auch wenn das Ergebnis logisch ist.“

Zunächst wird dargestellt, wie Logik, wie formale Logik aufgebaut ist. Es werden die vier Axiome (die Sätze von der Identität, vom Widerspruch, vom „ausgeschlossenen Dritten“ – des erdrückend oft gehörten „Tertium Non Datur“ – sowie dem vom zureichenden Grund) erläutert. Also sprach Aristoteles.

Doch die formale Logik ist streng genommen keine Methode zur Überprüfung von absoluten Wahrheiten, sondern ein Regelwerk zur korrekten Ableitung von Schlüssen aus beliebigen Vorgaben. Logische Aussagen in diesem Sinne sind immer nur in einem bestimmten Werte-Raum, in einer geschlossenen logischen (Baum-)Struktur richtig.

Die Verwandtschaft von Mathematik und Logik beruht auf den selben Grundlagen: Axiome, die gegeben sind und nicht hinterfragt werden. Mit Hilfe der Mathematik soll und kann logisches Schließen errechnet werden. Das wurde zur wesentlichen Triebkraft der Entwicklung von Rechenmaschinen und Computern. Wenn man Logik gleichbedeutend zu Denken setzt, dann ist eine Rechenmaschine auch eine Denkmaschine. Mit Hilfe von Leibnizformaler Sprache, der binären Notation, konnten später und werden bis heute Computer gebaut, die ausschließlich auf der Grundlage der klassischen Logik funktionieren. Ein Computer kann immerhin schon in verschiedenen logischen Räumen operieren, je Programm aber nur in einem, was den PC im Bereich der klassischen Logik verankert.

Menschen, die alle Ereignisse in nur einem einzigen Bezugssystem einordnen, sind im medizinischen Sinne paranoid. Paranoia erkennt nur eine Ursache, nur einen logischen Bereich als Wurzel aller Bewusstseinsinhalte an. Paranoiker sind Logiker par excellence: Ein Axiom dient zur Ableitung und Unterordnung aller Erkenntnis und Aussagen. Peter Krieg folgert nun, dass eine Maschine, die mentale Funktionen des Menschen übernimmt und dabei nur in einem logischen Bereich gleichzeitig arbeiten kann, ebenfalls die Voraussetzungen der Paranoia erfüllt. Solange unsere Computer paranoide Maschinen sind, sollte man sie besser von Aufgaben und Entscheidungen fern halten, die über mechanische Berechenbarkeit hinausgehen, gar (menschliches) Denken und Intelligenz erfordern.

Natürlich hat sich der Stand der Technik seit Aristoteles, Archimedes, Leibniz, Babbage und Boole weiterentwickelt. Neue Quantitäten wurden insbesondere in Form von beschleunigten Rechenoperationen, integrierten Schaltkreisen, Multitasking usw. erreicht, so dass man von einer „Universalmaschine“ sprechen kann. Eine grundsätzlich neue Qualität in dem Sinne, dass der Computer eigene Entscheidungen fällt und realisiert, wurde aber nicht erreicht. Mehr Quantität wird nie in eine andere Qualität umschlagen. Die Fesseln sind das Verhaftetsein im Bereich der klassischen Logik, unser Missverständnis, demzufolge Logik in ausreichender Weise unser Denken repräsentiert.

Klassische Logik ist nicht hinreichend

Krieg unternimmt eine ausschweifende Exkursion durch andere „logische Gefilde“, um diese auf prinzipielle Tauglichkeit für die Überwindung der mono-logischen Grenzen hin zu untersuchen. Zum Beispiel die östliche Denkweise mit ihrem Yin-und-Yang-Denken, das den Gegensatz nicht ausschließt sondern als Gegenpol bewahrt. Damit wird Komplexität aufgebaut und Dynamik erzeugt. Dieses bipolare Denken des Yin und Yang ist im Gegensatz zum westlichen logischen Denken als analytische Methode, die sich insbesondere zur wissenschaftlichen Analyse sowie zum Bau von (mechanischen) Maschinen eignet, eine synthetische Denkweise, die Axiome und Hypothesen aus der Kombination von Grundelementen bildet. Bottom Up vs. Top Down. Es liegt auf der Hand, dass eine Verbindung beider Welten enormes Potenzial entfalten kann, für diese Erkenntnis muss man nicht Kants „Kritik der reinen Vernunft“ oder „Rhizom“ von Deleuze / Guattari gelesen (und verstanden) haben. Es liegt auf der Hand, dass der Schlüssel zu Neuem die kreative Synthese ist, die des Irrtums als Erkenntnisquelle bedarf.

Von der Synthese ist es argumentativ nicht weit bis zur Kombinatorik, zum Reich der praktisch unendlichen Möglichkeiten, in dem sich Computer genauso wie Lebewesen nur durch Reduzierung der Komplexität bewegen können, weil man mit der „Versuch-und-Irrtum-Methode“ in akzeptabler Zeit zu keinem Ergebnis kommt. – Diese Thematik „und weitere bad news aus der Computerwelt“ werden übrigens sehr anschaulich und ausführlich im Buch „Das Affenpuzzle“ des israelischen Mathematikers und Informatikers David Harel behandelt.

In Peter Kriegs Buch folgt darauf ein Abriss über klassische und transklassische Logiken. Die mehrwertige Logik (mehrere Wahrheitswerte unterhalb eines Axioms) und die Fuzzy-Logik (ein Bereich für Wahrheitswerte unterhalb eines Axioms) gehören im Grunde genommen noch zur klassischen Logik. Bei polylogischen Systemen dagegen sind die Aussagewerte mit mehreren Axiomen verknüpft und in diesem Sinne komplex, weil innerhalb einer einzelnen Logik nicht vollständig beschreibbar. Sprache, jeder menschliche Dialog ist per se von polylogischen Situationen durchsetzt: gleiche Begriffe sind mit individuell anderen Bewusstseinsinhalten verknüpft. Krieg operiert mit großen Namen als Kronzeugen (hierin Lutz Dammbeck mit seinem Film und Buch „Das Netz“ – s.a. hier – nicht unähnlich!) für ein neues Verständnis von Künstlicher Intelligenz: der Philosoph Gotthard Günther, der Physiker Heinz von Foerster. Günther versuchte, das geschlossene monologische Bezugssystem der klassischen Logik systematisch zu durchbrechen, wollte das Problem nicht nur theoretisch erörtern sondern praktisch einen „polykontexturalen Operator“ entwickeln. Für Günther stand ein neues, Subjekt und Objekt integrierendes Welt- und Menschenbild seit Hegel auf der Tagesordnung und die Philosophie war es spätestens seit der Formulierung der Quantenmechanik durch Planck, Einstein, Bohr und Heisenberg der Naturwissenschaft schuldig. Von Foerster faszinierte und kritisierte mit seinem „Biological Computer Laboratory“ (BCL) die „harte“ Kybernetik- und KI-Szene. Am BCL wurde der erste Parallelrechner entwickelt, wurden von Anfang an ethische Fragen im Zusammenhang mit den Entwicklungen diskutiert, stellte man das Problem der Kognition in den Mittelpunkt bei den Arbeiten an lernfähigen adaptiven Maschinen. (Während die „harte“ Kybernetik und die Künstliche Intelligenz alle komplexen Prozesse als elt Differenzen mit ihrer Umwelt erzeugen, kann diese Beziehung nach Krieg in einer „Differenzlogik“ beschrieben werden, wie er diese sich seit Kant (Ding „an sich“ und „für sich“) und Günther entwickeln sieht. Im Gegensatz zur auf der klassischen Logik fußenden und Teil-Ganzes-Beziehungen beschreibenden „Identitätslogik“ geht es bei der Differenzlogik um die Qualitäten „innen“ und „außen“; Eingeschlossenes als teil des Systems und Ausgeschlossenes als teil der Umwelt bleiben formal verknüpft. Differenzlogik bezieht sich also auf die Relationen von Operationen anstatt auf die von Identitäten. Doch auch diese lassen sich mit Relationen beschreiben. Krieg tut das mit Hilfe der Peirceschen Semiotik und deren drei Relationen „Representamen“, „Objektrelation“ und „Interpretatorische Relation“.

Daten bekommen ihren Wert erst durch Relationen, die den Daten zu Bedeutung verhelfen, indem sie auf Identität (wer bin ich?), Objektbezug (was repräsentiere ich?), Interpretation (was bedeute ich?), Physik (wo bin ich, wieviel Platz brauche ich?) und Intention (wozu, wofür bin ich brauchbar? [Fragen eines Datums]) verweisen. Daten werden im Computer mit ihren Relationen in Form von Attributen / Metadaten gespeichert, was ein grundlegender Unterschied zu lebenden Systemen ist. Das Gehirn „speichert“ keine physischen Daten, sondern nur die logischen Relationen. Neue Gedanken brauchen keinen neuen Speicherplatz, keine neuen Neuronen. Genies und Normalsterbliche kommen mit der gleichen Anzahl aus. Auch ist das kindliche Gehirn nicht „leer“ sondern ein bereits voll ausgebildetes neuronales Netz.

Peter Krieg zieht aus dieser Funktionsweise unserer biologischen Kognition Schlüsse für die Computertechnik, die solche Prozesse simulieren sollte und damit vielleicht Fähigkeiten erlangen kann, die unseren kognitivem System näher kommen als Computer und die Versuche der Künstlichen Intelligenz bisher. Er trifft den israelischen Tüftler Erez Elul, der Anfang der 90er in Prag beginnt, an der Formalisierung einer Architektur zu arbeiten, die die Existenz einer Identität mit ihrer Nicht-Existenz verbindet. Anfangs tut er das als rein sprachliches, als poetisch-philosophisches Projekt, später wird daraus ein Computerprojekt. Krieg bringt gedanklich das, was er über Günther und von Foerster weiss mit dem, was Elul ihm darlegt, zusammen. Das Projekt Pile begann. So ähnlich geht die Story im Buch.

Die Elulsche Differenzlogik verknüpft jede Identität grundsätzlich mit zwei getrennten logischen Bereichen, wobei einer die interne Logik repräsentiert und der andere das assoziative Außen. Im Gegensatz zur klassischen Hierarchie hat jedes Ding (wie im Leben die Kinder) zwei Eltern, ein Affront zur verbreiteten Huldigung der mono-logischen Baumstruktur. Der Verzicht auf die Verknüpfung der Daten mit äußeren Identitäten, auf Sichtbarkeit und stattdessen die Kapselung der Daten und das Verbergen in nicht einsehbaren Dateien und Verzeichnissen führt zu immer neuen physischen Repräsentationen der gleichen Daten. Die dabei entstehende Redundanz an Daten, weil der Computer nicht durch assoziatives Schließen weiß, dass er dieses Wort oder jenen Satz in diesem oder jenem Kontext bereits gespeichert hat ist die Folge. Um komplett assoziativ zu arbeiten, müsste das Daten-Ganze in seine Teile aus Zeichen, Wörtern, Sätzen usw. zerlegt und den das ganze strukturierenden Relationen zerlegt werden. Wenn das Ganze vollständig als Relationen seiner Teile repräsentiert werden kann, erhält man eine generative Repräsentation des Ganzen, dann kann das Ganze aus seinen Teilen komponiert werden.

Demnach soll man völlig auf Daten im herkömmlichen Sinne verzichten und stattdessen nur noch mit reinen Relationen operieren können. Die traditionelle Unterscheidung von Daten, Datenstrukturen und Programmen im Computer wäre aufgehoben! Die von-Neumann-Architektur unserer heutigen Computer trennt Daten und Programme, Elul hebt diese Trennung auf, indem er Daten, Datenstrukturen und Codes in gleicher Weise als Relationen repräsentiert. So wird, kurz zusammengefasst, der Ansatz von Erez Eluls „Pile System“, das jeden Input als logische Relationen und nicht als physische Daten repräsentiert, im Buch beschrieben. „Pile“ weil diese Art von Strukturierung die unbegrenzte Anhäufung von neuen „Daten“ ermöglicht. Pile sei eine selbstorganisierende, wachsende Struktur aus Relationen.

Daten in Pile existieren nur virtuell, die Struktur existiert nur als logische, nicht als physische Struktur. Eine Software-Engine transformiert zwischen dem logischen Adressraum der Struktur und dem physischen Adressraum des Speichers. Physisch werden nur „Adress-Handles“, keine Daten gespeichert. Man kann sich die Struktur als eine Schichten-Architektur vorstellen, bei der das generierte Ganze unten steht. Die zum Beispiel ein Wort, das zuunterst stehende Ganze, beschreibende Relation enthält die Pfade zu den Knoten der Zeichen, aus denen das Ganze besteht. Eine Relation kann Daten in beliebiger Größe generieren, je mehr, desto tiefer sie in der Struktur angesiedelt ist. Die codierte Information wächst exponentiell mit jeder Schicht. – In der derzeitigen Implementierung beherrscht Pile vier Milliarden Relationen (in 32 Schichten). In einer Pile-Struktur ist jeder Schritt eine Bewegung in gleichzeitig zwei Topologien und Dimensionen mit insgesamt vier Richtungen (oben / unten, innen / außen), während in gewohnten Netzen nur in eine Richtung navigiert wird. Der Informationsgehalt pro Schicht wächst exponentiell schneller als in Baumstrukturen – bei gleichzeitig nur linearem Wachstum an Rechenschritten, um die gesuchte Information zu gewinnen. Hier stellt sich mir die Frage, ob Elul einen Weg gefunden hat, bisher für nicht-berechenbar gehaltene Probleme berechenbar zu machen?

Peter Krieg bezeichnet als wichtigstes Charakteristikum von Pile die Fähigkeit, die eigene Ordnung zu erhöhen. Bisher wird durch Softwaresysteme eine Ordnung durch eine andere ersetzt, zum Beispiel sind nach dem Abspeichern einer in Bearbeitung befindlichen Textdatei die Arbeitsschritte (Undos) nicht mehr verfügbar. Biologische Systeme dagegen – obwohl es auch hier das Konzept Zeit gibt – ersetzen ihre kognitiven Ordnungen, ihr Wissen, nicht in jedem Augenblick durch neues Wissen, sondern vorhandes Wissen wird kontinuierlich, vorhandene Ordnungen werden um Differenzierungen angereichert. da Pile Relationen statt Daten speichert, wächst mit der Relationen-Struktur auch ihre Ordnung. Es gibt noch keine klaren Begriffe, noch keine Metaphern, die eine solche Maschine beschreiben, Krieg spricht vorerst von einem „Simulationscomputer“. Und hat Visionen, wozu er gut sein kann.

Einige Visionen

Peter Krieg zitiert in diesem Zusammenhang David Gelernter, auch so ein Protagonist im o.g. Film „Das Netz“ (und Unabomber-Opfer):

„Die heutigen Betriebssysteme und Browser sind obsolet, weil die Menschen nicht länger mit Computer verbunden werden möchten, sondern mit Informationen.“

Eine Repräsentation der Daten des Webs als Relationen soll eine automatische, feinkörnige Verknüpfung und darüber eine effizientere Suche ermöglichen. Unbegrenzt lange Suchargumente, komplexe, rekursive Suchalgorithmen würden bessere Ergebnisse liefern.

Relationen repräsentieren nicht nur Daten sondern auch dynamisch generierbare Datenstrukturen und Algorithmen. Deshalb sollen sich alle denkbaren Datenstrukturen und Operationen simulieren lassen: Eine Datenbank wäre keine starre Struktur mehr sondern eine Simulation, ähnlich einem Computerspiel. Solche dynamischen Datenbanken versprechen einen enormen Effektivitätsgewinn.

Die digitale Kommunikation ähnlich der zwischen lebenden Systemen würde statt Daten Signale austauschen, mit deren Hilfe die Informationen, die Botschaften generiert werden könnten. Der empfangene Computer bräuchte nur die Parameter, um seine Struktur so zu verändern, dass die entsprechenden Daten simuliert werden können. Das zu übertragende Datenvolumen sinkt mit Zeit – die Computer lernen.

Da es deutlich mehr Sätze als Wörter gibt, ist es unmöglich, alle möglichen Sätze zu speichern, zumindest so zu speichern, dass ein herkömmlicher Sprachcomputer diese mit annehmbaren Aufwand und in akzeptabler Zeit findet. Ein Relationen-basierter Simulationscomputer soll Wörter, Sätze und Abschnitte nur als virtuelle Daten ohne physische Einschränkungen generieren können. Ein Sprachprogramm könne dann aus den Verwendungsmustern der Sätze automatisch den passenden Kontext im Rahmen des Textes ermitteln. Satz-Wörterbücher könnten dynamisch generiert werden.

Die kognitive Bibliothek versus die alexandrinische Bibliothek: Krieg stellt die These auf, dass die Benutzer künftiger Bibliothekssysteme kein Interesse daran haben werden, irgendwelche Dokumente mit (hoffentlich) Antworten auf ihre Fragen zu erhalten, sondern den direkten Zugang zu den semantischen Inhalten dieser Dokumente zu bekommen. Ihnen wird es gleichgültig sein, ob es ein wörtliches Zitat oder eine äquivalente Paraphrase ist, solange diese Beschreibung korrekt ist und den Bedürfnissen des Benutzers entspricht. Die kognitive Bibliothek ist im Grunde nur ein einziges, virtuelles Buch, sie würde die Grenzen heutiger Suchmaschinen und digitaler Bibliotheken (Anfrage-Größe, Unabhängigkeit vom Kontext, automatische rekursive Suche, Ungebundenheit an Katalogsysteme und Indizes) sprengen.

Ein gaaaanz kurzes Resümee

Weder erwarten noch wünschen wir uns intelligente Computer, die uns das Denken und alle Entscheidungen abnehmen. Solange wir bereit sind, Verantwortung für unser Handeln zu übernehmen und diese nicht delegieren wollen, können intelligente Maschinen unser Leben bereichern. Solange die Wissenschaft, darin der Religion strukturell durchaus vergleichbar, die absolute Wahrheit beansprucht, geht davon eine totalitäre Gefahr aus – auch die Diktatur der Technik beginnt mit der Selbstaufgabe des individuums. Solange kritische Stimmen wie die von Humberto Maturana, Heinz von Foerster, Gotthard Günther und Joseph Weizenbaum weitgehend ungehört verhallen, besteht umso mehr Grund zur Wachsamkeit.

Ich kann das, ich kann Pile nicht abschließend bewerten. Man mache sich selbst ein Bild! – Das Buch ist hochinteressant, es hat Spaß gemacht, es zu lesen.

Wir verstehen nur, was wir machen können. (Friedrich Nietzsche)

bei Telepolis weiterlesen:
Interview mit Heinz von Foerster: „Wir sehen nicht, was wir sehen“ sowie über den Film „Das Netz“: „Was hat Computertechnik mit Hippiekultur, was hat die Mathematik des 20. Jahrhunderts mit Terrorismus, was hat die Bewusstseinsforschung der 50er Jahre mit Paranoia zu tun?“

2 Comments

  1. rainer Sonntag, 24. September 2006

    nicht viel Neues

    aber

    ich hab eine Satzsuchmaschine gebaut

    http://www.ency.de

    die sie mal testen könnten

    rainer

  2. mannpferd Sonntag, 10. Dezember 2006

    Hallo!

    Eine schöne Buchbesprechung, die auch für den Laien etwas taugt, so dieser sich dazu bequemt, diverse Fremdwörter und damit zusammenhängende Informationen und ~gefüge nachzuschlagen. Was mich ein wenig stört ist, die “Verharmlosung” des genannten Yin&Yang-Denkens (als Surrogat für östliches Denken allgemein). Aus östlich-philosophischer Sicht scheint dieses Buch dahingehend Unnütz zu sein, dass einerseits – lapidar formuliert – die Erkenntnis hinter dem Satz “Alles fließt / alles ist in Bewegung” all die oben erwähnten und besprochenen westlichen Erkenntnisse obsolet macht und noch mehr: die westliche Wissenschaft als Farce entlarvt dergestalt neue Erkenntnisse dort “nur” aus einer neuen Stufe der Vergrößerung resultiert (-> Lupe).

    Ausserdem kommen mir spontan diverse Gedankenfragmente in den Sinn: einmal Stanslaw Lems “Also Sprach Golem”, wo der Irrweg der Vermenschlichung der Maschine einerseits und der Glaube, die Implantation von Logik alleine führe zu dem gewünschten Resultat – einer selbst denkenden Maschine; ausserdem erinnere ich mich dunkel an dies hier:

    2001: Odyssee im Weltraum Arthur C. Clarke, Stanley Kubrick: Der Schriftsteller Arthur C. Clarke hat eine der dramatischen Episoden von 2001 erdacht, in der es darum geht, dass es für eine künstliche Intelligenz keinen Grund gibt, gegenüber Doppelbindungen weniger verletzlich zu sein, als eine biologische Intelligenz (siehe Doppelbindungstheorie). Das wiederum führt uns zurück zur genannten “Vermenschlichung” der Maschine.

    So weit, so gut. Danke für dieses Stück Horizonterweiterung im Bereich der Logikforschung!

    es grüßt,
    Mannpferd

Comments are Disabled

%d Bloggern gefällt das: