Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Computer Neuroscience und Mind Exzerpt

Zuse Computer Neuroscience Mind Paul Schreber

The Computer and the Brain Vorwort von Ray(mond) Kurzweil (2012) Ab der 3. Auflage von John von Neumanns »The Computer and the Brain« gibt es ein interessantes Vorwort von Ray(mond) Kurzweil, Jahrgang 1948, welches wir hier nicht übergehen dürfen. Es zeigt, wie sich dieses Denken weiterentwickelt hat – bis zur Schaffung eines neuen Mythos des 21. Jahrhunderts, einschließlich Sektenbildung. Dieser MIT-Absolvent schrieb mit 15 Jahren sein erstes Computerprogramm und las viel science fiction. Dabei ist er geblieben: Erfinder, Autor, Futurist, Utopist, KI-Enthusiast, Firmengründer, Direktor Technik von Google. Außerdem glaubt er, daß wir das mit dem ewigen Leben irgendwann hinkriegen – bzw. nicht wir, aber der KI-Computer. So soll er bestimmt haben, daß für den Fall seines Todes cryoprotectants seine Zellen vor der Vernichtung durch Kälte schützen und er dann in flüssigem Stickstoff bei -196 Grad Celsius konserviert wird – bis es halt so weit ist. Dafür steht eine Firma bereit, die sich Alcor Life Extention nennt. 149 weitere Aspiranten auf das ewige Leben sind dort bereits versammelt. Zur Frage der Definition von Tod (juristisch) und der Prozedur siehe Endnote iii. Die Prozedur muß sofort nach Herzstillstand gestartet werden (nach deutschem Recht also nicht möglich, weshalb das im Ausland – USA, Russland – stattfinden muß). Der Aspirant muß sofort an eine Herz-Lungenmaschine angeschlossen werden, damit Blut und Sauerstoff weiter zirkulieren. Es muß Heparin gegeben werden, damit es nicht zu Blutgerinnseln kommt. Dann wird der Aspirant in Eis gepackt. Parallel wird der Aspirant – der nach unseren Kriterien noch lebt – vitrifiziert, d. h. es wird ein Prozeß der Verglasung eingeleitet, der die Eisbildung zwischen den Zellmembranen verhindern soll. Das müßte, um Zellschäden zu vermeiden, 1. durch langsame Abkühlung und 2. in „Sekundenbruchteilen“ geschehen. Es müßte also ein Verfahren geben, das 1. und 2. so ausbalanciert, daß keine / kaum Schäden entstehen. Heute weiß man, daß das bei größeren Körpern wie einem ganzen Gehirn oder gar einem ganzen Menschen technisch unmöglich ist. Man beschränkt sich auf die Miniebene: Einfrieren von Gameten oder sogar 2- bis 8-zelligen befruchteten Zellen (Embryonen) ist möglich. Auf diesem (Geschäfts-)Gebiet wird viel geforscht und experimentiert, denn die Nachfrage ist in den Industrieländern groß. So ist man dazu übergegangen, auch das Ei umliegendes Eigengewebe einzufrieren, um die Chance für eine spätere Annahme des Transplantats in den Uterus zu erhöhen. Auf diese Weise soll es schon zu „normalen“ Schwangerschaften und Geburten gekommen sein (2015). Die cryopreservation ist in der sog. Fruchtbarkeitsmedizin der große Renner und das große Geschäft. In Deutschland haben wir eine Fertilitätsrate vom ca. 1,3 bis 1,4, (2005), was zwangsläufig zu Bevölkerungsrückgang führt. Darunter sind Paare, die ungewollt kinderlos sind, etwa 6 Millionen (Alter zwischen 25 und 59, d. i. 1/6 der Altersgruppe. Diese werden aufwendig vom Bundesministerium für Familie etc. unterstützt. In München haben wir seit einigen Jahren eine sogenannte Cryobank… Kurzweil läßt den Leser zu Anfang wissen, daß wir uns auf weitere radikale Veränderungen des menschlichen (Zusammen)Lebens durch weltweite Computervernetzung einzustellen haben (S. xi). Dies wird u. a. durch reverse engineering erreicht, was so viel heißt wie das ein für eine Leistung X ausgelegter Computer für eine Leistung Y umgebaut und –programmiert werden kann (im Idealfall sich selbst umbaut und reprogrammiert). Kurzweil meint dazu: »In a grand project to understand the human brain, we are making accelerating gains in reverse engineering the paradigms of human thinking … Artificial intelligence devised in this way will ultimately soar past unenhanced human thinking« (ebd.). Das interessante Wort in diesem Satz ist unenhanced. Enhanced heißt schlicht und einfach verbessert, es wird also impliziert, daß das menschliche Denken in seinem gegenwärtigen bedauernswerten Zustand demnächst dem Denken der Maschine hinterherhinken wird. (Das kriegen wir aber sicher demnächst durch genetic engineering in den Griff). Wir leben bereits in einer human-machine-civilization, die auf dem Wege ist, sich in eine machine-human-civilisation zu verbessern (S. xii). Hierzu haben fünf Entwicklungen geführt, und von Neumann hat in drei Punkten entscheidendes geleistet. Punkt 1 geht an Claude Shannon (1916 – 2001), noch ein Mathematikgenie. Er löste das Problem der Fehlerhäufigkeit in Computersystemen. Punkt 2 geht an Alan Turing (2012 – 1954), der den Enigma-Code knackte und damit den Zweiten Weltkrieg für die Alliierten gewann. Punkte 3, 4 und 5 gehen an John von Neumann, wobei wir gleich bei Turing einen halben Punkt abziehen müssen, denn dieser hatte vorher einen bahnbrechenden Artikel von John von Neumann gelesen, was ihn auf die Spur setzte. Er entwickelte daraufhin ein Gedankenmodell der universal computing machine. Das fundamentale Bauprinzip für diese Maschine hat von Neumann später beigesteuert, so daß man sie bauen und bis heute beständig verbessern – enhance - konnte. Hierzu ein kurzer Computerkurs. In den 1940er Jahren arbeiteten die Computer noch analog, d. h. die Zahlenwerte wurden in Voltstärken repräsentiert. Ein äußerst fehlerbehaftetes, also unbefriedigendes Verfahren, da die Fehler sich im Rechenverlauf potenzierten. Schließlich erhält man nur noch noise, das heißt Zufälligkeiten. Als die ersten digitalen Computer aufkamen, dachte man, daß man wieder mit dem Fehlerproblem zu tun bekommt. Das passierte aber nicht, denn von Neumann löste das Problem, indem er durch interne Vernetzung und Rückkoppelung mit sich selbst den Computer »kommunizieren« läßt, wenn er neue Daten erhält. (Man könnte sagen: von Neumann stattete ihn mit einer Reafferenzkopie aus, wahrscheinlich hat er von Holst gelesen.) »There is communication between its memory and the central processing unit. Within the central processing unit, there is communication from one register to another, and back and forth to the arithmetic unit, and so on. Even within the arithmetic unit, there is communication from one bit register to another« (S. xivf., meine Hervorhebung). Wie haben die das hingekriegt? Antwort: durch Redundanz. Ein ›bit‹ wird einfach mehrmals prozessiert und der Computer ›wählt‹ als richtigen Wert den Wert, der aus den Berechnungen am häufigsten identisch herauskommt. Diese Leistung erbringen die logic gates, deren neuronales Analogon von Neumann – s. u. – noch beschreiben wird. Mit diesem Bauprinzip kann sichergestellt werden, daß der Computer jedes Problem lösen kann, und wenn nicht, dann ist er kein Computer und muß enhanced werden. Das sei, so mein Kurzweil, natural law, ein Naturgesetz, genannt die Church-Turing-These (S. xviii). Daraus folgt: »»Strong« interpretations of the Church-Turin thesis propose an essential equivalence between what a human can think or know and what is computable by a machine. The basic idea is that the human brain is subject to natural law, and thus its information-processing ability cannot exceed that of a machine (and therefore of a Turing machine) « (ebd.). Soweit die These. Nun kommt die Wirklichkeit. Schon Gödel hatte festgestellt, und Turin mußte diese Erfahrung auch machen, daß es ›richtige Sätze‹ gibt, die gleichzeitig ›falsche Sätze‹ sind. Das ist weder logisch noch für einen Computer darstellbar, denn er kann nur 1 = richtig und 0 = falsch liefern. Ich zitiere ein Beispiel aus einer Mathematiker-Webseite: » »Dieser Satz ist falsch. « Wenn man annimmt, daß der Satz wahr ist, dann sagt er über sich selbst aus, daß er falsch ist. Somit kann er nicht wahr sein. Nimmt man aber an, daß er falsch ist, dann folgt, daß er wahr sein muß. Somit kann er nicht falsch sein. Nun mag man vielleicht sagen, das sei eine sprachliche Aussage, keine mathematische, aber im Prinzip sind auch sprachliche Aussagen dieser Art mathematische Aussagen«. http://www.hugi.scene.org/adok/math/new_math30.pdf Für die Mathematik hat Gödel das nachgewiesen: 1. Gödelscher Unvollständigkeitssatz. D. h., es gibt auch in der Mathematik wohldefinierte Probleme, die eine einzige Antwort erlauben, die jedoch nicht mathematisch dargestellt werden kann. Fazit: Ein formales System (Mathematik) kann nicht gleichzeitig logisch konsistent und vollständig sein. Der 2. Gödelsche Unvollständigkeitssatz besagt, daß ein logisch konsistentes System nicht in der Lage ist, seine eigene logische Konsistenz zu beweisen. Wie beweist man, daß dieser Satz wahr ist? Lt. der erwähnten Webseite wie folgt: Man füttere einem Computer Daten, nach deren Prozessieren er nicht 0 oder 1 ausgeben kann. Computerabsturz. Ende. Ein Computer kann weder »weiß ich nicht« ausgeben, noch sagen »das ist unentscheidbar«. Die Realität (nicht nur die science-fiction-Literatur) ist übrigens voll von solchen Computern, die sich »aufhängen«. An dieser Stelle meint nun Kurzweil, daß über die philosophischen Implikationen der Turing-Church-Gödel-Theoreme eine Menge zu sagen wäre, was er aber nicht tut. Dies sei hiermit an den Philosophen weitergereicht. Es ist ja klar, daß es sich um ein Paradoxon handelt, wovon hier die Rede ist. Und ich weiß, daß das schon ein Hobby der alten Griechen war, sich mit solchen zu beschäftigen. Von Neumann hat nun zur Umgehung von solchen Katastrophen in seinem Bauprinzip neben Kommunikation und Redundanz eine Reihe von Elementen vorgesehen, die das Problem zwar nicht lösen, jedoch es sehr, sehr, sehr unwahrscheinlich machen, daß es auftritt. Eines davon ist eben der stored program computer, zu Deutsch: von-Neumann-Architektur. Hier werden in einem gemeinsamen Speicher (RAM = random access memory) RAM = Speicher mit wahlfreiem und / oder direktem Zugriff, ist ein lese- und beschreibfähiger Speicher. At random bedeutet dabei, daß alle Daten theoretisch die gleiche Zugriffswahrscheinlichkeit haben, woraus geschlossen werden kann, daß das ausgewählte Datum ein für seine Klasse typisches ist. Wir kennen das aus der Meinungsbefragung, der Medizinforschung etc. als random sample = Zufallsstichprobe. Die These aus der Stichprobentheorie ist daraus, daß die Wahrscheinlichkeit, ein solches typisches Datum zu ziehen, genügend hoch ist. Jedes einzelne Datum ist dann »repräsentativ« für die Gesamtheit. Wir bewegen uns hier in der Mengenlehre, mit der sich von Neumann ja auch einen Namen gemacht hat. Bei einer uneingeschränkten und genügend großen Stichprobe aus einer Grundgesamtheit. D. h., es geht nie ganz ohne Fehler, bei ausgereiften, stabilen Programmen muß man mit einem Fehlerquotienten von < 0,5 »rechnen«. sowohl Programmbefehle wie auch Daten gespeichert, was einem »Umschreibprozeß« - recursion – ähnelt. Des Weiteren hat er einen speziellen operation code (= Programm) eingeschlossen, der die arithmetische oder logische Operation steuert / »auswählt«, die für das vorliegende Problem optimal ist. Dabei wird auch die memory angesprochen. Nun ist ausgesprochen interessant, wie dieses device arbeitet: Die Idee stammte ursprünglich von den Lochkarten der Jacquardweber, die ihre zahlreichen Schußfäden durch eben eine gelochte Karte ziehen und dann durch Drehen der Karte vor jedem Schuß entscheiden, welche Farben oben und welche unten liegen. Das hat mir als ehemaliger Hobbyweberin und immer noch Stickerin natürlich sehr gefallen. Beim Sticken ist es sehr wichtig, wie die Rückseite aussieht: Kraut und Rüber oder geordnet? D. h. man muß bei jedem Stich entscheiden, wie man die verschiedenfarbigen Fäden auf der Rückseite legt. Je mehr Farben, desto komplizierter. Man muß dazu das gesamte Muster über die nächsten soundsoviel Reihen überblicken. Bei einem ganz einfachen Muster mit nur 2 x 4 Farben hängen gut 20 oder 30 Fäden vor der Arbeit. Ich hänge ein Bild dazu an. Die Arbeit ist übrigens inzwischen fertig! Und schließlich meint der kurzweilige Kurzweil: »It is ironic that the last work of one of the most brilliant mathematicians of the twentieth century and one of the pioneers of the computer age was an examination of intelligence itself. […] Von Neumann … did not complete the manuscript … It nonetheless remains a brilliant and prophetic foreshadowing of what I regard as humanity´s most daunting and important project« (S. xxivf., meine Hervorhebung). Nun wendet er sich dem Gehirn zu. Hier überspringe ich, denn das führe ich noch anhand von Neumanns Text selbst aus. Irritierend bei Kurzweils Ausführungen ist allerdings das, was er zu Erinnern und Vergessen zu sagen hat. Er stimmt nicht mit von Neumanns Aussage überein, daß das menschliche Gehirn eine enorme memory capacity hat. »The reality is that we remember only a very small fraction of our thoughts and experiences« (S. xxvii). Warum meint er das? »Our memory of events and thoughts is coded in terms of … higher-level recognitions. Da hat er recht, ein Beispiel war oben für die optische Wahrnehmung gegeben. If we recall a memory of an experience, there is nothing equivalent to a video playing in our head. Da hat er auch recht, in unseren neuronalen Verschaltungen befinden sich keine Bilder, obwohl manche Neurowissenschaftler wie Gerald Hüter gerne den Begriff Bilder verwenden. Siehe: Die Macht der inneren Bilder. Wie Visionen das Gehirn, den Menschen und die Welt verändern. Vandenhoeck & Ruprecht, 2004. Hüter ist ein Bestsellerautor. Fragt man ihn – was ich getan habe, er hat in meinem Institut Vorträge gehalten (ein netter Mann, übrigens) -, was er mit Bilder meint, dann räumt er natürlich sofort ein, daß Neuronennetze keine Bilder haben. »Ich meine das natürlich metaphorisch«. Ob das seine Leser auch verstehen? Naja, hoffentlich… Rather, we recall a sequence of these high-level patterns. We have to reimagine the experience, for the details are not explicitly remembered« (S. xxviii). Ja, und da liegt das Mathematikgenie daneben. Ersten: was soll das heißen: re-imagined? Zweitens: natürlich fällt dem Menschen »das Detail« ein, wenn es von den höheren Bewertungsinstanzen als »bewertet« wurde und wenn er es braucht. Kurzweil nun versteht unter Detail z. B., ob ich mich nach einem Spaziergang daran erinnern kann, was nach der dritten Straßenüberquerung und zwei Rechtsabbiegern im 4. Schaufenster auf der gegenüberliegenden Seite ausgelegt war, über das mein Blick dahingeglitten ist. Ich habe es wahrgenommen. Und es fällt mir vielleicht nicht gleich wieder ein, aber zum Beispiel, wenn ich mir sage: Ich brauche einen Wasserfilter. Dann kommt es zuverlässig: Ach ja! Da war doch dieses Geschäft… So bleibt Kurzweil eben nichts anderes übrig, als freimütig einzugestehen: »We are not in a position today to describe the brain perfectly…« (ebd.). Genau. Das hindert ihn jedoch nicht daran, nun zu verkünden: »The brain´s analog mechanisms can be simulated through digital ones because digital computation can emulate emulate mußte ich nachschlagen: imitate, copy, follow, mirror (Collins´ Dictionary). analog values to any desired degree of precision. […] The brains massive parallelism can also be simulated, given the significant speed advantage of computers in serial computation « (S. xxix). Ja, das ist ja schön – bei serieller Schaltung von mehreren Supercomputern (»parallel von-Neumann-machines«), kann man das annähernd hinkriegen – wir haben aber nur ein Gehirn, das das alles offenbar ganz alleine verarbeiten kann. Auch was die erstaunliche Neuroplastizität angeht, meint er, ist jedoch der Computer im Vorteil: Er kann seine Methoden vollständig auswechseln, indem er seine Software auswechselt. »Thus, a computer will be able to emulate the brain, but the converse is not the case« (ebd.). Abschließend zu seinem Computerkurs, den ich oben zusammengefaßt habe (hoffentlich verständlich!), schreibt Kurzweil, wobei er sich auf dessen Mathematikerkollegen Stan Ulam bezieht, dass von Neumann zuletzt folgende Meinung vertreten habe: »»the ever accelarating progress of technology and changes in the mode of human life give the appearance of approaching some essential singularity in the history of the race beyond which human affairs, as we know them, could not continue«. This is the first known use of the word »singularity« in the context of human history« (S. xxx). Zum Abschluß seines Vorwortes bietet Kurzweil uns also noch den singularity-Mythos an. Dazu hat er 2005 ein Buch veröffentlicht: The Singularity is Near: When Humans Transcend Biology. Dieser Mythos besagt, in meinen primitiven Worten ausgedrückt, daß es einen Ort im Raum-Zeit-Geschehen gibt, zu dem / in dem das Gravitationsfeld für einen (stellaren) Körper unendlich wird. Das gelte »im Prinzip« eben auch für den menschlichen Körper. Wenn wir die Biologie dann »transzendiert« haben, werden wir endlich unendlich, folglich unsterblich. Eine schöne Kritik dieses Mythos bietet eine Webseite der Stanford Universität: The naiveté of exponential growth. https://cs.stanford.edu/people/eroberts/cs181/projects/2010-11/TechnologicalSingularity/pageview2efb.html?file=againstfeasibility.html (10.4.17). Für diejenigen, die es noch genauer wissen wollen, weist der Stanford-Autor auf folgenden Artikel hin: Theodore Modis: The Singularity Myth. http://www.growth-dynamics.com/articles/kurzweil.htm (10.4.17) Naja, wer´s glaubt. Und natürlich gibt es bereits die Sekte der singularitarians, Und natürlich sind die singularitarians auch ganz begeistert von der vitropsy, der virtuellen Autopies (s. o., 1.3). in die man - neben Kurzweil und anderen noch unenhanced humans - auch posthum noch eintreten (eingetreten werden) kann. https://www.singularityweblog.com/top-10-singularitarians/ (10.4.17). Diese Webseite sollten Sie sich nicht entgehen lassen! Kleiner Anreiz: Sokrates schreibt dort auch. Siehe auch unten zu Daniel Dennett und seiner Sekte The Brights. Auszug aus meinem MS Computer, neuroscience und mind - ER 5