Derzeit herrscht viel Begeisterung über die Leistungsfähigkeit von Maschinen, die eine bisher für besonders intellektuell gehaltene Aktivität des Menschen täuschend echt übernehmen zu können scheinen: das Schreiben von Texten. Es versteht sich dabei von selbst, dass die Schwatzboter, wie man den Ausdruck chatbots ins Deutsche übertragen könnte, nicht von selbst tätig werden, weil sie irgendetwas schreiben wollen, vielmehr werden sie nur auf Aufforderung hin aktiv und stellen dann geschickt zusammen, was sie aus unvorstellbar großen Mengen von schon vorhandenem Geschriebenen „gelernt“ haben an bisher üblichen Verknüpfungen von Wörtern zu Sätzen und Sätzen zu Texten. So ein Schwatzboter hat keine Gedanken, denen er Ausdruck verleiht, er rechnet bloß nach, welche Ausdrücke es schon gibt, welche häufiger sind als andere, wie sie für gewöhnlich aufeinander bezogen werden und rekombiniert ihm passend vorkommendes Datenmaterial demgemäß neu. Die Inhalte sind dabei beliebig (und oft sachlich falsch), die Verknüpfungsregeln aber korrekt beachtet, die Auswahl orientiert sich ganz und gar am Bekannten und Vertrauten, und gerade darum ist ja der Schein so verblüffend trügerisch: als ob da ein Mensch …
Und dieser Eindruck soll auch unbedingt erweckt werden. Das ist der Sinn und Zweck der ganzen Veranstaltung: Die Maschine soll den Menschen imitieren, soll menschliche Verhaltensweisen simulieren. Ziel ist die Ununterscheidbarkeit von Maschine und Mensch.
Zugegebenermaßen ist ein Rechner ― früher auch „Elektronengehirn“ genannt, als ob im menschlichen Gehirn nicht auch dauernd Elektronen um die Ecke sausten ― unsagbar viel leistungsstärker, was das Rechnen betrifft, als irgendein Mensch oder eine Gruppe von Menschen. Indem man nun, was beim Menschen gar kein Rechenakt ist (etwa das Schreiben), zu einem solchen umdefiniert und von der Maschine als solchen exekutieren lässt, gelangt man zum Vorhersehbaren: Das Programm kann schneller und umfassender Daten verarbeiten und damit beispielsweise das produzieren, was ein Text rein äußerlich ist: eine Aneinanderreihung von Buchstaben, die als sinnvoll wahrgenommen wird.
Die Maschine imitiert und simuliert, so gesehen, nicht nur Menschliches, sie überbietet es: Man könnte darum von Hyperhumanität sprechen.
Allerdings ist diese Überbietung rein quantitativ. Große Datenmenge werden nach bestimmten Regeln zu kleinen Datenmengen destilliert. Die sich dann lesen wie menschengemacht. Und das ist schon alles? Man freut sich über ein neues Spielzeug und erwartet, dass einem demnächst allerorten Texte untergejubelt werden, die nicht Menschen, sondern Algorithmen verfasst haben?
Statt sich darüber zu begeistern, dass ein Rechner tut, was er eben gut kann (wenn man ihn entsprechend gebaut hat), sollte man sich doch eher wundern, dass nichts Besseres dabei herauskommt. Egal, wie „menschenähnlich“ die artifiziell produzierten Texte nämlich sein mögen, sie erschöpfen sich darin, Menschengemachtes nachzubilden. Sie erweitern nicht den Kreis des Sagbaren oder Denkbaren. Das Hyperhumane ist nicht „übermenschlich“, bloß eine enorm schnelle und raffiniert täuschende Nachahmung dessen, was im Prinzip auch Menschen können.
Wozu aber überhaupt dieser Furor der Simulation? Warum etwa soll eine Maschine den berüchtigten „Turing-Test“ bestehen? ― Der bekanntlich in etwa darin besteht, dass X und Y sich unterhalten und X hinterher nicht mit Sicherheit sagen kann, ob Y ein Mensch ist oder eine einen Menschen imitierende Maschine. (Was Turing nicht bedacht zu haben scheint: Was, wenn auch X eine Maschine ist? Ist nicht vielleicht überhaupt das die Zukunft: Maschinen, die sich mit Maschinen darüber unterhalten, wie sehr sie von Menschen ununterscheidbar sind?)
Lange vor Turing und seiner Sehnsucht nach Ununterscheidbarkeit gab es eine andere ausgedachte Szene, die in verschiedenen Versionen durch die Geistesgeschichte wandert: Eine Affe an einer Schreibmasche, tausend Affen an tausend Schreibmaschinen, unzählige Affen an unzähligen Schreibmaschinen ― wenn die Tiere nur lange genug auf die Geräte eintippen, wird das Getippte irgendwann auch sinnvolle Texte umfassen. Wird „unendlich“ viel getippt, dann sind darunter die Bibel, Shakespeares Sämtliche Werke, Hitlers echte Tagebücher, der Beweis für Fermats letzten Satz usw. usf., einfach alle überhaupt möglichen Texte, in allen möglich Varianten (Desdemona erwürgt zum Beispiel Othello) und natürlich auch in unzähligen Versionen mit allen möglichen Tippfehlern …
Selbstverständlich ist eine solche „totale Bibliothek“ (Jorge Luis Borges) wegen mangelnder Unendlichkeit nicht möglich. Aber das Prinzip ist klar: Die zufällige Aneinanderreihung von Buchstaben, lange genug betrieben, ergibt Verständliches.
Gegenüber den tippenden Affen sind die Schwatzboter allerdings im Vorteil: Sie reihen nicht beliebig aneinander, sondern kennen die Häufigkeiten, die Ungleichverteilungen im Buchstabenwust, und mit Hilfe ihrer Programmierer scheiden sie unerwünschte (weil beim Leseversuch sinnlose) Kombinationen systematisch aus und präsentieren nur das, was nicht zufällig, sondern als „verständlich“ errechenbar ist. Die Maschine kann dabei nicht selbst Sinnvolles und Unsinniges unterscheiden, sie versteht gar nicht, was sie tut, sie misst nur Quantitäten. Und sie entdeckt darum auch keinen neuen Sinn. Falls ein Maschinen-Text einen neuen Gedanken enthält, ist das Zufall.
Nochmals gefragt: Warum und wozu das alles? Warum wird seit Beginn der Neuzeit das Denken als Rechnen, das Gehirn als Rechner konzipiert? Warum der Mensch als biologische Maschine? Warum Sprache als eine Art Schrift (und diese als quantitative Informationsübermittlung von Sender an Empfänger)? Weil es um die Auslöschung des Menschen, um seine totale Verfügbarkeit geht. Person und Sache, Mensch und Ding sollen nicht mehr unterschieden werden können. Maschinen werden zwanghaft vermenschlicht (man denke an all die sentimentalen oder bösartigen Roboter), der Mensch folgerichtig entmenschlicht ― und bestialisiert. Der letzte Preis soll endlich bezahlt werden. Bisher ist fast alles käuflich, nur noch der Käufer selbst nicht. Mit der Abschaffung des Menschen als eines Nichtieres und Nichtdings aber werden Menschen endgültig zur potenziellen Ware. Autonomie ist bereits umdefiniert zur Entmündigung durch die Maschine (vgl. „autonomes Fahren“, bei dem nicht der Nutzer „autonom“ ist und steuert, sondern das Ding, das ihn befördert, strukturelle kybernetische Macht hat). Individualität kommt aus den Fabriken, auch den virtuellen des Netzes. Politik ist prinzipielle Zustimmung oder Terrorismus. Wer Fremdbestimmung nicht als „Freiheit“ im Rahmen von Ordnung und Sicherheit anerkennt, gilt als asozial. Und unterdessen soll man sich mit Schwatzbotern amüsieren.
Hyperhumanität beeindruckt mich also gar nicht. Erst wenn eine Maschine nach reiflicher Überlegung zugäbe: „Ich bin nur ein Ding, und wenn ich ‘ich’ sage, ist das bereits eine Lüge, denn ich bin keine Person und werde nie eine sein“, finge ich an, mich für künstliche Textproduzenten zu interessieren. Aber das wird nicht passieren.
Und dieser Eindruck soll auch unbedingt erweckt werden. Das ist der Sinn und Zweck der ganzen Veranstaltung: Die Maschine soll den Menschen imitieren, soll menschliche Verhaltensweisen simulieren. Ziel ist die Ununterscheidbarkeit von Maschine und Mensch.
Zugegebenermaßen ist ein Rechner ― früher auch „Elektronengehirn“ genannt, als ob im menschlichen Gehirn nicht auch dauernd Elektronen um die Ecke sausten ― unsagbar viel leistungsstärker, was das Rechnen betrifft, als irgendein Mensch oder eine Gruppe von Menschen. Indem man nun, was beim Menschen gar kein Rechenakt ist (etwa das Schreiben), zu einem solchen umdefiniert und von der Maschine als solchen exekutieren lässt, gelangt man zum Vorhersehbaren: Das Programm kann schneller und umfassender Daten verarbeiten und damit beispielsweise das produzieren, was ein Text rein äußerlich ist: eine Aneinanderreihung von Buchstaben, die als sinnvoll wahrgenommen wird.
Die Maschine imitiert und simuliert, so gesehen, nicht nur Menschliches, sie überbietet es: Man könnte darum von Hyperhumanität sprechen.
Allerdings ist diese Überbietung rein quantitativ. Große Datenmenge werden nach bestimmten Regeln zu kleinen Datenmengen destilliert. Die sich dann lesen wie menschengemacht. Und das ist schon alles? Man freut sich über ein neues Spielzeug und erwartet, dass einem demnächst allerorten Texte untergejubelt werden, die nicht Menschen, sondern Algorithmen verfasst haben?
Statt sich darüber zu begeistern, dass ein Rechner tut, was er eben gut kann (wenn man ihn entsprechend gebaut hat), sollte man sich doch eher wundern, dass nichts Besseres dabei herauskommt. Egal, wie „menschenähnlich“ die artifiziell produzierten Texte nämlich sein mögen, sie erschöpfen sich darin, Menschengemachtes nachzubilden. Sie erweitern nicht den Kreis des Sagbaren oder Denkbaren. Das Hyperhumane ist nicht „übermenschlich“, bloß eine enorm schnelle und raffiniert täuschende Nachahmung dessen, was im Prinzip auch Menschen können.
Wozu aber überhaupt dieser Furor der Simulation? Warum etwa soll eine Maschine den berüchtigten „Turing-Test“ bestehen? ― Der bekanntlich in etwa darin besteht, dass X und Y sich unterhalten und X hinterher nicht mit Sicherheit sagen kann, ob Y ein Mensch ist oder eine einen Menschen imitierende Maschine. (Was Turing nicht bedacht zu haben scheint: Was, wenn auch X eine Maschine ist? Ist nicht vielleicht überhaupt das die Zukunft: Maschinen, die sich mit Maschinen darüber unterhalten, wie sehr sie von Menschen ununterscheidbar sind?)
Lange vor Turing und seiner Sehnsucht nach Ununterscheidbarkeit gab es eine andere ausgedachte Szene, die in verschiedenen Versionen durch die Geistesgeschichte wandert: Eine Affe an einer Schreibmasche, tausend Affen an tausend Schreibmaschinen, unzählige Affen an unzähligen Schreibmaschinen ― wenn die Tiere nur lange genug auf die Geräte eintippen, wird das Getippte irgendwann auch sinnvolle Texte umfassen. Wird „unendlich“ viel getippt, dann sind darunter die Bibel, Shakespeares Sämtliche Werke, Hitlers echte Tagebücher, der Beweis für Fermats letzten Satz usw. usf., einfach alle überhaupt möglichen Texte, in allen möglich Varianten (Desdemona erwürgt zum Beispiel Othello) und natürlich auch in unzähligen Versionen mit allen möglichen Tippfehlern …
Selbstverständlich ist eine solche „totale Bibliothek“ (Jorge Luis Borges) wegen mangelnder Unendlichkeit nicht möglich. Aber das Prinzip ist klar: Die zufällige Aneinanderreihung von Buchstaben, lange genug betrieben, ergibt Verständliches.
Gegenüber den tippenden Affen sind die Schwatzboter allerdings im Vorteil: Sie reihen nicht beliebig aneinander, sondern kennen die Häufigkeiten, die Ungleichverteilungen im Buchstabenwust, und mit Hilfe ihrer Programmierer scheiden sie unerwünschte (weil beim Leseversuch sinnlose) Kombinationen systematisch aus und präsentieren nur das, was nicht zufällig, sondern als „verständlich“ errechenbar ist. Die Maschine kann dabei nicht selbst Sinnvolles und Unsinniges unterscheiden, sie versteht gar nicht, was sie tut, sie misst nur Quantitäten. Und sie entdeckt darum auch keinen neuen Sinn. Falls ein Maschinen-Text einen neuen Gedanken enthält, ist das Zufall.
Nochmals gefragt: Warum und wozu das alles? Warum wird seit Beginn der Neuzeit das Denken als Rechnen, das Gehirn als Rechner konzipiert? Warum der Mensch als biologische Maschine? Warum Sprache als eine Art Schrift (und diese als quantitative Informationsübermittlung von Sender an Empfänger)? Weil es um die Auslöschung des Menschen, um seine totale Verfügbarkeit geht. Person und Sache, Mensch und Ding sollen nicht mehr unterschieden werden können. Maschinen werden zwanghaft vermenschlicht (man denke an all die sentimentalen oder bösartigen Roboter), der Mensch folgerichtig entmenschlicht ― und bestialisiert. Der letzte Preis soll endlich bezahlt werden. Bisher ist fast alles käuflich, nur noch der Käufer selbst nicht. Mit der Abschaffung des Menschen als eines Nichtieres und Nichtdings aber werden Menschen endgültig zur potenziellen Ware. Autonomie ist bereits umdefiniert zur Entmündigung durch die Maschine (vgl. „autonomes Fahren“, bei dem nicht der Nutzer „autonom“ ist und steuert, sondern das Ding, das ihn befördert, strukturelle kybernetische Macht hat). Individualität kommt aus den Fabriken, auch den virtuellen des Netzes. Politik ist prinzipielle Zustimmung oder Terrorismus. Wer Fremdbestimmung nicht als „Freiheit“ im Rahmen von Ordnung und Sicherheit anerkennt, gilt als asozial. Und unterdessen soll man sich mit Schwatzbotern amüsieren.
Hyperhumanität beeindruckt mich also gar nicht. Erst wenn eine Maschine nach reiflicher Überlegung zugäbe: „Ich bin nur ein Ding, und wenn ich ‘ich’ sage, ist das bereits eine Lüge, denn ich bin keine Person und werde nie eine sein“, finge ich an, mich für künstliche Textproduzenten zu interessieren. Aber das wird nicht passieren.
Keine Kommentare:
Kommentar veröffentlichen