Und wieder hat die Künstliche Intelligenz angeblich ein Wunder gewirkt: Eine Stumme spricht! Oder nein, doch nicht. Vielmehr „übersetzt“ eine Maschine die „Gedanken“ einer Frau (die „im Alter von 30 Jahren einen Schlaganfall erlitten hatte, der ihren Hirnstamm schwer schädigte und sie stumm machte“) in „Worte“. Wie das? „(Dabei) trainierten die Forscher ein flexibles, tief lernendes neuronales Netzwerk auf die sensomotorische-Kortex-Aktivität der 47-jährigen Teilnehmerin, während sie 100 ausgewählte Sätze mit einem Wortschatz von etwas mehr als tausend Wörtern still für sich sprach ― also letztlich dachte. Die Frau brauchte also gar nicht erst zu versuchen, Worte hervorzubringen ― sie musste sich die Sätze lediglich vorstellen.“
Mir scheint, das ist nun aber doch Betrug am Kunden. Keineswegs „liest“ die Maschine demnach Gedanken und spricht sie aus. Sondern die Probandin denkt vielmehr bloß an vorgefertigte Sätze und die Maschine registriert, welche Hirnaktivität dabei auftritt, und ordnet Aktivität und Sätze schematisch einander zu.
Da könnte nun freilich so ein Satz auch „Pryxl gawumti knörraflock“ lauten, was überhaupt in keiner Sparche einen Sinn ergibt (aber ausgesprochen werden und also mit sensomotorischen Vorstellungen verbunden werden kann). Wenn man nun „Pryxl gawumti knörraflock“ „still liest, also denkt“, wird dem schon irgendeine Gehirnaktivität entsprechen, und wenn man dann noch vorher einprogrammiert hat, das genaus diese Gehirnaktivität und keine andere besagtem „Pryxl gawumti knörraflock“ entspricht, dann kann die Maschine entsprechend reagieren und „Pryxl gawumti knörraflock“ laut verkünden. Sinn macht das keinen.
Anders gesagt: Die KI erkennt nicht, dass irgendetwas ein Gedanke ist (denn „Pryxl gawumti knörraflock“ ist gar kein Gedanke, insofern es kein sinnvoller Satz ist ― oder überhaupt ein Satz), sondern sie registriert Signale und reagiert auf sie mit ihnen zugeordneten Signalen. Dazu muss sie das jeweilige Signal und deren Zuordnung allerdings vorher kennen.
Mir scheint, das ist nun aber doch Betrug am Kunden. Keineswegs „liest“ die Maschine demnach Gedanken und spricht sie aus. Sondern die Probandin denkt vielmehr bloß an vorgefertigte Sätze und die Maschine registriert, welche Hirnaktivität dabei auftritt, und ordnet Aktivität und Sätze schematisch einander zu.
Da könnte nun freilich so ein Satz auch „Pryxl gawumti knörraflock“ lauten, was überhaupt in keiner Sparche einen Sinn ergibt (aber ausgesprochen werden und also mit sensomotorischen Vorstellungen verbunden werden kann). Wenn man nun „Pryxl gawumti knörraflock“ „still liest, also denkt“, wird dem schon irgendeine Gehirnaktivität entsprechen, und wenn man dann noch vorher einprogrammiert hat, das genaus diese Gehirnaktivität und keine andere besagtem „Pryxl gawumti knörraflock“ entspricht, dann kann die Maschine entsprechend reagieren und „Pryxl gawumti knörraflock“ laut verkünden. Sinn macht das keinen.
Anders gesagt: Die KI erkennt nicht, dass irgendetwas ein Gedanke ist (denn „Pryxl gawumti knörraflock“ ist gar kein Gedanke, insofern es kein sinnvoller Satz ist ― oder überhaupt ein Satz), sondern sie registriert Signale und reagiert auf sie mit ihnen zugeordneten Signalen. Dazu muss sie das jeweilige Signal und deren Zuordnung allerdings vorher kennen.
Wenn nun aber die Probandin gar keinen der 100 verabredeten Sätze denkt, sondern beispielsweise den Satz „Hier wird schon wieder getrickst, indem Begriffen wie ‘Denken“ und ‘Sprache’ und ‘Übersetzen’ Bedeutungen zugemutet werden, die sie üblicherweise nicht haben, um der KI Leistungen zuzuschreiben, die sie gar nicht erbringt“ ― dann ist die Maschine aufgeschmissen.
Einmal blinzeln heißt ja, zweimal blinzeln heißt nein: Auch so kann man sich bekanntlich verständigen. Aber niemand hielte das für ein „Übersetzen“ von Blinzeln in Sprache. Sondern vereinbarte Signale beziehe sich auf vereinbarte Bedeutungen. Sprache hingegen ist mehr und anderes als eine Abfolge von Signalen. Zur Sprache gehören ja nicht bloß kontextlose Zeichen („Wörter“) und grammatische Verknüpfungsregeln, sondern Sprechsituation, Tonfall, Assoziationsfelder usw. Nur dadurch wird Bedeutung bearbeitet.
Erst wenn man den Unterschied von Sprache (die Menschen sprechen) und Signalaustausch (der bei Tieren, Pflanzen und Maschinen vorkommt) vergisst oder leugnet oder wegdefiniert, erscheint das (im Prinzip, nicht hinsichtlich des technischen Aufwands) sehr schlichte Verfahren des Registrierens und Reagierens als spektakuläres Gedankenübersetzungswunder der Künstliche Intelligenz. Das jedoch ficht die Öffentlich bestimmt nicht an, die längst medial darauf trainiert ist, jede Erfolgsmeldung der KI-Forschung für bare Münze zu nehmen.
Einmal blinzeln heißt ja, zweimal blinzeln heißt nein: Auch so kann man sich bekanntlich verständigen. Aber niemand hielte das für ein „Übersetzen“ von Blinzeln in Sprache. Sondern vereinbarte Signale beziehe sich auf vereinbarte Bedeutungen. Sprache hingegen ist mehr und anderes als eine Abfolge von Signalen. Zur Sprache gehören ja nicht bloß kontextlose Zeichen („Wörter“) und grammatische Verknüpfungsregeln, sondern Sprechsituation, Tonfall, Assoziationsfelder usw. Nur dadurch wird Bedeutung bearbeitet.
Erst wenn man den Unterschied von Sprache (die Menschen sprechen) und Signalaustausch (der bei Tieren, Pflanzen und Maschinen vorkommt) vergisst oder leugnet oder wegdefiniert, erscheint das (im Prinzip, nicht hinsichtlich des technischen Aufwands) sehr schlichte Verfahren des Registrierens und Reagierens als spektakuläres Gedankenübersetzungswunder der Künstliche Intelligenz. Das jedoch ficht die Öffentlich bestimmt nicht an, die längst medial darauf trainiert ist, jede Erfolgsmeldung der KI-Forschung für bare Münze zu nehmen.
Keine Kommentare:
Kommentar veröffentlichen