Home   Was ist ot ?   Regeln   Mitglieder   Maintainer   Impressum   FAQ/Hilfe  

5.2. »Künstliche Intelligenz« und »Neuronale Netze« im Vergleich

Maintainer: Stefan Meretz, Version 1, 14.02.2004
Projekt-Typ: halboffen
Status: Archiv

(1) Wie bereits zu Beginn des 5. Kapitels angemerkt, steht im Mittelpunkt der Kontroversen zwischen klassischer KI-Forschung und Konnektionismus das Konzept der »Repräsentation mentaler Prozesse und Zustände«. Mit der Abtrennung mental-sprachlicher Prozesse von motorischen Aktivitäten reproduziert die klassische KI-Forschung diese in der Psychologie übliche Entgegensetzung (vgl. Kap. 4.3.2.). Indem die konnektionistische Strömung genau diese Debatte betrieb, wurden eigene konzeptuelle Vorteile (Möglichkeit der Modellierung unspezifischer motorischer Prozesse) unnötigerweise zurückgehalten.

(2) Beide Forschungsrichtungen postulieren, das angemessene Konzept zur Modellierung mentaler Prozesse zu vertreten, wobei die Verfahren, mit denen dies geleistet werden soll, sich grundsätzlich voneinander unterscheiden. Im Streit um die adäquate Herangehensweise steht nicht so sehr die Frage im Vordergrund, ob und inwieweit die jeweiligen Modelle bedeutungsbezogene mentale Prozesse überhaupt abbilden können, sondern ob sie den eigenen theoretischen Vorstellungen über diese Prozesse eher entsprechen. So behauptet die klassische KI, mentale Prozesse und Zustände seien nur »symbolisch« zu repräsentieren. Demgegenüber gehen KonnektionistInnen von der These einer »verteilten« Repräsentation aus. Beide Forschungsrichtungen beanspruchen die Allgemeingültigkeit ihrer theoretischen Vorstellungen. Im folgenden werden wir zunächst den KI-Ansatz analysieren, im Anschluß daran den konnektionistischen, um uns dann mit den jeweiligen Gründen der Entgegensetzung zu befassen.

»Symbolische« Repräsentation mental-sprachlicher Prozesse

(3) Der zentrale Vorwurf von VertreterInnen der klassischen KI-Forschung gegenüber dem Konnektionismus lautet, daß dieser die komplexen syntaktischen und semantischen Strukturen »mentaler Repräsentationen« vernachlässige und deshalb dessen Modelle als »kognitive« Modelle untauglich seien (Fodor und Pylyshyn, 1988, 15f, 43). Der KI-Ansatz geht davon aus, daß mentale Repräsentationen[39] nur »symbolischer« Natur sein können. Da im Mittelpunkt dieses Modells kognitive Beschreibungen aus »Symbolen« bestehen, wird im Falle der klassischen KI-Forschung auch vom symbolischen Paradigma gesprochen. Die »symbolische« Natur »mentaler Repräsentationen« wird mit einer im menschlichen Gehirn vorhandenen »Symbolstruktur« begründet:

"Insbesondere gehen wir davon aus, daß die Symbolstrukturen in einem klassischen Modell wirklichen physikalischen Strukturen im Gehirn entsprechen und daß die kombinatorische Struktur einer Repräsentation ein Ebenbild der strukturellen Beziehungen zwischen den physikalischen Eigenschaften des Gehirns ist. Zum Beispiel nehmen wir an, daß die Beziehung 'ist Teil von' zwischen einem vergleichsweise einfachen und einem komplexeren Symbol mit physikalischen Beziehungen zwischen den Gehirnzuständen korrespondiert. Deshalb spricht Newell von computationalen Systemen wie Gehirnen und klassischen Computern als 'physikalischen Symbolsystemen'" (Fodor und Pylyshyn, ebd., 11, Herv. geändert)[40].

(4) Es wird davon ausgegangen, daß das System mentaler Repräsentationen beim Menschen sprachähnlich organisiert ist und Regeln der Syntax über die wohlgeformte »Sprach«-Form der Repräsentationen die korrekte Folge der »Gedankensätze«, d.h. der Bewußtseinszustände, produzieren. Die sprachähnlichen mentalen Repräsentationen bezeichnet Fodor (1975) als language of thought (etwa: »Gedankensprache«). Die regelgeleiteten Bewußtseinszustände werden durch die Beziehung zu einer Repräsentation für vollständig beschreibbar gehalten. Darüber hinaus wird angenommen, daß derartige mentale Repräsentationen strukturiert und zergliederbar sind. Die »kombinatorische« Struktur derartiger mentaler Repräsentationen wird folglich im Modell durch Syntaxregeln beschrieben bzw. hergestellt. In Übereinstimmung mit diesen Regeln werden »Symbole« zu mathematischen Ausdrücken, auch als Terme bezeichnet, verknüpft und beiden Bedeutung zugewiesen (vgl. ebd., 10, van Gelder, 1990, 60f). Die logischen Operationen zur gezielten Manipulation dieser »Symbole« bzw. der »mentalen Repräsentationen« werden als »mentale Prozesse« bezeichnet:

"Da klassische mentale Repräsentationen eine kombinatorische Struktur haben, ist es für klassische mentale Operationen möglich, diese durch die Referenz auf ihre Form zu verwenden. Das Ergebnis besteht darin, daß ein paradigmatischer klassischer mentaler Prozeß auf irgendeiner mentalen Repräsentation operiert, die eine gegebene strukturelle Beschreibung erfüllt, und sie in eine mentale Repräsentation transformiert, die eine andere strukturelle Beschreibung erfüllt. (So könnte man zum Beispiel in einem Schlußfolgerungsmodell eine Operation erkennen, die irgendeine Repräsentation der Form P & O verwendet und sie in eine Repräsentation der Form P transformiert)" (Fodor und Pylyshyn, ebd., 11, Herv. geändert)[41].

(5) Modellierte »mentale Repräsentationen« sind somit nach herrschendem KI-Verständnis nichts anderes als komplexe »Symbolstrukturen«, die ihre Bedeutung erst durch Zuweisung erhalten und gleichzeitig Resultat und Voraussetzung von logisch-syntaktischen Transformationsprozessen sind. Anhand des überblicksartig dargestellten »kognitiven« Modells wird die von uns bereits kritisierte Auffassung deutlich, daß, indem hier von der Bedeutungslosigkeit der »Symbole« ausgegangen wird und diese nur als bloßes Konventionsresultat erscheinen, Zeichen mit Symbolen verwechselt werden. Konventionen sind jedoch - wie ausgeführt - nur auf Zeichenebene möglich (vgl. Kap. 3.3., S._). Da mit den Zeichen Realität abgebildet, d.h. »externe« Objekte referenziert werden sollen, bleibt unklar, wie die Zeichen ihren Realitätsbezug gewinnen sollen, wenn nicht über die symbolische Bedeutung in Form eines Begriffes. Niemand versteht bspw., auf was sich die Bezeichnung "Tasse" bezieht, wenn er/sie nicht einen Begriff hat, der die gesellschaftlich produzierte gegenständliche Bedeutung als spezifisch verallgemeinerter Brauchbarkeit dessen, was "Tasse" genannt wird, repräsentiert. Demnach sind die Aussagen der KI-Forschung auch nur für diesen Konventionsbereich gültig, also für den Bereich der Programmerstellung, innerhalb dessen sich alle den Zeichen zugeordnete Bedeutungen, die Träger von Programmierbedeutungen sind, erreichen lassen. Da sich Symbolbedeutungen nicht auf der Zeichenebene (re-)konstruieren lassen, bleibt eigentlich unklar, woher sie kommen und worauf sie verweisen. Diese Unklarheit wird schließlich auch daran deutlich, daß über den Inhalt »mentaler Repräsentationen« beim Menschen nichts ausgesagt werden kann:

"Was wir nun benötigen, ist eine semantische Theorie für mentale Repräsentationen: eine Theorie, wie mentale Repräsentationen repräsentieren ... Solch eine Theorie habe ich nicht" (Fodor, 1981, 31)[42].

(6) Da somit die Beziehung zwischen mentalen Repräsentationen und den realen Dingen der Welt, auf die in den »Symbolen« verwiesen werden soll, unklar bleibt, ist die biologistische Annahme von angeborenen Symbolstrukturen, wie sie die Gedankensprache darstellt, naheliegend:

"So laßt uns annehmen, wovon wir auf jeden Fall nicht wissen, daß es falsch ist, daß die interne Sprache angeboren ist, daß ihr Schema eins zu eins dem Inhalt der Einstellungen entspricht, die Menschen gegenüber Aussagen gedanklicher oder sprachlicher Art einnehmen (...), und daß sie ebenso universell ist wie die Humanpsychologie" (ebd., 198)[43].

(7) Der Inhalt solcher Einstellungen verursache kausal eine Abfolge von Bewußtseinszuständen, wobei Verallgemeinerungen des Inhalts nur über die Form der beteiligten Repräsentationen vorgenommen werden. Folglich wird gemäß dieser Auffassung nur die logisch-syntaktische Form von verallgemeinerbaren Schließprozessen kausal wirksam (Fodor und Pylyshyn, ebd., 26). Die Aneignung von Sprache erscheint somit letztlich als eine Art Übersetzungsprozeß von den zugrundeliegenden kognitiven, ererbten Bausteinen (Schwarz, ebd., 30). Repräsentationen werden also hauptsächlich durch ihre formalen Eigenschaften bestimmt und mentale Prozesse als formal-syntaktische Prozesse aufgefaßt. Deren formallogische Bestimmtheit entspricht der gängigen, von uns kritisierten Sicht des Kognitivismus, der die auf Computeroperationen bezogenen Aussagen in metaphorischer Weise als kognitionstheoretische Termini benutzt (vgl. Kap. 4.3.2., S._). Modelle, die lediglich die Programm- bzw. Computerperspektive verallgemeinern, können jedoch die wirkliche Welt der (Benutzungs-)Bedeutungen nicht erschließen. Folglich kann mit ihnen auch nichts anderes als eine psychologisierte logische Syntax zutage gefördert werden: "Was wir alle betreiben, ist wirklich eine Art logischer Syntax (nur psychologisiert); und wir hoffen alle sehr, wenn wir eine vernünftige interne Sprache (heraus)bekommen haben (einen Formalismus, um kanonische Repräsentationen niederzuschreiben), daß ein sehr netter und sehr kluger Mensch auftauchen und uns zeigen wird, wie man sie interpretiert, wie sie mit Semantik gefüllt werden kann" (Fodor, 1981, 223)[44].

(8) Nach unserer Argumentation liegt es auf der Hand, daß auch ein noch so schlauer Mensch nicht in der Lage sein wird, Fodors »logische Syntax« zu »interpretieren«, da mit dem Modell die Welt der Bedeutungen nicht erschlossen werden kann. Da innerhalb dieses Modells und der zugrundeliegenden theoretischen Auffassung inhaltlich-bedeutungsbezogene Bewußtseinszustände letztlich gar vorkommen (können), ergibt sich ein

"...Bild vom Bewußtsein als einer syntaxgetriebenen Maschine" (Fodor, 1985, 94, 1988, 28, Herv. von uns)[45].

(9) Eine Theorie, die sich ausschließlich auf mentale Repräsentationen und deren logisch-syntaktische Form konzentriert, blendet wesentliche Dimensionen menschlichen Wissens aus. Mentale Wissensstrukturen - so haben wir verdeutlicht (vgl. Kap. 4.2., S._) - enthalten vielfältige Verweisungen auf kommunikative wie objektivierende Quellen und Wissensbestände wie umgekehrt aus den kommunikativen und objektivierenden Organisationsformen vielfache Verweisungen auf mentale Wissensbestände entnehmbar sind. Indem bei der Wissensrepräsentation lediglich formalisierbare Wissensinhalte berücksichtigt werden, werden meine Art des Erfahrungsgewinns und mein Weltwissen entsubjektiviert und zudem von meinen historisch-konkreten Beziehungen zu bestimmten Infrastrukturen der von mir unabhängigen sachlich-sozialen Realität getrennt[46]. Die mentale Wissensorganisation ist lediglich ein unselbständiger Teilaspekt meines Lebens- und Arbeitszusammenhangs. Insofern erfassen Wissenserwerbsmethoden, die sich nur auf rein verbal-sprachliche Äußerungen beziehen, auch nur begrenzte Aspekte meines Wissens bzw. nur solche, die mir mental zugänglich bzw. verfügbar sind.

(10) Da über die Beziehung zwischen mentalen Repräsentationen und den realen Dingen der Welt nichts ausgesagt werden kann, muß auch die Entstehung von gegenstandsbezogenem Zusammenhangswissen sowie dessen Veränderung ein unfaßbares Phänomen bleiben. Dieses kann nur als gegebenes Faktum hingenommen und nur noch unter strukturellen Gesichtspunkten analysiert werden. Darauf verweist der Umstand, daß in den Auseinandersetzungen mit dem Konnektionismus immer wieder auf die kombinatorische und in Konstituenten zergliederbare Struktur von mentalen Repräsentationen abgehoben wird. Diese bestehen im Modell aber lediglich aus einer nach logisch-syntaktischen Regeln generierten unbegrenzten Menge von mathematischen Ausdrücken, mit denen ihre zusammengesetzte Struktur, präziser: die zusammengesetzte Struktur von Sätzen, abgebildet werden soll. Die Produktion von Sätzen bzw. »Symbolsystemen« durch »mentale Repräsentationen« sowie deren Verständnis werden als "productivity of thought" (Fodor und Pylyshyn, 1988, 31) bezeichnet, die durch die Systematik der Sprache bestimmt sei. Damit ist eine wesentliche Fähigkeit des Menschen, die Fähigkeit zur unbegrenzten Symbolproduktion sowie -wahrnehmung angesprochen. Diese Fähigkeit impliziert jedoch die bewußte Möglichkeitsbeziehung des Menschen zur Welt auch auf der Ebene sprachlich-symbolischer Repräsentation. Subjekte können von Symbolzusammenhängen Gebrauch machen, müssen dies aber nicht: "Bezogen auf die Besonderheiten der Sprache öffnet sich die allgemeine Möglichkeitsbeziehung der Individuen zur Welt daher noch weiter. Sie ermöglicht noch komplexere Differenzierungen, wird dadurch aber zugleich mehrdeutiger und widersprüchlicher. Die unendlichen Möglichkeiten der sprachlichen Mittel symbolischer Repräsentation und Kommunikation sind auch aus diesem Grund nicht aus sich selbst heraus erschöpfend erklärbar. Denn sie resultieren vor allem daraus, daß sich in der Welt der sprachlichen Zeichen die psychologischen Bedeutungs- und Möglichkeitsverhältnisse noch einmal brechen und vervielfältigen" (Brockmeier, 1987, 179, Herv. von uns).

(11) Symbolische Handlungsmittel sind Aspekte des Selbst- und Weltverhältnisses des bewußten Subjekts. Dieses Verhältnis des Menschen zur Welt und zu sich selbst schließt eine erkennende Distanz zu dieser Welt und zu sich selbst ein. Mit dem »kognitiven« Modell der klassischen KI-Richtung können jedoch weder die unendlichen Möglichkeiten der sprachlichen Mittel symbolischer Repräsentationen noch die kognitive Distanz des Subjekts zur Welt und zu sich selbst abgebildet werden. Zu einem ähnlichen Schluß kommt auch Shanon (1988, 76), wenn er sich auf Wittgenstein (1953) beziehend hervorhebt, daß verschiedene Wortäußerungen auch verschiedene Bedeutungen haben, die nicht durch eine gegebene semantische Repräsentation fixiert werden können. Deshalb drückten verschiedene Gedankenereignisse auch eine vom jeweiligen Zusammenhang abhängige Variation und Neuheit aus, die nicht nach dem gleichen Schema charakterisiert werden könnten.

(12) Zusammenfassend läßt sich somit sagen, daß das KI-Modell der »symbolischen« Repräsentation Ausdruck einer reduktionistischen Sicht auf mentale Repräsentationen und mental-sprachliche Prozesse von Menschen ist. Die Dominanz ihrer Formbestimmtheit gegenüber deren inhaltlicher Bestimmung ist lediglich aus der Computerperspektive heraus erklärbar. Durch die Biologisierung der Logik[47] können nämlich nur die formalisierbaren Aspekte mentaler Repräsentationen, die zudem statisch gefaßt werden, abgebildet werden. Indem diese dann aber nur nach der Art von (komplexen) Datenstrukturen begriffen werden, die algorithmischen Transformationsprozessen unterliegen, werden sachlich-soziale Bedeutungszusammenhänge einschließlich deren begrifflich-symbolischer Repräsentanz zwangsläufig auf Programmierbedeutungen reduziert, also auf die von ProgrammiererInnen Zeichen zugeordneten Bedeutungen. Derart können Transformationen mentaler Repräsentationen nur noch als auf die Realisierung von E/A-Relationen beschränkt, also programmgesteuert, gedacht werden. Da mit einem solchen Modell weder die unendlichen Möglichkeiten der sprachlichen Mittel noch das diese Möglichkeiten in begründetem Handeln realisierende Subjekt in den Blick geraten können, kann auch der Anspruch, mit diesem Modell die menschlichen kognitiven Prozesse zu erklären, nicht eingelöst werden.

»Verteilte« Repräsentation mental-sprachlicher Prozesse

(13) Wie bereits angemerkt, unterscheiden sich konnektionistische Modelle der »verteilten« Repräsentation mental-sprachlicher Prozesse vom klassischen KI-Modell. Im wesentlichen erweckt die Diskussion zwischen VertreterInnen beider Forschungsrichtungen den Eindruck einer Rechtfertigung konnektionistischen Vorgehens gegenüber der klassischen KI-Forschung. Die von konnektionistischer Seite vorgetragenen Argumente richten sich vor allem gegen den zentralen Vorwurf der Untauglichkeit ihrer Modelle als »kognitive« Modelle, da sie der komplexen syntaktischen und semantischen Struktur mentaler Repräsentationen nicht Rechnung trügen. Dabei wird hervorgehoben, daß strukturierte mentale Repräsentationen nicht nur mittels einer Menge von »Symbolstrukturen« modelliert werden könnten, sondern ebenso gut durch eine Menge von Vektoren (Smolensky, 1989, 22). Diese vektorielle Darstellung »mentaler Repräsentationen« wird, da sie »unterhalb« der »symbolischen« Ebene liege, als »subsymbolische« Ebene gefaßt, weshalb vom Konnektionismus auch als »subsymbolischem Paradigma« gesprochen wird (vgl. Smolensky, 1990, 307). Dabei wird von der Vorstellung ausgegangen, daß die einzelnen Vektorkomponenten »Symbole« konstituieren. Während mentale Repräsentationen also durch Vektoren, mit denen mehrere gleichartige Komponenten eines Netzes zusammengefaßt werden können, abgebildet werden, werden mentale Prozesse durch Differentialgleichungen, also Transformationsvorschriften, die in der Approximationsphase selbst algorithmisch ermittelt werden, modelliert. Diese bestimmten die »Evolution« des »Systems«, womit die Anpassung der Gewichtsparameter der Verbindungen des Netzwerks während der Approximationsphase, die ja als »Lernphase« bezeichnet wird, gemeint ist.

(14) Während nun in klassischen KI-Modellen »mentale Repräsentationen« aus nach logisch-syntaktischen Regeln erzeugten mathematischen Ausdrücken bestehen, deren Träger Zeichen (nicht Symbole) sind und denen eine bestimmte Bedeutung zugewiesen werden muß, geht man bei konnektionistischen Modellen von einer »verteilten« Repräsentation von Wissen aus. Die Vorstellungen darüber differieren jedoch. Bisherige begriffliche Fassungen gehen einerseits von einer am biologischen Vorbild orientierten räumlichen oder neuronalen Verbreitung (»spread-out-ness«) und andererseits von einer Vervollständigung funktionaler »equipotentiality« (gleichgewichtiger Teile) aus, so daß van Gelder (1990) zu der Auffassung gelangt: "... Verteilung ist gegenwärtig eines der ungeklärtesten Konzepte in der gesamten Kognitionswissenschaft" (59)[48].

(15) Er dagegen versteht darunter »nicht lokalisierbare« Repräsentationen, bei denen mehrere Elemente über den gleichen Bereich enkodiert sind, ohne irgendeine Entsprechung zu besonderen Orten zu besitzen (ebd.). In diesem Sinne argumentiert auch Ossen (1990, 36). Gemäß seiner Auffassung ist eine Repräsentation dann verteilt, wenn sich ein bestimmtes Merkmal von kodierten Daten nicht in der Aktivation einer »Einheit«, also lokal, sondern als »Aktivationsmuster« widerspiegelt[49]. Diese »Aktivationsmuster« sind jedoch, betrachtet man die Zwischen- oder Ausgabeschichten eines mehrschichtigen Netzwerks, Zwischen- oder Endergebnisse der parametrisierten Funktionenapproximation. »Verteilte« Zwischen- oder Endergebnisse ergeben nach unserer Auffassung jedoch keinen besonderen Sinn außer eben der Tatsache, daß es sich um Zwischen- bzw. Endergebnisse handelt. Man stelle sich einfach folgende Gleichung vor: "1 + 2 + 2 + 3 = 3 + 5 = 8". "3" ist danach ein verteiltes Zwischenergebnis von "1 + 2" und "5" ein solches von "2 + 3". Insofern ist das Konzept der »verteilten« Repräsentation eine Verschleierung des Umstands, daß es sich hier lediglich um Zwischen- oder Endergebnisse funktionaler Transformationen (hier: der Summation) handelt. Die Resultate dieser Transformationen entstehen durch Superposition (Überlagerung) von parametrisierten Funktionen, da jede einzelne Einheit im Netzwerk eine funktionale Transformation realisiert. Van Gelder betrachtet deshalb die Superposition als Hauptcharakteristikum genuin verteilter Repräsentationen (ebd., 60).

(16) Als Alternative zu dieser aktivationszentrierten Sichtweise erscheint es uns viel angemessener, die Gewichtungsparameter in das Zentrum der Analyse zu stellen, da sie die Parameter der funktionalen Transformation bilden, über die die Resultate (die Zwischen- oder Endergebnisse) eingestellt werden. Diese numerischen Parameter wiederum werden ihrerseits als »Wissen« bezeichnet. (Smolensky, 1990, 312f). Ändern sich die Parameter im Approximationsprozeß, ändert sich auch das »Wissen«. Die Konzepte der Repräsentation von klassischer KI-Forschung und Konnektionismus unterscheiden sich damit völlig. Während es sich beim KI-Ansatz um dauerhafte »Repräsentationen« äußerer Objekte und Relationen handeln soll, sind die »verteilten Repräsentationen« nur temporär vorhanden, nämlich nur dann, wenn bei gegebener Eingabe Zwischenergebnisse berechnet werden. Hier ist das überdauernde Moment der als »Wissen« bezeichnete Parametersatz. Wie sich »Wissen« und »Repräsentationen« im konnektionistischen »kognitiven« Konzept unterscheiden, bleibt unklar. Auch hier scheint die Bedeutungsüberhöhung von Zwischenergebnissen zu »Repräsentationen« ein Resultat der Rechtfertigung gegenüber der klassischen KI-Forschung zu sein.

(17) Während bei der klassischen KI-Forschung den fälschlicherweise als Symbol gefaßten Zeichen explizit Bedeutung zugewiesen werden muß, wird im Konnektionismus von einer impliziten Bedeutungszuweisung durch »das Netz« ausgegangen. Deshalb ist es auch naheliegend, das Netzwerk als »Agenten« zu betrachten, »der« Bedeutungen der Außenwelt »einfängt«. Diese Bedeutungen werden jedoch auf figural-qualitative Momente reduziert. Dies wurde bspw. beim Carpenter-Grossberg-Modell der »aufmerksamkeitsgesteuerten« Klassifikation deutlich, dem die Vorstellung zugrundeliegt, daß die figuralen Qualitäten der Dinge allein eine Einteilung in für das Individuum relevante Klassen zulassen, oder beim Kohonen-Modell, bei dem angenommen wird, daß sich die Bildung bedeutungsvoller Einheiten als (mathematische) Abbildung formulieren und unabhängig vom Subjekt der Außenwelt als Eigenschaft zuordnen läßt (s. S._). Die These von der impliziten Bedeutungszuweisung verschleiert nicht nur das bedeutungsschaffende und -realisierende Subjekt, sondern geht davon aus, daß die figural-qualitativen Merkmale Reize sind, und kognitive Prozesse diese nach Art von Differentialgleichungen approximieren. Die mathematisierende Fassung von kognitiven Prozessen wird damit begründet, daß diese keine »diskrete«, sondern eine »kontinuierliche« Natur hätten, die nur durch die »kontinuierliche« Mathematik erklärt werden könne:

"Der Hauptpunkt ist folgender: Unter dem Einfluß der klassischen Sicht wurden Berechnung und Kognition beinahe ausschließlich unter dem Schirm der diskreten Mathematik studiert. Auf der anderen Seite bringt der konnektionistische Ansatz die Untersuchung über Berechnung und Kognition in Kontakt mit der anderen Hälfte der Mathematik - der kontinuierlichen Mathematik. Die wahre Verpflichtung besteht darin, ... die Einsicht freizulegen, die uns diese andere Hälfte der Mathematik in die Natur der Berechnung und Kognition bieten kann." (Smolensky, 1989, 5, vgl. dazu auch Smolensky, 1990, 317f)[50].

(18) Menschliche Kognitionsprozesse sind in ihrer Spezifik jedoch weder durch eine »diskrete« (wie die klassische KI-Forschung vermutet) noch durch eine »kontinuierliche« Mathematik (wie der Konnektionismus annimmt) zu erklären. Wesentlich ist vielmehr, daß die menschliche Wahrnehmung den unmittelbar präsenten Realitätsaufschluß strukturiert. Diese Strukturierung geschieht gemäß der Aktivitätsrelevanz der Mittelbedeutungen. Die Wahrnehmung hebt dabei alle unspezifischen Ebenen perzeptiv-operativer Informationsauswertung in sich auf. Andererseits muß die Wahrnehmung, indem die individuell antizipatorische Aktivitätsregulierung sich als Untereinheit von Handlungen herausbildete,

"auch vom »Denken« der Handlungszusammenhänge her strukturiert werden, indem die Realität hier notwendig »durch« die dabei entwickelten symbolisch repräsentierten »praktischen Begriffe« hindurch wahrgenommen wird, d.h. am Sinnlich-Präsenten die (...) durch Verallgemeinerung/Abstraktion/Vereindeutigung gewonnenen »wesentlichen« Züge und Bezüge herausgehoben werden" (Holzkamp, 1983a, 301).

(19) Indem Bedeutungen auf figural-qualitative Merkmale reduziert und diese als Reiz gefaßt werden, wird gerade von der Bedeutungshaftigkeit von Gegenständen abstrahiert (vgl. Kap. 3.2., S._). Kognitive Prozesse werden so nur als Wahrnehmung dieser Merkmale gedacht und dergestalt mit einer unspezifischen Ebene perzeptiv-operativer Informationsauswertung identifiziert (der dritten Ebene unseres Modells, vgl. S._), wenn nicht gar durch ihre mathematisierende Fassung mit unspezifisch-physiologischen Optimierungsprozessen verwechselt (der vierten Ebene). In diesem Sinne ist es dann zwar falsch, aber folgerichtig, menschliche Wahrnehmung als unbewußte Regelanwendung zu charakterisieren[51]. In der Auffassung vom regelgeleiteten menschlichen Verhalten wie in der Unklarheit darüber, wer diese Regeln eigentlich aufstellt, besteht dann auch eine Gemeinsamkeit der »kognitiven« Modelle von KI-Forschung und Konnektionismus: so etwa, wenn - wie bereits ausgeführt - die klassische KI-Forschung menschliches Bewußtsein (»mind«) als Maschine für formale »Symbolmanipulation« begreift und kognitive »Verarbeitung« (»cognitive processing«) folglich als sequentielle Interpretation/Realisierung linguistisch formalisierter Prozeduren/Instruktionen modelliert, womit sie menschliche Kognition ebenfalls auf (bewußte oder unbewußte) Regelanwendung reduziert und damit nur noch in ihrer Determiniertheit erfaßt. Diese Vorstellung ist Resultat einer kategorialen Basis, die dem Denken in Computeranalogien verhaftet ist, so daß notwendigerweise die Spezifik des Gegenstands verfehlt werden muß. An dieser Tatsache ändert sich auch dann nichts, wenn versucht wird, »Aufmerksamkeitsparameter« oder dergleichen einzuführen[52]. Mit beiden Modellen wird ausgehend von der antizipierten Zwecksetzung die zu realisierende E/A-Relation ermittelt: Folglich kann, indem für die auf Computeroperationen bezogenen Aussagen kognitionstheoretische Termini benutzt werden, menschliche Kognition auch nur als durch diese E/A-Relation determiniert begriffen werden.

»Symbolische« versus »verteilte« Repräsentation?

(20) Die »kognitive« Modellbildung kann in beiden Forschungsrichtungen als gescheitert betrachtet werden, weil mit ihr wesentliche Reduktionen des zu erklärenden Gegenstands einhergehen. Weder können sachlich-soziale Bedeutungszusammenhänge in adäquater Weise abgebildet werden noch kann Kognition in ihrer spezifischen Strukturiertheit durch diese Bedeutungszusammenhänge und deren begrifflich-symbolische Repräsentanz modelliert werden. Das Problem der Bedeutungsverankerung sowie der begrifflich-symbolischen Repräsentanz von Bedeutungen kann auch nicht - obwohl als Anspruch formuliert - dadurch gelöst werden, in dem man - so die Vorstellung von Wrobel (ebd.) - Systeme mit Sensoren ausstattet, die Umweltaspekte »erfassen« und aufgrund dessen zu entsprechenden Begriffsbildungsprozessen in der Lage sein sollen. Da »für« die Sensoren die von Menschen geschaffenen Bedeutungen »bedeutungslos« sind, wären hier bestenfalls nur figural-qualitative Merkmale oder raumzeitliche Strukturen in Form von mathematischen Funktionen abbildbar.

(21) Darüber hinaus kann die Möglichkeitsbeziehung des Menschen zur Realität weder auf sprachlich-symbolischer Ebene noch auf der Ebene von Denkformen reflektiert werden. Da Wissen nicht als übergreifende Verweisungsstruktur auf sachlich-soziale Bedeutungszusammenhänge abgebildet werden kann, muß es notwendigerweise auf mentale Wissensstrukturen reduziert werden, die dann aber nur noch in ihren reduzierten unspezifischen Formaspekten und ihrer Determiniertheit berücksichtigt werden können.

(22) Alle diese Reduktionen basieren auf der Umdeutung des Computers oder Netzwerks von einem Hilfsmittel oder Werkzeug des Menschen in ein Modell menschlicher Kognition. Damit einher geht, wie offensichtlich wurde (vgl. S._), eine verschleiernde Hineinverlagerung des Subjekts in das System. Durch den damit verbundenen Verlust der Mittel- oder Werkzeugperspektive wird das wirkliche handelnde und erkennende Subjekt aus der Wissenschaftssprache eliminiert und damit das System zum handelnden und kognizierenden Agenten. Die Verkehrung von Subjekt und Objekt, von Original und Modell ist - zumindest im Konnektionismus - direkter Ausdruck der Komplexität und Undurchschaubarkeit der in Netzwerkmodellen stattfindenden Transformationen in n-dimensionalen Räumen. Beim Versuch der begrifflichen Fassung ist es naheliegend, die Wissenschaftssprache zu überschreiten, indem Kategorien aus anderen Disziplinen, insbesondere der Psychologie und Neurophysiologie, übernommen werden. Damit werden jedoch Konzepte/Theorien/Methoden, sofern diese nicht auf zugrundeliegende inhärente Gegenstandsverkürzungen hin untersucht werden, unreflektiert importiert und somit notwendigerweise die damit zusammenhängenden Implikationen.

(23) Die Entwicklung einer eigenen angemessenen Begrifflichkeit halten wir für beide Forschungsrichtungen für unabdingbar: Da Menschen Realität »durch« Begriffe hindurch wahrnehmen, und diese ihr Denken bestimmen, ist ein Denken von Netzvorgängen in psychologischen Kategorien immer eine Erkenntnisbehinderung. Darüber hinaus wird der psychologische Gegenstand immer verfehlt, weil er sich durch seine Spezifik einer Modellierung entzieht, so daß in den Modellen wesentliche Zusammenhänge auseinandergerissen werden (so etwa der von uns nicht weiter ausgeführte Zusammenhang zwischen Kognition, Emotion und Handlung; vgl. H.-Osterkamp, 1978). Konsequenz der Gegenstandsverfehlung ist dann auch ein geringer Erkenntniswert der Aussagen, die über Lernen und Kognition von Menschen gemacht werden, deren Bedeutung durch die unzulässige Verallgemeinerung erhöht werden soll.

(24) Um Bedeutungserhöhung scheint es uns in den Auseinandersetzungen zwischen klassischem KI-Ansatz und Konnektionismus zu gehen. Nicht anders sind die von unsinnigen Entgegensetzungen geprägten Debatten über das »symbolische« und »subsymbolische« Paradigma, über die Formen der Repräsentation sowie die gegenseitigen Vorwürfe über die Unzulänglichkeiten der jeweils anderen Modelle zu erklären. Für uns dagegen liegt klar auf der Hand: Es sind verschiedene Modelle, die weder aufgrund der Begrifflichkeit noch aufgrund ihrer Funktionalität und Architektur miteinander »kompatibel« sind. Beide sind allerdings nur von sehr begrenzter Reichweite (s.o.). Der Streit zwischen den Richtungen mutet manchmal dem zweier Kinder an, die jeweils über ihr Spielzeug behaupten, es sei das Schönere.

(25) Da man auf der technisch-computationalen Ebene letztlich alles mit allem vermischen kann, ist zu erwarten, daß die Erstellung von hybriden Systemen zunehmend stärker verfolgt werden wird. Bei hybriden Systemen wird versucht, die Vorteile der verschiedenen technischen Konzepte miteinander zu kombinieren: KI-Systeme, »Neuronale Netze«, Fuzzy-Logic-Systeme etc. Es ist zu befürchten, daß dem dann entsprechende kognitive »Mischmodelle« folgen werden, und es gibt bereits zahlreiche Ansätze in dieser Richtung. Für das beliebige Zusammenmischen von Theoriefragmenten, ohne sich über die kategoriale Grundlage Rechenschaft abzulegen, gibt es einen Begriff: Eklektizismus.

(26) Die Haltung der KonnektionistInnen ist als defensiv zu beurteilen. Im Bemühen, sich gegenüber der klassischen KI-Forschung Geltung zu verschaffen, gehen sie dem von der KI-Richtung nahegelegten Versuch, deren Begrifflichkeit auf konnektionistische Modelle zu übertragen, auf den Leim: So etwa, wenn Smolensky vom Konnektionismus als »subsymbolischem Paradigma« oder als »Verfeinerung der KI« spricht, oder wenn in Analogie zum Verständnis der KI-Forschung von in Konstituenten zergliederbaren mentalen Repräsentationen die Rede ist und in der Superposition eine solche »Konstituentenstruktur« vermutet wird. Es handelt sich hier genau genommen um eine Art Rechtfertigungsfigur ihrer disziplinären Existenz.

(27) Während die Modellierungsperspektive für »Neuronale Netze« auf die vierte Ebene (vgl. Ebenenmodell S._) unspezifisch-physiologischer Prozesse begrenzt ist, enthält die Werkzeugperspektive große Möglichkeiten. Sie konstruktiv zu nutzen, setzt jedoch voraus, die Werkzeugperspektive in und mit den Grundbegriffen und darauf aufbauenden Theorien wiederzugewinnen, was eine Rekonstruktion des Subjektstandpunkts außerhalb des Systems einschließt.

Fußnoten

(28) [39] Wenn von computergestützen »mentalen Repräsentationen« die Rede, so setzen wir diese Bezeichnung in umgekehrte spitze Klammern; wenn hingegen mentale Repräsentationen beim Menschen gemeint, verwenden wir keine Anführungen.

(29) [40] Engl. Originalfassung: "In particular, the symbol structures in a Classical model are assumed to correspond to real physical structures in the brain and the combinatorial structure of a representation is supposed to have a counterpart in structural relations among physical properties of the brain. For example, the relation 'part of', which holds between a relatively simple symbol and a more complex one, is assumed to correspond to some physical relation among brain states. This is why Newell (1980) speaks of computational systems such as brains and Classical computers as 'physical symbol systems'".

(30) [41] Engl. Originalfassung: "Because Classical mental representations have combinatorial structure, it is possible for Classical mental operations to apply to them by reference to their form. The result is that a paradigmatic Classical mental process operates upon any mental representation that satisfies a given structural description, and transforms it into a mental representation that satisfies another structural description. (So, for example, in a model of inference one might recognize an operation that applies to any representation of the form P & Q and transforms it into a representation of the form P)."

(31) [42] Engl. Originalfassung: "What we need now is a semantic theory for mental representations: a theory of how mental representations represent ... such a theory I do not have."

(32) [43] Engl. Originalfassung: "So let's assume what we don't, at any event, know to be false that the internal language is innate, that it's formulae correspond one to one with the contents of propositional attitudes (...), and that it is as universal as human psychology."

(33) [44] Engl. Originalfassung: "What we're all doing is really a kind of logical syntax (only psychologized); and we all very much hope that when we've got a reasonable internal language (a formalism for writing down canonical representations), someone very nice and very clever will turn up and show us how to interpret it; how to provide it with semantic."

(34) [45] Engl. Originalfassung: "...picture of the mind as a syntax-driven machine."

(35) [46] In diesem Sinne argumentiert auch Becker (1990), die als Besonderheit menschlicher Expertise, die im Wissensakquisitionsprozeß ungenügend berücksichtigt würde, die Kontextabhängigkeit menschlichen Wissens, dessen Subjektgebundenheit, soziale Bestimmtheit sowie begrenzte Explizierbarkeit hervorhebt (32).

(36) [47] Dies könnte man auch als »Logifizierung« der Biologie bezeichnen, womit die zirkuläre Begründung mentaler Repräsentationen deutlich würde.

(37) [48] Engl. Originalfassung: "... distribution is currently one of the murkiest concepts in the whole of cognitive science".

(38) [49] Hiermit wird auch die große Fehlertoleranz konnektionistischer Verfahren erklärt (vgl. Kap. 3.4., Fußnote 10). Falle eine an einem bestimmten Aktivationsmuster beteiligte Einheit aus, so ließe sich das durch die beschädigte Einheit kodierte »Konzept« rekonstruieren. Unter »Konzept« werden z.B. zu repräsentierende Wörter oder Sätze verstanden.

(39) [50] Engl. Originalfassung: "The main point is this: under the influence of the Classical view, computation and cognition have been studied almost exclusively under the umbrella of discrete mathematics; the connectionist appproach, on the other hand, brings the study of computation and cognition squarely in contact with the other half of mathematics - continuous mathematics. The true commitment ... is to uncovering the insights this other half of mathematics can provide us into the nature of computation and cognition."

(40) [51] Smolensky charakterisiert tierisches Verhalten sowie menschliche Wahrnehmung, motorisches sowie Sprachverhalten und Problemlösen als unbewußte Regelanwendung: " - in short: practically all of skilled performance" (1988, 310).

(41) [52] Genauso gut könnte man einen ?Frustrationsindex? oder wie Wrobel (1991) sogar einen »Wohlbefindlichkeitsidentifikator« einführen. Solche »Frustration« oder »Wohlbefindlichkeit« wäre jedoch durch die E/A-Relation determiniert und damit begrenzt.


[Navigation]

(42)

Zurück: 5.1. Netzoptimierung und subjektives zielgerichtetes Handeln

Vor: Schlußbemerkungen


Valid HTML 4.01 Transitional