netSCHOOL    
Denken, Lernen, Selbstlernen
 

  Denken, Lernen, Selbstlernen

aus: Schüler-Duden, "Die Psychologie", Dudenverlag, Mannheim, 1996

I N H A L T
  Intelligenz        Intelligenzquotient (Abk: IQ)  
Intelligenzalter (Abk.: IA) Intelligenztests
Intelligenzdiagnostik Intelligenztraining
Intelligenzentwicklung Hamburg-Wechsler-Intelligenztest (Abk.: HAWI)
Intelligenzgrade künstliche Intelligenz
Intelligenzmessung  
 

Intelligenz: Trotz enormer, von der empirischen Psychologie in den letzten 100 Jahren unternommener Anstrengungen hegt bis heute keine allg. anerkannte Definition der Intelligenz vor. Setzt man Intelligenzmaße und Maße für Schulleistungen miteinander in Beziehung, so erhält man regelmäßig positive Korrelationskoeffizienten von zumeist mittlerer Größe. Bislang kann mit keinem anderen Merkmal schulischer Lernerfolg derart gut vorausgesagt werden wie mit Hilfe der Testintelligenz. Intelligenz ist daher auch schon als «schulische Lernfähigkeit« definiert worden. Nachdem A. BINET 1905 im Auftrag der frz. Schulverwaltung eine Untersuchungsmethode für die Platzierung schwachbegabter Kinder in speziellen Klassen entwickelt hatte, wurden Intelligenztests häufig zur Vorhersage des Schulerfolgs konstruiert und entsprechend normiert. W. STERN definierte Intelligenz als allg. geistige Anpassungsfähigkeit an neue Aufgaben und Bedingungen des Lebens, während D. WECHSLER unter Intelligenz die globale Befähigung eines Individuums verstand, «zweckvoll zu handeln, vernünftig zu denken und sich erfolgreich mit seiner Umwelt auseinander zu setzen». F. R. HOFSTÄTTER definierte die Intelligenz dagegen informationstheoretisch, als Fähigkeit zum Auffinden von Ordnungen und Regelhaftigkeiten im überzufälligen Neben- und Nacheinander von Ereignissen.

Bei den zahlreichen Definitionsversuchen werden im wesentlichen vier Aspekte unterschieden:

  1. Intelligenz ist eine Begabung (oder eine Gruppe von Begabungen), die Lebewesen in unterschiedlichem Maße besitzen können;
  2. Intelligenz ist die Fähigkeit zur Lösung konkreter und abstrakter Probleme sowie zur Bewältigung neuartiger Situationen;
  3. durch die Intelligenz erübrigt sich oft das Lernen durch Versuch und Irrtum;
  4. Intelligenz ist die Fähigkeit zur Erfassung, Deutung und Herstellung von Sinnzusammenhängen.
Weite Bereiche der Intelligenzforschung befassen sich mit der Struktur und den unterscheidbaren Komponenten der Intelligenz. So führen Erklärungsversuche der regelmäßig feststellbaren Korrelationen zwischen bestimmten Untertests eines Intelligenztests zu grundlegenden Strukturannahmen der Intelligenz (Intelligenz-Struktur-Modelle), wobei spezielle, aus empirischen Untersuchungen abgeleitete Faktormodelle eine zentrale Rolle spielen (Faktorenanalyse). Am bekanntesten geworden ist die von C. SPEARMAN entwickelte sog. Zweifaktorentheorie, der zufolge sämtliche intellektuellen Leistungen auf einen gemeinsamen allg. Intelligenzfaktor (General factor, g-Faktor) und auf einen für die jeweilige intellektuelle Leistung spezifischen Faktor (Specific factor, s-Faktor) zurückgehen.

THURSTONE selbst isolierte und beschrieb sieben Primärfähigkeiten (Primary mental abilities): Sprachverständnis, Wortflüssigkeit, Rechengewandtheit, räumliches Denken, Auffassungsgeschwindigkeit, Merkfähigkeit und schlussfolgerndes Denken.

Diese unterschiedlichen Auffassungen veranlassten die Intelligenzdiagnostik, häufig auf die Angabe eines globalen Intelligenzmaßes (etwa eines Intelligenzquotienten) zu verzichten und statt dessen die Ermittlung mehrerer nahezu unabhängiger Messwerte anzustreben, die sich jeweils nur auf eine Intelligenzdimension beziehen, zu einem Intelligenzprofil verknüpft werden können und differenzierte Aussagen über die Intelligenzstruktur und die Intelligenzentwicklung eines Kindes oder Jugendlichen ermöglicht.

Im Laufe der Zeit sind immer mehr Primärfaktoren (bis zu 120 bei J. P. GUILFORD) isoliert worden, wobei sich v.a. die Dimensionen kulturbedingte oder kristallisierte Intelligenz (Wortverständnis, Umgang mit Zahlen und allg. Wissen) sowie biologische oder flüssige Intelligenz (induktives Denken, assoziatives Gedächtnis) als psychologisch, aber auch pädagogisch bedeutsam erwiesen haben.

Im Unterschied zu den auf Korrelationskoeffizienten basierenden faktorenanalytischen Vorgehensweisen liefern in neuerer Zeit Komponentenanalysen wichtige Hinweise auf Struktur und Funktion des kognitiven Apparates wie auch auf individuelle intellektuelle Unterschiede. In den letzten Jahren rücken zudem die etwaige Eingebundenheit der Intelligenz in neurochemische Prozesse und eventuelle Veränderungen der Intelligenz. im Alter in den Blickpunkt der Intelligenzforschung. (S. 182ff)


Intelligenzalter (Abk.: IA): Die Bezeichnung Intelligenzalter wurde von A. BINET bei dem von ihm 1908 (überarbeitete Version des ursprünglichen Tests von 1905) nach dem Staffelprinzip konzipierten Intelligenztest als Maß für den jeweiligen intellektuellen Entwicklungsstand eines Kindes eingeführt. Dieses Maß ist jedoch bald kritisiert worden und wird heute nur noch selten verwendet. Die Feststellung des Intelligenzalters erfolgt bei den Staffeltests durch die Anrechnung von zwei Monaten für jede gelöste Testaufgabe. Löst nun ein Kind neben den Aufgaben seiner eigenen Altersgruppe auch noch einige aus einer höheren Altersstufe, so übersteigt das Intelligenzalter sein Lebensalter. (S. 184)


Intelligenzdiagnostik: die quantitative und/oder qualitative Erfassung intellektueller Fähigkeiten. Die quantitative Erfassung (also die Messung) der Intelligenz erfolgt mit Hilfe standardisierter Intelligenztests. Qualitative Informationen werden dagegen eher von prozessorientierten Konzeptionen wie etwa der Vorgehensweise J. PIAGETS (Denkentwicklung) erwartet. (S. 184)


Intelligenzentwicklung: An Kleinkindern wurden verschiedentlich über mehrere Jahre hinweg Untersuchungen über Verhaltensweisen durchgeführt, die von erwachsenen Beobachtern als »intelligente eingestuft wurden. Mit Hilfe von Tests wurden diese Untersuchungen dann quantifiziert. Dabei ergab sich u.a., dass das im ersten und zweiten Lebensjahr festgestellte intellektuelle Niveau der Kinder fast gar nicht mit jenem im Alter von 14-18 Jahren korrelierte. Untersucht man entsprechende Daten mit Hilfe der Faktorenanalyse, so resultieren drei Faktoren: Den ersten dieser Faktoren kann man in Anlehnung an J. PIAGET als sensomotorische Wachheit bezeichnen. Er dominiert in den ersten beiden Lebensjahren. Als intelligent erscheint in diesem Alter ein Kind, das beweglich ist und leicht auf Reize anspricht. Der zweite Faktor beherrscht zwischen zwei und vier Jahren das Bild. Er ist durch das Festhalten an einmal begonnenen Beschäftigungen, also durch Ausdauer und eventuell sogar durch trotzige Verhaltensweisen gekennzeichnet. Gegen Ende des vierten Lebensjahres gewinnt der dritte Faktor die Oberhand, von dem vermutet wird, dass er mit dem Spearmanschen g-Faktor (Intelligenz) identisch ist. Erst ab diesem Alter erlauben Intelligenztests eine Voraussage über die zu erwartende Intelligenz im Erwachsenenalter.

Für die begabungstheoretische Diskussion seit der zweiten Hälfte der 1960er Jahre war neben der Anlage-Umwelt-Problematik vor allem dieser Aspekt der relativen Konstanz von Intelligenz über längere Zeiträume und damit wiederum das Problem ihrer Beeinflussbarkeit durch Umweltfaktoren (wie beispielsweise Kindergarten oder Schule) ein zentrales Thema.

Die folgenreichsten Befunde, die in der Frage der Verbesserung der Vorschulerziehung und einer Reform der Schule eine große Rolle Spielten, hat B. S. BLOOM geliefert. Seinen Aussagen, dass bei Vierjährigen bereits 50% und bei Achtjährigen schon 80% der späteren Erwachsenenintelligenz entwickelt seien, wurde großes Gewicht beigemessen. Hieraus wurde beispielsweise abgeleitet, dass eine durch soziokulturelle Benachteiligungen von Kindern während der Vorschulzeit entstandene kognitive Unterentwicklung durch spätere schulische Bemühungen in den meisten Fällen nicht mehr zu kompensieren sei.

Zusammen mit den fälschlich aus den Erblichkeitsschätzungen für die Intelligenz gezogenen Folgerungen waren BLOOMS Feststellungen dazu geeignet, entscheidende Argumente für eine Position zu liefern, nach der die kognitive Förderung durch die Umwelt nur beschränkt oder nur während weniger Jahre möglich ist.

Ebenso wie die in der Pädagogik oder in der Bildungspolitik vielfach irrig interpretierten Erblichkeitsschätzungen für die Intelligenz beruht auch der von B. S. BLOOM skizzierte Entwicklungsverlauf der menschlichen Intelligenz auf nicht haltbaren Interpretationen einschlägiger korrelativer Beziehungen. Darauf hat besonders D. HOPF aufmerksam gemacht. Mindestens bis zur Adoleszenz muss mit erheblichen IQ-Schwankungen gerechnet werden, weshalb keine sicheren Voraussagen möglich sind. Es wäre deshalb verfehlt, zu irgendeinem Zeitpunkt der Kindheit oder des Jugendalters die Ausprägung der Intelligenz für so weitgehend abgeschlossen zu erachten, dass auf der Grundlage von Testergebnissen unwiderrufliche Entscheidungen getroffen werden dürften.

Unter strukturanalytischer Perspektive ist festzustellen, dass die Korrelationen zwischen den THURSTONEschen Primärfaktoten der Intelligenz mit ansteigendem Lebensalter abnehmen. Mit diesem Sachverhalt scheint die Differenzierungshypothese (H. E. GARRETT) der Intelligenz bestätigt zu werden, demzufolge mit zunehmendem Alter die Zahl der unabhängigen Intelligenzfaktoren zunimmt. Die von K. H. WEWETZER und G. A. LIENERT formulierte Divergenzhypothese der Intelligenz behauptet, dass zunehmende Intelligenz mit mehr Intelligenzfaktoren einhergeht.

Im Hinblick auf die pädagogische Förderung von Kindern und Jugendlichen im kognitiven Bereich sind die im wesentlichen korrelationsanalytisch gewonnenen Ergebnisse über die Entwicklung der Intelligenz weit weniger informativ als solche Konzeptionen, die prozessorientiert die Intelligenzentwicklung zu erfassen suchen. Besonders anregend in diesem Zusammenhang sind die Untersuchungen der Genfer Schule und die durch sie beeinflussten entwicklungspsychologischen Strömungen. Auch neuere denkpsychologische Ansätze, wie z.B. die Vorschläge von D. DÖRNER, können der pädagogischen Praxis wertvolle Impulse geben.


Intelligenzgrade: Aufgrund ihres Abschneidens bei Intelligenztests werden Probanden häufig bestimmten Kategorien zugeordnet. Besonders bekannt wurde im pädagogischen Bereich die Einteilung D. WECHSLERS für Kinder und Jugendliche im Alter von 6 bis 15 Jahren:

Intelligenzgrade
IQ Bezeichnung Häufigkeit
über 130extrem hohe Intelligenz2,2. %
120-129sehr hohe Intelligenz6,7 %
110-119hohe Intelligenz16,1 %
90-109durchschnittl. Intelligenz50,0 %
80-89niedrige Intelligenz16,1 %
70-79sehr niedrig Intelligenz6,7 %
unter 70extrem niedrige Intelligenz2,2 %

Die skizzierte Einteilung hegt dem Hamburg-Wechsler-Intelligenztest für Kinder (Hamburg-Wechsler-Intelligenztest) zugrunde. Allerdings sollte ein Prüfer bei der Klassifizierung eines Kindes oder Jugendlichen immer dessen Gesamtleistung beim Test beachten. Auch andere Gesichtspunkte, die nicht mit Intelligenztests zu ermitteln sind, müssen berücksichtigt werden, soll ein Individuum etwa als »geistig retardiert« eingestuft werden. (S. 185f)


Intelligenzmessung: Der Versuch, die intellektuelle Leistungsfähigkeit oder den intellektuellen Entwicklungsstand eines Menschen quantitativ zu erfassen, wird als L bezeichnet. Als Instrumente hierfür werden insbesondere Intelligenztests herangezogen. Üblicherweise geht man davon aus, dass dabei die Messungen auf einem sogenannten Intervallskalenniveau erfolgen (ISkala). obwohl es für Intelligenztests eine Vielfalt möglicher Normen gibt, dominiert vor allem im öffentlichen Bewusstsein der Intelligenzquotient. (S.186)


Intelligenzquotient (Abk: IQ): Der IQ als Maß für den intellektuellen Entwicklungsstand schlug 1912 W. STERN erstmals vor. Angeregt wurde STERN hierbei von den Arbeiten A. BINETs, der 1908 die überarbeitete Version eines zuerst 1905 vorgelegten Intelligenztests veröffentlichte und dabei als Maß für den intellektuellen Entwicklungsstand eines Kindes dessen Intelligenzalter (IA) verwendete. BINET setzte das Intelligenzalter durch eine Differenzbildung mit dem Lebensalter (LA) in Beziehung und berechnete so jeweils entweder einen Intelligenzrückstand, einen Intelligenzvorsprung oder eine altersentsprechende Intelligenzentwicklung.

STERN kritisierte dieses Vorgehen, da ein Intelligenzrückstand von zwei Jahren bei einem Kind mit einem Lebensalter von vier Jahren offenbar etwas viel Schwerwiegenderes bedeutet als der gleiche Intelligenzrückstand bei einem Kind von zwölf Jahren. Durch die Bildung eines Quotienten aus Intelligenzalter und Lebensalter meinte STERN diesem Sachverhalt Rechnung tragen zu können. Allgemein berechnet man den IQ nach der Formel IQ= (IA/LA) * 100. Hierbei bedeutet ein Wert von 100 ein genau durchschnittliches Intelligenzniveau. Höhere oder niedrigere Werte weisen auf das Vorliegen einer über- oder unterdurchschnittlichen Intelligenz hin. Geringe Abweichungen vom Durchschnitt lässt man allerdings als durchaus »normal« gelten. Berechnet man z.B. nach der genannten Formel die Intelligenzquotienten für das genannte vier bzw. zwölfjährige Kind, erhält man Werte von 50 bzw. von ca. 85.

Der Vorschlag STERNS, den IQ als Maß für den intellektuellen Entwicklungsstand zu verwenden, setzte sich international rasch durch, Dabei wurde aber nicht immer genügend beachtet, dass IQs auf verschiedenen Altersstufen nur dann die gleiche Bedeutung haben, wenn die Streuung des IQ direkt proportional zum Lebensalter wächst. Empirische Untersuchungen haben bislang diese Annahme nicht bestätigt. Deshalb wurde der IQ weitgehend durch den Abweichungs-IQ verdrängt, der eine Standardnorm darstellt.

Intelligenzquotient als Standardnorm: Ein wesentlicher Einwand gegen den nach STERN gebildeten IQ besteht darin, dass die Messwerte bei Kindern verschiedener Altersstufen praktisch nicht vergleichbar sind und u. U. auch Unterschiedliches aussagen. Hierdurch ergeben sich in der pädagogischen und psychologischen Praxis beträchtliche Interpretationsschwierigkeiten. Eine Möglichkeit, dies zu umgehen, besteht darin, beim Vorliegen normalverteilter Messwerte (Verteilung) das relative Abschneiden eines Probanden in einem Intelligenztest dadurch zu bewerten, dass man von seiner erreichten Punktzahl den jeweiligen Altersdurchschnitt abzieht und diese Differenz im Hinblick auf die Streuung der Punktwerte, gemessen an der Standardabweichung, relativiert. Eine solche Transformation führt zu einer Skala mit dem Mittelwert 0 und der Standardabweichung 1; sowohl der Mittelwert als auch die Standardabweichung einer solchen Skala können aber ohne Informationsverlust mittels linearer Transformation nach Belieben weiter verändert werden. D. WECHSLER hat deshalb vorgeschlagen, für den Mittelwert die Zahl 100 und für die Standardabweichung den Wert 15 zu wählen. (S. 186f)


Intelligenztests: Unter Intelligenztests werden Messinstrumente verstanden, mit deren Hilfe sich die Intelligenz quantitativ erfassen lässt und die nach anerkannten testtheoretischen Regeln konstruiert sind ( Testkonstruktion, Testtheorie). Dabei können solche Tests auch in qualitativer Hinsicht wertvolle diagnostische Informationen liefern.

Die im Verlauf der Testkonstruktion aufgrund einer Itemanalyse in einen Intelligenztest aufgenommenen Aufgaben (Items), die manchmal auch zu verschiedenen Aufgabengruppen oder Untertests (Subtests) zusammengestellt werden, stellen im Idealfall eine repräsentative Stichprobe von Anforderungen dar, deren Bewältigung den Einsatz allgemeiner und/oder spezieller intellektueller Fähigkeiten erfordert.

Intelligenztests sind im allg. so konstruiert, dass sich die Verteilung der erzielten Messwerte gut mit der Gaußschen Glockenkurve (Verteilung) beschreiben lässt. Diesem gezielten Vorgehen liegt die Annahme zugrunde, dass sich Intelligenzgrade in der Bevölkerung ebenso verteilen wie bestimmte körperliche Merkmale (z.B. die Körpergröße).

Als Maß für die Intelligenz wurde aufgrund der Anzahl der richtig gelösten Aufgaben zunächst das Intelligenzalter (IA) eines Kindes, später dann auf Vorschlag von W. STERN ein Intelligenzquotient (IQ) verwendet. Dieses Vorgehen erwies sich jedoch als testtheoretisch problematisch (Intelligenzquotient), weshalb heute überwiegend sog. Abweichungs-IQs oder ähnliche Normwerte bei I. verwendet werden.

Intelligenztests sind aus der pädagogischen Diagnostik nicht mehr wegzudenken. Allerdings sind gegen ihre Verwendung vielfach auch berechtigte Einwände vorgebracht worden, die sowohl vor einer Überschätzung dieser Verfahren als auch vor deren unkritischer Anwendung warnen. Einer dieser Kritikpunkte sieht I. als »unfair« an, da sie Kinder und Jugendliche aus unterschiedlichen sozialen Schichten bevorzugen oder auch benachteiligen können. Ein Versuch, diesem Einwand zu begegnen, ist die Konstruktion sog. Culture-fair-Intelligenztests.

Ein weiterer Einwand gegen I. äußert sich in dem Argument, dass diese Verfahren im Wesentlichen konvergentes, nicht aber divergentes Denken oder Kreativität erfassten, weshalb sie nichts über die Intelligenz einer Person in ihrer vollen Breite aussagen würden. In letzter Zeit wurde der Vorwurf vor allem im Zusammenhang mit der Fähigkeit des Problemlösens erhoben. Weiter muss erwähnt werden, dass Intelligenztestwerte keine Naturkonstanten darstellen. Darum erscheint es gefährlich, bei Individualprognosen auf ihrer Basis unwiderrufliche pädagogische Entscheidungen zu treffen. - Intelligenzentwicklung. (S. 187f)


Intelligenztraining: Sammelbez. für gezielte Maßnahmen zur Förderung der intellektuellen Fähigkeiten. (S. 188)


Hamburg-Wechsler-Intelligenztest (Abk.: HAWI): auf der 1930 von dem amerikan. Psychologen D. WECHSLER entwickelten Bellevue Intelligence Scale beruhender psychologischer Test, der 1956 vom Psychologischen Institut der Unversität Hamburg zur Anwendung bei Erwachsenen (HAWIE) und bei sechs- bis fünfzehnjährigen Kindern bzw. Jugendlichen (HAWIK) für die deutschsprachige Bevölkerung standardisiert wurde.

Der HAWIE und der (1983 gründlich revidierte) HAWIK-R bestehen aus zehn Untertests, von denen je fünf zu einem Verbalteil und zu einem Handlungsteil zusammengefasst sind. Im (sprachgebundenen) Verbalteil werden Allgemeines Wissen, Allgemeines Verständnis, Rechnerisches Denken, Gemeinsamkeiten finden und Wortschatz sowie (gegebenenfalls) das Gedächtnis in Form des Nachsprechens von Zahlen geprüft. Im Handlungsteil (Zahlen-Symbol-Test, Bilderergänzen, Bilderordnen, Mosaik-Test, Figurenlegen) wird versucht, weniger sprachlich gebundene Intelligenzleistungen zu prüfen. Als Maß für die Intelligenz werden, je nach erreichter Punktzahl und in Abhängigkeit vom Lebensalter, ein Gesamt-, ein Verbal- und ein Handlungs-Intelligenzquotient ermittelt. (S. 154f)


künstliche Intelligenz (Abk.: KI; engl.: artificial intelligence (ai); auch maschinelle Intelligenz): Bez. für spezielle Methoden und Verfahren der praktischen Informatik (Wissensverarbeitung, wissensbasierte Systeme) und der Kognitionswissenschaften (kognitive Psychologie, kognitive Linguistik u.a.) mit unterschiedlichen Zielsetzungen, von denen die maschinelle bzw. computerisierte Nachbildung für den Menschen typischer Fähigkeiten, besonders solcher der menschlichen Intelligenz, aber auch der Aspekt einer völligen Ersetzung des Menschen durch die Maschine, am weitesten reichen.

Unabhängig von den unterschiedlichen Auffassungen und Zielsetzungen, werden im Rahmen der KI Methoden und Verfahren zur Systemkonstruktion entwickelt. KI-Systeme sind wissensbasierte Problemlöser, d.h., sie lösen Aufgaben auf der Grundlage verfügbarer Daten. Kernfragen des Entwurfs sind dementsprechend die formale Repräsentation der Problemobjekte bzw. des Wissens darüber, die Methode der Inferenz (die Bestimmung der elementaren Problemlösefaktoren) sowie die Festlegung der Suchstrategie. Zur Verwirklichung des Entwurfs müssen Methoden, Verfahren und Werkzeuge der Implementation ausgewählt werden.

KI-Systerne lassen sich traditionellen Teilgebieten zuordnen. In der Spielprogrammierung, speziell der Schachprogrammierung, sind die spektakulärsten Erfolge zu verzeichnen, obwohl hier meist das wenig »intelligente« Verfahren der Breitensuche angewendet wird. Die hieraus entwickelten Problemlösetechniken wurden auch von der kognitiven Psychologie aufgegriffen.

Die Rekonstruktion sprachlicher Äußerungen zählt zu den schwierigsten Problemen der KI. Im Unterschied zu den ersten, rein syntaktischen (den Satzbau betreffenden) Versuchen sind neuere natürlichsprachliche Systeme semantisch (d.h. die Bedeutung sprachlicher Zeichen betreffend) fundiert und berücksichtigen Weltwissen sowie formalisierbare pragmatische Informationen. Als Anwendungen werden neben der automatischen Übersetzung die automatische Zusammenfassung von Aufsätzen sowie die Mensch-Maschine-Kommunikation mit Daten- und Wissensbanken ins Auge gefasst. Hier wird eine Verbindung mit Systemen der akustischen Spracherkennung versucht, deren grundlegende Methoden und Verfahren außerhalb der KI liegen. In diesem Bereich findet eine enge Zusammenarbeit mit der kognitiven Linguistik statt. Ähnlich liegen die Verhältnisse in der Bildverarbeitung, deren Anwendungsrelevanz im wesentlichen von den Methoden der Mustererkennung sowie der »niederen Bilddeutung« herrührt. Bei der Analyse natürlicher Szenen und Umgebungen spielen wissensbasierte Methoden jedoch eine wichtige Rolle. »Höhere Bilddeutung«, räumliches Sehen und Analyse von Bildfolgen sind auch eine Voraussetzung für die Entwicklung autonomer Roboter, also flexibel einsetzbarer Handhabungsautomaten. Diese enthalten meist Sensoren zur Kommunikation mit der Umgebung (Photozellen, Kameras, Temperaturfühler, Rauchfühler u.a.), Effektoren zur Durchführung von Tätigkeiten (Schalter, bewegliche Greifarme u. a.) und Prozessoren zur Informationsverarbeitung und zur Steuerung der Effektoren.

Den höchsten Grad an Anwendungsrelevanz besitzen auf absehbare Zeit Expertensysteme, d.h. automatische Problemlöser der KI für spezielle Wissensgebiete, z.B. chemische Analyse, Fehlerdiagnose technischer Aggregate, Finanzanalyse oder Gerätekonfiguration.

Eine alle KI-Systeme berührende Technik ist das automatische Lernen (automatischer Wissenserwerb). Nach einigen spektakulären Anfangserfolgen in Klassifikation und Konzeptbildung sind hier kaum noch Fortschritte zu verzeichnen, so dass wieder auf den Ansatz der neuronalen Netze zurückgegriffen wird.

Die Idee der vollständigen oder weitgehenden Rekonstruierbarkeit des menschlichen Geistes wirkt ebenso faszinierend wie provozierend. Prominente Kritik kommt v.a. von Philosophen an den zugrundehegenden philosophischen Annahmen sowie deren enthumanisierenden Folgen. Gegen die starke KI-These spricht, dass auch mit Sensoren ausgerüstete Automaten ihr »Verhalten« nur in einem vorgegebenen bzw. vorprogrammierten Rahmen ändern können, wogegen lebendige Intelligenzen mit ihrer natürlichen und sozialen Umwelt in einer offenen, evolutionär sich verändernden Beziehung stehen. KI-Systerne vermögen daher nur gewisse abstrakte Aspekte der menschlichen Intelligenz zu simulieren; sie sind nicht intelligent. (S. 218)
 

 zurück zu Denken, Lernen, Selbstlernen

 

oben home Inhalt:   Werner Plack web design:   hp maly 2007 zurück