Forum Soziales und Lebenshilfe Lebenshilfe Roboter lernen verstehen

Lebenshilfe Roboter lernen verstehen

longtime
longtime
Mitglied

Re: Roboter lernen verstehen
geschrieben von longtime
als Antwort auf diogenes vom 10.06.2008, 10:29:16
Danke für deine kritischen Gedanken, diogenes.

Ohne Karls begrifflich verwegenen Segen der erfassbaren Gefühlswelt der Menschlein lass ich mir vom "Roadrunner" die Gefühle des homo ignoratus aut demens erklären.

--
longtime
Karl
Karl
Administrator

Re: Roboter lernen verstehen
geschrieben von Karl
als Antwort auf Karl vom 09.06.2008, 17:47:39
Jetzt habe ich ein Zeitfenster, um dir diogenes, aber auch siegfried46, senhora und longtime zu antworten.

Diogenes, du wendest dich gegen meinen Satz, den ich als Antwort an floravonbistram formulierte:

"Programmieren heißt erziehen, zumindest dann, wenn es keine einfache Dressur mehr ist."

Ich gebe zu, dass ich solche Provokationen liebe, weil sie Denkanstösse geben. Dass dieser Satz deine lange Replik ausgelöst hat, war nicht das Schlechteste, denn du bringst vieles, was bedenkenswert ist. Ich bin also ganz zu Beginn bereit, mich etwas zurück zu nehmen: Tatsächlich möchte ich nicht missverstanden werden und einem einfachen simplizistischen Gleichsetzen heutigen Programmierens mit Erziehung möchte ich nicht das Wort reden. Insbesondere möchte ich keineswegs wie du treffend formulierst "das Kind mit dem Bade ausschütten und unser 'Selbst-Verständnis' dahingehend ummodeln lassen, daß wir uns nur noch als programmierbare Systeme begreifen".

Meine gedankliche Provokation sollte aber das Nachdenken darüber anstoßen, dass Parallelen zwischen "programmiert werden" und "erzogen werden" bestehen. Nach meiner Überzeugung ist die Kluft so riesengroß sie uns heute zu recht erscheint, weshalb sie einen unterschiedlichen Sprachgebrauch rechtfertigt (Siegfried46), keineswegs unüberbrückbar, jedenfalls fehlt hierfür noch ebenso der Beweis wie für das Gegenteil.

Als offensichtlichster Unterschied zwischen dem Programmieren eines Computers und dem Lernen eines Menschen wird angesehen, dass einem Computer Informationen gefüttert werden, während Menschen sich ihre Informationen durch Interaktion mit ihrer Umwelt selber suchen. Menschliche und tierische Gehirne sind auf Lernen ausgelegt, sie können gar nicht anders als aufgrund ihrer Erfahrungen ihr Verhalten zu modifizieren. Dieses explorative Verhaltensmuster, das menschlichen und tierischen Gehirnen es ermöglicht, sich ein hinreichendes (das Überleben ermöglichende) Bild von der Umwelt zu machen, kann auch in Computern implementiert werden (die wir dann Roboter nennen würden). Wohin die Entwicklung solcher lernender Roboter führt, wenn die technischen Verbesserungen (longtime) anhalten, weiß niemand zu sagen. Es gibt keinen allgemeingültigen Satz in der Logik über die Grenzen dessen, was durch einen Computer machbar ist, der nicht auch für den Menschen gelten würde. Es gibt keinen theoretischen Schutz vor der Entwicklung von Robotern, die intellektuell und emotional (Senhora) menschliches Verhalten perfekt simulieren könnten.

Ich bin sehr von Turings Test geprägt, der auf mich als Jugendlicher überzeugend gewirkt hat. Natürlich werden die Denkprozesse eines Roboters nicht in Neuronen ablaufen, sondern in was auch immer für elektronischen Bausteinen. Aber ist das wirklich entscheidend wie eine Leistung zustande kommt?

Ich möchte Programmieren und Erziehen keineswegs gleichsetzen, aber es könnte sein, dass wir eines Tages davon Abstand nehmen zu sagen "ich programmiere meinen Roboter", weil er einen solchen Komplexitätsgrad erreicht hat, dass ihn zu "erziehen" adäquater erscheinen könnte.
--
karl
Karl
Karl
Administrator

Re: Roboter lernen verstehen
geschrieben von Karl
als Antwort auf Karl vom 10.06.2008, 17:36:14
Noch als Nachtrag ein Zitat:

... wollen die Forscher im Rahmen des Chris-Projekts Robotern beibringen, ähnlich wie Menschen Gesichtsausdrücke, Körperhaltung, Gesten und Augenkontakte zu interpretieren. Zusammen mit einem Verständnis der Aufgabenstellung könne so gewährleistet werden, dass Roboter ihre Arbeit tun, ohne Menschen zu gefährden.

Als ein Beispiel nennt Melhuish das gemeinsame Kochen einer Suppe: "Der Roboter muss nicht nur das Ziel "Suppe machen" verstehen, sondern auch, wie stark er umrühren soll." Es sei auch nötig, dass der Roboter den Ausdruck von Schmerz auf dem Gesicht des Menschen erkennt, falls dieser mit heißer Suppe bespritzt werde. Zudem müsse der Roboter die gehobene Hand als Zeichen interpretieren, dass etwas genug ist, beispielsweise wenn er durch ein einfaches Kommando aufgefordert wird, mit dem Rühren aufzuhören.

"Ziel des Projekts ist es, ausgereifte Regeln für Service-Roboter zu erreichen, die eng mit Menschen zusammenarbeiten", erklärt Melhuis. Der Fokus werde dabei auf nichtsprachlicher Kommunikation liegen, doch rudimentäre Kommandos wie "Stopp" oder "Hier" würden ebenfalls berücksichtigt.
geschrieben von Quelle im Linktipp


Überflüssig zu erwähnen, dass die Roboter die einmal erfahrenen Regeln lernen und behalten müssen, um nützlich zu sein. Auch wenn im Zitat ein triviales Beispiel gewählt wurde, das sicherlich witzige Kommentare provozieren wird, sollte deutlich werden, dass das "Programmieren" von Robotern andere Charakteristika haben wird als das Schreiben eines herkömmlichen Computerprogramms. Die Parallelen zum "Erziehen" sollten deutlich werden.
--
karl

Anzeige

longtime
longtime
Mitglied

Re: Roboter lernen verstehen
geschrieben von longtime
als Antwort auf Karl vom 11.06.2008, 09:14:42
Karl zitiert Fischbach, äh Turing - wg. Befriedigtwerden oder Versorgtwerden oder Erzogen-Werden oder mechanisch Gestreichelt-Werden von blöden Computern.

Das klingt nach Kant und Goethe und Orwell.


--
longtime
diogenes
diogenes
Mitglied

Re: Roboter lernen verstehen
geschrieben von diogenes
als Antwort auf Karl vom 10.06.2008, 17:36:14
Grüß Dich, Karl,

seit ein paar Tagen bastel ich an meiner angekündigten Antwort und hab ich eh schon ein schlechtes Gewissen, weil ich mich wieder mal nicht kurz fassen kann.
Nun schicke ich meine Emotionen anschließend gesondert, dann kann ich nach dem ‚Navallo-Kriterium‘ hier noch ein paar Sätze direkt zu Deiner Erwiderung riskieren .

Wenn Du bei den zunehmend komplexeren Funktionsstrukturen der Roboter in der Mensch-Maschine-Interaktion von ‚Programmieren‘ zu ‚Erziehen‘ wechseln möchtest, kann ich das nachvollziehen. Ob es sinnvoll wäre, den Ausdruck ‚Erziehen‘ in seiner besonderen Bedeutung ausschließlich in der menschlichen Sozialisation zu verwenden, will ich hier mal nicht weiter verfolgen – selbst bei Tieren kennen wir noch eine zusätzliche Bezeichnung für die Formung von Verhalten, die der Dressur, den Du oben schon erwähnt hast – vielleicht ist vom Grundmuster her die Bezeichnung ‚Konditionieren‘ noch sinnvoller, wenn die Automaten bestimmte Abfolgen von Reaktionen in ihrem Repertoire mit jeweils unterschiedlichen, jedoch typischen Situationsmerkmalen bzw. Merkmalsclustern verknüpfen, indem sie dabei ein sprachliches Kommando (richtig-falsch, gut-schlecht) eines menschlichen Gegenübers, oder ein eingebautes Erfolgskriterium auswerten.
Hierzu eine weitere Bemerkung: der Ansatz von Watson, Skinner und Kollegen, der Behaviorismus, versprach vor wenigen Jahrzehnten, Menschen mit einfachen Verfahren zu konditionieren, was einem Programmieren gewisserweise nahe kam, bisweilen mit bedenklichen Erscheinungen, wobei die behandelten Personen nicht nur mit den erwarteten Verhaltensänderungen reagierten, sondern zusätzliche, nicht erwünschte (depressive) Veränderungen zeigten. Diese Praxis ist zwischenzeitlich glücklicherweise überwunden, die anschließend zu besprechenden Entwicklungen könnten erneut Anlaß zu enthusiastischen Phantastereien geben, wie sie seinerzeit Skinnerin seinem Roman ‚Walden Two‘, dt. ‚Futurum Zwei‘ formuliert hat – deshalb bin ich besonders aufmerksam.

Wir sind uns grundsätzlich einig, daß wir bei der technischen Entwicklung keine Grenzen absehen können, nicht nur quantitativ, es werden auch neue Qualitäten erreicht werden. Wir unterscheiden uns jedoch in der Frage, ob es dabei gelingt, etwas dem Menschen analog Funktionierendes herzustellen. Von der Struktur her sind das zunächst Glaubensaussagen: wir wissen es nicht und wir können es nicht wissen, weil uns ein vergleichbarer Fall, an dem wir uns orientieren könnten, nicht zur Verfügung steht. Wie bei allen Glaubensaussagen erscheint es mir ratsam, auch hier eine Klärung unter der Fragestellung zu suchen: ‚wie kommen wir eigentlich zu unseren unterschiedlichen Auffassungen‘, und da werden wir wohl noch so manches Gespräch führen. Ein paar Anhaltspunkte will ich bei den Emotionen beschreiben, einen weiteren Gesichtspunkt hier kurz:

Bei Deiner Kernfrage: ‚Natürlich werden die Denkprozesse eines Roboters nicht in Neuronen ablaufen, sondern in was auch immer für elektronischen Bausteinen. Aber ist das wirklich entscheidend wie eine Leistung zustande kommt?‘ bin ich u.a. an den Laplaceschen Dämon erinnert: um den Menschen insgesamt nachbilden zu können, müßten wir alle seine Funktionen kennen – schon davon sind wir trotz, oder gerade wegen des nicht zu überblickenden Theoriendschungels weit entfernt, allein meine anschließende, kurze Skizze zu den Emotionen verdeutlicht dies. Ein dem Menschen Vergleichbares finden wir in unserer Erfahrungswelt nicht vor, er ist daher was Einzigartiges, was ich freilich als Unikum, nicht als Krone-der-Schöpfung verstehe. Wir können ihn daher nur mit den uns zur Verfügung stehenden Erkenntnisfunktionen erkunden, woraus möglicherweise prinzipielle Begrenzungen bedingt sind (Physikers kennen die von Werner Heisenberg nachgewiesene Unschärferelation, wobei sogar er noch die ‚Weltformel‘ suchte, seine Nachfolger sprechen bescheidener von der Vereinigung der Kernkräfte). In der Bewußtseinsforschung wird ein gewissermaßen ähnliches Problem diskutiert, die Dritte-Person-Perspektive (Beobachtungen durch einen Außenstehenden) gegenüber der Erste-Person-Perspektive (Selbstbeobachtung), und Markus Kiefer schreibt hierzu in Jochen Müsseler (Hrsg.) Allgemeine Psychologie, Springer-Spektrum 2008, S. 156 :‘Ob und wie diese beiden Perspektiven ineinander überführbar sind, ist ein wissenschaftstheoretisches Kernproblem der Bewußtseinsforschung, dessen Klärung noch aussteht.‘
Ohne eine einheitliche Theorie des Menschen, so würde ich schließen, können wir nur die uns bekannten Teilleistungen simulieren, teilweise wohl auch mit besserer Qualität.

Ende Mai wurde in der Teleakademie des SWR ein Vortrag von Albert Albers zum Thema ‚Humanoide Roboter‘ gesendet. Anhand mehrerer Beispiele konnte er zeigen, daß es ein uraltes menschliches Bestreben ist, menschenähnliche Geschöpfe herzustellen, das durch die modernen technischen Möglichkeiten erneut geweckt wurde. Leider finde ich kein Manuskript, nur eine Kurzfassung.

Deinen Hinweis auf den Turing-Test habe ich registriert, muß aber noch nachprüfen, ob ich diesen richtig verstehe und wie er heute vorgenommen wird.
Einen ersten grundsätzlichen Unterschied zwischen Mensch und Roboter konnten wir dennoch inzwischen festhalten: Roboter kommen nicht in die Pubertät! Ob dies freilich ausreicht, die Turing-Frage abschließend zu behandeln, bezweifle ich ).
Aus zeitlichen Gründen kann ich darauf erst später mal eingehen – ich hatte in der vergangenen Woche noch zusätzliche Probleme mit herkömmlichen Menschen, einer Subpopulation, bisweilen auch als Mieter bezeichnet, die die Kehrwoche nicht mehr einhalten. Mir wär’s zunächst hilfreicher, wir könnten mit den Robotern solche Schwerenöter erziehen, als umgekehrt, aber darauf kommen wir gleich beim Emotionsabschnitt ).

Auch für Dich keinerlei Zeitdruck – vor unserem Urlaub im August muß ich Haus und Hof noch in Ordnung bringen und kann hier nur begrenzt teilnehmen,

herzliche Grüße an Euch und angenehme Sommertage


--
diogenes
diogenes
diogenes
Mitglied

Re: Roboter lernen verstehen
geschrieben von diogenes
als Antwort auf senhora vom 10.06.2008, 09:12:19
grüß Euch zusammen,

Mimik, Gestik, Emotionen sind im Gespräch – drei Phänomene in unserem Erleben und Verhalten, sehr bedeutend bei sozialen Begegnungen, auch bei etlichen Tiergattungen zu beobachten, phylogenetisch älter als unser ‚eigentliches‘ Kommunikationsvermögen, die menschliche Sprache.

Die ersten beiden spielen sich in unserem äußeren Verhalten ab. Sie sind wesentlich von der Aktivität von Muskelgruppen verursacht. Wir unterscheiden zwischen einer Person, die bestimmte Signale in Mimik und Gesten äußert, und einem Gegenüber, das diese Signale wahrnimmt. Sie stellen also ein non-verbales Kommunikationsmittel dar – wir kennen den Ausdruck ‚Körper-Sprache‘.

Emotionen hingegen sind Teil eines inneren Kommunikationssystems. Die dabei bekannten Komponenten versuche ich etwas später zu beschreiben. Emotionen sind mit Mimik und Gestik kaum auflösbar verkoppelt. Allen dreien ist gemeinsam, daß sie weitgehend unbewußt agieren, das macht sie bisweilen auch etwas suspekt.

Und am Anfang dieses Gesprächs steht die Meldung: ‚Roboter lernen verstehen‘. Da möchte ich am liebsten antworten: also her mit dem Roboter – dann versteht mich endlich mal einer!
Diese alltagssprachliche Auffassung von ‚verstehen‘ ist jedoch nicht gemeint – was die Roboter verstehen lernen, will ich gleich beschreiben.

Für die folgenden Überlegungen ist es hilfreich, einen Begriff kurz zu erwähnen, der beim Beschreiben von menschlichem Erleben und Verhalten auf vielen Ebenen unterschiedlicher Komplexität eine zentrale Anwendung findet – das Muster oder Schema.
Ein Muster ist eine Konfiguration von gleichartigen oder unterschiedlichen Elementen, bei dem der Informationsgehalt, wir können auch sagen, der Sinn oder die Bedeutung, nicht in den Elementen, sondern der Anordnung liegt. Legen wir beispielsweise drei Münzen auf einem Tisch mit etwas Abstand zwischen ihnen in einer Reihe neben einander, dann nehmen wir sie als Linie wahr. Schieben wir die mittlere Münze etwas nach oben, dann sehen wir ein Dreieck. Die wissenschaftliche Erforschung derartiger Phänomene nahm ihren Anfang in der , Gestaltpsychologie ‚Gestalt‘ nannte man dort solche Muster.

Die Bedeutung von Mimik und Gestik bei Mensch und Tier beruht nun auf der Fähigkeit, die relevanten Merkmale in Gesicht oder Körper gezielt zu erfassen, sie jedoch nicht analytisch-isoliert, sondern als Muster zu interpretieren. Hier darf ich auf die hervorragenden Gesichtsschemata hinweisen, die Navallo (s.u.) vor kurzem vorgestellt hat. Er konnte dort überzeugend vorführen, wie wenig Elemente im Gesicht zu einer eindeutigen Zuordnung zu dem typischen Gefühls- oder Stimmungseindruck nötig sind. Bei Menschen, die über die Sprache kommunizieren, sind Mimik und Gestik zusätzliche Informationsquellen über das Gegenüber, bei Babies, Menschen nach Sprachverlust und Tieren sind sie, zusammen mit einfachen Lauten und Gerüchen, die Basis einer Verständigung. Wie wichtig sie sind, merken wir erst, wenn sie fehlen, z.B. bei einem schriftlichen Austausch, wo dann Smileys diese Funktionen ersetzen sollen, beim Telefonieren, wo bestenfalls noch Stimm- und Tonqualitäten das Gesprochene ergänzen, oder wenn infolge von neurologischen Defiziten (Schlaganfall, etc.) diese Fähigkeiten eingeschränkt sind.

Wenn nun die Automaten damit ausgestattet werden, Muster in der gesprochenen Sprache oder der Körpersprache eines belebten Gegenübers als typische sensorische Ganzheiten auszuwerten und mit spezifischen Reaktionsmustern darauf zu antworten, so kann man darin eine Analogie zu einfachen Formen von ‚Verstehen‘ bei Mensch und Tier entdecken, freilich nicht in der menschlichen, abstrakten Fähigkeit, die Bedeutung solcher Muster in eigenen Worten zu formulieren und die damit verbundenen Gefühle zu erleben. Bei Interaktionen zwischen Mensch und Maschine können solche Fähigkeiten der Automaten zunächst einmal von Vorteil sein, zur Ergänzung der sprachlichen Kommunikation, dort wo ein Signal sehr schnell gebraucht wird, z.B. eine von der Maschine verursachte Schmerzempfindung beim menschlichen Gegenüber, worauf Karl in seinem letzten Beitrag aufmerksam macht. Ebenso dort, wo eine sprachliche Kommunikation nicht möglich ist, in sehr geräuschvoller Umgebung, Straßenverkehr, lauten Arbeitsplätzen, wenn das menschliche Gegenüber Sprachdefizite aufweist.
Die interessante Verwendung von mimischen und gestischen Signalen in einer Bildschirmkommunikation, auf die Senhora uns aufmerksam macht, kommentiere ich gleich noch.

Kritisch wird es, wenn Maschinen zur Erkennung von Mimik und Gestik ohne das Wissen der Betroffenen zu irgendwelchen Selektionszwecken eingesetzt werden, z.B. Bewerbungsgesprächen, Kunden- und Mitarbeiterkontrollen. Werden Automaten mit dem Herstellen von mimischen und gestischen Signalen ausgestattet, um uns aus Reklame- oder sonstigen Absichten zu beeinflussen, so liegt es zunächst an uns, dieser Absicht kritisch zu begegnen.
Problematisch wird es, wenn Personen (Kinder, Demente o.ä.,, beispielsweise die erwähnten Senil-Tierchen) beeinflußt werden sollen, die dem nicht kritisch begegnen können.

Mit einem persönliches Erlebnis will ich diesen Punkt abschließen: vor zwanzig Jahren hatte ich in einer Küchenmöbelfabrik einen neu angeschafften Automaten zur Vorfertigung von Schrankteilen einzurichten. Die Ablaufprogramme mußten auf einer einfachen Folientastatur eingetippt und dann auf Disketten abgespeichert werden. In der Anwendung eilte dann ein etwa koffergroßes Werkzeugmodul mit Bohrern, Fräser und Nutsäge über den Arbeitstisch und bearbeitete die Werkstücke. Aus Sicherheitsgründen war die Maschine rundum eingezäunt, die Wartungszugänge mit unzähligen Kontrollschaltern versehen, nur zum Einlegen und Abnehmen der Holzteile von vorne zugänglich. Dummerweise wurde bei jedem nötigen Wartungseingriff ein kompletter NOT-AUS durchgeführt, und der Automat mußte anschließend wieder zeitraubend neu hochgefahren werden. Um dies zu umgehen, hatte ich stets eine Handvoll Furnierplättchen parat, um nur die nötigen Module bei einem Eingriff zu blockieren. Im Nachbarort war dasselbe Modell in einer Wohnmöbelfabrik im Einsatz, der junge Maschinenführer dort kannte aber diesen Trick nicht und umging die Sicherungeinrichtung mit einem beherzten Sprung über die Werkstückauflage ins Maschineninnere. Irgendwann tat er dies, als das Werkzeugmodul in die Endposition losfuhr, wurde am Kopf getroffen und überlebte dies nicht. Besonders tragisch – der 20jährige Schreiner hatte am darauffolgenden Wochenende seine Hochzeit geplant. Ich wünschte, dieser Automat wäre damals schon in der Lage gewesen, einen Menschen in seinem Arbeitsbereich zu erkennen und den Zusammenstoß zu vermeiden.


--
diogenes

Anzeige

diogenes
diogenes
Mitglied

Re: Roboter lernen verstehen
geschrieben von diogenes
als Antwort auf diogenes vom 04.07.2008, 08:37:10
Nun zu den Emotionen und da hat meine Bemerkung, sie seien ein inneres Kommunikationssystem, vielleicht etwas befremdet, weil wir Gefühle eben zunächst als besonders intensive Erlebensqualitäten kennen bei der Wahrnehmung unserer Umwelt. Ich will versuchen, möglichst kurz die Ansätze heutiger Emotionstheorien zu beschreiben und mit einem alltäglichen Beispiel beginnen:

Wenn wir unversehens in eine Gefahrensituation geraten, als Fußgänger bedroht uns ein herannahendes Fahrzeug, oder wir verlieren auf einer Leiter das Gleichgewicht und sind kurz vor dem Herunterfallen, dann setzt im Körper ein automatisches Reaktionsmuster ein: wir bekommen Schweißausbruch, Herzklopfen, die Wahrnehmung wird eingeschränkt auf unmittelbar zur Rettung wichtiger Aspekte, mit einer blitzschnellen, reflexartigen Handlung versuchen wir, den uns verletzenden Folgen möglichst gut zu entkommen. Erst etwas später erleben wir dann bewußt ‚Angst‘, überprüfen, ob wir der Gefahr entronnen sind und verarbeiten im Denken die Gefahrensituation. Diese kognitive Neubewertung der Situation kann dann den körperlichen Alarmzustand im Falle von Angst wieder zum Abklingen bringen, bei positiven Gefühlen andererseits dazu beitragen, den angenehmen Erregungszustand möglichst lange zu erhalten.

Die Emotionstheorien nun sehen Gefühle als solche komplexe Reaktionsmuster auf bestimmte Situationen, wobei sie fünf Hauptkomponenten unterscheiden:

- die physiologischen Komponenten (z.B. Schwitzen, Herzklopfen, Muskelanspannungen u.a.), die zum Teil von außen beobachtet und gemessen werden können. Krimileser ist der sog. Lügendetektor bekannt. Man mißt mit einem elektronischen Gerät den bei Erregung veränderten Hautwiderstand, durch die Aktivität der Schweißdrüsen in der Haut sinkt dieser ab. Andere Maße sind Pulsfrequenz, Blutdruck, elektrische Muskelaktivität und die elektrische Aktivität auf der äußeren Schädeldecke, das EEG.

- die expressiven Komponenten, die wir zum Teil schon bei Mimik und Gestik angesprochen haben, auch Zittern, Erröten, kalte Gliedmaßen gehören hierzu,

- die behavioralen Komponenten, im Falle von negativen Gefühlen versuchen wir, der Bedrohung zu entkommen oder die Bedrohung abzuwehren oder abzuwenden, bei positiven Gefühlen, uns der angenehmen Situation anzunähern und sie möglichst aufrecht zu erhalten;

- die kognitiven Komponenten, die Wahrnehmung und das Denken werden eingeengt auf die Bewertung und Behandlung des aufgetretenen Zustandes von Erregung (theoretisch ist hier auf die sog. Zwei-Faktoren-Theorie der Emotion zu verweisen, das klassische Experiment von Schachter&Singer zeigt auch nebenbei einige typische Forschungsprobleme in diesem Bereich). In Prüfungssituationen beispielsweise äußert sich die ‚Angst‘ schon mal auch mit dem gefürchteten totalen ‚Blackout‘.

- schließlich die subjektive Komponente, die wir als das ganz persönliche Gefühlserlebnis kennen, die einer äußeren Beobachtung prinzipiell nicht zugänglich ist und nur sprachlich mitgeteilt werden kann. Sie ist bedeutsam, weil Personen unter bestimmten Umständen starke emotionale Anzeichen in den anderen Komponenten äußern können und dennoch beharrlich behaupten, nichts Besonderes zu empfinden.

Diese kurzen Andeutungen machen deutlich, daß bei den Gefühlen nicht allein das zentrale Nervensystem beteiligt ist, sondern alle biologischen Strukturen in einem Organismus. Eine Maschine kann somit keine Gefühle in diesem Sinne haben. Bestimmte gefühlsanaloge Effekte bei der Simulation menschlicher Fähigkeiten zu berücksichtigen, kann durchaus sinnvoll sein, sie sind jedoch keine Emotionen der menschlichen Erfahrungswelt. Selbst bei Tieren liegen andere Muster vor aufgrund fehlender Komponenten im kognitiven Bereich und durch das Fehlen der menschtypischen Sprache ist die subjektive Komponente nicht abschätzbar. Ein paar ergänzende Aspekte enthält der Artikel Emotionserkennung in der Wikipedia.

Selbst wenn ein Humanoider nicht mehr mit Akkus, sondern beispielsweise einer Brennstoffzelle angetrieben wird, den Mangel an Brennstoff mit Hunger äußert, dann zur Vorratskammer eilt und sich einen Meßbecher Alkohol einfüllt, und schließlich den veränderten Zustand mit satt anzeigt, kennt damit nicht das emotionale Erlebnis, auf einer Restaurantterrasse an einem lauen Sommerabend in angenehmer Gesellschaft ein kleines Menue zusammenzustellen und mit einem ausgesuchten Wein, nicht allein um den Hunger zu stillen, entspannt sich angedeihen zu lassen.

Auf einen interessanten Anwendungsaspekt, bei dem ein Automat bestimmte Komponenten emotionaler Muster bei einem menschlichen Gegenüber registrieren und differenziert darauf reagieren kann, weist uns Senhora hin: Eine ganze Reihe von Lernstörungen, besonders bei Kindern, ist durch ein zu hohes Erregungsniveau begründet. Dadurch ist die Aufmerksamkeit für lernrelevante Aspekte eingeschränkt, das Behalten des Gelernten stark vermindert. Ein hohes Erregungsniveau wird als unangenehm erlebt und eine Tendenz, aus der Lernsituation zu entkommen, ist vorrangig. Wird dies erreicht, bessert sich das unangenehme Gefühl und zukünftig werden Lernsituationen noch mehr vermieden, was aber eine weitere Folge von Defiziten nach sich zieht – ein Teufelskreis. Im Umgang mit derartigen Störungen ist es erstrebenswert, das Erregungsniveau zu senken und die Lernbereitschaft dadurch zu verbessern. Mit verschiedenen Entspannungsverfahren läßt sich zwar das Stressniveau senken, doch sie erfordern selbst eine besondere Aufmerksamkeit und verhindern ein gleichzeitiges Lernen anderer Inhalte.

Schon seit einigen Jahrzehnten kennt man einen Weg, die physiologischen Komponenten der Erregung zu messen, z.B. Hautwiderstand, Herzfrequenz, Atmung, Muskelanspannung oder auch EEG, und über einen Kopfhörer oder einen Bildschirm das Meßergebnis zurückzumelden, das Biofeedback. Interessanter weise können Personen mit einem solchen Training lernen, ihr Erregungsniveau zu senken und das emotionale Befinden zu verbessern. Bei Lerngestörten jedoch bedeutet das Anlegen der Meßeinrichtungen und das Achten auf die Feedbacksignale eine zusätzliche Herausforderung, was der erwünschten Entspannung entgegen wirkt. Eine Messung stressbezogener Merkmale über eine Mustererkennung nicht direkt am Körper, in der Studie als non-invasive Biofeedbacksensoren bezeichnet, und die Rückmeldung in die Lernumgebung integriert, diese SIAs genannten, animierten Figuren, könnte das Biofeedback ohne die genannten Nachteile hilfreich nutzen. Ein Training an einer Maschine vermeidet zusätzlich den oft auch stress-steigernden sozialen Kontakt mit einem persönlichen Lehrer. Nebenbei kann die Maschine auch Lernerfolg und Erregungsminderung dokumentieren – im pädagogischen oder therapeutischen Bereich ein zusätzliches, interessantes Hilfsmittel.

Mißbrauchsmöglichkeiten freilich sind auch gegeben: bereits in der Vergangenheit kamen Organisationen in die Schlagzeilen, die Meßgeräte für physiologische Parameter bei ihren Mitgliedern und Kunden in sehr fragwürdiger Weise eingesetzt haben – da gilt es auch bei diesen neuen Möglichkeiten, ein wachsames Auge zu haben.

@Senhora: herzlichen Dank für Deinen Hinweis, sobald ich Zeit finde, lese ich die Studie intensiver, im Moment antworte ich auf die Zusammenfassung und einige Passagen daraus, die ich angeschaut habe.

@Longtime: ganz unabhängig von den Automaten denke ich bei den Gefühlen Deines homo ignoratus aut demens, wir sollten gerade bei der Erziehung, im pädagogischen Bereich die Gefühle des homo non demens, quia ignoratus im Auge behalten: Unterscheiden-Lernen zwischen Wesentlichem und Nebensächlichem mindert das Stressniveau und kann die Behandlung manch einer Lernstörung vermeiden

Have a nice time and good vibrations

--
diogenes

Anzeige