Computerwissenschaft von Affective

:Affective-Computerwissenschaft ist auch der Titel eines Lehrbuches auf dem Thema durch Rosalind Picard.

Computerwissenschaft von Affective ist die Studie und Entwicklung von Systemen und Geräten, die anerkennen, interpretieren, bearbeiten, und Menschen vortäuschen können, betrifft. Es ist ein zwischendisziplinarisches Feldüberspannen Informatiken, Psychologie und Erkenntnistheorie. Während die Ursprünge des Feldes schon zu Lebzeiten von zu frühen philosophischen Anfragen ins Gefühl, den moderneren Zweig der Informatik verfolgt werden können, die mit dem 1995-Papier von Rosalind Picard auf der Affective-Computerwissenschaft hervorgebracht ist. Eine Motivation für die Forschung ist die Fähigkeit, Empathie vorzutäuschen. Die Maschine sollte den emotionalen Staat von Menschen interpretieren und sein Verhalten an sie anpassen, eine passende Antwort für jene Gefühle gebend.

Gebiete der Affective-Computerwissenschaft

Das Ermitteln und das Erkennen emotionaler Information

Das Ermitteln emotionaler Information beginnt mit passiven Sensoren, die Daten über den physischen Staat des Benutzers oder Verhalten gewinnen, ohne den Eingang zu interpretieren. Die gesammelten Daten sind dem Stichwort-Mensch-Gebrauch analog, um Gefühle in anderen wahrzunehmen. Zum Beispiel könnte eine Videokamera Gesichtsausdrücke, Körperhaltung und Gesten gewinnen, während ein Mikrofon Rede gewinnen könnte. Andere Sensoren entdecken emotionale Stichwörter durch das direkte Messen physiologischer Daten, wie Haut galvanischer und Temperaturwiderstand.

Das Erkennen emotionaler Information verlangt die Förderung von bedeutungsvollen Mustern von den gesammelten Daten. Das wird mit Maschinenlerntechniken getan, die verschiedene Modalitätsspracherkennung, Verarbeitung der natürlichen Sprache oder Gesichtsausdruck-Entdeckung bearbeiten, und jeden Etiketten (d. h. 'verwirrt') oder Koordinaten in einem Wertigkeitserweckungsraum erzeugen. Literaturrezensionen solcher als, und

stellen Sie umfassenden Einschluss des Standes der Technik zur Verfügung.

Gefühl in Maschinen

Ein anderes Gebiet innerhalb der Affective-Computerwissenschaft ist das Design von rechenbetonten Geräten hat vorgehabt, entweder angeborene emotionale Fähigkeiten auszustellen, oder die dazu fähig sind, überzeugend Gefühle vorzutäuschen. Eine praktischere Annäherung, die auf aktuellen technologischen Fähigkeiten gestützt ist, ist die Simulation von Gefühlen in Unterhaltungsagenten, um Zwischentätigkeit zwischen Menschen und Maschine zu bereichern und zu erleichtern. Während menschliche Gefühle häufig mit Wogen in Hormonen und anderem neuropeptides vereinigt werden, könnten Gefühle in Maschinen mit abstrakten Staaten vereinigt werden, die mit dem Fortschritt vereinigt sind (oder des Fortschritts fehlen) in autonomen Lernsystemen. In dieser Ansicht, affective emotionale Staaten entsprechen Zeitableitungen (Unruhen) in der Lernkurve eines willkürlichen Lernsystems.

Marvin Minsky, einer der Pioniercomputerwissenschaftler in der künstlichen Intelligenz, verbindet Gefühle mit den breiteren Problemen des Maschinennachrichtendienstangebens in Der Gefühl-Maschine, dass Gefühl von den Prozessen "nicht besonders verschieden ist, dass wir 'das Denken nennen.'"

Technologien der Affective-Computerwissenschaft

Emotionale Rede

Man kann die Tatsache ausnutzen, die sich ins autonomic Nervensystem ändert, indirekt verändern Rede, und verwenden diese Information, um zum Erkennen fähige Systeme zu erzeugen, betreffen gestützt auf herausgezogenen Eigenschaften der Rede. Zum Beispiel wird Rede, die in einem Staat der Angst, Wut oder Heiterkeit erzeugt ist, schneller, lauter, genau behauptet mit einer höheren und breiteren Wurf-Reihe. Andere Gefühle wie Müdigkeit, Langeweile oder Schwermut, führen langsamer, tiefer aufgestellte und verunglimpfte Rede.

Emotionale Rede-Verarbeitung erkennt den emotionalen Staat des Benutzers durch das Analysieren von Rede-Mustern an. Stimmliche Rahmen und Prosodie-Eigenschaften wie Wurf-Variablen und Rede-Rate werden durch die Muster-Anerkennung analysiert.

Spracherkennung ist eine große Methode, Affective-Staat zu identifizieren, eine durchschnittliche Erfolg-Rate zu haben, hat in der Forschung von 63 % berichtet. Dieses Ergebnis scheint ziemlich befriedigend im Vergleich zur Erfolg-Rate von Menschen an sich identifizierenden Gefühlen, aber etwas ungenügend im Vergleich zu anderen Formen der Gefühl-Anerkennung (wie diejenigen, die physiologische Staaten oder Gesichtsverarbeitung verwenden). Außerdem sind viele Rede-Eigenschaften der Semantik oder Kultur unabhängig, die diese Technik eine sehr viel versprechende macht, um zu verwenden.

Algorithmen

Der Prozess der Rede betrifft Entdeckung verlangt, dass die Entwicklung einer zuverlässigen Datenbank, breit genug jedes Bedürfnis nach seiner Anwendung, sowie die Auswahl an einem erfolgreichen classifier passt, der schnelle und genaue Gefühl-Identifizierung berücksichtigen wird.

Zurzeit sind die am häufigsten verwendeten classifiers geradliniger discriminant classifiers (LDC), k-nearest Nachbar (k-NN), Mischungsmodell von Gaussian (GMM), Unterstützungsvektor-Maschinen (SVM), Entscheidungsbaum-Algorithmen und verborgene Modelle von Markov (HMMs). Verschiedene Studien haben gezeigt, dass die Auswahl des passenden classifier die gesamte Leistung des Systems bedeutsam erhöhen kann. Die Liste gibt unten eine kurze Beschreibung jedes Algorithmus:

  • LDC - Klassifikation geschieht gestützt auf dem Wert, der bei der geradlinigen Kombination der Eigenschaft-Werte erhalten ist, die gewöhnlich in der Form eines Eigenschaft-Vektoren zur Verfügung gestellt werden.
  • k-NN - Klassifikation geschieht durch das Auffinden des Gegenstands im Eigenschaft-Raum, und das Vergleichen davon mit dem k am nächsten ist (Lehrbeispiele) benachbart. Die Majoritätsstimme entscheidet sich für die Klassifikation.
  • GMM - ist ein probabilistic Modell, das verwendet ist, für die Existenz von Subbevölkerungen innerhalb der gesamten Bevölkerung zu vertreten. Jede Subbevölkerung wird mit dem Mischungsvertrieb beschrieben, der Klassifikation von Beobachtungen in die Subbevölkerungen berücksichtigt.
  • SVM - ist ein Typ (gewöhnlich binär) geradliniger classifier, der entscheidet, in welchem von den zwei (oder mehr) mögliche Klassen jeder Eingang darin fallen kann.
  • Entscheidungsbaum-Algorithmen - Arbeit hat auf dem folgenden einen Entscheidungsbaum gestützt, in dem Blätter das Klassifikationsergebnis vertreten, und Zweige die Verbindung von nachfolgenden Eigenschaften vertreten, die zur Klassifikation führen.
  • HMMs - ein statistisches Modell von Markov, in dem die Staaten und Zustandübergänge für die Beobachtung nicht direkt verfügbar sind. Statt dessen sind die Reihen des Produktionsabhängigen auf den Staaten sichtbar. Im Fall davon betreffen Anerkennung, die Produktionen vertreten die Folge von Rede-Eigenschaft-Vektoren, die den Abzug der Folgen von Staaten erlauben, durch die das Modell fortgeschritten ist. Die Staaten können aus verschiedenen Zwischenstufen im Ausdruck eines Gefühls bestehen, und jeder von ihnen hat einen Wahrscheinlichkeitsvertrieb über die möglichen Produktionsvektoren. Die Folgen der Staaten erlauben uns, den Affective-Staat vorauszusagen, den wir versuchen zu klassifizieren, und das eine der meistens verwendeten Techniken innerhalb des Gebiets der Rede ist, betreffen Entdeckung.

Datenbanken

Die große Mehrheit von gegenwärtigen Systemen ist datenabhängig. Das schafft eine der größten Herausforderungen im Ermitteln von auf der Rede gestützten Gefühlen, weil es Auswahl einer passenden Datenbank hineinzieht, die verwendet ist, um den classifier zu erziehen. Die meisten zurzeit besessenen Daten wurden bei Schauspielern erhalten und sind so eine Darstellung von archetypischen Gefühlen. Diejenigen, die so genannt sind, haben gehandelt Datenbanken basieren gewöhnlich auf der Grundlegenden Gefühl-Theorie (durch Paul Ekman), der die Existenz von sechs grundlegenden Gefühlen (Wut, Angst, Ekel, Überraschung, Heiterkeit, Schwermut), andere annimmt einfach eine Mischung der ehemaligen zu sein. Dennoch bieten diese noch hoch Audioqualität und erwogene Klassen an (obwohl häufig zu wenige), die zu hohen Erfolg-Raten im Erkennen von Gefühlen beitragen.

Jedoch, für die echte Lebensanwendung, werden naturalistische Daten bevorzugt. Eine naturalistische Datenbank kann durch die Beobachtung und Analyse von Themen in ihrem natürlichen Zusammenhang erzeugt werden. Schließlich sollte solche Datenbank dem System erlauben, Gefühle anzuerkennen, die auf ihrem Zusammenhang gestützt sind sowie die Absichten und Ergebnisse der Wechselwirkung auszuarbeiten. Die Natur dieses Typs von Daten berücksichtigt authentische echte Lebensdurchführung wegen der Tatsache es beschreibt Staaten, die natürlich während der Wechselwirkung des menschlichen Computers (HCI) vorkommen.

Trotz der zahlreichen Vorteile, die naturalistische Daten über gehandelte Daten haben, ist es schwierig vorzuherrschen, und hat gewöhnlich niedrige emotionale Intensität. Außerdem haben in einem natürlichen Zusammenhang erhaltene Daten niedrigere Signalqualität, wegen des Umgebungsgeräusches und der Entfernung der Themen vom Mikrofon. Der erste Versuch, solche Datenbank zu erzeugen, war der FAU Aibo Gefühl-Korpus für CEICES (Anstrengungen darum verbindend, Automatische Klassifikation von Emotionalen Benutzerstaaten Zu verbessern), der gestützt auf einem realistischen Zusammenhang von Kindern (Alter 10-13) entwickelt wurde, mit dem Aibo Roboter-Haustier von Sony spielend. Ebenfalls würde das Produzieren einer Standarddatenbank für die ganze emotionale Forschung eine Methode zur Verfügung stellen, zu bewerten und sich verschieden zu vergleichen, betreffen Anerkennungssysteme.

Rede-Deskriptoren

Die Kompliziertheit der betreffen Anerkennungsprozess-Zunahmen mit dem Betrag von Klassen (betrifft) und innerhalb des classifier verwendete Rede-Deskriptoren. Es ist deshalb entscheidend, nur die relevantesten Eigenschaften auszuwählen, um die Fähigkeit des Modells zu sichern, Gefühle, sowie Erhöhung der Leistung erfolgreich zu identifizieren, die zur Echtzeitentdeckung besonders bedeutend ist. Die Reihe von möglichen Wahlen ist riesengroß; mit einigen Studien, die den Gebrauch von mehr als 200 verschiedenen Eigenschaften erwähnen. Es ist entscheidend, diejenigen zu identifizieren, die überflüssig und unerwünscht sind, um das System zu optimieren, und die Erfolg-Rate der richtigen Gefühl-Entdeckung zu vergrößern. Meistens werden Rede-Eigenschaften in den folgenden Gruppen kategorisiert:

  1. Frequenzeigenschaften
  2. * Akzent-Gestalt - betroffen durch die Rate der Änderung der grundsätzlichen Frequenz.
  3. * Durchschnittlicher Wurf - Beschreibung dessen, wie hoch/niedrig der Sprecher hinsichtlich der normalen Rede spricht.
  4. * beschreibt Kontur-Hang - die Tendenz der Frequenzänderung mit der Zeit, es kann sich erheben, fallend oder Niveau.
  5. * das Endsenken - der Betrag, durch den die Frequenz am Ende einer Äußerung fällt.
  6. * misst Wurf-Reihe - die Ausbreitung zwischen der maximalen und minimalen Frequenz einer Äußerung.
  7. Zeitzusammenhängende Eigenschaften:
  8. * beschreibt Rede-Rate - die Rate von Wörtern oder Silben, die über eine Einheit der Zeit ausgesprochen sind
  9. * misst Betonungsfrequenz - die Rate von Ereignissen des Wurfs hat Äußerungen akzentuiert
  10. Stimmenqualitätsrahmen und Energiedeskriptoren:
  11. * misst Rauchigkeit - das Ehrgeiz-Geräusch in der Rede
  12. * beschreibt Helligkeit - die Überlegenheit von hohen Oder niedrigen Frequenzen In der Rede
  13. * misst Lautheit - den Umfang der Rede-Wellenform, übersetzt zur Energie einer Äußerung
  14. * beschreibt Pause-Diskontinuität - die Übergänge zwischen Ton und Schweigen
  15. * beschreibt Wurf-Diskontinuität - die Übergänge der grundsätzlichen Frequenz.

Gesichtsbehandlung betrifft Entdeckung

Die Entdeckung und Verarbeitung des Gesichtsausdrucks werden durch verschiedene Methoden wie optischer Fluss, verborgenes Modell von Markov, Nervennetzverarbeitung oder aktives Äußer-Modell erreicht. Mehr als eine Modalitäten können verbunden oder (mehrmodale Anerkennung, z.B Gesichtsausdrücke und Rede-Prosodie oder Gesichtsausdrücke und Handgesten) verschmolzen werden, um eine robustere Bewertung des emotionalen Staates des Themas zur Verfügung zu stellen.

Gefühl-Klassifikation

Indem

er interkulturelle Forschung in Papua-Neuguinea auf den Vorderen Stammesangehörigen am Ende der 1960er Jahre getan hat, hat Paul Ekman die Idee vorgeschlagen, dass Gesichtsausdrücke des Gefühls nicht kulturell bestimmt, aber universal werden. So hat er vorgeschlagen, dass sie im Ursprung biologisch sind und deshalb sicher und richtig kategorisiert werden können.

Er hat deshalb offiziell hervor sechs grundlegende Gefühle 1972 gestellt:

Jedoch in den 1990er Jahren hat Ekman seine Liste von grundlegenden Gefühlen, einschließlich einer Reihe von positiven und negativen Gefühlen nicht ausgebreitet, von denen alle in Gesichtsmuskeln verschlüsselt werden. Die kürzlich eingeschlossenen Gefühle sind:

  1. Unterhaltung
  2. Geringschätzung
  3. Genugtuung
  4. Unbehaglichkeit
  5. Aufregung
  6. Schuld
  1. Stolz im Zu-Stande-Bringen
  2. Erleichterung
  3. Befriedigung
  4. Sinnesvergnügen
  5. Scham

Gesichtshandlungscodiersystem

Das Definieren von Ausdrücken in Bezug auf Muskelhandlungen

Ein System ist konzipiert worden, um den physischen Ausdruck von Gefühlen formell zu kategorisieren. Das Hauptkonzept des Gesichtshandlungscodiersystems oder FACS, wie geschaffen, durch Paul Ekman und Wallace V. Friesen 1978 ist Action Units (AU).

Sie, sind grundsätzlich, eine Zusammenziehung oder eine Entspannung von einem oder mehr Muskeln. Jedoch so einfach, wie dieses Konzept scheinen kann, ist es genug, die Basis eines komplizierten und leere von der Interpretation emotionales Identifizierungssystem zu bilden.

Indem

sie verschiedene Gesichtsstichwörter identifizieren, sind Wissenschaftler im Stande, sie zu ihrem entsprechenden Handlungseinheitscode kartografisch darzustellen. Folglich haben sie die folgende Klassifikation der sechs grundlegenden Gefühle vorgeschlagen, gemäß ihren Handlungseinheiten (" +" hier bedeuten "und"):

Herausforderungen in der Gesichtsentdeckung

Als mit jeder rechenbetonten Praxis, darin betreffen Entdeckung durch die Gesichtsverarbeitung, einige Hindernisse müssen übertroffen werden, um das verborgene Potenzial des gesamten Algorithmus oder der verwendeten Methode völlig aufzuschließen. Die Genauigkeit des Modellierens und Verfolgens ist ein Problem besonders in den beginnenden Stufen der Affective-Computerwissenschaft gewesen. Da sich Hardware entwickelt, weil neue Entdeckungen gemacht werden und neue Methoden eingeführt, verwelkt dieser Mangel an der Genauigkeit, Geräuschprobleme zurücklassend. Jedoch bestehen Methoden für die Geräuscheliminierung einschließlich Nachbarschaft-Mittelwertbildung, geradlinigen Glanzschleifens von Gaussian, Mittelentstörung oder neuerer Methoden wie der Foraging Bakterienoptimierungsalgorithmus.

Es ist allgemein bekannt, dass der Grad der Genauigkeit in der Gesichtsanerkennung (nicht affective Zustandanerkennung) zu einem Niveau hoch genug nicht gebracht worden ist, um seinen weit verbreiteten effizienten Gebrauch überall in der Welt zu erlauben (es hat viele Versuche besonders durch die Strafverfolgung gegeben, die an sich erfolgreich identifizierenden Verbrechern gescheitert hat). Ohne die Genauigkeit der Hardware und Software zu verbessern, hat gepflegt, Gesichter zu scannen, Fortschritt wird sehr verlangsamt.

Andere Herausforderungen schließen ein

  • Die Tatsache, die Ausdrücke, wie verwendet, durch die meisten Themen der verschiedenen Studien aufgestellt hat, ist nicht natürlich, und deshalb nicht um 100 % genau.
  • Der Mangel an der Rotationsbewegungsfreiheit. Betreffen Sie Entdeckungsarbeiten sehr gut mit dem frontalen Gebrauch, aber nach dem Drehen des Kopfs mehr als 20 Grade, "es hat Probleme gegeben".

Körpergeste

Gesten konnten als ein Mittel effizient verwendet werden, einen besonderen emotionalen Staat des Benutzers, besonders wenn verwendet, in Verbindung mit der Rede und Gesichtsanerkennung zu entdecken. Abhängig von der spezifischen Handlung konnten Gesten einfache reflexive Antworten, wie das Heben Ihrer Schultern sein, wenn Sie die Antwort auf eine Frage nicht wissen, oder sie kompliziert und als bedeutungsvoll sein konnten, als sie mit der Zeichensprache kommuniziert haben. Ohne von jedem Gegenstand Gebrauch zu machen oder Umgebung zu umgeben, können wir unsere Hände, Klatschen oder Nicken schwenken. Andererseits, wenn wir Gegenstände verwenden, können wir auf sie hinweisen, diese zu bewegen, zu berühren oder zu behandeln. Ein Computer sollte im Stande sein, diese anzuerkennen, den Zusammenhang zu analysieren und auf eine bedeutungsvolle Weise zu antworten, um für die Wechselwirkung des Menschlichen Computers effizient verwendet zu werden.

Es gibt viele vorgeschlagene Methoden, die Körpergeste zu entdecken. Etwas Literatur unterscheidet 2 verschiedene Annäherungen in der Geste-Anerkennung: ein 3D-Modell gestützt und ein Äußer-basierter. Die erste Methode macht von der 3D-Information von Schlüsselelementen der Körperteile Gebrauch, um mehrere wichtige Rahmen, wie Palme-Position oder gemeinsame Winkel zu erhalten. Andererseits verwenden Äußer-basierte Systeme Images oder Videos zu für die direkte Interpretation. Handgesten sind ein allgemeiner Fokus der Körpergeste-Entdeckung gewesen, Offenbarheitsmethoden und 3. modellierende Methoden werden traditionell verwendet.

Physiologische Überwachung

Das konnte verwendet werden, um einen emotionalen Staat eines Benutzers durch die Überwachung und das Analysieren ihrer physiologischen Zeichen zu entdecken. Diese Zeichen erstrecken sich von ihrem Puls und Herzrate zu den Minutenzusammenziehungen der Gesichtsmuskeln. Dieses Gebiet der Forschung ist noch im Verhältnissäuglingsalter, weil es scheint, mehr von einem Laufwerk dazu zu geben, betreffen Anerkennung durch Gesichtseingänge. Dennoch gewinnt dieses Gebiet Schwung, und wir sehen jetzt echte Produkte, die die Techniken durchführen. Die drei physiologischen Hauptzeichen, die analysiert werden können, sind: Bood Volumen-Puls, Galvanische Hautantwort, Gesichtsbehandlung Electromyography

Blutvolumen-Puls

Übersicht

Blood Volume Pulse (BVP) eines Themas kann durch genannten photoplethysmography eines Prozesses gemessen werden, der einen Graphen erzeugt, der anzeigt, dass Blut durch die äußersten Enden fließt. Die Spitzen der Wellen zeigen einen Herzzyklus an, wo das Herz Blut zu den äußersten Enden gepumpt hat. Wenn sich die unterworfenen Erfahrungen fürchten oder erschreckt wird, 'springt' ihr Herz gewöhnlich und schlägt schnell für einige Zeit, den Umfang des Herzzyklus veranlassend, zuzunehmen. Das kann klar auf einem photoplethysmograph gesehen werden, als die Entfernung zwischen dem Trog und der Spitze der Welle abgenommen hat. Da sich das Thema beruhigt, und als sich der innere Kern des Körpers ausbreitet, mehr Blut erlaubend, zurück in die äußersten Enden zu fließen, wird der Zyklus zum normalen zurückkehren.

Methodik

Infrarotlicht wird auf der Haut durch die spezielle Sensorhardware poliert, und der Betrag des widerspiegelten Lichtes wird gemessen. Der Betrag von widerspiegelten und übersandten leichten Korrelaten zum BVP als Licht ist vom Hämoglobin gefesselt, das reich im Blutstrom gefunden wird.

Nachteile

Es kann beschwerlich sein, um sicherzustellen, dass der Sensor, der Infrarotlicht poliert und das widerspiegelte Licht kontrolliert, immer auf dasselbe äußerste Ende hinweist, besonders sehend, wie Themen häufig strecken und ihre Position wieder anpassen, während sie einen Computer verwenden.

Es gibt andere Faktoren, die Ihren Blutvolumen-Puls betreffen können. Da es ein Maß des Blutflusses die äußersten Enden ist, wenn sich das Thema heiß, oder fühlt

besonders kalt dann kann ihr Körper mehr, oder weniger, Blut erlauben, in die äußersten Enden, all diesen unabhängig vom emotionalen Staat des Themas zu fließen.

Gesichtselectromyography

Gesichtselectromyography ist eine Technik, die verwendet ist, um die elektrische Tätigkeit der Gesichtsmuskeln durch die Verstärkung der winzigen elektrischen Impulse zu messen, die durch Muskelfasern erzeugt werden, wenn sie sich zusammenziehen.

Das Gesicht drückt sehr viel Gefühl aus, jedoch gibt es zwei Hauptgesichtsmuskelgruppen, die gewöhnlich studiert werden, um Gefühl zu entdecken:

Der corrugator supercilii Muskel, auch bekannt als der 'stirnrunzelnde' Muskel, zieht die Braue unten in ein Stirnrunzeln, und ist deshalb der beste Test auf die negative, unangenehme emotionale Antwort.

Der zygomaticus Hauptmuskel ist dafür verantwortlich, die Ecken des Mundes zurückzuziehen, wenn Sie lächeln, und deshalb der Muskel ist, der verwendet ist, um für die positive emotionale Antwort zu prüfen.

Galvanische Hautantwort

Galvanic Skin Response (GSR) ist ein Maß des Hautleitvermögens, das davon abhängig ist, wie feucht die Haut ist. Da die Schweißdrüsen diese Feuchtigkeit erzeugen und die Drüsen vom Nervensystem des Körpers kontrolliert werden, gibt es eine Korrelation zwischen GSR und dem Erweckungsstaat des Körpers. Je mehr aufgeweckt ein Thema, desto größer das Hautleitvermögen und GSR-Lesen ist.

Es kann mit zwei kleinen Silberchlorid-Elektroden gelegt irgendwo auf der Haut gemessen werden, und kleine Stromspannung zwischen ihnen anwendend. Die Leitfähigkeit wird durch einen Sensor gemessen. Um Bequemlichkeit zu maximieren und Verärgerung zu reduzieren, können die Elektroden auf den Füßen gelegt werden, der die Hände völlig frei verlässt, mit der Tastatur und Maus zu verbinden.

Sehästhetik

Ästhetik, in der Welt der Kunst und Fotografie, bezieht sich auf die Grundsätze der Natur und Anerkennung der Schönheit. Das Beurteilen der Schönheit und anderen ästhetischen Qualitäten ist eine hoch subjektive Aufgabe. Computerwissenschaftler am Staat von Penn behandeln die Herausforderung, automatisch ästhetische Qualität von Bildern mit ihrem Sehinhalt als ein Maschinenlernproblem mit einem Gleicher-steuerpflichtigen Online-Foto abzuleiten, das Website als Datenquelle teilt. Sie ziehen bestimmte Seheigenschaften heraus, die auf der Intuition gestützt sind, die sie zwischen ästhetisch angenehmen und unangenehmen Images unterscheiden können.

Potenzielle Anwendungen

In E-Lernanwendungen, affective Computerwissenschaft kann verwendet werden, um den Präsentationsstil eines computerisierten Privatlehrers anzupassen, wenn sich ein Anfänger, interessiert, frustriert oder erfreut langweilt. Psychologisches Gesundheitswesen, d. h. das Raten, zieht affective aus Rechenanwendungen einen Nutzen, wenn es einen emotionalen Staat eines Kunden bestimmt. Computerwissenschaft von Affective sendet eine Nachricht über die Farbe oder den Ton, um einen emotionalen Staat zu anderen auszudrücken.

Systeme von Robotic, die dazu fähig sind, affective Information zu bearbeiten, stellen höhere Flexibilität aus, während man in unsicheren oder komplizierten Umgebungen arbeitet. Dazugehörige Geräte, wie Digitalhaustiere, verwenden affective rechnende geistige Anlagen, Realismus zu erhöhen und einen höheren Grad der Autonomie zur Verfügung zu stellen.

Andere potenzielle Anwendungen werden um die soziale Überwachung in den Mittelpunkt gestellt. Zum Beispiel kann ein Auto das Gefühl aller Bewohner kontrollieren und sich mit zusätzlichen Sicherheitsmaßnahmen, wie das Alarmieren anderer Fahrzeuge beschäftigen, wenn es den Fahrer entdeckt, um böse zu sein. Computerwissenschaft von Affective hat potenzielle Anwendungen in der menschlichen Computerwechselwirkung wie Affective-Spiegel, die dem Benutzer erlauben zu sehen, wie er oder sie leistet; Gefühl, das Agenten kontrolliert, die eine Warnung bevor senden, sendet man eine böse E-Mail; oder sogar Musik-Spieler, die Spuren auswählen, auf der Stimmung gestützt.

Eine Idee, gestellt hervor vom rumänischen Forscher Dr Nicu Sebe in einem Interview, ist die Analyse eines Gesichtes einer Person, während sie ein bestimmtes Produkt verwenden (er hat Eis als ein Beispiel erwähnt). Gesellschaften würden dann im Stande sein, solche Analyse zu verwenden, um abzuleiten, ob ihr Produkt wird oder durch den jeweiligen Markt nicht gut erhalten werden.

Man konnte auch Affective-Zustandanerkennung verwenden, um den Einfluss einer tv Anzeige obwohl eine Echtzeitvideoaufnahme dieser Person und durch die nachfolgende Studie seines oder ihres Gesichtsausdrucks zu beurteilen. Die auf einer großen Gruppe von Themen erhaltenen Ergebnisse aufzählend, kann man erzählen, ob das kommerziell (oder Film) die gewünschte Wirkung hat, und wie die Elemente, die den Beobachter am meisten interessieren, sind.

Computerwissenschaft von Affective wird auch auf die Entwicklung von kommunikativen Technologien für den Gebrauch von Leuten mit Autismus angewandt.

Anwendungsbeispiele

  • Tragbare Computeranwendungen machen von affective Technologien, wie Entdeckung von biosignals Gebrauch
  • Wechselwirkung des menschlichen Computers
  • Kismet
  • Bildungstechnologie

Siehe auch

  • Betreffen Sie Steuerungstheorie
  • Design von Affective
  • Gefühl
  • Gefühl-Preiserhöhungssprache (EmotionML)
  • Chatbot
  • CyberEmotions
  • Gefühl-Analyse

Links


Charles Stewart / Außenverbrennungsmotor
Impressum & Datenschutz