Verschiedenes

KI ist nicht gut darin, Lügner durch ihre Gesichtsausdrücke zu erkennen

KI ist nicht gut darin, Lügner durch ihre Gesichtsausdrücke zu erkennen


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Technologien werden zunehmend eingesetzt, um die öffentliche Ordnung, das Geschäft und das Leben der Menschen zu gestalten. KI-Richter helfen bei der Entscheidung über die Strafen von Straftätern und KI wird verwendet, um Mordverdächtige zu fangen und sogar Ihre Versicherungspolice zu gestalten.

Aus diesem Grund sollte die Tatsache, dass Computer Lügen nicht gut erkennen können, Anlass zur Sorge geben.

Forscher des USC Institute for Creative Technologies haben kürzlich die Fähigkeit von AI zur Lügenerkennung auf die Probe gestellt, und die Testergebnisse ließen zu wünschen übrig.

VERBINDUNG: AIs weiterhin auf unvorhersehbare Weise zu handeln, sollten wir in Panik geraten

Algorithmen auf die Probe stellen

Das Forschungsteam des USC Institute for Creative Technologies hat kürzlich Algorithmen unter Verwendung grundlegender Tests für Wahrheitsdetektoren getestet und festgestellt, dass die AIs diese Tests nicht bestanden haben.

Erstens ging das Team auf die Tatsache ein, dass unsere Mimik möglicherweise nicht so viel über das aussagt, was wir denken, wie die Leute glauben:

"Sowohl Menschen als auch sogenannte" Emotionslesealgorithmen "stützen sich auf die Volksweisheit, dass unsere Emotionen auf unser Gesicht geschrieben sind", sagte Jonathan Gratch, Direktor für virtuelle menschliche Forschung bei ICT, in einer Pressemitteilung.

"Das ist weit von der Wahrheit entfernt. Menschen lächeln, wenn sie wütend oder verärgert sind, sie maskieren ihre wahren Gefühle, und viele Ausdrücke haben nichts mit inneren Gefühlen zu tun, sondern spiegeln Konversations- oder Kulturkonventionen wider."

Gratch und seine Kollegen präsentierten ihre Forschungsergebnisse auf der gestrigen 8. Internationalen Konferenz über affektives Computing und intelligente Interaktion in Cambridge, England.

Duplizität lesen

Natürlich wissen wir alle, dass Menschen lügen können, ohne offensichtliche Anzeichen dafür auf ihrem Gesicht zu zeigen. Nehmen Sie zum Beispiel einen durchschnittlichen Politiker - dies ist praktisch eine berufliche Voraussetzung.

Menschen drücken oft das Gegenteil von dem aus, was sie fühlen, um sich an Konventionen zu halten oder jemanden geradezu zu täuschen.

Das Problem ist, dass Algorithmen diese Duplizität nicht so gut erfassen, obwohl sie zunehmend zum Lesen menschlicher Emotionen verwendet werden.

Algorithmen werden heute in Fokusgruppen, Marketingkampagnen, zum Screening von Kreditantragstellern oder zur Einstellung von Mitarbeitern für Jobs verwendet. Das Department of Homeland Security investiert sogar in diese Art von Algorithmen, um potenzielle nationale Bedrohungen vorherzusagen.

"Wir versuchen, die volkspsychologische Sichtweise der Menschen zu untergraben, dass wir, wenn wir die Mimik der Menschen erkennen könnten, sagen könnten, was sie denken", sagte Gratch, der auch als Professor für Psychologie arbeitet.

"Wir verwenden naive Annahmen zu diesen Techniken, weil es keinen Zusammenhang zwischen Ausdrücken und dem gibt, was die Leute aufgrund dieser Tests wirklich fühlen."

Wie haben sie das bewiesen?

Gratch und Su Lei und Rens Hoegen von ICT führten zusammen mit Brian Parkinson und Danielle Shore von der Universität Oxford eine Untersuchung spontaner Gesichtsausdrücke in verschiedenen sozialen Situationen durch.

In einer Studie verwendete das Team ein Spiel, in dem sie entworfen hatten 700 Menschen um Geld gespielt. Während die Probanden spielten, erfassten sie, wie sich die Äußerungen der Menschen auf ihre Entscheidungen auswirkten und wie viel Geld sie gewannen.

Als nächstes bat das Forschungsteam die Probanden, Fragen zu ihrem Verhalten zu beantworten. Zum Beispiel fragten sie die Probanden, ob sie oft blufften, ob sie Gesichtsausdrücke verwendeten, um sich einen Vorteil zu verschaffen, und ob ihre Ausdrücke ihren Gefühlen entsprachen.

Das Team untersuchte dann die Beziehungen zwischen spontanen Gesichtsausdrücken und Schlüsselmomenten während des Spiels. Lächeln war der häufigste Gesichtsausdruck, unabhängig davon, was die Teilnehmer tatsächlich fühlten. Die Spieler waren auch ziemlich ungenau darin, die Gefühle der anderen zu lesen.

"Diese Entdeckungen betonen die Grenzen des Technologieeinsatzes zur Vorhersage von Gefühlen und Absichten", sagte Gratch. "Wenn Unternehmen und Regierungen diese Fähigkeiten beanspruchen, sollte der Käufer aufpassen, da in diese Techniken häufig vereinfachende Annahmen eingebaut sind, die nicht wissenschaftlich getestet wurden."

Häufig verwendete Algorithmen zum Lesen von Emotionen dekontextualisieren normalerweise das, was sie betrachten, argumentieren die Forscher.

Es scheint, dass die Erkennung von Lügen in der KI weit vom Mainstream entfernt ist.


Schau das Video: Wie wir in jedem Gespräch die Wahrheit erkennen. Prof. Dr. Jack Nasher (Kann 2022).