Künstliche Intelligenz erkennt Suizidgedanken

0
2182
Künstliche Intelligenz erkennt Suizidgedanken anhand der Gesichtsmimik von wenigen Millisekunden. (Bild: Rudi Fränl)
Künstliche Intelligenz erkennt Suizidgedanken anhand der Gesichtsmimik von wenigen Millisekunden. (Bild: Rudi Fränl)

Künstliche Intelligenz, kurz KI, soll Selbstmordabsichten bei öffentlichen Verkehrsmitteln voraussagen. Das Londoner Unternehmen Human hat hierzu einen KI basierten Algorithmus entwickelt, der Emotionen im Gesicht abliest. Um extreme Gefühle festzustellen, fokussiert sich die Software auf Gesichtsbewegungen, die im Millisekunden Bereich erfolgen. Das Programm lässt sich mittels mobilen Internet, API oder Überwachungskamerasystemen nutzen.

Erfassung der Höhen und Tiefen
Nur weil jemand deutliche Signale von Sorge in seiner Mimik zeige, heiße dies noch lange nicht, dass eine Selbstmordabsicht vorliegen müsse. Dafür gebe es viele andere mögliche Gründe.

„Die Mimik und Körpersprache eines Menschen geben uns zwar verlässliche Hinweise darauf, wie sich ein Mensch gerade fühlt. Sie verraten aber nicht, warum die Person gerade eine bestimmte Emotion erlebt. Zieht jemand beispielsweise die Augenbrauen hoch und zusammen, so ist dies ein relativ zuverlässiger Hinweis darauf, dass die Person gerade Sorge, also eine leichte Angst spürt“, sagt Dirk Eilert von der Eilert-Akademie für emotionale Intelligenz.

Human arbeitet bereits mit einer Vielzahl an Verkehrsbehörden sowie Notfalldiensten in Europa, den USA und Kanada zusammen. „Historische Daten weisen darauf hin, dass unsere Klienten bevorzugte Orte haben, an denen Suizidversuche tendenziell öfter stattfinden“, erklärt Human-Gründerin Yi Xu gegenüber dem „Portal The Memo“.

Prävention
Die Emotion-Tracking-Technologie ist nicht nur zur Verhinderung von Selbstmorden, sondern auch in anderen Bereichen, wie am Arbeitsplatz, an Konsumorten oder bei öffentlichen Behörden, einsetzbar. Auch im Sport- oder Versicherungsbereich kann es von Vorteil sein, die mentale Gesundheit zu eruieren.

Das Unternehmen ist sogar von der britischen Organisation CamCare zertifiziert worden, um potenziell Spielsüchtige zu identifizieren. „Wir adressieren uns mit unserer Technologie an Menschen, die andernfalls in der Menschenmenge untergehen würden“, erklärt Xu. Das Ergebnis seien quantifizierbare Resultate, die auf extreme psychische Höhen und Tiefen schließen lassen.

Missbrauch möglich
Wie bei anderen Technologien ist auf beim Emotion-Tracking die Gefahr des Missbrauchs nicht auszuschließen. Dieser Missbrauch der durch die KI gewonnen Ergebnisse, könnte z.B. auch darin liegen, dass diese ohne das Wissen des analysierten Opfers einhergeht. Daher ist sind auch an dieser Stelle klare Regelungen des Gesetzgebers gefragt, damit neue Technologien nur zum Vorteil aller eingesetzt werden.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein