EmoTalk® • Emotion in unserer Zukunft
TAWNY: Emotion und KI in der Zukunft
CARMEN UTH: Ein herzliches Hallo an Sie – unsere Zuschauer:innen & Zuhörer:innen und an Euch Beide, liebe Regina und lieber Michael. Ich freue mich sehr und heiße euch herzlich willkommen zum EmoTalk® und bin schon richtig gespannt, was es bei Euch Neues gibt. Ich habe Dich, Regina bereits kennen gelernt. Ich weiß nicht mehr, war das die KI in München?
REGINA BURGMAYR: Ja, die KI – bzw. der KI Handelsblatt Summit.
CARMEN UTH: 2019 im Frühjahr. Ja, genau. Ich war damals bei Euch auf dem Stand und war total geflasht, was Ihr so alles entwickelt habt, was Ihr so alles schon bietet. In Sachen Umgang mit Emotion in der KI, in der künstlichen Intelligenz. Und bin jetzt natürlich mächtig gespannt. Das ist ja schon eine ganze Weile her, was sich so alles getan hat. Und als EmotionsExpertin, die aus der digitalen Welt kommt, die auch früher in der IT-Welt war – ich war im Embedded Markt – finde ich es einfach unglaublich interessant und spannend. Und ich glaube auch, dass der eine oder andere Zuschauer/Zuhörer, die eine oder andere Zuschauerin/Zuhörerin vom Hocker fallen wird – wenn er sich noch nicht damit beschäftigt hat – was heutzutage schon alles emotional in der künstlichen Intelligenz geht. Und da würde ich gerne das Wort übergeben an Euch beide. Wer auch immer möchte und vielleicht, dass Ihr einfach mal ganz grundsätzlich sagt, was Ihr bei TAWNY so macht und welche Rolle es spielt. Und dann möchte ich noch ein bisschen mehr über den Umgang mit Emotionen wissen.
00:02:09
DR. MICHAEL BARTL: Super. Ich würde sagen, ich machte einfach eine Einleitung und gebe den Überblick, wo wir denn gerade stehen in der Technologie allgemein, also auch wir selbst und Carmen, wenn du danach natürlich noch Fragen hast zu den ein oder anderen Thema – Regina und ich können dann einfach immer die Frage aufgreifen oder ein bisschen vertiefen.
00:02:29
CARMEN UTH: Sehr schön. Spann mich nicht so auf die Folter
00:02:34
DR. MICHAEL BARTL: Also vielleicht zur Motivation: Wieso haben wir mit dem Thema begonnen? Regina und ich sind natürlich schon eine Weile unterwegs, vor allem im Innovations-Bereich. Ich selbst komme aus der Automobilindustrie, ich habe bei Audi lange gearbeitet, dann 20 Jahre ein Innovations-Unternehmen aufgebaut. Die Firma HYVE, die ganz viele Dax-Unternehmen betreut, neue Produkte entwickelt vom Nivea Deo bis hin zum Schiffsdiesel Motor. Es geht immer um neue Dinge. Erfindungen, die wir umsetzen, beginnend mit Marktforschung bis hin tatsächlich zum Produktdesign und die Entwicklung selbst. Emotionen spielen dabei immer eine Rolle bei Innovation, hat das auch immer sehr viel mit Emotion zu tun. Und ein großes Problem war immer Emotionen zu messen. Und da sind wir ja noch im letzten Jahrhundert steckengeblieben, weil es läuft über Umfragen, also Fragebögen. Da kriegt man dann so eine Likart Skala zum Ankreuzen und sagt „Ja, fand ich es toll oder mitreißend und hat mich geflasht. Oder eben nicht.“
Es gibt da so klassische Themen wie Interviews oder Beobachtungen, da braucht man einen Experten, der dann beurteilt, wie emotional der Kunde reagiert. Oder man steckt Leute in Labs und vermisst sie. Und die kriegen dann so Sensor Hüte auf und dann misst man Gehirnströme. Ist sehr beängstigend, wenn ich in so ein Labor gehe und dann mit viel maschinellen Aufwand, dort irgendwie vermessen werde. Jetzt gibt’s seit dem Ende der Neunzigerjahre ein neues wissenschaftliches Feld, das nennt sich Affective Computing, und da geht’s darum, wie können eigentlich IT-Systeme die Emotionen von Menschen besser lesen? Die Idee ist natürlich, wenn Maschinen, wenn Roboter, wenn digitale Systeme in Zukunft wissen, wie’s uns geht, dann können die ja ganz anders auf uns reagieren. Im Moment sind ja alle Maschinen auf dieser Welt emotional strohdoof. Die haben einen Ein- und Ausschalter. Also die wissen jetzt nicht, wie wir uns fühlen. Oder am Abend, wenn man irgendwie vorm Fernseher sitzt, weiß ein Netflix nicht, wie’s uns gerade geht und könnte ja vielleicht auch mal eine Empfehlung geben in Abhängigkeit davon, ob ich mich gerade gut oder schlecht fühle. Dieses Empfehlungswesen, was auf die Menschen eingeht, fehlt noch. Und das Feld des Affective Computing hat nochmal in den letzten fünf Jahren einen enormen Schub bekommen, weil man jetzt eben künstliche Intelligenz verstärkt einsetzen kann, um Emotionen von Menschen zu klassifizieren.
Und Grundlage auch hier ist eigentlich natürlich medizinisch bzw. aus der Psycho-Physiologie oder Bio-Psychologie. Ziemlich einfach also. Es gibt immer so ein Zusammenspiel zwischen physischen oder physiologischen Parametern und psychologischen Parametern. Also wenn ich Angst vor Hunden hab, dann steht einer vor mir, fletscht die Zähne. Was passiert? Die Pupillen weiten sich. Der Herzschlag steigt. Adrenalin wird ausgeschüttet.
00:06:32
DR. MICHAEL BARTL: Ja, das ist der Zusammenhang zwischen diesen physiologischen Reaktionen und Psychologischen. Also das Beispiel vom Hund ist eben, wenn man Angst hat vor dem Hund, dann wird sich das auch irgendwo zeigen an den physiologischen Merkmalen. Das basiert auf dem Nervensystem, auf dem vegetative Nervensystem. Da gibt es den Entspannungs- und den Anspannungsnerv. Und diese physiologischen Reaktionen, die kann man eben jetzt messen. Herzrate, Herzratenvariabilität – kann man gut messen. Leitfähigkeit der Haut kann man gut messen. Es sind jetzt klassische Parameter, biometrische Parameter. Man kann natürlich auch Gesichter lesen, das sind die Gesichtsausdrücke, dadurch, dass Muskeln im Gesicht bewegt werden man kann daraus schließen – ach, der Mensch ist jetzt happy oder der Mensch ist jetzt geekelt oder überrascht, das sind nun die Basis Emotionen. Da gibt’s auch schon seit den siebziger Jahren das Facil Action Coding System, wo man sowas einordnet. Das geht jetzt sehr gut, eben auch über künstliche Intelligenz. Da braucht man nicht viel mehr als ein Smartphone Video und dann kann die Mimik erkannt werden. Und da ist mit hoher Wahrscheinlichkeit natürlich dann gegeben, dass man sagt, wenn der eben lächelt, dass der Mensch auch happy ist. Man kann inzwischen auch die Herzrate aus dem Video ablesen. Auch ein interessantes Verfahren. Das heißt, man braucht kein Verbale mehr oder ähnliches, sondern das Video, das ich jetzt vor dir hätte, reicht mir schon, um auf deine Herzrate schließen zu können. Passiert folgendermaßen: es wird Blut durchs Gesicht gepumpt. Die Farbwerte ändern sich minimal und die Farbwerte, die sich hier ändern, sind eine sehr gute Annäherung an die Herzrate. Und es misst relativ gut und genau – auch im Vergleich zu EKG so ein paar Beats per Minute daneben.
Aber da kann man auch den Stress von Menschen erkennen. Also ob die Herz Rate steigt oder sinkt. Beim Pokerspieler beispielsweise, wenn der ein gutes Blatt in der Hand hat, wird er natürlich nicht besonders grinsen. Also der er wird die Mimik unterdrücken. Aber man könnte da feststellen ob die Anspannung steigt. Und der Stresslevel sozusagen. Das kann man dann selbst über Bild-erkennende Verfahren herauslesen. Und das waren jetzt so unterschiedliche Input Faktoren. Genau wie man auch die Stimme verwenden kann. Das ist jetzt eine moderate, entspannte Stimme und das ist jetzt eine sehr angespannte Stimme. Die Signale, egal ob sie jetzt die Stimme ist, ob es das Gesicht ist, ob es die biometrischen Daten sind, die helfen alle mit einer gewissen Wahrscheinlichkeit, den emotionalen Zustand der Menschen festzustellen. Und das automatisiert!
Die Preisfrage ist natürlich, was mache ich denn jetzt damit Sinnvolles? Was hilft es den Menschen? Es gibt sicherlich einige Anwendungsgebiet im Bereich der Sicherheit. Zum Beispiel das Auto, also wenn das Auto nun wüsste, wie es uns geht und wenn das Auto feststellt, dass wir besonders aggressiv sind oder abgelenkt, dann sollte das Auto vernünftigerweise die Fahrerassistenzsysteme sensibler einstellen, um Unfälle zu vermeiden. Arbeitssicherheit ist ein riesiges Thema. Nach wie vor gibt es sehr, sehr viele Arbeitsunfälle, sei es in der Produktion bis hin natürlich auch zu Arbeiten im Büro, am Screen. Das sind dann eher psychische Krankheiten. Hier hat man die Möglichkeit, die Anzahl der Unfälle zu reduzieren, indem man eben die emotionale Anspannung misst. Auch über längeren Zeitraum. Und demjenigen hilft, mit einer Art Assistenzsystemen die Belastung zu reduzieren.
Wieso haben wir alle den Fitnesstracker für die paar Stunden Sport die wir pro Woche machen? Aber wir arbeiten acht Stunden pro Tag und haben überhaupt keine Ahnung, wie es uns so emotional geht. Und da könnte man natürlich so eine Art Emotions-Assistenten fördern, der sicherlich auch im Bereich New Work, “Neues-arbeiten”, Belastung durch Remote Work zu Hause. Ja, wenn man eben nicht mehr im Büro ist zu Corona Zeiten, sondern Zuhause in einem stressigen Umfeld. Die Kinder schreien. Tür geht auf und zu und so weiter. Also, der Bereich New Work ist ein sehr wichtiger, Arbeitssicherheit bis hin zu Entertainment, die Entertainment Industrie interessiert sich, auch die Medienindustrie. Wie kommt denn jetzt der Kino Trailer an? Wie kommt das Werbeformat an? So was wurde bisher auch gemessen. Viel mit Fragebögen. Jetzt eben auch Sekunde für Sekunde genau gemessen, wie beispielsweise ein Werbespot ankommt. Wie emotional aktivierend ist der Werbespot, um den natürlich dann auch zu verbessern? Das sind die unterschiedlichsten Angebote, Anwendungsgebiete, mal mehr in Richtung Sicherheit, mal mehr in andere Richtungen, oder wie ist denn die emotionale Reaktion der Konsumenten. Neue Messverfahren, nicht so, wie sie in der Vergangenheit gemacht wurden, über Fragebögen, sondern eben mit neuen Verfahren, die eigentlich auf künstlicher Intelligenz beruhen. Also, mal als kleine Einleitung im Hintergrund zum Thema Emotion AI, wie es denn eigentlich funktioniert und was man damit machen kann.
00:12:29
CARMEN UTH: Meinen herzlichen Dank für diesen Einblick. Auf diese Art und Weise kann sich jeder so ein bisschen vorstellen, was ist das überhaupt bedeutet. Und ich glaube genau diese Frage, was es für uns als Menschen bedeutet, dass wir mit solchen intelligenten Systemen in Zukunft, ich sag mal interagieren werden? Weil es ist ja so, die Systeme erkennen etwas, die Intelligenz erkennt, wie es mir geht und sie reagiert drauf. Also spreche ich von einer Interaktion, auch wenn es mir vielleicht noch nicht einmal bewusst ist. Ich stelle mir das vor, wie Du es gerade gesagt hast: Ich komme abends heim, mache den Fernseher an und der Fernseher bekommt mit- okay das Mädchen ist so gestresst, fröhlich, traurig und bietet mir dann entsprechende Sendungen an, damit es mir wieder besser geht.
Da drängen sich mir zwei Fragen auf. Die erste: Was war Deine Motivation? Was ist eure Motivation, in dem Bereich zu arbeiten, zu forschen?
Und die zweite Frage: Wenn ich das richtig verstanden habe, kommst Du nicht aus der Neurowissenschaft oder aus der Psychologie oder wo auch immer man sich mit solchen Themen näher beschäftigt. Und trotzdem hast Du eine Expertise in dem Bereich aufgebaut und diese Expertise fließt in TAWNY ein. Könnte man sagen, dass TAWNY eines Tages emotional intelligenter sein wird als wir?
Ich nenne mal so diese Fragen, die ich mir stelle und ich könnte mir vorstellen, dass es auch für andere sehr interessant ist.
00:14:29
DR. MICHAEL BARTL: Bezüglich meines Hintergrunds. Ich habe auch einen Marktforscherhintergrund, ich war mehrere Jahre im Bundesvorstand für Markt- und Sozialforschung in Deutschland. Und da ist natürlich Emotionsforschung auch ein großes Thema und ist natürlich höchst interessant, dass man hier jetzt mit neuen Methoden voranschreiten kann. Zudem ist es auch aus Innovationssicht ein ungeheuer großes Thema, was mich viel mehr gepackt hat als jetzt in der Blockchain-Technologie oder anderes. Wir müssen daran denken, dass es in Zukunft viele Milliarden vernetzte Geräte geben wird. Nehmen wir mal an, die meisten davon werden auch so eine Art Sinnesorgane haben, weil sie ein Mikrofon haben oder eine Kamera. Das heißt, viele der Geräte werden wissen, wie es uns geht. Und die Mensch-Maschine Interaktion wird hier komplett auf den Kopf gestellt. Wenn natürlich die Dinge/Geräte wissen, wie es uns geht und das wird in unserem Leben sehr viel Umbruch, meines Erachtens viel mehr Umbruch noch, als jetzt eben andere Technologie, wenn wir mit Maschinen anders zusammenleben werden. Es ist aber trotzdem ein höchst ambivalentes Thema.
Also was passiert denn da, wenn jetzt die Maschinen selbst vielleicht auch Emotionen bekommen oder unsere Emotionen lesen können? Was ist mit Überwachung? Was ist mit Datenschutz? Was ist mit Dark Patterns? Werden wir manipuliert oder nicht? Die sind alle höchst berechtigt, die ganzen Fragen. Insofern ist es immer auch ein Thema: Ethik und im Thema Datenschutz. Und das motiviert uns schon auch als europäisches Unternehmen hier tätig zu sein. Hier gibt’s andere Anforderungen an den Datenschutz und auch an die ethische Gestaltung der künstliche Intelligenz, als in vielen anderen Ländern. Das muss man sagen. Auch von der EU gibt es da sehr gute ausgearbeitete Richtlinien Richtung Human centered AI und das finde ich auch gut so. Und da wollen wir ein Teil davon sein und wie das mit den Maschinen läuft, also wie gesagt, ich glaube ausgesprochen oder nicht, jeder von uns hat da im tiefsten Inneren natürlich die Befürchtung, dass man ersetzt wird von Maschinen. Und wenn die jetzt auch noch Emotionen haben können, was ja eigentlich ursprünglich den Menschen vorbehalten ist, was können wir überhaupt noch besser?
Auf der anderen Seite würde ich sagen AI ist als Assistenzsystem zu sehen. Und wenn es eine sehr wichtige Entscheidung in unserem Leben gibt, die wegweisend ist, beispielsweise im Bereich Rechtsprechung oder Medizin, dann kann man sich natürlich schon sehr auf den Menschen, also den Richter oder Arzt, verlassen. Ehrlich gesagt würde ich mich aber auch nicht zu hundert Prozent darauf verlassen. Ich würde mich auch nicht zu 100 Prozent auf eine KI verlassen wollen. Ich hätte immer gerne das Gespann aus Beidem. Weil eine KI kann, was jetzt so Diagnose betrifft, viel mehr verarbeiten, als jeder Arzt das jemals können würde. Auf der anderen Seite kann es natürlich auch sein, dass eine Maschine Unfug mit Präzision vorantreibt. Da hätte ich schon wieder gerne den Menschen. Ich hätte aber gerne beide und das kennen wir heute auch. Also wer geht zum Mathe, Abitur ohne den Taschenrechner? Keiner, weil man die Aufgaben nur mit Taschenrechner als Assistenzsysteme lösen kann, er kann nun mal besser Kopfrechnen und man vertraut dem Taschenrechner eigentlich auch. Diese Konstellation zwischen Assistenzsystemen und Mensch, so muss man es sich auch in Zukunft vorstellen – mit emotional intelligenten Maschinen, mit denen ich zusammenlebe und mit deren Hilfe ich Aufgaben einfach besser oder überhaupt erst erledigen kann, die man alleine ohne dieses Assistenzsystemen nicht erledigen kann.
Das ist mein Antrieb.
Es ist ein unglaubliches Innovationsfeld, ein riesen Impact, wie wir Menschen mit Maschinen zusammenleben und an diesem Umbruch, relativ früh nun eben noch, da wollen wir Teil davon sein und auch beitragen, hier die Emotionserkennung voranzutreiben.
00:19:18
CARMEN UTH: Eine Zukunft, in der wir vielleicht mit Brillen herumrennen, die die KI integriert haben. Und wir begegnen dann einem Menschen und da, wo wir selbst emotionale Schwächen haben – die haben wir, jeder von uns, wir sind eben Menschen und greifen auf einen eingeschränkten Erfahrungsschatz zu. Also wir können ja nur aus eigenen Erfahrungen etwas bewerten. Und wie du schon gesagt hast, da ist die KI weit aus tiefer, weil einfach viel mehr Informationen gespeichert werden. Und ist sowas geplant? Seid Ihr in dem Bereich auch tätig?
00:20:20
DR. MICHAEL BARTL: Wir sind im Moment sehr breit aufgestellt, weil es sehr viele Anwendungsgebiete gibt. Ich weiß jetzt nicht, ob das Szenario mit der Brille so ist, weil ich glaube, im Moment ist es noch so, dass der Mensch die beste Emotionserkennungsmaschine ist, die man sich vorstellen kann, gerade wenn er auch trainiert drauf ist. Und die künstliche Intelligenz nähert sich da schon an und wird besser und besser, im Bereich der KI geht es ja immer um Wahrscheinlichkeiten, da gibt’s nicht 100 Prozent und Null, sondern halt 70, 80 oder 90 Prozent. Und das wird uns in Zukunft dann einfach helfen, vor allem wenn es um großzahlige Dinge geht. Also nicht in der 1:1 Interaktion, wo wir Menschen sehr versiert sind, die Körperhaltung zu lesen, Mimik zu lesen, sondern wo es auch darum geht, viele Emotionen gleichzeitig zu verwerten.
Man denke an Fußballstadien zu Zeiten von Corona Zeiten. Wie kriegt man denn die Fan Emotion jetzt in die Stadien? Naja, man könnte es eben so machen, indem man quasi KI anwendet und alle, die auf ihrem Laptop ein Fußballspiel anschauen, die Emotionen erkennen zu lassen und ins Stadion schickt, weil die Stimmung fehlt dort leider im Moment total. Also diese Dinge, digitale Empathie würde ich es mal nennen, die kann man auch großzahlig, nicht nur eins zu eins, sondern auch großzahlig übertragen.
00:21:49
CARMEN UTH: Total spannend. Würdest Du sagen, für so eine Zukunftsperspektive, dass es für uns Menschen, gleichbleibend oder vielleicht sogar noch wichtiger wird, uns emotional weiterzubilden, unsere emotionale Intelligenz zu erweitern, unsere Fähigkeiten noch besser zu trainieren.
00:22:19
DR. MICHAEL BARTL: Meine persönliche Meinung ist unbedingt ja, da muss ich nochmal auf den Fitnesstracker kommen. Vor der Zeit des Fitnesstracker wusste keiner, wie viele Schritte er pro Tag geht. Jetzt gibt’s ganz viele Leute mit Schrittzählern, die verbessern sich, die wissen, wie viele Schritte, die wissen wie die Laufstrecke ist, nicht jedermanns Sache, aber sagen wir mal für jeden zweiten oder dritten definitiv. Und wer von uns weiß, wie viele hochemotionale Momente er pro Tag hat? Ich glaube, die wenigsten. Wie schaut sowas über die Woche aus? Wie schaut sowas über die letzten 3 Monate aus? Zu welchen Zeiten war ich vielleicht auch in der Arbeit am meisten gestresst oder am wenigsten? Ich glaube diese Selbsterkenntnis, die es im Fitness Bereich ja schon in Analogie gibt, gibt’s eigentlich kaum im Bereich der Emotions Messung. Ich sage nicht, dass es für jeden was ist, weil manche sagen auch ich brauche keinen Fitnesstracker. So wird es ja auch sein. Aber auch in anderen großen Teilen bringt das sehr viel, um sich selbst zu verbessern, um sich selbst besser kennenzulernen, wie die Emotionen einen auch beeinflussen und vor allem wie sie vielleicht im letzten halben Jahr waren. Wir haben da überhaupt gar keine Art Rückblick vielleicht bis auf diejenigen, die ein Emotions-Tagebuch führen. Aber das wäre dann so eine technische Unterstützung und da kann man sich auch rein technologisch sehr gut und besser kennenlernen, was zu allen psychologischen Urteilen ein gute Zusatzinformation ist, glaube ich.
00:24:04
CARMEN UTH: Es ist ja so, dass Dinge, über die wir nachdenken – das, was bei uns in der Fantasie entsteht, das kann irgendwann dann auch in die Welt hinausgetragen und verwirklicht werden. Wir haben früher von Raketen, von der Mondlandung geträumt und davon, dass wir das Weltall erobern. Und wir sind jetzt mittendrin. Also die Dinge, die wir früher als Kinder noch als Science Fiction angeschaut haben, die werden jetzt einfach wahr. Und die Frage ist nun, wie gehe ich damit um? Und gerade dieses Thema Emotionen messen, bewusst werden wie viele Highs, wie viele Lows hab ich im Laufe des Tages, im Laufe der Woche? Und wie lege ich das aus? Wenn ich da ein Tool hätte, was mich dabei unterstützt im Training… das wäre schon ne coole Nummer. Also, wird es denn sowas geben in greifbarer Zukunft, dass wir tatsächlich vermutlicher Weise (also das wäre zumindest mein Wunsch), dass man da so eine Check Mark setzt. Jawohl! Ich möchte so eine Art Feedback von einer künstlichen Intelligenz, um mich einfach noch besser emotional aufstellen zu können und um an Potenzialen arbeiten zu können. Können wir mit sowas rechnen? Ist das in unserer Generation möglich? Wird es das geben?
00:25:45
DR. MICHAEL BARTL: Ja, definitiv wird es das geben. Ich glaube, es gibt hier auch schon ein paar Dinge, die das auch ohne KI machen, die Emotions-Tagebücher wie Apps und so weiter. Ich glaube, da kann man den Schritt einfach nochmal weitergehen und für uns natürlich auch wichtig. Wir waren jetzt sehr lange technisch unterwegs, sind ein Technologie-Unternehmen mit sehr vielen AI-Experten und jetzt haben wir eine mehr oder weniger gute Basis Technologie, die jetzt natürlich in die Anwendungen geht. Und da ist es schon zu beobachten, wo ist denn jetzt der Druck am größten, um so eine Technologie auch monetarisieren zu können? Und was Du ansprichst, ist meines Erachtens im Arbeitsleben einfach ganz wichtig, weil wenn du liest, dass die psychopsychischen Krankheiten steigen. Dass es so eine Art Heim-Isolierung gibt, weil nun natürlich zu Corona Zeiten alle von zuhause aus arbeiten, überhaupt keine sozialen Interaktionen haben, da ist der Druck sehr groß – wie bekommt man denn die Emotionen zwischen Kollegen wieder hin irgendwie und in so digitale Kanäle? Und das passiert theoretisch sehr schnell. Und da arbeiten wir ja auch dran, den nächsten Schritt zu machen. Bei uns heißt der Arbeitstitel eben New Work Companion, also eben eine Art Arbeitsassistenzsystemen zu haben. Das erleben wir definitiv noch in unserer Generation.
00:27:10
CARMEN UTH: Das ist ja unglaublich spannend. Und ich fände das auch interessant, Regina mal so Deine Sichtweise zu hören, wie Du das Ganze erlebst. Ihr seid ja draußen im Markt unterwegs. Und was ist denn für Dich so das Wichtigste in dieser ganzen riesigen Entwicklung, bei der Ihr nicht nur dabei seid, sondern Ihr die KI quasi lebendig macht? Ihr stemmt das sozusagen aus dem Boden? Das ist absolut faszinierend.
REGINA BURGMAYR: Also das Wichtigste ist meiner Meinung nach, erstmal zu verstehen, dass es nicht um die ständige Überwachung geht, sondern dass man selbst entscheidet, wann und wie und wo ich meine Emotionen freigebe bzw. dass das eigentlich ein unterstützender Faktor ist, wie Michael vorhin gesagt hat, dass es Assistenzsysteme sind, dass es ein Hand in Hand arbeiten sein wird und dass man es nicht nur auf diese Überwachung sozusagen reduziert, sondern gerade wenn man jetzt auch überlegt, wenn ich mir Gruppen anschaue oder man spricht ja dann immer mal wieder auch von Performance, von Teams oder so. Aber nicht Performance im Sinne des Negativen, sondern eher, was kann ich mir Positives da rausziehen und wie kann ich Dinge verbessern? Warum braucht vielleicht meine Nachtschicht mehr Unterstützung oder andere Unterstützung als die Leute, die tagsüber arbeiten? Vielleicht sind es einfach ganz kleine Anpassungen, die äußere Faktoren betreffen, aber jetzt nicht grundsätzlich auf einen einzelnen reduziert werden. Und im Sinne, das sind seine Emotionen und die will ich mir raushören. Das sollte groß geschrieben werden.
CARMEN UTH: Also ich denke schon, dass dieses Thema Angst vor Überwachung – George Orwan 1984 ist jedem ein Begriff – wichtig ist und dass Ihr als Pioniere in diesem Bereich unglaublich viel Aufklärungsarbeit leisten müsst, um den Menschen die Angst zu nehmen. Das Verständnis rüberzubringen, wie viel – wenn man das Ganze auf die Waagschale legt – und was man von der KI an emotionaler Unterstützung bekommen (Companion, wie Ihr es nennt) kann und dass ich ein einen emotionalen digitalen Buddy habe. Und dass ich mich darauf einlassen kann, ja ich glaube, dass das unheimlich wichtig ist in diese Richtung zu arbeiten. Aber wie macht Ihr das?
DR. MICHAEL BARTL: Datenschutz wie gesagt auch mit der engen Verbindung zur Marktforschung ist auf jeden Fall ein Thema, das immer drinsteckt und immer diskutiert wird. Also da hast Du zum einen natürlich das Rechtliche, was passen muss, von allen Opt-ins und Zustimmungen, die man braucht, um sowas durchführen zu können, in allen Abstufungen oder vielleicht gibt es auch technische Möglichkeiten, wo man Emotionen vielleicht auf Deinem Endgerät erkennt und also die Emotionen nicht irgendwo in die Cloud schiebt, sondern per Edge Computing verarbeitet wird – diese Ansätze haben wir auch. Also das ist nun das Technische und Rechtliche, dann haben wir aber auch wie es der Kunde oder User wahrnimmt, denn nur, weil Du etwas rechtlich darfst, heißt es nicht, dass es der Kunde auch gut findet, denn wenn er sich nun überwacht findet, dann ist es als Brand oder Marke nicht gut, wie wenn ich nun als Shop eine Kamera habe, wo beispielsweise die Emotionen der Shopper erfasst werden und ich das wahrscheinlich auch noch dürfte, weil ich beim Betreten des Shops oder weil man es aufgrund der Kundenkarte auch darf, heißt es noch lange nicht, dass es der Kunde gut findet. Das ist nochmal der Unterschied zwischen dem Rechtlichen und wie es ankommt. Man muss da schon sagen, wo ist der Mehrwert für den Kunden, der aber durchaus gegeben ist, wenn ich nun wieder an den Fan einer Fußballmannschaft denke, da ist ja das urreinste Interesse seine Emotionen der Mannschaft mitzugeben und der freut sich darüber jetzt einen Kanal zu haben, den er vielleicht zuvor nicht hatte, weil er alleine im Wohnzimmer gesessen hatte und da isoliert und konnte mit einer Emotion nicht beitragen und so es eben auch festzulegen, was es den Kunden bringt und wo der seinen Mehrwert sieht, dass er seine Emotionen teilt und das auch freiwillig tut und man muss das also jederzeit an/ausschalten können. Das hast Du nun zum Beispiel bei bestimmten Kameraauffassungen in anderen Ländern zum Beispiel nicht.
CARMEN UTH: Es ist ja immer mal wichtig diese kritischen in Frage zu stellen und unter die Lupe nehmen, denn nur so kann sich ein Produkt oder KI weiterentwickeln, denn heute ist es schon so, dass die, die gut aufgestellt sind und Zugang zu guten intelligenten Pools haben, einfach einen Vorsprung im Markt haben. Wie siehst Du das, auf die Zukunft gesehen, wird das so bleiben, wird es abgeschwächt oder wird es sich sogar verschärfen?
DR. MICHAEL BARTL: Ich glaube es ist eine allgemeine Entwicklung, dass sich die emotionale Intelligenz der Maschinen weit entwickeln wird, denn der Weg ist schon vorgezeichnet, hatte ja auch erwähnt, dass diese „Sinnesorgane“ bereits platziert sind. Mit Alexa etc. – das ist vorgezeichnet, die Art der Vernetzung ist noch nicht klar. Das Auto ist ein isoliertes System, das heißt, es macht es für sich, aber es könnte ja auch ein Auto in Kombination mit einem anderen Gerät sein, dann haben wir ein vernetztes System, das die Emotion messen kann, um besser auf uns einzugehen zu können. Das wird über Einzelsysteme – die Automobilindustrie ist da schon ein Vorreiter, die ganz viel ausprobiert. Über viele dieser Einzelsysteme wird sich dann einiges vernetzten. Man muss einfach Herr seiner eigenen Emotionen sein, und diese auch teilen dürfen. Vielleicht gibt es auch neue Geschäftsmodelle, denn für Arbeitgeber ist es natürlich ein heißes Pflaster, wie geht man hier nun mit Mitarbeiter Daten um. Gerade nun biometrische – also auch hier kann es neue Themen geben. Wer speichert denn solche Daten? Eigentlich sollt es vielleicht nicht der Arbeitgeber sein, sondern vielleicht ist es ein Treuhänder, der Daten, eben nicht der Arbeitgeber, sondern eine neue Instanz, die als Treuhänder bezeichnet werden kann und man muss schauen, wie dieser Treuhänder ausschauen kann, der diese Daten verwalten kann. Im Moment sind es die Firmen oder sind es die Techunternehmen, aber gibt es vielleicht nicht auch eine unabhängige Instanz?! Was ein gutes Geschäftsmodelll wäre, so eine Instanz zu werden.
CARMEN UTH: Absolut, also, das sieht man ja auch an Facebook oder Google, was es bedeutet, etwas zu erschaffen, also das kann uns natürlich einen Mehrwert uns bieten, was aber auch ein Schritt zur Macht ist und da ist es eben so unglaublich wichtig, dass die Werte und das Wertesystem stimmt und da bin ich froh, dass TAWNY in Deutschland/Europa ist, denn da gehen die Entwicklungen natürlich auch wo ganz anders hin, das ist ganz klar. Gibt es noch etwas, was für unsere Zuhörer:innen und Zuschauer:innen noch interessant und spannend sein könnte, was Ihr Beide nochmal ergänzen könnt?
DR. MICHAEL BARTL: Ich denke, das Thema kommt auf uns alle zu, man muss sagen, es ist noch früh oder wir sind auch relativ früh dran, man kann sich vorstellen, in welche Richtung es geht. Viele der Beispiele, die ich so genannt habe, sind eben in der Innovations- Ausprobierphase und häufig ist es bei Innovationen so, dass man die kurzfristige Wirkung überschätzt und die langfristige unterschätzt, es ist ein Thema, das ist in unserer Generation so, aber es wird nun nicht so sein, dass in 2-3 Jahren jede Maschine nun emotional intelligent sein wird, dass wird einfach eine Weile dauern. Aber es ist einfach so spannend, bei der Entwicklung dabei zu sein und ja, vielleicht einfach mal nachzudenken, wo es in seinem Leben nützen könnte, was ist, wenn ich aufstehe und in die Küche gehe und meine Kaffeemaschine emotional intelligent wäre, was wäre wenn es mein Auto ist, mein Arbeitsplatz… da kann man schon ganz phantasievolle Stories für sich selbst entwickeln, was das alles bedeuten wird. Vielleicht kann man sich mal in die Situation hineinversetzen.
REGINA BURGMAYR: Einfach auf sich wirken lassen und nicht partout sagen, es hat alles wieder mit Datenschutz zu tun und es ist alles neu. Ich meine wir geben ja schon sehr viel preis, aber auch nochmal über das bewusste Preisgeben und das achtsame Umgehen mit Daten sehen. Und eher die Erleichterung in den ganzen Assistenzsystemen und die Personalisierung zu sehen und nicht die große Überwachung und alles weiß, wann und wie ich es tue.
CARMEN UTH: Ja. Zum Abschluss noch die Frage an Euch beide. Was macht es mit Euch, Ihr beschäftigt Euch Tag für Tag mit dem Thema Emotion. Hat das eine Auswirkung auf Euer Leben und wenn ja welche?
DR. MICHAEL BARTL: Wenn ich für mich sprechen kann, dann definitiv. Klar ich war in der Marktforschung, aber Emotionsforschung war jetzt nicht mein Spezialgebiet, würde ich sagen. Von dem her ist es extrem spannend, sich auf so einem Thema zu nähern und das von einer ganz anderen Seite von der technischen in diesem Falle. Das ist ganz spannend, man lernt einfach unglaublich schnell dazu, ein Wissenschaftsfeld, das auch ganz viele neue Studien und tolle Beiträge schafft, auch die Community wird immer größer. Ja und der große Effekt ist, dass man wirklich sehr viel in kurzer Zeit lernt zum Thema, das es eigentlich schon sehr lange gibt.
REGINA BURGMAYR: Mein Hintergrund ist schon psychologisch und ich habe mich damit schon immer auseinandergesetzt. Und klar, wenn man damit tagtäglich in Berührung ist, dann hinterfragt man die Dinge, die um einen so geschehen und mit Emotionen zu tun haben, weiterhin. Das Thema ist so spannend und es lässt einen nicht mehr los. Klar ist man so in seiner eigenen Blase, aber wenn man es den anderen näher bringt, dann ist das Verständnis relativ schnell da und man sieht förmlich ein Blinken in den Augen des Gegenüber, so im Sinne „ja Du hast recht und das ist das, was für Motivation sorgt, dass man sich mit diesem Thema bewusst auseinandersetzt.
CARMEN UTH: Was mich noch persönlich interessieren würde: Arbeitet Ihr in diesem Bereich auch mit Menschen zusammen, die sich mit diesen Themen auseinandersetzen bei der Weiterentwicklung? Mit Psychologen oder Neurologen, Neurowissenschaftlern?
DR. MICHAEL BARTL: Jein. Die Psychologen sind noch nicht ganz technologieaffin, was nun vielleicht auch ein bisschen in der Vergangenheiten liegt, denn erklär mal einem Psychologen, dass Du Angst erkennst. Der sagt, es gibt Jahrzehnte Forschung mit Angst und um nun Angst und Wut zu unterscheiden, das sind ja zwei unterschiedliche Emotionen und das ist jetzt nicht ganz einfach und das wird auch keine Technologie so schnell hinbekommen – das ist richtig, wobei wir nicht nur den letztendlich psychologischen Zustand feststellen wollen – uns ist es egal, ob es Angst oder Wut ist, denn wir messen „der Mensch ist negativ und sehr aufgeregt – egal ob das Angst oder Wut ist und messen dann den Zusammenhang wenn er negativ und aufgeregt ist, ist die Wahrscheinlichkeit höher einen Unfall zu bauen. Ob der Unfall nun durch Angst oder Wut entsteht, das ist nicht unser Bereich. Trotzdem ist es wertvoll hier Input zu bekommen, andererseits ist es auch ganz erfrischend zu sagen, wir nähern uns dem Thema von eine komplett anderen Richtung, hier nun rein technischer Natur und überlassen den Psychologiepart jemand anderen. Wenn wir also mit Unternehmen zusammenarbeiten, die haben unterschiedliche Abteilungen, die steht für HR oder Health und dergleichen und das sind also die Profis aus der psychologischen Ecke, während wir die eher aus der technologischen Ecke kommen und da Mehrwert liefern. Der Austausch ist natürlich da, auch was die Mensch-Maschinen Interaktion betrifft, denn was machst Du denn, wenn es heißt, wir haben erkannt, der Mensch ist agressiv. Entweder eine Notification, oder ein rotes Lämpchen oder einen Stromschlag verpassen (Michael lacht) oder …
CARMEN UTH: Eine beruhigende Musik/screensaver mit Meer.
DR. MICHAEL BARTL: Das sind also die Stellen, wo wir sagen: Wir müssen zusammenarbeiten. Zum Beispiel in der Automobilindustrie – die wissen genau, welche Stimme man aktivieren muss im Navi, um sowas rüberzubringen und in anderen Bereichen wird es anders sein. Also wir suchen definitiv immer die Zusammenarbeit, aber unser Kern ist sicherlich, dass wir eine Technologiefirma sind.
CARMEN UTH: Da ich ja aus der Technologie komme, war das schon immer für mich interessant und ich war neugierig, als ich Regina am Stand besucht habe – toll!
Ja cool, ich freue mich auf jeden Fall über das Update und dass ich das mit anderen Menschen teilen kann.
Ich bedanke mich herzlich bei Euch und freue mich auf weitere Sessions, denn TAWNY wird sich weiterentwickeln und Ihr mit TAWNY auch und ja, da können wir sicherlich an dem ein oder anderen Punkt anknüpfen und schauen, was uns in der Zukunft noch so alles erwarten wird.
In diesem Sinne ein herzliches Dankeschön und bis zum nächsten EmoTalk®.
DANKESCHÖN
Unser herzliches Dankeschön an die beiden Pioniere: