Toxic behaviour, zu Deutsch „toxisches Verhalten“, ist ein Begriff, der in den letzten Jahren immer stärker an Bedeutung gewonnen hat. Es beschreibt ein ganz gewisses Handlungsmuster und darf nicht mit „bad behaviour“ (schlechtem Verhalten/Benehmen) verwechselt werden, auch wenn es Schnittmengen gibt.
„Toxisches Verhalten“ richtet sich gegen die Gefühle von Personen – es verletzt. Dabei ist es unerheblich, ob die Person, die das toxische Verhalten ausübt, sich dessen bewusst ist oder nicht. Oft wird „toxic beviour“ mit Sexismus gleichgesetzt. Es beschränkt sich aber nicht auf diese Form von Verhalten.
Microsoft hat nun ein Verfahren entwickelt, das toxisches Verhalten in virtuellen Unterhaltungen erkennen und dagegen vorgehen soll. Das Konzept berücksichtigt dabei ein ganz wichtiges Detail der menschlichen Interaktion.
Ist das jetzt toxisch oder nicht?
„Ich erklär dir das mal, Schnucki“ – toxisches Verhalten muss nicht ganz so offensichtlich sein und auch nicht von jedermann als solches gewertet werden. Wo eine Person den Satz als sexistisch und beleidigend auffasst, könnt eine andere Person dies nicht weiter stören oder sogar, je nach Kontext und Vortragsweise, witzig finden.
In virtuellen Gesprächen fehlen wichtige Komponenten der menschlichen Interaktion wie etwa Betonung und Körperhaltung. Hier ist es besonders schwierig zu beurteilen, wie genau eine Aussage gemeint ist.
Microsoft hat eine Technologie entwickelt, die auf die verschiedenen Toleranzen der Gesprächspartner eingeht (Patentnummer US2019052471)
Toxicity-Shield-Module werden in Bezug auf Teilnehmer einer virtuellen Umgebung mit mehreren Benutzern aktiviert, um einzelne Teilnehmer vor toxischem Verhalten zu schützen. Die Toxizitätsschutzmodule können für jeden Teilnehmer der virtuellen Mehrbenutzerumgebung angepasst werden, basierend auf den Toleranzen jedes Teilnehmers für die Exposition gegenüber vorgegebenen toxischen Verhaltensweisen. Die Toxizitätsschutzmodule können während der virtuellen Mehrbenutzerumgebung aktiviert werden, um Kommunikationsdaten (z.B. sprachbasierte und/oder textbasierte „Chats“ und/oder einen Videostream) zwischen den Teilnehmern zu überwachen und die Exposition einzelner Teilnehmer gegenüber dem/den vorgegebenen toxischen Verhalten(en) zu steuern. Unter Umständen, in denen beispielsweise ein erster Teilnehmer gegenüber der Verwendung eines bestimmten Inhalts sehr intolerant ist, während ein dritter Teilnehmer gegenüber der Verwendung des bestimmten Inhalts gleichgültig ist, kann das/die Toxizitätsschutzmodul(e) Instanzen des bestimmten Inhalt identifizieren, um zu verhindern, dass der erste Teilnehmer solchen Instanzen ausgesetzt wird, ohne den dritten Teilnehmer ebenfalls daran zu hindern, solchen Instanzen ausgesetzt zu sein.
Während die Aussage einem der Teilnehmer nicht angezeigt werden, weil sie von demjenigen als „toxisch“ empfunden werden könnten, ist sie für Personen mit anderen Toleranzen ganz normal sichtbar.
Natürlich kann man schon jetzt bestimmte anstößige Wörter aus Chats filtern lassen. Das obige Verfahren soll dank KI aber schlauer agieren und ganze Inhalte samt Kontext verstehen. Das klingt nach einer großen Herausforderung und ich bin gespannt wie so etwas bei der endgültigen Implementation funktionieren wird.
Was sagt ihr zu dieser Microsoft-Technologie? Findet ihr solche Maßnahmen gegen toxisches Verhalten wichtig? Habt ihr schon einmal unschöne Chaterfahrungen gemacht, die durch eine solche Technologie hätten verhindert werden können?
Zitat: >> Während die Aussage einem der Teilnehmer nicht angezeigt werden, weil sie von demjenigen als „toxisch“ empfunden werden könnten, ist sie für Personen mit anderen Toleranzen ganz normal sichtbar. << Dann bekommt man verletzende, ggf verunglimpfende Teile einer Unterhaltung nur nicht mit. Das könnte sogar dazu führen, dass hinter dem Rücken desjenigen Mobbing auf dessen Kosten geschieht, und er sich nicht mal dagegen wehren kann (per Anzeige beim Diensteanbieter), weil er es nur nicht mitbekommt. Tür und Tor geöffnet für konspiratives Lustigmachen über andere Personen, sie zu diskretitieren, … . Wenn in einer Unterhaltung verletztende Inhalte vorhanden sind, dann… Weiterlesen »
Nun, wenn du dir das Patent genau durchliest, wirst du sehen, dass man die Kriterien für jeden einzelnen Nutzer selbst festlegen kann. Wenn der Nutzer weiterhin für ihn toxische Nachrichten sehen möchte, kann er dies tun. Zudem wissen die anderen Teilnehmer ja nicht, dass jemand nicht mitlesen kann. Ein „hinter dem Rücken“ ist also nicht so einfach möglich.
Es ist nun einmal so: Es gibt verschiedene Toleranzen und Gefühlsempfindsamkeiten. Wenn du „alles“ sperrst, geht das mitunter gegen die Meinungsfreiheit.
Das ist der Punkt: Zensur und technologisch erzwungene Verhaltenskontrolle ist definitiv der falsche Weg.
Demnächst auf Facebook:
Gerlinde H.:
„Aber ist es nicht eine Selbstverständlichkeit dass Frauen gleichberechtig sein sollten?“
Achmed U.:
[Deleted beceause of toxic behaviour]
Ahmed Y.
[Deleted beceause of toxic behaviour]
Faretin S..:
[Deleted beceause of toxic behaviour]
Uigun E.
[Deleted beceause of toxic behaviour]
….
Wenn es denn nur das wäre! Diese MS-Technologie geht weit darüber hinaus. Solche Technologien zur sozialen Verhaltenskontrolle sind absolutes Teufelszeug. Wir tun gut daran, sie erst gar NICHT anzufassen und zu verbieten. Alles andere führt uns in nämlich in einen rigiden, technologiegestützten Totalitarismus!
Die ausschließliche Verwendung von Namen, die darauf hindeuten, dass du toxisches Verhalten nur einer bestimmten Personengruppe, in diesem Fall Männern mit möglicherweise Migrationshintergrund, ggü. der augenscheinlich guten deutschen Gerlinde, unterstellst, ist an sich auch schon wieder toxisches Verhalten.
Nur, um da mal drauf hinzuweisen.
Wer will das denn haben, dass eine Maschine in Dialogen auswählt?
Niemand. Ich lese lieber jeden Idioten/A-Loch-Kommentar und sei er noch so „hässlich“ und infam. Das Problem sind aber jene Leute, die partout nicht klarkommen mit solchen Situationen. Wir leben in einer Snowflakes-Gegenwart. So viel ‚Mimosentum“ und „Empörungsbereitschaft“ war noch nie in der Zivilisationsgeschichte der „westlichen Welt“. Und wenn es so weitergeht, wird diese daran zugrunde gehen.
„Toxic behaviour, zu Deutsch „toxisches Verhalten“ …“ LOL
einerseits lautet der Begriff im amerikanischen Englisch behavior, andererseits wäre eine deutsche Übersetzung wohl eher schädliches Verhalten.
„Oft wird „toxic beviour“ …“ auch sehr lustig.
Lieber korrektes Deutsch oder korrektes Englisch als doppelt falsch; auch bei neu erfundenen Begriffen.
Ich finde es wird eine enorme Herausforderung, denn Kontext erkennen wird für eine KI allgemein bestimmt noch einen weitern Weg gehen. Gegen giftiges Verhalten sollte allemal angegangen werden, in dem Schutzmantel der Anonymität des Internet eskaliert das schnell. Ich nehme mich selbst nicht aus, schnell mal über die Strenge zu schlagen, wenn mich etwas emotional aufreibt. Daher finde ich es wichtig, das systematische Vergiften von Diskussionen schnell zu erkennen und zu unterbinden. Noch wichtiger sind aber Konsequenzen für Störenfriede, die wiederholt auffallen. Hier kann solch ein System Moderatoren unterstützen. Ebenso ’social bots‘ die gezielt „Gift versprühen“ zu erkennen und zu… Weiterlesen »