• Über Uns
  • Impressum
  • Datenschutzerklärung
  • Login
  • Registrieren
WindowsUnited
  • Windows 11
    • Windows 10
    • Anleitungen & Tipps
    • Windows Mobile
  • Surface
  • Gaming
  • Reviews
  • Exclusives
  • IT-Jobs
No Result
View All Result
WindowsUnited
  • Windows 11
    • Windows 10
    • Anleitungen & Tipps
    • Windows Mobile
  • Surface
  • Gaming
  • Reviews
  • Exclusives
  • IT-Jobs
No Result
View All Result
WindowsUnited
No Result
View All Result
Home Künstliche Intelligenz (KI)

Microsoft entwickelt „Schild gegen toxisches Verhalten“

von Leonard Klint
15. Februar 2019
in Künstliche Intelligenz (KI)
10
toxisches verhalten microsoft chat
Teile auf FacebookTeile auf Twitter

Toxic behaviour, zu Deutsch „toxisches Verhalten“, ist ein Begriff, der in den letzten Jahren immer stärker an Bedeutung gewonnen hat. Es beschreibt ein ganz gewisses Handlungsmuster und darf nicht mit „bad behaviour“ (schlechtem Verhalten/Benehmen) verwechselt werden, auch wenn es Schnittmengen gibt.

„Toxisches Verhalten“ richtet sich gegen die Gefühle von Personen – es verletzt. Dabei ist es unerheblich, ob die Person, die das toxische Verhalten ausübt, sich dessen bewusst ist oder nicht. Oft wird „toxic beviour“ mit Sexismus gleichgesetzt. Es beschränkt sich aber nicht auf diese Form von Verhalten.

Microsoft hat nun ein Verfahren entwickelt, das toxisches Verhalten in virtuellen Unterhaltungen erkennen und dagegen vorgehen soll. Das Konzept berücksichtigt dabei ein ganz wichtiges Detail der menschlichen Interaktion.

Ist das jetzt toxisch oder nicht?

„Ich erklär dir das mal, Schnucki“ – toxisches Verhalten muss nicht ganz so offensichtlich sein und auch nicht von jedermann als solches gewertet werden. Wo eine Person den Satz als sexistisch und beleidigend auffasst, könnt eine andere Person dies nicht weiter stören oder sogar, je nach Kontext und Vortragsweise, witzig finden.

In virtuellen Gesprächen fehlen wichtige Komponenten der menschlichen Interaktion wie etwa Betonung und Körperhaltung. Hier ist es besonders schwierig zu beurteilen, wie genau eine Aussage gemeint ist.

Microsoft hat eine Technologie entwickelt, die auf die verschiedenen Toleranzen der Gesprächspartner eingeht (Patentnummer US2019052471)

Toxicity-Shield-Module werden in Bezug auf Teilnehmer einer virtuellen Umgebung mit mehreren Benutzern aktiviert, um einzelne Teilnehmer vor toxischem Verhalten zu schützen. Die Toxizitätsschutzmodule können für jeden Teilnehmer der virtuellen Mehrbenutzerumgebung angepasst werden, basierend auf den Toleranzen jedes Teilnehmers für die Exposition gegenüber vorgegebenen toxischen Verhaltensweisen. Die Toxizitätsschutzmodule können während der virtuellen Mehrbenutzerumgebung aktiviert werden, um Kommunikationsdaten (z.B. sprachbasierte und/oder textbasierte „Chats“ und/oder einen Videostream) zwischen den Teilnehmern zu überwachen und die Exposition einzelner Teilnehmer gegenüber dem/den vorgegebenen toxischen Verhalten(en) zu steuern. Unter Umständen, in denen beispielsweise ein erster Teilnehmer gegenüber der Verwendung eines bestimmten Inhalts sehr intolerant ist, während ein dritter Teilnehmer gegenüber der Verwendung des bestimmten Inhalts gleichgültig ist, kann das/die Toxizitätsschutzmodul(e) Instanzen des bestimmten Inhalt identifizieren, um zu verhindern, dass der erste Teilnehmer solchen Instanzen ausgesetzt wird, ohne den dritten Teilnehmer ebenfalls daran zu hindern, solchen Instanzen ausgesetzt zu sein.

Während die Aussage einem der Teilnehmer nicht angezeigt werden, weil sie von demjenigen als „toxisch“ empfunden werden könnten, ist sie für Personen mit anderen Toleranzen ganz normal sichtbar.

Natürlich kann man schon jetzt bestimmte anstößige Wörter aus Chats filtern lassen. Das obige Verfahren soll dank KI aber schlauer agieren und ganze Inhalte samt Kontext verstehen. Das klingt nach einer großen Herausforderung und ich bin gespannt wie so etwas bei der endgültigen Implementation funktionieren wird.

Was sagt ihr zu dieser Microsoft-Technologie? Findet ihr solche Maßnahmen gegen toxisches Verhalten wichtig? Habt ihr schon einmal unschöne Chaterfahrungen gemacht, die durch eine solche Technologie hätten verhindert werden können?

Tags: chatMicrosoftmobbingSchutztechnolgietoxic behaviourtoxisches verhalten
Share5TweetSendShare

Verwandte Artikel

Windows 11 glänzt mit größtem Nutzerplus seit der Veröffentlichung des Betriebssystems
Microsoft

Windows 11 glänzt mit größtem Nutzerplus seit der Veröffentlichung des Betriebssystems

6. Februar 2025
Windows 10 Game Bar: Microsoft öffnet ein mächtiges Gamer-Tool für alle – Welches Widget würdet ihr euch wünschen?
Apps

Microsoft Edge: Xbox Game Bar bekommt Browser Widget

28. Januar 2025
Nintendo Switch 2: Xbox bestätigt Unterstützung mit eigenen Spielen
Gaming

Nintendo Switch 2: Xbox bestätigt Unterstützung mit eigenen Spielen

28. Januar 2025
Diskussion abonnieren
Anmelden/Registrieren
Benachrichtige mich zu:
Logge dich ein zum Kommentieren
10 Comments
älteste
neuste beste Bewertung
Inline Feedbacks
View all comments
userin
6 Jahre her

Zitat: >> Während die Aussage einem der Teilnehmer nicht angezeigt werden, weil sie von demjenigen als „toxisch“ empfunden werden könnten, ist sie für Personen mit anderen Toleranzen ganz normal sichtbar. << Dann bekommt man verletzende, ggf verunglimpfende Teile einer Unterhaltung nur nicht mit. Das könnte sogar dazu führen, dass hinter dem Rücken desjenigen Mobbing auf dessen Kosten geschieht, und er sich nicht mal dagegen wehren kann (per Anzeige beim Diensteanbieter), weil er es nur nicht mitbekommt. Tür und Tor geöffnet für konspiratives Lustigmachen über andere Personen, sie zu diskretitieren, … . Wenn in einer Unterhaltung verletztende Inhalte vorhanden sind, dann… Weiterlesen »

-1
Leonard Klint
Verfasser des Artikels
Antwort auf  userin
6 Jahre her

Nun, wenn du dir das Patent genau durchliest, wirst du sehen, dass man die Kriterien für jeden einzelnen Nutzer selbst festlegen kann. Wenn der Nutzer weiterhin für ihn toxische Nachrichten sehen möchte, kann er dies tun. Zudem wissen die anderen Teilnehmer ja nicht, dass jemand nicht mitlesen kann. Ein „hinter dem Rücken“ ist also nicht so einfach möglich.

Es ist nun einmal so: Es gibt verschiedene Toleranzen und Gefühlsempfindsamkeiten. Wenn du „alles“ sperrst, geht das mitunter gegen die Meinungsfreiheit.

1
gast
Antwort auf  userin
6 Jahre her

Das ist der Punkt: Zensur und technologisch erzwungene Verhaltenskontrolle ist definitiv der falsche Weg.

1
Höli
6 Jahre her

Demnächst auf Facebook:
Gerlinde H.:
„Aber ist es nicht eine Selbstverständlichkeit dass Frauen gleichberechtig sein sollten?“
Achmed U.:
[Deleted beceause of toxic behaviour]
Ahmed Y.
[Deleted beceause of toxic behaviour]
Faretin S..:
[Deleted beceause of toxic behaviour]
Uigun E.
[Deleted beceause of toxic behaviour]
….

-1
gast
Antwort auf  Höli
6 Jahre her

Wenn es denn nur das wäre! Diese MS-Technologie geht weit darüber hinaus. Solche Technologien zur sozialen Verhaltenskontrolle sind absolutes Teufelszeug. Wir tun gut daran, sie erst gar NICHT anzufassen und zu verbieten. Alles andere führt uns in nämlich in einen rigiden, technologiegestützten Totalitarismus!

1
Lars
Antwort auf  Höli
6 Jahre her

Die ausschließliche Verwendung von Namen, die darauf hindeuten, dass du toxisches Verhalten nur einer bestimmten Personengruppe, in diesem Fall Männern mit möglicherweise Migrationshintergrund, ggü. der augenscheinlich guten deutschen Gerlinde, unterstellst, ist an sich auch schon wieder toxisches Verhalten.
Nur, um da mal drauf hinzuweisen.

1
Cunctatorix
6 Jahre her

Wer will das denn haben, dass eine Maschine in Dialogen auswählt?

1
gast
Antwort auf  Cunctatorix
6 Jahre her

Niemand. Ich lese lieber jeden Idioten/A-Loch-Kommentar und sei er noch so „hässlich“ und infam. Das Problem sind aber jene Leute, die partout nicht klarkommen mit solchen Situationen. Wir leben in einer Snowflakes-Gegenwart. So viel ‚Mimosentum“ und „Empörungsbereitschaft“ war noch nie in der Zivilisationsgeschichte der „westlichen Welt“. Und wenn es so weitergeht, wird diese daran zugrunde gehen.

1
Fendor
6 Jahre her

„Toxic behaviour, zu Deutsch „toxisches Verhalten“ …“ LOL
einerseits lautet der Begriff im amerikanischen Englisch behavior, andererseits wäre eine deutsche Übersetzung wohl eher schädliches Verhalten.
„Oft wird „toxic beviour“ …“ auch sehr lustig.
Lieber korrektes Deutsch oder korrektes Englisch als doppelt falsch; auch bei neu erfundenen Begriffen.

0
g.sys
6 Jahre her

Ich finde es wird eine enorme Herausforderung, denn Kontext erkennen wird für eine KI allgemein bestimmt noch einen weitern Weg gehen. Gegen giftiges Verhalten sollte allemal angegangen werden, in dem Schutzmantel der Anonymität des Internet eskaliert das schnell. Ich nehme mich selbst nicht aus, schnell mal über die Strenge zu schlagen, wenn mich etwas emotional aufreibt. Daher finde ich es wichtig, das systematische Vergiften von Diskussionen schnell zu erkennen und zu unterbinden. Noch wichtiger sind aber Konsequenzen für Störenfriede, die wiederholt auffallen. Hier kann solch ein System Moderatoren unterstützen. Ebenso ’social bots‘ die gezielt „Gift versprühen“ zu erkennen und zu… Weiterlesen »

-2

Anzeige


Amazon Deals

Amazon-Deals

Die WindowsUnited App

WindowsUnited App

WindowsUnited App - Jetzt als PWA für alle Plattformen

Einfach im Browser oder "zum Startbildschirm hinzufügen" und wie eine App nutzen.
WindowsUnited

© 2020 1United GmbH

Mehr

  • Impressum
  • Datenschutzerklärung
  • Facebook-Gruppe: Der WindowsUnited Newsroom
  • Jobs
  • Sende uns einen Tipp
  • Über Uns

Folge Uns   Blogverzeichnis - Bloggerei.de

Welcome Back!

Login to your account below

Forgotten Password? Jetzt registrieren

Erstelle ein Nutzerkonto!

Fülle das Formular aus, um dich zu registrieren

Alle Felder müssen ausgefüllt sein. Log In

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • Windows
    • Windows 10
    • Anleitungen
    • Windows Mobile
  • Nokia
  • Surface
  • Reviews
  • Meinung
  • IT-Stellenmarkt
  • Impressum
  • Datenschutzerklärung
  • Anmeldung / Registrierung

© 2020 1United GmbH