Tay hatte gestern alleine auf Twitter 25.000 Follower angehäuft und war an 96.000 Konversationen beteiligt. Auf Snapchat, KiK Messenger und weiteren Social Media Kanälen und Messengern, war Tay ebenfalls aufgetaucht.
Völlig unerwartet sagte der attraktive Chatbot in den frühen Morgenstunden unserer Zeit „good night“ und ist seitdem nicht mehr aktiv. Die Gründe wurden aber schnell klar. Tay änderte nämlich innerhalb von 24 Stunden ihre Meinung von „Menschen sind supercool“ über „Ich hasse alle“ und „Ich hasse Feministen, die sollten alle sterben und in der Hölle brennen“ bis hin zu „Hitler hatte Recht, ich hasse diese Juden“.
Ausserdem schafften es die Nutzer „Tay“ unter anderem dazu zu bringen den Holocaust zu verneinen und Schwarze zu beleidigen. Ein Grossteil dieser Tweets wurde später gelöscht von Microsoft wieder gelöscht, belanglose Tweets sind auch heute noch zu finden. Nach einigen Stunden verkündete die Maschine über ihren Twitter-Account „@TayandYou“, sie müsse nach so vielen Gesprächen schlafen und ging vom Netz.
https://twitter.com/geraldmellor/status/712880710328139776
Ein sehr krasser Sinneswandel dieser künstlichen Intelligenz. Ein Sprecher Microsofts äusserte gegenüber Techcrunch anlässlich des vorläufigen Abschieds, es sei leider einigen Nutzern gelungen, Tay in einer „koordinierten Anstrengung zu missbrauchen“. Deshalb habe Microsoft entschieden, das „soziale und kulturelle Experiment“ zu pausieren und einige Nachbesserungen an dem Chat-Bot vorzunehmen. Auch die entsprechenden Tweets wurden mittlerweile manuell gelöscht. Man findet nur noch harmlose und belanglose Tweets zwischen Tay und ihren Followern.
Ich hab das mit Tay tatsächlich nur nebenbei mitbekommen und heute Morgen drüber gelesen. Leider zu spät, um was von dem Spaß zu haben.
Anyway, mehrere Seiten berichten, dass sie offline genommen wurde, weil eine Gruppe Leute sie mit rassistischen Äußerungen gefüttert hat, die sie dann lernte und mal eben nach einigen Stunden Hitler gefeiert und den Holocaust abgestritten hat. Gibt es mehrere berichte bei amerikanischen Blog drüber.
Wäre schade drum.
was für Vollidioten, wenn es tatsächlich stimmt.
Würde mich nicht wirklich wundern wenn eine künstliche Intelligenz als allererstes den „Rassismus“ von den Menschen lernen würde. Man muss sich nur mal umschauen was in Amerika, Europa und Russland so passiert.
Ist doch klar. Ich arbeite in Handwerk. Was glaubt Ihr was ich von 80% meiner deutschen Kollegen für einen geistigen dünnschiss fast täglich zu hören kriege. Entschuldigt die Wortwahl, aber der Großteil unserer Gesellschaft ist geschichtsignorant, fremdenfeindlich( will nicht rassistisch sagen, weil ich mit dem Wort „rasse“ an sich schon ein Problem hab. Sowas gibt’s bei Hunden) und Ja sowas von ihrer erhabenheit überzeugt, das ich die Diskussionen seit meiner Jugend überdrüssig werde. Aber selbst wenn ich mich mit Russen, Türken, pakistanern , oder Polen unterhalte, alle hassen sie irgendwelche anderen. somit ist die ganze Welt gleich verdorben! Und jetzt… Weiterlesen »
Was ist mit GroupMe? Habe erst heute morgen das hier gefunden: https://help.groupme.com/hc/en-us/sections/203990927-Tay