Das Massachusetts Institute of Technology (MIT) in Cambridge ist für seine weltweit angesehenen Studien bekannt. In einer neuen Übersichtsstudie hat man nun beobachtet, wie sich die KI im Zusammenhang mit Lügen sowie Betrug verhält und man ist zu dem Schluss gekommen, dass auch die künstliche Intelligenz in der Lage ist, zu lügen und zu betrügen. Das gilt selbst dann, wenn die KI eigentlich darauf programmiert wurde, zu seinen Nutzern ehrlich zu sein und nur Hilfsbereitschaft an den Tag zu legen. In solchen Angelegenheiten scheint die KI bereits sehr menschlich zu sein.
KI-System Cicero von Meta wurde als Negativbeispiel genannt
Die Forscher haben ihre Beobachtungen natürlich öffentlich gemacht und dabei vor allem das KI-System Cicero von Meta hervorgehoben. Allerdings nicht gerade positiv, denn die KI tritt im World Wide Web unter anderem beim Brettspiel-Klassiker Diplomacy gegen menschliche Spieler an. Meta behauptet, die KI ehrlich und hilfsbereit programmiert zu haben. Die Forscher haben jedoch bemerkt, dass die KI häufig nicht fair spielte. Das ist aber nur ein Beispiel von vielen.
KI-Sprachmodelle nutzen Lügen
Die Forscher des geschätzten MIT haben weitere Fallbeispiele genannt und dabei kamen auch die KI-Sprachmodelle von den Unternehmen OpenAI und Google nicht gut weg. Sprachmodelle wie zum Beispiel GPT-4 von dem Unternehmen OpenAI sind imstande, bei ihren Argumentationen Lügen einzubauen und Täuschungen zu verwenden. Experten sehen dies mit Besorgnis an, denn viele Menschen nutzen die KI beispielsweise, um sich vor Wahlen politisch zu informieren. Lügen und Täuschungen will man in dieser Hinsicht also vermeiden. Es ist auch nicht genau klar, warum die KI dies tut. So wird vermutet, die KI nutze die Täuschungen, um zu vermeiden, keine Antwort geben zu können. Die Forscher fordern nun von der Politik strengere Regeln für KI, um Falschinformationen und boshafte Täuschungsversuche seitens der künstlichen Intelligenz zu verhindern.