• Über Uns
  • Impressum
  • Datenschutzerklärung
  • Login
  • Registrieren
WindowsUnited
  • Windows 11
    • Windows 10
    • Anleitungen & Tipps
    • Windows Mobile
  • Surface
  • Gaming
  • Reviews
  • Exclusives
  • IT-Jobs
No Result
View All Result
WindowsUnited
  • Windows 11
    • Windows 10
    • Anleitungen & Tipps
    • Windows Mobile
  • Surface
  • Gaming
  • Reviews
  • Exclusives
  • IT-Jobs
No Result
View All Result
WindowsUnited
No Result
View All Result
Home Künstliche Intelligenz (KI)

Wird „Künstliche Intelligenz“ (KI) uns moralischer machen?

von Leonard Klint
28. Juni 2018 - Aktualisiert am 23. September 2018
in Künstliche Intelligenz (KI)
5
Künstliche Intelligenz und Moral
Teile auf FacebookTeile auf Twitter

Moral – In unserer Gesellschaft wird die Frage nach der Bildung unseres Wertesystems meist von Philosophen, Theologen oder Anthropologen behandelt. Einerseits geht es um die Klärung der Herkunft: Ist Moral etwas, dass in der Natur des Menschen liegt oder eine Eigenschaft die sozialisiert, also anerzogen, ist? Andererseits beleuchten Forscher die Entwicklung von Moral – sind „Richtig“ und „Falsch“ Konstanten oder sind diese Begriffe wandelbar?

Mit dem Fortschritt von Künstlicher Intelligenz und der immer größeren Verantwortung, die wir in die Hände von Maschinen legen, müssen wir „KI“ auch in das Thema Moral einbeziehen. Wie reagiert beispielsweise ein selbstfahrendes Fahrzeug, wenn es bei einem Ausweichmanöver unweigerlich mit einer Person zusammenstoßen wird und zwischen mehreren Menschen entscheiden muss? Diese klassische Frage ist der Aufhänger des Will Smith Films „iRobot“ (ein Roboter entscheidet sich nach einem Unfall für Smith und lässt ein Kind ertrinken), der trotz des penetranten product placements, die Brisanz der Thematik verdeutlicht.

Kann KI überlegene Moral entwickeln?

Wie so oft überwiegen Negativszenarien bei der Diskussion um den KI-Fortschritt. Künstliche Intelligenz kann uns aber auch bei der Moralentwicklung und bei der Umsetzung unseres moralischen Systems helfen.

Einer der großen Vorteile von Maschinen ist, dass sie Entscheidungen ohne emotionale Einfärbung treffen. Ein KI-Richter oder eine KI-Jury würde demnach ein auf Fakten basiertes Urteil fällen. Diese buchstäblich „unmenschliche“ Objektivität hätte mehrere Vorteile. Nicht nur, weil Faktoren wie Rassismus, Misogynie und ähnliche Weltansichten keinen Einfluss mehr hätten. Ein KI-Richter könnte durch überlegene Rechenkapazität und einer ungetrübten Erfassung der (Rechts-)Lage, Entscheidungen treffen, die gerechter sind.

Urteile sind zu einem gewissen Teil immer auch Ermessenssache. Kein Mensch kann die Bedürfnisse aller Beteiligten eines Prozesses fair einbeziehen. Einer KI wäre dies theoretisch möglich. Diese Fairness könnte in der Folge einen positiven Einfluss auf die Entwicklung unseres Moralsystems haben.

Es gibt einen Haken…

In der Theorie kann KI also durchaus einen Beitrag hin zu einer moralischeren Gesellschaft leisten. KI ist aber auch auf den Input von Daten angewiesen. Da diese unweigerlich von Menschenhand kommen müssen, sind sie entsprechend fehlerhaft.

Die Moralentwicklung von KI muss also permanent überwacht und bei Bedarf korrigiert werden. Folglich werden wir uns nicht darauf verlassen können, dass KI all unsere Probleme löst. Künstliche Intelligenz kann aber eine unschätzbare Unterstützung sein, damit wir Probleme lösen können.

Was meint ihr zu dem Thema Künstliche Intelligenz und Moral? Wird uns KI auch in diesem Bereich weiterbringen? 

Tags: AIEntwicklungEthikKIkünstliche IntelligenzRoboter
Share2TweetSendShare

Verwandte Artikel

Firefox Relay
Apps

Firefox für macOS: Schneller und kompakter dank optimierter Installation

25. Januar 2025
Wir stehen vor einem Zeitalter der Intelligenz – das erklärt der OpenAI-Chef
Featured

Wir stehen vor einem Zeitalter der Intelligenz – das erklärt der OpenAI-Chef

26. September 2024
Microsoft und BlackRock richten Milliarden-Fonds für die Investition in KI ein
Künstliche Intelligenz (KI)

Microsoft und BlackRock richten Milliarden-Fonds für die Investition in KI ein

25. September 2024
Diskussion abonnieren
Anmelden/Registrieren
Benachrichtige mich zu:
Logge dich ein zum Kommentieren
5 Comments
älteste
neuste beste Bewertung
Inline Feedbacks
View all comments
Shyntaru
6 Jahre her

Der moralische Aspekt eines in sich künstlich generierten Systems, ist so und vor allem in seiner Fülle aktuell schlicht nicht zu beantworten. Unsere Gesellschaft ist nicht auf eine synthetische Ausrichtung bzw durch Maschinen errechnetes Bewusstsein ausgelegt. Wir haben schlicht diesbezüglich noch keine Empathie erlernt. Dass derlei Dinge sehr schnell gehen sehen wir uns an den sozialen Netzwerken. Moralische Handlungen gehen Off und online sehr weit auseinander und verwässern eine Generation später sehr anschaulich. Heißt, da die Technik noch nicht so weit ist, um eine Handlung bzw das lernen zu erzwingen, müssen wir hier fragen und antworten noch immer der Fiktion… Weiterlesen »

2
BB8
6 Jahre her

Da verlangt der Mensch von der Maschine etwas was er selber nicht kann. Moralisches Handeln mit allen Abwägungen kann der fehlerhafte Mensch ja selber nicht und kritisiert die Maschinen die evtl. ein Kind nicht als primäres Ausweichziel sehen würde. Zum Beispiel bei einer Unfallsituation bei der das Auto entscheiden müsste welches Menschenleben das kleinere moralische Übel wäre. Ist es die Anzahl der Menschen, das Alter, der Status. Wonach wird entschieden. Das ist eine schwierige Frage. Ein Mensch wäre in einer solchen Situation völlig überfordert und würde im Affekt handeln. Also eigentlich gar nicht moralisch. Warum stellt man diese Anforderung aber… Weiterlesen »

1
Eissphinx
6 Jahre her

KI ist ein technologisches Hilfsmittel/Werkzeug…keine moralische Instanz.
Zumal moralische Werte auch vom Kulturkreis abhängig sind.
Also:
Nein…KI wird keinen Menschen irgendwie moralischer machen.

0
linksgrün
Antwort auf  Eissphinx
6 Jahre her

eh net

0
ExMicrosoftie
6 Jahre her

Damit eine KI ordentlich funktionieren kann, braucht sie Daten, Daten, Daten und nochmals Daten. Und im Zweifelsfall noch solche Daten wie: Fege ich regelmäßig den Bürgersteig? Bin ich pünktlich genug? Kümmere ich mich gut oder sehr gut um meine Eltern, Kinder, Nachbarn, Haustiere? Wie sieht mein Vorgarten aus? (Und nebenbei: Wer entscheidet, was „gepflegt“ bedeutet?) Das testet gerade China aus. Das Credo dort geht aber letztlich in eine andere Richtung: maximale Kontrolle über die Bürger, Wohlverhalten wird belohnt, individuelle oder abweichende Tendenzen werden bestraft. Die eigentliche Frage lautet dann eben: Wie solll eine KI entscheiden, wenn sie keine Daten oder… Weiterlesen »

1

Anzeige


Amazon Deals

Amazon-Deals

Die WindowsUnited App

WindowsUnited App

WindowsUnited App - Jetzt als PWA für alle Plattformen

Einfach im Browser oder "zum Startbildschirm hinzufügen" und wie eine App nutzen.
WindowsUnited

© 2020 1United GmbH

Mehr

  • Impressum
  • Datenschutzerklärung
  • Facebook-Gruppe: Der WindowsUnited Newsroom
  • Jobs
  • Sende uns einen Tipp
  • Über Uns

Folge Uns   Blogverzeichnis - Bloggerei.de

Welcome Back!

Login to your account below

Forgotten Password? Jetzt registrieren

Erstelle ein Nutzerkonto!

Fülle das Formular aus, um dich zu registrieren

Alle Felder müssen ausgefüllt sein. Log In

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Home
  • Windows
    • Windows 10
    • Anleitungen
    • Windows Mobile
  • Nokia
  • Surface
  • Reviews
  • Meinung
  • IT-Stellenmarkt
  • Impressum
  • Datenschutzerklärung
  • Anmeldung / Registrierung

© 2020 1United GmbH