Musik stammt von Menschen. Klar. Oder doch nicht? Zumindest in Zukunft nicht. Denn der Konzern OpenAI hat eine Software entwickelt, die Musikstücke herstellen kann – und das auch noch in verschiedenen Stilen.
Gehen wir bald nicht mehr an Konzerte von bekannten (menschlichen) Musikern? Stehen wir stattdessen vor Konzertsälen, bei denen eine künstliche Intelligenz den Ton angibt?
Die künstliche Intelligenz Jukebox ist ein neuronales Netz, das instrumentale Musik und Gesang generiert. Dabei gibt der Mensch den Künstler / Musiker vor. der als Vorbild dient. Die künstliche Intelligenz (KI) erstellt dann nach dessen Musikrichtung einen entsprechenden Song. Eine Auswahl der Songs haben die Entwickler auf der Audioplattform Soundcloud bereits veröffentlicht.
Was ist OpenAI
OpenAI ist ein gemeinnütziges Forschungsunternehmen, das im Bereich der künstlichen Intelligenz forscht. Dabei soll es explizit um die Vorteile der KI für die Menschheit gehen und nicht um Gewinnmaximierung. Das Unternehmen hat übrigens auch sehr prominente Geldgeber. Dazu gehören der Tesla-Chef Elon Musk und ja, auch Microsoft unterstützt die Forscher.
künstliche Intelligenz wird trainiert
Doch, wie kann eine künstliche Intelligenz selber Musik komponieren und das auch noch nach dem Vorbild von bereits bestehender Musik? Nun, dazu haben die Entwickler das KI-System mithilfe von 1,2 Millionen Musikstücken inklusive den dazugehörigen Texten, die etwa zur Hälfte in Englisch verfasst waren, trainiert. Damit das Ganze funktionierte, mussten die Musikstücke dann aber auch noch getaggt sein (Metadaten), sodass Künstler, Album etc. im Stück hinterlegt wurden.
Keine kurze Sache
Wenn ein Künstlier ein Musikstrück schreibt, dauert das meist Tage, wenn nicht Wochen oder gar Monate. Bei der künstlichen Intelligenz dauert es auch. Man gibt nicht einfach ein paar Daten ein und schwupps hat man einen neuen Song, denn eine Minute künstliche Musik benötigt rund neun Stunden Rechenleistung.
Die Entwickler schreiben zur Software:
„Die Software ist bei der musikalischen Qualität, der Kohärenz, der Länge der Hörprobe und der Fähigkeit, sich an Künstler, Genre und Text zu orientieren, ein grosser Fortschritt“
Trotzdem sind die Unterschiede zwischen der KI und echter Musik noch deutlich hörbar. Was aber noch fehlt, sind grössere musikalische Strukturen wie beispielsweise sich wiederholende Refrains.
Beispiele von Musik
Damit Ihr Euch mal vorstellen könnt, wie das so klingt, hier zwei Beispiele von OpenAI:
Eure Meinung?
Was haltet Ihr davon? Hat die klassische Musik zukünftig überhaupt noch eine Chance?
Darüber habe ich gestern auch schon einen Bericht im Radio gehört, in dem sie erste Hörbeispiele gespielt haben. Beeindruckend und beängstigend zugleich. Beim Thema KI muss ich immer an einen meiner Lieblingsfilme denken, I robot. Genau so wird es eines Tages kommen. 😁