Eulenforst: Orphi generiert Goth Musik mit KI – Top oder Flop?

Vor ein paar Wochen berichteten wir darüber, dass Robert Smith – neben vielen anderen Künstlerinnen und Künstlern – einen offenen Brief gegen den Einsatz von „KI“ in der Musikbranche mitzeichnete. In einem neuen Video auf unserem Youtube-Kanal Eulenforst greift Orphi die Frage nochmal auf und hat auch einige Beispiele „KI“-generierte Musik erzeugt, die bereits jetzt die erstaunlichen Fähigkeiten dieser Programme demonstrieren.

Rasante Entwicklungen unterstreichen Gefahren und Möglichkeiten

Wir müssen das Thema nochmal aufgreifen. Im oben erwähnten Artikel berichtete ich über einen offenen Brief vielen Künstlerinnen und Künstlern gegen den Einsatz von „KI“. Ich stellte die Frage, ob diese Art von Musik eine tatsächliche Gefahr für die Branche ist und letztendlich uns – die Hörer – vor nicht kaum noch zu unterscheidende Ergebnisse stellt.

Auch ich war der Ansicht, dass „echte Kreativität hier nicht zu erwarten sei„, doch meinen Ehegrufti hat dieses Thema nicht losgelassen und sie hat sich ausgiebig mit verschiedenen Programmen und Plattformen auseinandergesetzt. Orphi will keine Musikerin werden, sondern nur die Möglichkeiten ausloten und hat dazu einige Beispiele erstellt und hat auch mich im späteren Verlauf des Videos vor interessante Fragen gestellt:

Tatsächlich höre ich mich ein bisschen so an, wir ein Boomer, der alles verteufelt, was aus der Konserve kommt, dabei ist seit den frühen 80ern Musik, die von Computern und Synthesizern generiert wird, längst im Mainstream angekommen und passt auch in meine Hörgewohnheiten. Die Synthesizer befähigten damals tausende junge Menschen plötzlich, noch nie dagewesene Musik zu machen – Computer und Musiksoftware sorgten einige Jahre später für die nächste Revolution. Steht uns einfach die nächste Generation der Möglichkeiten ins Haus?

Auch das Thema „Künstler auf der Bühne“ hat Orphi ausgedribbelt, indem sie mich mit erfolgreichen DJs konfrontierte, die zwar Musik machen, aber nicht mehr selbst vor dem Mikrofon stehen und allerhöchsten im Hintergrund „Platten“ auflegen.

Die Möglichkeiten werden rasant besser, soviel steht fest. Einige Zuschauer in Orphis YouTube-Kanal, den man am besten abonnieren und liken sollte, haben selbst angefangen, mit solchen Programme zu experimentieren.

In einigen Monaten (?) könnte es sein, dass der Otto-Normal-Hörer keinen Unterschied mehr feststellt und zu „KI“-generierter Goth-Musik über die Tanzfläche schlurft. Ist eine Kennzeichnungspflicht für KI die letzte Rettung „echter“ Musik? Ich wäre ja vom Gefühl her immer noch sauer, wenn ich plötzlich KI-Musik gut finden würde, ich weiß nur nicht genau, warum.

Ähnliche Artikel

Kommentare

Kommentare abonnieren?
Benachrichtigung
guest
18 Kommentare
älteste
neuste beste Bewertung
Inline Feedbacks
Alle Kommentare anzeigen
Graphiel
Graphiel(@michael)
Vor 6 Monate

Ich bin da ein wenig hin und hergerissen und kann durchaus beide Standpunkte verstehen. 

Einerseits finde ich dass es wenig Sinn macht vor dem Fortschritt (auch in Hinsicht auf KIs) davon zu laufen. Das hat schon damals nicht funktioniert, als irgendwelche punkigen Garagenbands oft mehr oder weniger planlos auf ihren Instrumenten herumspielten und jedem klassischen Musiklehrer das kalte Grauen über den Rücken lief und das funktioniert auch heute nicht. Bislang klingen viele KI erzeugte Songs noch arg platt, aber das wird sich vermutlich auch bald ändern. Ich fürchte früher oder später wird auch der Profi wirklich nicht mehr zwischen einem handgefertigtem und einem KI erzeugten Song unterscheiden können.

Andererseits stimme ich dir da schon zu, wenn du KI Musik auch als seelenlos beschreibst. Auch wenn man irgendwann am späteren Produkt rein vom hören her vielleicht keine all zu großen Unterschiede mehr wahrnehmen wird, so würde ich mich dennoch auch betrogen fühlen wenn mir ein Song im Nachhinein als komplett künstlich erstellt präsentiert wird. Nicht weil ich etwa mich vielleicht über meine Reaktionen auf den Song selbst ärgere, sondern da ich mit meinem guten Gefühl beim hören, der Bewegung auf der Tanzfläche oder einem möglichen Kaufes eines Tonträgers auch der Arbeit, dem Schaffensprozess und den kreativ-schöpferischen Gedanken und Gefühlen des Künstlers danken und gedenken möchte.

Mir fällt es gerade ein wenig schwer das richtig in Worte zu fassen, daher hoffe ich einfach man versteht mich da richtig. Ich finde einfach es macht schon einen enormen, wenn auch nicht unbedingt sogleich wahrnehmbaren Mehrwert aus, wenn sich Künstler stunden- oder gar tagelang an einen Song setzen, daran feilen, ihn nochmal umschreiben und dabei ihr Herzblut einfließen lassen. Doch selbst bei auf den ersten Blick eher flach wirkenden Klassikern wie beispielsweise Kaltes Klares Wasser von Malaria!, oder Bela Lugosi´s dead von Bauhaus macht es für eben mich noch einen großen Unterschied, ob da jemand aufgrund jugendlicher Energie, gesellschaftlichem/historischen Kontext usw. so einen Song erstellt hat, oder ob dieser einfach nur so zwischen Kaffee und Kuchen bei Tante Irmgard und dem täglichen Yogaprogramm per KI zusammengeklöppelt wurden. Besonders, da es ja scheinbar schon reicht einfach nur ein paar Stichpunkte in die Leiste zu werfen und den Rest die KI machen zu lassen. Der Vergleich mit dem Töpferkurs, den du da in Orphis Video gezogen hast war daher durchaus passend, wie ich finde.

Von daher würde (im Falle, dass sich KI Musik durchsetzt) die Musik echter Bands für mich enorm an Liebhaberwert gewinnen. Nur fürchte ich, dass diese in unserer Wirtschaftswelt zumindest fürs erste dann noch weit mehr unter die Räder geraten wie ohnehin schon. Eine Kennzeichnungspflicht für KI Songs fände ich daher durchaus sinnvoll.

Letzte Bearbeitung Vor 6 Monate von Graphiel
graveyardqueen
graveyardqueen(@graveyardqueen)
Vor 6 Monate

Hatte ich anfänglich, als wir vor einigen Wochen das Thema hier schon einmal besprochen hatten, noch Bedenken, dass irgendwann keine echten Künstler mehr gebraucht werden, sehe ich das Thema, nach Orphis Musikstücken, vorerst entspannter. KI-generierte Musik kommt für mein Empfinden noch nicht an richtige heran. Für mich klingt das alles ziemlich lieblos…ohne Emotion und Gefühle – ich würde sagen blechern. Teilweise Worte einfach nur einander gereiht. Mag sein, dass der Sound als solcher vll. Goth entspricht, aber für mich entsteht zwischen Stimme und Musik keine richtige Harmonie. Für mich persönlich ist ja sowieso das Zusammenspiel Stimme und Musik enorm wichtig, damit mir ein Stück wirklich gefällt.

Graphiel
Graphiel(@michael)
Antwort an  graveyardqueen
Vor 6 Monate

Für mich klingt das alles ziemlich lieblos…ohne Emotion und Gefühle – ich würde sagen blechern. Teilweise Worte einfach nur einander gereiht.

Dem stimme ich überwiegend durchaus zu. Ich habe vorhin selbst mal ein wenig mit der kostenlosen Variante herumgespielt. Was mir da anhand meiner eingeworfenen Stichpunkte entgegen geschleudert wurde klang zunächst teils gar nicht mal so blechern.

Was mir aber auch wieder sehr deutlich auffiel war, dass die KI eben keine Intelligenz im eigentlichen Sinne ist, sondern lediglich versucht die gewünschten Stile nachzuahmen. Man könnte sagen, je besser bekannt ist welche Teile in der Musik genau welche Stimmungen tragen, desto einfacher hat es eine KI, diese nachzuahmen. Das funktionierte den wenigen Spielereien nach, die ich vorhin machte relativ gut wenn der Kontext stimmt. Beispielsweise indem du dir Stichworte wie Trauer, Verlust, Angst oder ähnliches mit Goth(ic) Rock kombinieren lässt.

Erheblich interessanter wird es dagegen, wenn du bewusst versuchst absurde Stilbrüche zu erzeugen. Ich habe mir beispielsweise eine Hörprobe erstellen lassen, bei der es auf der Basis eines 90er Gothic Rock Songs um die (fiktive) Angst gehen sollte, seine Socken in der Dunkelheit der Waschmaschine nicht wiederfinden zu können. Hier wurde nun ganz offensichtlich, dass die KI keinerlei Ironie versteht und daher auch nicht bemerken konnte, dass ich sie lediglich veralbern wollte. Stattdessen wurde mir ein „Song“ mit dem selben Basisrezept erstellt wie bei einer halbwegs ernsthaften Eingabe. Will heißen: Ein völlig absurder Inhalt wurde genauso innerhalb der gesponnenen Lyrics mystifiziert und anschließend auf ein Grundgerüst eines Post-Punk/Gothic Rock Songs gesetzt wie vorher auch. Da reagiert es halt ähnlich wie Chatgpt: Es nimmt dich komplett beim Wort, da zum Erkennen von Ironie und/oder Sarkasmus eben noch ganz andere Komponenten nötig sind, als einige Blaupausen über die Grundlagen einer bestimmten Musikrichtung.

Aber: Auch Chatgpt macht rasant Fortschritte und erkennt Ironie zunehmend besser. Nur weil weil eine Musik-KI JETZT noch nicht feinste Nuancen in der einzelnen Stimmung zu unterscheiden und dementsprechend umzusetzen vermag und somit auch nicht zwischen einer halbwegs ernsthaften und einer dahergeblödelten Anfrage unterscheidet, heißt das nicht das dies nicht in (naher) Zukunft möglich ist.  

graveyardqueen
graveyardqueen(@graveyardqueen)
Antwort an  Graphiel
Vor 6 Monate

Das will ich auch nicht komplett ausschließen, dass diese KI Musik in naher oder ferner Zukunft irgendwann noch besser wird, aktuell kann sie aber richtiger Musik noch nicht das Wasser reichen und wer richtig hin hört, wird das auch merken.

Und die Spreu wird sich spätestens dann vom Weizen trennen, wenn es um Konzerte geht. Denn ich denke auch, die werden dann an Bedeutung gewinnen. Wer Wert auf qualitativ gute Musik legt, wird bestimmt keine 30 Euro und mehr, für einen Computer auf der Bühne, zahlen, wenn man für das gleiche Geld auch eine echte Performance bekommen kann. Und dass Performance einem Konzert soviel gibt, hab ich erst zum WGT erlebt, wo so viele Künstler, auf der Bühne, aus sich raus gekommen sind und förmlich auch auf das Publikum abgefärbt haben. Das ist etwas, das schafft kein Computer und keine Leinwand oder wie auch immer dann KI-Konzerte aussehen könnten.

Graphiel
Graphiel(@michael)
Antwort an  graveyardqueen
Vor 6 Monate

Und die Spreu wird sich spätestens dann vom Weizen trennen, wenn es um Konzerte geht. Denn ich denke auch, die werden dann an Bedeutung gewinnen. Wer Wert auf qualitativ gute Musik legt, wird bestimmt keine 30 Euro und mehr, für einen Computer auf der Bühne, zahlen, wenn man für das gleiche Geld auch eine echte Performance bekommen kann.

Abwarten… der olle Misanthrop in mir wedelt gerade mit dem Zeigefinger und schreit munter „Abba! Abba!…. Abbatare ey!“. Ich fürchte es gibt durchaus eine Bandbreite an Menschen, die tatsächlich keinen Deut darauf geben würden, wenn sie nun einen Song komplett vom Computer anstatt von echten Künstlern performt bekommen. Wenn erst einmal die Scheu gefallen ist entweder Song, oder aber Performance durch den Computer erzeugen und sich vorsetzen zu lassen, dann ist eine Bereitschaft beides zu mischen auch nicht mehr all zu unrealistisch. Leider.

Spannend bleibt für mich die Frage, ob sich bei uns in der Szene genügend Menschen für sowas begeistern könnten. Ich hoffe sehr, dass dem nicht der Fall ist, fürchte aber etwas anderes. Die Vorstellung nochmal Ross Williams oder Ian Curtis in Form einer Simulation auf der Bühne zu erleben empfinde ich persönlich zwar als gruselig, aber der kleine Misanthrop in mir würde bereits jetzt Wetten annehmen, dass sich selbst unter den „schwarzen“ Exemplare fänden, die sowas auch abfeiern täten.

graveyardqueen
graveyardqueen(@graveyardqueen)
Antwort an  Graphiel
Vor 6 Monate

„Spannend bleibt für mich die Frage, ob sich bei uns in der Szene genügend Menschen für sowas begeistern könnten. Ich hoffe sehr, dass dem nicht der Fall ist, fürchte aber etwas anderes.“

Ehrlich gesagt bin ich bei diesem Gedanken ganz bei dir. Schau dir die Entwicklung der Szene doch an, soviel was damals nicht denkbar war (Influencer auf YouTube und co., Hip-Hop Elemente in der Musik, ect.) wird heute vom Großteil als selbstverständlich angesehen. Die Szene ist in der Zukunft und dem Fortschritt angekommen…ist offener und moderner geworden. 🤷🏼‍♀️😐

Legion
Legion (@guest_65203)
Vor 6 Monate

Aus geklauten Daten generierte, standardisierte, Automatenmusik ist keine Option.
Keine Tiefe, Keine Entwicklung, nur stupide und noch dazu automatisierte neuverarbeitung der immer wieder selben Informationen. Als würde die Musikkultur nicht schon genug stagnieren.
Und die Tatsache, dass die für das Training der Ki’s benötigten Inhalte, wie auch bei Ki Grafiken aboslut unethisch einverleibt und in keiner Form abgegolten werden, macht das Thema überhaupt zu einem nogo.
Reicht schon, dass man sich bei nem ‚von der Szene für die Szene‘ Festival jetzt auch schon von Ki generierten Fratzen von den Wänden angaffen lassen muss.
Ein Veranstalter, der solche Musik Bedient ist in jeder Form abzulehnen.
Man muss schon extrem oberflächlich mit einer reinen ‚hauptsache Bespaßung’s Haltung an das Thema Kunst herangehen, wenn man tatsächlich meint, das wäre ein in irgend einer Form Vertretbares Equivalent.
Das Problem ist nur, dass (wie eh immer) ein Großteil der Leute von dem angerichteten Schaden nicht persönlich genug betroffen ist und somit gar nicht erst gewillt ist sich mit der Materie ausreichend auseinander zu setzen um sie Tatsächlich zu begreifen.
Sonst würde man solche Fragen gar nicht erst stellen.
Sorry aber ist echt ein reudiges Kotzreizthema und in keiner Form ethisch vertretbar.
Kann man gar nicht oft und genug zum Ausdruck Bringen ehe uns diese neue Iteration kapitalistischer Inovationskraft überrollt, zur Freude der Konzerne und zum Schaden jeglicher Kultur.

Fantôme Noir
Fantôme Noir (@guest_65204)
Vor 6 Monate

Danke an Robert und Orphi für dieses sehr interessante Video.

Stichwort „Mensch auf der Bühne“: Ich denke, gerade bei Konzerten ist es sehr wichtig, daß der oder die Typen auf der Bühne das Publikum irgendwie mitnehmen und … naja, eine „Show bieten“. Das hatten wir beim WGT kürzlich hautnah, und das wird mit KI nicht ohne ganz erheblichen Mehraufwand klappen.

Generell schätze ich aber, daß zumindest mäßige Künstler über kurz oder lang von der KI überflügelt werden. Ob das dann dazu führt, daß es auch weniger wirklich gute Künstler gibt (die ja auch irgendwann mal als schlechte Künstler angefangen haben), wird sich herausstellen…

Black Alice
Black Alice (@guest_65208)
Vor 6 Monate

Wenn man sieht, dass alle paar Monate die KI erhebliche Fortschritte macht, dann kann ich mir gut vorstellen, dass man in ein paar Jahren keinen Unterschied mehr zwischen KI und Mensch merkt. Menschen sind doch einfacher gestrickt als man meint. Erfolgreiche Songs im Mainstream folgen den immer gleichen Grundrezepten. Das kann eine KI auch. Selbst im Goth sind viele Bands austauschbar, weil sie nach dem gleichen Strickmuster vorgehen.

Was ich mir noch vorstellen kann ist, dass völlig ideenlose und untalentierte Musiker ihre Musik von der KI schreiben lassen. Wer weiß schon wie der Song entstand, wenn einer auf der Bühne steht? Ich kann mir auch vorstellen, dass wenn man eine Melodie im Kopf hat und man irgend wie nicht weiter kommt, diese der KI gibt und ihr sagt, mach mal paar Versionen davon. Und dann sucht man sich die bessere aus und vervollständigt seinen Song. Wenn man bei den Lyrics nicht so recht Ideen hat, lässt man die Ki machen. Und wird jemals einer erfahren, dass die KI dahinter stand? Welcher Künstler würde verraten, dass eine KI geholfen hat…

Ich glaube nicht, dass vorerst die KI den Künstler ersetzen wird, aber der Künstler wird sich von der KI helfen lassen, bzw viele Künstler werden die Arbeit die KI machen lassen.

Axel
Axel(@axel)
Antwort an  Black Alice
Vor 6 Monate

Was übrigens bereits passiert. In nahezu allen Musikergruppen wo ich am lurken bin wird sich ganz offen darüber ausgetauscht, wie man KIs dazu nutzen kann, Arbeitsprozesse schneller zu gestalten oder kreative Blockaden zu überwinden. Die Fälle die Du angesprochen hast: Man kommt vielleicht bei einer Melodie nicht weiter. Da gibt es mittlerweile auch Tools, da gibt man die Dinge rein die man schon hat und lässt sich von der KI unterschiedlichste Varianten ausgeben, die das vervollständigen könnten. Ob man was davon wirklich nutzt ist dann was anderes. Aber häufig kann sowas die Inspiration wecken und man kommt von selbst weiter.

Man muss an dieser Stelle nochmal sagen: KIs sind Werkzeuge und sollten als solche auch gesehen werden. Ich halte daher nichts von der Dämonisierung. Abseits von absoluten Gebrauchsmusikstücken wie Podcast-Opener wird KI nicht die Musik übernehmen. Aber: Musiker lernen die KI als Werkzeug oder auch Inspirationsquelle für sich zu nutzen. Das geht durch alle Genres – von Pop bis Klassik.

Interessanter wird KI in den nächsten Jahren an anderen Stellen. Ich denke da an klassische Bürojobs: Verwaltung, Rechnungswesen, Dokumentation, usw. Da wird es in den nächsten Jahren sehr, sehr, sehr viele Jobs geben die durch immer bessere und für direkt einzelne Bereiche passgenaue KI-Modelle überflüssig werden. Das kann aber auch positive Effekte haben, wie im medizinischen Bereich, wo die Dokumentation mittlerweile die Hälfte der Arbeitszeit ausmacht. Das wäre nur von Vorteil, wenn ein Großteil dessen dann die KI übernimmt.

Auch für Sprecher wird es sehr eng. Sprach-KIs sind heute schon extrem weit (siehe beispielsweise die neue Pumuckl-Serie). Da braucht es dann nur noch einen echten Sprecher und auf seine Worte lassen sich unterschiedlichste Stimmen legen. Was die Synchro-Branche bspw. extrem treffen wird.

Jeder Berufszweig wo irgendwo ein Computer eine Rolle spielt, wird in den nächsten Jahren zwangsläufig von der KI betroffen werden. Auch für Architekten gibt es mittlerweile richtig gute KI-Modelle. Oder denken wir mal an Programmierung, wo es in Zukunft keine Leute mehr braucht, die den Standardkram machen. Das überlässt man einfach ein KI-Modell, das auf Programmierung spezialisiert wurde.

Ich sag immer: Lasst Euch nicht von ChatGPT oder Midjourney oder sowas verwirren – das sind unterhaltsame Produkte für die Öffentlichkeit. Gleichzeitig gibt es jedoch bereits enorm mächtige, sehr spezialisierte Modelle für Industrie und Wirtschaft.

Was mir gerade noch einfällt: Seit einiger Zeit gibt es bei Apple Podcast Transkriptionen. Auch das ist KI – einmal eine KI die das Gesagte aufnimmt und dann noch eine Sprach-KI für den ausgegebenen Text. Und das ist echt beeindruckend wie genau und zu 99% fehlerfrei diese Transkription ausgegeben wird. Wer braucht in Zukunft also noch Protokollführer im Gericht, in den Parlamenten oder in anderen Sitzungen, die das per Hand mitschreiben?

Und so lässt sich das immer weiter durchdenken, wo KI eigentlich für Menschen unnütze Arbeit abnehmen wird. Nicht könnte, sondern wird. Weil dadurch natürlich Geld gespart wird.

Letzte Bearbeitung Vor 6 Monate von Axel
Phoenix
Phoenix(@phoenix75)
Vor 6 Monate

Da stimme ich schon mal weitgehend Legion zu. Ich ignoriere den KI-Käse so gut ich kann. Mir braucht auch keiner mit KI-generierter Musik um die Ecke kommen. Letztendlich ist das sowieso nur was für Leute, die keine Seele haben und somit auch seelenlose Musik zusammenklöppeln wollen. Sollen sie. Ich sehe da keine Möglichkeiten. Möglichkeiten wofür? Möglichkeiten für große Unternehmen, mit wenig Einsatz eine möglichst hohe Rendite zu erzeugen? Na herzlichen Glückwunsch.
Fortschritt in allen Ehren, aber es bringt auch verdammt viel Müll zum Vorschein.

Manu
Manu(@manu)
Vor 6 Monate

Weder Top noch Flop

Die Tools werden weiterhin entwickelt und in unserem Leben eine Rolle spielen. Orphie geht die Sache richtig an und übt sich im Prompt eingeben. Es wird sich in Zukunft herausstellen, dass wer am besten den Prompt eingibt, auch die besten Erfolge haben wird. Das beinhaltet auch, dass es immer einen geben wird, der das noch besser kann und dann im „nicht mehr vergleichbaren Bereich“ ankommt.

Die Frage ist auch, wie weit die Rechenleistung in Zukunft noch verbessert wird und ob wir für alle Ideen, die „KI“ im Gesamten mitsich bringt, genügend Energie zur Verfügung haben.

In meinen Augen kommt es beim Benutzen auch darauf an, wie die Tools (z.B. Udio) zu bedienen sind. Beim Bildgenerator Midjourney kann man z.B. einzelne Teile von bereits generierten Bildern ändern lassen, z.B. eine Ranke als Lichterkette umgenerieren. Wenn man das auf die Musik-Tools umlegt, dann kann man den Rhythmus vom Schlagzeug verändern oder den Bass mehr wummern lassen. Es wird vielleicht dann auch Hybridformen geben, dass Leute ihre Musik generieren lassen und selber singen. Früher musste eine Person mit der Wandergitarre sich begleiten lernen, heute muss er Prompt eingeben lernen.
Dies wird nur ein Zuatz zu allen bisherigen Formen der kreativen Arbeit werden. Wir gehen ja auch ins HeiDo und lassen diese Musik leben. Es geht nichts verloren, nur der große Kuchen wird anders verteilt. Das ist für die Künstler, wie wir sie lieben, sicher schade, aber für die kommenden wird es eine Normalität sein. Gucken wir erstmal was in den nächsten 2 Jahren passiert, 10 sind zu viel.

P.S.: Als Robert das Beispiel des Übersetzers brachte, fiel mir ein, dass einer der ersten Übersetzer, die ich in den 90ern probiert habe, das Wort -Portemonnaie- mit -Hafen des Geldes- übersetzte. Danke für die Erinnerung, wir haben damals köstlich gelacht.

Victor von Void
Victor von Void(@vivovo)
Vor 6 Monate

In einigen Monaten (?) könnte es sein, dass der Otto-Normal-Hörer keinen Unterschied mehr feststellt […] Ist eine Kennzeichnungspflicht für KI die letzte Rettung „echter“ Musik?

Was man nicht vergessen sollte: Jede „KI“ ist (bisher) nur ein statistisches Modell. Sie nimmt nur Eingangsdaten (das sogenannte Prompt) und schaut dann, was in der Menge der bereits existierenden Daten, die sie kennt (also in den Daten, mit denen sie trainiert wurde), statistisch dem am nächsten kommt und hangelt sich dann Schritt für Schritt vorwärts zum nächsten statistisch zu erwartenden Datenpunkt. Reine Mathematik auf existierenden Daten. Deshalb passiert es, dass schlecht oder auf zuwenig Daten trainierte KIs u.U. nahezu exakt die Ausgangsdaten reproduzieren.

Oder anders gesagt: KIs generieren nur teilweise neue Kombinationen aus bekannten Daten. KI kann keine wirklich neue Musik erzeugen, weil ihr die Fähigkeit fehlt, sich wirklich etwas komplett Neues auszudenken, das nicht bereits in irgendeiner Form existiert. Wenn man so will, fehlt ihr die Fähigkeit zu Geistesblitzen (ok, man könnte behaupten, dass eine Mehrheit der Bands heute auch dieses Stadium erreicht hat *hust*)

Meiner Meinung nach werden wir definitiv in Zukunft eine Menge generierte Musik zu hören bekommen, einiges davon wird uns sicher auch gut gefallen. Aber nichts davon wird wirklich neu sein, es wird keine echte Entwicklung geben.

Daher denke ich, dass die wirklich kreativen Musiker immer noch gefragt sein werden, allerdings wird ein Großteil der Retorten-Bands und der billigen Kopien zugunsten von KI-generierten Acts verschwinden.

Ich denke aber auch, dass man nicht auf Teufel-komm-raus ein ökonomisches Modell schützen sollte, dass schon heute die Künstler benachteiligt. Das wird nur den Trend weiter befeuern, dass letztlich das Geld in einige wenige Taschen fließt, und die meisten davon werden nicht die Taschen der Künstler sein.

Letzte Bearbeitung Vor 6 Monate von Victor von Void
Black Alice
Black Alice (@guest_65220)
Antwort an  Victor von Void
Vor 6 Monate

KI funktioniert heute nicht mehr rein statistisch. Das ist noch ein veraltetes Modell. Die Programmierer verstehen heute nicht mehr wirklich wie die KI zu Ergebnissen kommt, weil KIs ihre eigenen Wege finden, die nicht mehr nachvollziehbar sind. Da läuft weit mehr ab als reine Statistik. Menschen lernen ja auch und erst durch das Erlernte kann Mensch kreativ werden. Der Mensch ist einfacher gestrickt als man glaubt und ist mit recht wenig zufrieden zu stellen.

Allerdings bin ich weiterhin der Meinung, dass Menschen gerne andere Menschen auf der Bühne sehen wollen und nicht nur reine Computermusik konsumieren wollen. In vielen Situationen schon, aber wenn Mensch sich näher mit Musik beschäftigt, dann will er mal den Künstler sehen. Trotz KI wird es weiterhin musikschaffende Künstler geben. Es ist ja heute schon so, dass viele die man als Musiker bezeichnet nur Interpreten sind, die Musik schreibt also ein anderer und man bekommt es nur selten mit wer dahinter steckt, außer man forscht da genauer, aber wer macht das schon. Was ist also der Unterschied, ob ein Interpret einen Song eines anonymen Komponisten oder das einer KI darbietet?

Victor von Void
Victor von Void(@vivovo)
Antwort an  Black Alice
Vor 6 Monate

KI funktioniert heute nicht mehr rein statistisch…

Ok, das war eine verkürzte Darstellung.Tatsächlich liegt in der Regel einem Neuron des Modells eine Funktion der Umwandlung von Eingangswerten in Ausgangswerte in Kombination mit einer sogenannten Sigmoidfunktion (Aktivierungfunktion) zugrunde. Wie die Funktionen aussehen, hängt vom KI-Modell und der Neuronenschicht ab, in der sich das Neuron befindet. Man kann aber für kleine(!) Gruppen von Neuronen durchaus statistisch beschreiben, welche Werte aus den Eingangsdaten entstehen, selbst wenn die konkreten Funktionen nicht bekannt sind.

Die Programmierer verstehen heute nicht mehr wirklich wie die KI zu Ergebnissen kommt, weil KIs ihre eigenen Wege finden, die nicht mehr nachvollziehbar sind.

Die sind deshalb nicht nachvollziehbar, weil die Anzahl der Neuronen und der Verbindungen zwischen den Neuronen zu groß ist, um die einzelnen Schritte und Operationen bei der Generierung von Werten nach zu vollziehen. Das ist in etwa so, als wollte man den Weg jedes Photons in der Sonne einzeln nachvollziehen.

Die KI findet deswegen aber nicht eigene Wege im dem Sinne, dass sie wirklich kreativ ist. Vor allem hängt das von der Art und Weise ab, wie das Modell trainiert wurde. Die Sigmoidfunktionen werden durch das Training so angepasst, dass sie aufgrund der Eingangsdaten entweder einen Ausgangswert erzeugen oder auch nicht. Man kann KI-Modelle auch unter- oder übertrainieren, dann gibt es nur noch Müll, weil die Neuronen entweder völlig zufällig feuern oder nur noch so eingeschränkt, dass am Ende immer das mehr oder weniger gleiche Ergebnis raus kommt.

Das bedeutet trotzdem, dass die KI nicht einfach komplett neue Dinge erfinden kann, sondern nur Rekombinationen der bereits bekannten Daten, auch wenn die uns durchaus überraschen können.

Ich wäre auch vorsichtig, die KI-Modelle mit Menschen zu vergleichen, weil wir noch gar nicht verstanden haben, wie das Gehirn im Detail wirklich funktioniert. Die KIs basieren dabei auf sehr stark vereinfachten Modellen der bekannten Vorgänge im Gehirn.

Menschen lernen ja auch und erst durch das Erlernte kann Mensch kreativ werden.

Das sehe ich anders. IMHO ist Kreativität nicht an Erlerntes gebunden, nur die Art und Weise, wie diese Kreativität dann ausgedrückt wird, kann in Bahnen gelenkt sein, deren Wege erlernt sind (also z.B. dass udn wie bestimmte Instrumente genutzt werden, die vorher zu Bedienen gelernt wurde).

Der Unterschied ist meiner Meinung nach, dass KIs in einem sehr eingeschränkten Kontext (z.B. Musik oder Bilder oder Texte) arbeiten, aus dem sie auch nicht herauskommen. Menschen dagegen haben diese Einschränkung nicht, weil sie sich einem viel größeren Kontext („das Leben“) bewegen, der Musikkontext nur ein winziger Teil davon ist und sie auch z.B. durch ihre Erfahrungen außerhalb der Musik geprägt werden, was sie dann wiederum in den Musikkontext übertragen.

Generativen KIs fehlen diese Erfahrungen, ihre Trainingsdaten lassen das nicht zu, und sie verfügen nicht über die Möglichkeit an Daten außerhalb des Trainigskontextes zu kommen. Daher können sie im Gegensatz zu Menschen nichts einfließen lassen, das außerhalb ihres Funktions- und Trainigskontextes (also hier: Musik und Texte) liegt.

Das ist ganz nebenbei auch der Punkt, warum beispielsweise Bildgeneratoren Probleme mit der Anzahl von Fingern bei Menschen haben: sie wurden auf Bildern trainiert, bei denen i.d.R. nicht alle Finger sichtbar sind, und ihre Funktionsweise lässt es nicht zu, dass sie aus den Daten echte Schlüsse ziehen, wie.B. dass sie niemals mehr als maximal 5 Finger pro Hand gesehen haben, weil sie Finger und Hände nicht den anderen Teilen auf dem Bild zuordnen können, ohne auf gewissen statistische Wahrscheinlichkeiten zurück zu greifen.
Die meisten Menschen dagegen wissen aus anderen Kontexten, dass Finger zur Hand gehören, die wiederum zum Arm eines Menschen und dass Menschen in der Regel zwei Arme mit je einer Hand und genau 5 Fingern pro Hand haben. KIs sehen aber nur Bildpixel, deren benachbarte Bildpixel mit bestimmten Wahrscheinlichkeiten bestimmte Farbwerte haben.

Letzte Bearbeitung Vor 6 Monate von Victor von Void
Black Alice
Black Alice (@guest_65222)
Antwort an  Victor von Void
Vor 6 Monate

Das mit den Fingern haben KIs inzwischen gelernt. Die KI die Filme generiert hat diese Problem nicht mehr. Egal was man derzeit über KI sagt, in ein paar Monaten ist das veraltet und KI können Dinge, die man vorher nicht für möglich gehalten hat. Ich wäre also vorsichtig mit Aussagen wie unmöglich, nicht möglich, wird so nie eintreffen usw. KI ist gerade erst auf die Menschheit losgelassen worden. KI ist noch ein Kind das lernt und ist bei weitem noch nicht erwachsen. Aber mit jedem Jahr lernt es immer mehr und kann immer mehr. Es ist auch faszinierend was das Gedöns kann und wie schnell es sich entwickelt. Die Lernkurve der KI steigt immer mehr an.

Adrian Stahl
Adrian Stahl(@rosa_aristides_c)
Vor 6 Monate

Ich habs gestern geschafft, mir Orphis Video auch mal anzusehen und interessant war es auf jeden Fall – wie ich jetzt beim letzten Artikel, in dem es um KI ging schon gesagt habe, bin ich selbst jetzt eher bei den bildgebenden KIs näher in der Materie drin, aber gerade deswegen war der kleine Einblick in die Musik-Systeme recht interessant.

Auf gewisse Weise sogar irgendwie amüsant, die Stücke die Orphi da hat kreieren lassen, hatten was unfreiwillig humoriges (manche Texte taten ihr übriges) – insofern: daß da keine echte menschliche Kreativität dahinter ist merkt man, wenn man sich die Mühe macht genauer hinzuhören, als „Hintergrundgedudel“ dem man weniger Beachtung schenkt, würde es unter Umständen nicht so sehr ins Ohr fallen.
Ein bisschen wars auch lustig, wie stark man die jeweilige Vorbild-Band raushören konnte – nur halt daß es mehr nach Konserven-Parodie klang. Musste ein paarmal wirklich laut lachen …

Insofern bleibe ich im Wesentlichen bei meiner Einschätzung – die Technik ist interessant, aber ersetzt keine echte Kreativität, kann aber als „Spieltrieb-Förderer“ schon nützlich sein – kreativ sein heißt ja nicht daß man sowas künstlich vorgesetztes dann 1:1 übernimmt, sondern daß es einen Prozess im Kopf anstoßen kann, der dann zu einem ganz anderen Ergebnis führt. Kreatives Arbeiten funktioniert nicht von sich heraus und ohne Input von aussen, und den Spieltrieb – der für sowas eben ganz wichtig ist – den bedient so eine KI dann schon irgendwo – auch wenn sie nichtmal ansatzweise so intelligent ist, wie man es ihr immer gern andichtet.
Wurde aber ja auch schon alles erwähnt.

Ich finde es trotzdem wichtig sich mit solchen neuen Technologien zu beschäftigen, egal ob man die Ergebnisse jetzt scheiße findet oder nicht – dabei gehts ein stückweit um Medienkompetenz, und die Fähigkeit, eben bisschen unterscheiden zu lernen was nun echt ist und was nicht. Gerade in Zeiten von Deepfakes und gefälschten „Nachrichten“ ist das extrem wichtig, daß man sich da nicht unbedingt in die eigene Höhle verkriecht, sondern ein bisschen einen Überblick darüber hat, was möglich ist – und wie man das Ganze kritisch betrachtet, ohne sich von rein emotional vorgetragenen „Meinungen“ ins Bockshorn jagen zu lassen.
Das ist jetzt allgemein gemeint, nicht nur speziell auf das Thema der Musik-KIs.

Axel
Axel(@axel)
Vor 6 Monate

Falls es übrigens jemanden interessiert, ich habe vor einiger Zeit mal mit Suno versucht eine Power Ballade zu erstellen. Als Text habe ich „Weep Not Too Much“ der britischen Schriftstellerin Anne Bronte aus dem 19. Jahrhundert genommen: https://suno.com/song/f72cf90f-4e57-4488-b92f-89f89ee7f4ba

Was mich bei KI halt noch stört, sind die Frauenstimmen, sobald man eingibt, dass man etwas nicht im Pop-Bereich haben möchte. Das klingt dann immer etwas künstlich und schräg, so auch hier in diesem Versuch.

ABER: Hört mal auf die Instrumentals. Das könnte man zu 80% so übernehmen und niemand würde es merken, dass das von ner KI kommt. Zugegeben: Die KI hat nicht die ganzen 8:30 so fabriziert – im Endeffekt habe ich mich immer in Schritten von 30 bis 60 Sekunden durch den Song gearbeitet und echt viele Vorschläge nicht verwendet. Aber klingt schon nicht schlecht, oder? Gerade wenn man bedenkt, dass Musik-KI noch völlig im Anfang steht. Sobald es irgendwann möglich ist, einzelne Spuren und Instrumente zu bearbeiten, wird das richtig lustig. :D

Letzte Bearbeitung Vor 6 Monate von Axel

Magazin 2024

Spontis-Magazin 2024

Jetzt mithelfen, uns unterstützen und kostenloses Magazin sichern!

Diskussion

Entdecken

Friedhöfe

Umfangreiche Galerien historischer Ruhestätten aus aller Welt

Dunkeltanz

Schwarze Clubs und Gothic-Partys nach Postleitzahlen sortiert

Gothic Friday

Leser schrieben 2011 und 2016 in jedem Monat zu einem anderen Thema