Moin Rock-Gemeinde!
Ihr kennt mich: Doc Fetzer - Ich liebe meine Gitarren, ich liebe Rock, aber ich bin auch ein bisschen Nerd, wenn es um Technik geht. Ich habe hier im Blog ja schon öfter mal durchblicken lassen, dass ich kein „Früher war alles besser“-Romantiker bin, sondern ziemlich positiv gegenüber den Möglichkeiten von KI (Künstlicher Intelligenz) eingestellt bin.
Warum ich das erzähle? Weil mein neuer Song „Orangenhaut und heiße Luft“ gerade frisch aus dem Mastering-Ofen kommt – und ich dachte mir, ich nehme euch mal mit hinter die Kulissen. Wie viel „Doc“ und wie viel „Bot“ stecken eigentlich in so einer Nummer?
Spoiler: Es ist eine ziemlich wilde Mischung.
Schritt 1: Das Fundament (Noch ohne Gehirn-Implantat)
Alles startet ganz klassisch in meiner DAW, Cubase. Bevor die Roboter übernehmen, muss erstmal ein Song da sein. Beim Schlagzeug und der Percussion bin ich (noch) Oldschool unterwegs. Ich nutze einen Drum-Sequenzer. Das heißt: Jeder Kick, jedes Becken, jeder Snare-Hit ist von mir am Computer gesetzt. Ist das schon KI? Nö. Das ist Fleißarbeit und ein gutes Taktgefühl.
Dann greife ich zur Axt. Gitarren und Bass spiele ich ganz normal ein – naja, „normal“ heißt bei mir: Keine schweren Amps schleppen, keine Mikrofone positionieren. Ich gehe direkt via Line6 Helix in die Software. Das schont den Rücken und die Nachbarn. Keyboards, Pianos, Streicher und Bläser kommen über mein MIDI-Keyboard. Ich drücke die Tasten, der Computer macht den Sound via Synthesizer. Bis hierhin also: Business as usual.
Schritt 2: Jetzt wird’s futuristisch (Die KI übernimmt)
Jetzt kommen wir zum spannenden Teil. Ich habe eine Demo-Version des Songs und fange an, mit KI zu „spielen“.
-
Voice AI & Gendering: Wenn ihr im Song plötzlich eine Frauenstimme, ein Kind oder einen Chor hört, der verdächtig anders klingt als der Doc – dann ist das Voice AI. Ich singe die Spur ein, und die KI rechnet meine Stimme um (Gendering). Das ist Spielerei auf höchstem Niveau und erweitert meine klangliche Palette enorm.
-
Die „Veredelung“: Ich nehme meine eingespielten Spuren und lade sie in eine spezielle AI DAW. Das Ding ist wie ein hyper-intelligenter Assistent, der das Material analysiert und klanglich anpasst. Danach hole ich mir die „veredelten“ Tracks zurück in mein Cubase-Projekt. Der Clou: Die Instrumente und Backing Vocals klingen jetzt oft schon so amtlich, dass ich fast nichts mehr schrauben muss.
Schritt 3: Die „Doc-Wand“ (Vocals fett machen)
Jetzt fehlt nur noch der Chef am Mikrofon. Und hier habe ich mein ganz spezielles Rezept, bei dem viele Tontechniker wahrscheinlich die Hände über dem Kopf zusammenschlagen, aber mir egal – es klingt fett!
Ich nehme den Hauptgesang acht Mal auf. Ja, richtig gehört.
-
6 Spuren werden hart links und rechts im Panorama verteilt.
-
2 Spuren bleiben in der Mitte.
-
Der Trick: Eine der mittleren Spuren verstimme ich um 12 Halbtöne nach unten (eine volle Oktave). Das gibt diesen tiefen, fast bedrohlichen Unterbau.
Wenn man die Lautstärken dann richtig balanciert, entsteht dieser typische, breite Doc-Fetzer-Gesangssound. Das Mastering am Ende überlasse ich dann wieder den Algorithmen von Izotope. Warum selber stundenlang Regler schubsen, wenn die Software genau weiß, wo die Frequenzen sitzen müssen?
Schritt 4: Das Auge hört mit (Video-Wahnsinn mit Nano Banana)
„Orangenhaut und heiße Luft“ braucht natürlich auch Bilder. Auch hier habe ich mich voll in den KI-Kaninchenbau gewagt.
Die Basis-Bilder (Startframes) habe ich mir mit Nano Banana generieren lassen. Aber ein Bild ist ja noch kein Video. Dafür nutze ich auf meinem PC die Plattform Pinokio und darin das Tool Frame Pack. Das rechnet mir aus den Bildern unzählige kleine, 5-sekündige Videoclips.
Der Rest ist dann wieder klassisches Handwerk in Premiere Pro. Ich sortiere die Clips nach meinem Storyboard, schneide, blende und schiebe alles so lange hin und her, bis es rhythmisch zum Song passt. Es ist wie ein riesiges Puzzle, bei dem die KI die Teile malt und ich sie zusammensetze.
Fazit
Ist das noch Rock’n’Roll? Ich sage: Verdammt ja! Die Technik nimmt mir die Fleißarbeit ab und gibt mir neue Farben für meine Sound-Leinwand. Aber die Idee, das Riff und die Emotion – die kommen immer noch von mir.
Ich überlege übrigens gerade noch, ob ich eine zweite Video-Variante mit eingeblendetem Text mache, damit ihr auch mitsingen könnt. Lasst euch überraschen!
Hört mal rein und sagt mir, was ihr denkt: Hört man den Roboter raus oder groovt es einfach nur?
Rock on, Euer Doc Fetzer
Kommentar hinzufügen
Kommentare