Efekte, Sound Design
Schreibe einen Kommentar

Time Stretching und Pitch shifting als aussergewöhnliche Audio Effekte

time-stretch

Soll die Tonhöhe eines Signals unabhängig von seiner Länge (Pitch-Shift) oderumgekehrt (Time-Stretch) verändert werden, so muss das Problem des fest physikalischen Zusammenhanges zwischen Tonhöhe und Geschwindigkeit von Klängen gelöst werden. Dieser Audio Effekt sollte uns durch das Abspielen einer Schallplatte mit unterschiedlichen Umdrehungsgeschwindigkeiten hinreichend bekannt sein.

[adsense_id=”4″]

Eine Sprecherstimme bspw. einer bestimmten Märchenfigur kann demnach durch eine drastische Verlangsamung des Abspieltempos stimmlich zu einem Monster mutieren. Dieser mechanische Zusammenhang kann mithilfe eines Audio Programms(Cubase, Nuendo, Logic, Pro Tools), unter Verwendung der dargestellten Algorithmen(Audio Effekt), geschickt umgangen werden.

Die verschiedenen Effekt Algorithmen erweisen sich, wie eingangs dargestellt,immer im Bezug zum Audio Ausgangsmaterial als unterschiedlich effizient.

Die Bearbeitung ist dabei umso schwieriger, je komplexer und transienter die Zusammensetzung des akustischen Materials ist.

Die gefensterte Fourier- Transformation als Phasenvocoder stellt hier eine Lösungsmöglichkeit dar. Dabei kann der Shift-Prozess gut an der Arbeitsweise eines Phasen- Vocoders veranschaulicht werden.[1]Demnach wird das Signal durch 512 oder bis zu 1024 Bandpasskanäle mit steilen Flanken erfasst. Bei konstanter Dauer können die einzelnen Partialfunktionen (Sinusfunktionen) um einen beliebigen Wert transponiert wiedergegeben werden. Hier kommt den Formanten eine besondere Beachtung zu. Beim Pitching-Prozess werden diese mittransponiert. Da die Formanten bei natürlicher Wiedergabe von verschiedenen Tonhöhen konstant bleiben, dürfen diese folglich bei der Bearbeitung nicht frequenziell verschoben werden.

Sie müssen quasi vom bearbeiteten Material entfernt bzw. durch die Formanten des ursprünglichen Materials ersetzt werden. Diese Aufgabe kommt wieder speziellen, untergeordneten Algorithmen zu, die letztendlich die mehr oder weniger stark ausgeprägten Amplitudenverteilungen der Formanten auf die richtige Position verschieben.

Beim Time-Stretching Effekt hingegen werden die definierten Partialfunktionen der einzelnen Bänder einfach um einen gewissen Zeitrahmen verlängert wiedergegeben. Dieser Ansatz erweist sich bei tonalen Signalen mit periodischem Verlauf als besonders geeignet. Transiente Sounds werden allerdings recht stark verfälscht, da hier weitestgehend keine periodische Fortsetzung vorliegt. Artefakte und hörbare „Verwaschungen“ des Klanges treten bei vergleichsweise kleinen Veränderungen schon recht deutlich hervor. [2]

Das Phasenvocoder Konzept auf Basis der Fouriertransformation wurde von James L. Flanagan und R.M. Golden im Jahr 1965 entwickelt .[3] Ursprünglich war diese Technik zur Signlalkomprimierung gedacht. Es ist besonders gut für polyphones Material prädestiniert.

 

Problematisch ist jedoch auch hier die nicht vermeidbare Unschärfe (vgl. Kapitel Fourier-Analyse). Eine ähnlich präzise Auflösung, vergleichsweise der unseres Ohres, lässt sich hiermit nicht erreichen. Das Auflösungsvermögen unseres Gehörs bleibt in diesem Zusammenhang immer die Bewertungsgrundlage der algorithmischen Qualität. Ab einem gewissen Grad der Veränderung treten auch bei überwiegend periodischen Signalen mehr oder weniger starke Artefakte auf, deren Ursache in der mangelnden Kohärenz durch die Sinus- Funktion begründet liegt.[4]

Eine andere Realisierungsstrategie zur Entkopplung der Tonhöhe von der zeitlichen Ausbreitung stellt die Time-Domain-Harmonic-Scaling (TDHS) dar. Diese Methode ist für einzelne bzw. monophone Signale prädestiniert, deren Grundfrequenz jedoch richtig erfasst sein muss. Hier wird durch eine Autokorrelation die Grundfrequenz erfasst, aus derer dann durch Modulation mit einer Funktion ein Wavelet abgeleitet wird.[5] Bei einem Pitch-Shifting bleiben bei dieser Methode insbesondere die natürlichen Formanten unverändert. Diese können zudem unabhängig vom Pitch eingestellt werden. Jedoch stoßen auch die Formantbarbeitungen wegen der besagten Abhängigkeit zur Grundfrequenz bei polyphonem Sound an ihre Grenzen.

[adsense_id=”4″]

Ein, bei beiden dargestellten Verfahren, großes Problem liefert die hohe Lokalisation der Basisfunktion. Ein neuerer erfolgversprechender Ansatz ist hier das MPEX Verfahren auf der MCFE Basis (Multiple Component Feature Extraction). Diese Methode beruht u. a. auf dem Wavelet Prinzip und wurde von Prosoniq entwickelt. Bei diesem Algorithmus steht weniger das mathematische Signalsverständnis, als die menschliche Wahrnehmung und neuronale Signalverarbeitung im Vordergrund.

Aufgrund der erweiterten und variationsreicheren Basisfunktionen ist dieses Verfahren demnach für komplexere Signalewesentlich besser geeignet.[6]

Weiterhin sind auch Resyntheseanwendungen durch Granularsynthese zur unabhängigen Bearbeitung von Zeit und Tonhöhe möglich. Das besondere ist hier die hohe Geschwindigkeit und damit die Echtzeitfähigkeit. Es muss keine Analyse erfolgen. Das Signal wird lediglich in Grains unterteilt und kann danach direkt manipuliert werden.

Algorithmische Tonhöhenänderungen lassen sich im Allgemeinen ohne eine hörbare Qualitätsminimierung im Rahmen von bis zu 5 Halbtönen anwenden, wo hingegen eine zeitliche Streckung von 130% ohne hörbare Artefakte in Abhängigkeit des komplexem Ausgangsmaterials erreicht werden kann.[7]

Vor allem die Cubase bzw. Nuendo Software von Steinberg erweist sich hier als ein sehr effizientes audio Effekt Tool, das wesentlich bessere Ergebnisse als bspw. Ableton Live liefert.

Wie bereits erwähnt, können die Bearbeitungsprobleme von polyphonem Material umgangen werden, wenn die Einzelsignale (z. B. die einzelnen Spuren eines Songs) vor der Mischung separat bearbeitet werden. Xavier Serra stellte fest, dass es schon zu erheblichen Artefakteverminderungen kommt, wenn komplexes Summenmaterial lediglich in zwei Gruppen getrennt wird. Die Erste sollte dabei klangliches und die Zweite transientenreiches sowie „rauschendes“ Material beinhalten.[8] Durch diese Differenzierung werden nun maßgeblich nur die tonalen Anteile gestaucht bzw. gestreckt. Perkussive Signale müssen nicht sonderlich stark verändert werden. Vor allem beim Time-Streching spielt hier die zeitliche Neuanordnung im Stauchungs- bzw. Dehnungsverhältnis eine wichtigere Rolle, als die Klänge an sich zu dehnen. So bleiben die Einschwingphasenerhalten und das Ergebnis ist daher wesentlich natürlicher. Liegen die einzelnen Spuren vor dem Mischen bspw. eines Songs zur separaten Manipulation vor, so sind Pitch-Shiftings von bis zu einer Oktave oder analogdazu Zeitvariationen bei unveränderter Tonhöhe von bis zu 200 % möglich, ohne das Artefakte hörbar hervortreten.[9]

Bis jetzt hängt das Ergebnis des Audio Effekts maßgeblich von der geschickten Anwendung und auch manuellen Trennung des Materials bei der Bearbeitung durch den Anwender ab.

Ob ein Algorithmus für die Summenbearbeitung komplexer Mischsignale realisierbar wird, der ähnlich gute Ergebnisse im Vergleich zur Einzelbearbeitung der Spuren liefert, bleibt abzuwarten.

TippLies zum Thema Cubase, Time Streching und Audio-Effekte mehr auf SonicSystem.de


[1]Carsten Gertzen, Udo Haupt: Timestretching und PitchshiftingScript der Technischen Universität Ilmenau, S.5

[2] Stephan M. Bernsee: Tutorials URL: http://www.dspdimension.com

[3]Carsten Gertzen, Udo Haupt: Timestretching und PitchshiftingScript der Technischen Universität Ilmenau, S.5

[5]Stephan M. Bernsee: Tutorials

[6]Stephan M. Bernsee: Tutorials

[7]Stephan M. Bernsee: Tutorials

[8]Carsten Gertzen, Udo Haupt: Timestretching und PitchshiftingScript der Technischen Universität Ilmenau, S.6

[9]Stephan M. Bernsee: Tutorials

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>