Neueste Artikel

pd-abletonlive_workshop

Pure Data Tutorial – nahezu gleichwertige Alternative zu Max/MSP von Miller Puckette

Pure Data Tutorial

Alles rund um Pure Data, von der Anleitung für den Eisteiger bis hin zu speziellen Tutorials für fortgeschrittene (z.B. Pure Data in Verbindung mit dem Arduini Mikrokontroller Board).

Dieses Tutorial zeigt in schnellen, jedoch gehbaren Schritten einen Einstieg in das Programm Pure Data. Schwerpunkte liegen hierbei auf den Grundlagen zur datenstrombasierten Klangprogrammierung und dem Sound Design mit der Max/Msp-Alternative Pure Data.

Pure Data Download:

Zunächs muss die Software heruntergeladen werden. Die aktuellsten Releases getesteter und stabiler Versionen sind auf der Pure Data Projektseite

>> Unter PD Downloads zu finden. Hier der Link zur Pure Data Software. Ich empfehle stehts die Pure Data extendet Version, da hier bereits sämtliche Erweiterungen und externe Bibliotheken direkt implementiert sind. Pure Data gibt es Plattforübergreifend und ist somit sowohl für Windows, Apple und diverse Linux Distributionen verfügbar.

Nach der Pure Data Installation…

Nach dem Programmstart von Pure Data erscheint zunächst folgendes Fenster>>>>>>>>>>>

[adsense_id=”2″]

Dies ist die sog. Konsole. Hier werden alle Pure Data Vorgänge seriell angezeigt. Über das Menü >>>File >>>New muss zunächst ein Patch, also ein leeres Feld erzeugt werden, auf dem dan die datenstrombasierte Programmierung beginnen kann. Dieses Patch heißt bei der Software Pure Data “Canvas”.

Dies ist die Pure Data Console, die sich durch Click auf Console auch verkleinern lässt. Hier werden alle Prozesse des Pure Data Patches angezeigt…

 

wichtige höhere mathematische Funktionen bei der Arbeit mit Pure Data

“sin”

“Cos”

“tan”

“log”

“abs” –

“sqrt” – Quadratwurzel

Expr-Objekt [expr…]

Mit dem expr-Objekt lassen sich in Pure Data komplexere Rechnungen ausführen.

Wichtig: Wird mit Expr. gearbeitet, bei dem keine Zahlen als Inputs verwadt werden, so muss einer beteiligten Zahl innerhalb des expr.-Objektes ein ein Punkt eingefügt werden (bspw. 2.0), um Float-werte zu erhalten. Wird kein Punkt eingefügt, so werden ausschließlich Integer Werte ausgegeben.

Das Trigger-Objekt

Das Trigger Bang Bang Objekt gibt einen Bang als Input zunächst rechts, danach links aus!! Mit diesem Objakt lässt sich somit sicherstellen, dass bspw. bei einem [+ ] Objekt zuerst der Rechte (also Cold-Input) mit einem Input versorgt wird, bevor der Hot Input einen Eingangswert erhält, um die Rechenoperation danach auch durchzuführen. An den Rechenobjekten wird das Grundsätzliche Hot-Inlet & Cold-Inlet Prinzip von Pure Data ersichtlich: Die Inputs für ein Kontroll-/Rechenobjekt sollten immer von rechts nach links erfolgen. Und dies kann das Trigger-Objekt in Pure Data gewährleisten-> Es gibt die werte immer von Rechts nach Links aus!!

Message-Sequenz

In einer Message-Box können mehrere Messages gespeichert werden, die durch Kommas getrennt werden müssen. Die einzelnen Messages werden hintereinander mit einem Click/ Bang, etc. sofort gesendet.

Der Unterschied einer Sequenz im Vergleich zu einer Liste: Beim Senden des Inhalts einer Message Box, die eine Sequenz beinhaltet, werden alle Elemente sofort versendet, allerdings hintereinander… Bei einer Liste hingegen (wobei die Werte nicht durch Kommas getrennt sind)  werden alle Elemente nicht auf einmal, sondern als komprimiertes Paket versendet.

Listen

Listen werden in Pure Data mit Pack & Unpack erstellt bzw. wieder zerlegt.

 

 

Wellenformen zur Generierung von Audiosignalen können recht einfach bspw. über die Objekte [osc~] oder [phasor~] erstellt werden. Zur erzeugung komplexerer Wellenformen oder anlaog klingender Waveforms mit leichten “Abweichungen” eigenen sich hierzu besonders Arrays. Diese Arrays können in Pure Data durch das Senden von Sinesum-messages entsprechend definiert werden.

[adsense_id=”2″]

[adsense_id=”4″]

xxxxxxxxxxxx

Quellen & weiterführende Links zum Thema Wellenformen in Pure Data

http://en.flossmanuals.net/PureData/GeneratingWaveforms

http://puredata.hurleur.com/sujet-231-real-tmie-data-entry-array

 

Fingerplay und Pure Data

http://thesundancekid.net/blog/

piraten

UKW-Piratensender: FM-Transmitter tunen bzw. Sendeleistung verstärken / Reichweite erhöhen

Hier ein paar Links zum thema, um die Reichweite eines FM-Transmitters zu erhöhen:

 [adsense_id=”2″]

http://piradio.siteboard.de/piradio-forum-4.html

http://www.temporaer.info/blog/2008/09/reichweite-des-tunecast-ii-fm-transmitter-von-belkin-erhoehen/

http://www.instructables.com/id/Belkin-6-FM-Transmitter-Antenna-modification/

http://www.mikrocontroller.net/topic/102744

http://www.instructables.com/id/Belkin-Tunecast-II-FM-Transmitter-Mod/step4/How-to-boost-the-FM-Transmission-power/

surround

Mehrkanal Ambisonic/Surround Komposition

  [adsense_id=”2″]
Elektroakustische Komposition für mehrere Lautsprecher im Mehrkanal Surround/Ambisonics Verfahren:
Von Dabringhaus und Grimm gibt es ein anderes Surround-Verfahren mit Höhe:
Hamasaki 22.2:
Verschiedene Lautsprecher-Anordnungen:
Bei allen diesen Anordnungen gehören unbedingt speziell dafür gemachte Aufnahmen (!) dazu.
Ohne diese Aufnahmen kann das nichts außergewöhnliches werden.
binaural aufgenommene akustische Musik, die allein über Kopfhörer wiedergegeben werden soll, kann sich sehr realistisch anhören, wobei es das Problem gibt, dass wir Menschen leider unterschiedliche “Ohren” haben.
Es gab genügend misslungene Versuche, bei denen die Kopfhörerstereofonie nicht sorgfältig von Lautsprecherstereofonie getrennt wurde; siehe:
Das Umwandeln von HRTF-Signalen von Kunstkopfaufnahmen in Stereo-Lautsprechersignale hat sich ebenso untauglich erwiesen, wie das Umwandeln von Stereo-Lautsprecher-Aufnahmen in Kopfhörersignale.
Aber irgendetwas Seltsames kommt immer dabei heraus. Bei elektronischen Signalen ist eine Fehlerhaftigkeit  weniger auffällig, weil ja nicht bekannt ist, wie die natürlich klingenden Signale wirklich klingen.
[adsense_id=”4″]
Von Richard O. Duda wurde eine Datenbank geschaffen, wo die gemittelten HRTF-Daten aufgezeichnet sind
imag0113

Windfell, Windjammer, Mikrofonfell für Fieldrecording Aufnahmen mit mobilen Recordern bei Wind ab 24,95 €

Kleine mobile Audiorecorder, wie bspw. die Zoom Serie Zoom-H1, Zoom-H2, Zoom-H4n oder Zoom-H4 oder diverse andere Geräte freuen sich derzeit über absolute Beliebtheit im Audiobereich.

Während bei Aufnahmen in  innenräumen kaum Windgeräusche vom Mikrofon erfasst werden, sieht dies bei Aussenaufnahmen mit mobilen Recordern schon ganz anders aus: Bereits ein leichter Wind kann so manch eine Aufnahme durch tieffrequente Windstörungen vermießt werden. Hier helfen Windfelle oder sogenannte Windjammern.

Meist gibt es diese Mikrofon-Windschutzfelle oder Windjammern aber nur als sehr teures Profizubehör im Fachhandel für viel zuviel Geld. SonicSystem hat dazu eine Kooperation mit der Fränkischen Manufaktur ein Profi-Windfell konzipiert, das höchsten Anforderungen genügt und für einwandfreie und Rausch bzw. ungestörte Aufnahmen auch bei starkem Wind sorgt.

Mikrofon-Windschutz für Zoom H1

Details zum Windfell:
– optimaler Halt auf dem Zoom H1 durch genau angepassten Gummizug
– Verlustfreies Frequenzverhalten (gerne lasse ich ihnen Demo-Aufnahmen mit Sonogramm des H1 mit Windfell zukommen)
– manufakturgefertigt (fränkische Mikrofonfell-Manufaktur)
– einzeln geprüft
– Faserlänge des Windfells: 80 mm
– Made in Germany

Sonic-System Angebot: Windfell Zoom H1 für 24,95€

Hier geht es zum Windfell.de Shop: http://www.windfell.de/products-page

abletonlive_liveset_dj_traktor-alternative

DJing – Auflegen mit Ableton Live

Der Kollege Computer rückt dem guten alten Vinyl immer mehr zu Leibe. Für mich ist die digitale Revolution im DJ Bereich eigentlich auch nur noch eine Frage der Zeit. Software wie Ableton Live eignet sich neben zunehmend besser werdenden speziellen DJ Sowtwares immer besser zum Auflegen.

[adsense_id=”4″]

Auflegen mit Ableton

Ableton Live ist von Hause keine DJ Software im eigentlichen Sinne. Es ist eher für das Live Performen mit Audio und Midi Loops konzipiert. Jedoch lassen sich auch schon “fertige” Tracks damit mixen, als lange loops sozusagen. So kann man beim Auflegen Tracks live remixen und durch weitere Loops sinnvoll ergänzen.

Wenn man Ableton Live zum reinen Auflegen nutzen möchte, so empfielt es sich dafür maßgeblich zwei Audio Tracks zu verwenden und immer abwechselnd ein Stück (Track) einen nach links und einen rechts zu legen.

Fazit: Ableton eignent sich sehrwohl als DJ Software mit neuen und einzigartigen Remixmöglichkeiten. Es sind sogar Kombinationen aus einem Live Set und DJ Mix möglich. Zudem können Tracks während des Auflegens in Ableton live “on the fly” geremixt werden. Der NAchteil gegenüber einer speziellen DJ Software im herkömmlichen Sinne ist nur die mangelnde Flexibilität in Bezug auf Tempo und Trackauswahl. Während man beim auflegen mit Ableton Live sich schon im Forfeld die Tracks mehr oder wenioger zurechtgelegt und ein MAstertempo eingestellt hat, ist man im Gegensatz dazu bei einer DJ Software wie Traktor oder virtual DJ in Sachen Trackauswahl und Tempoänderungen des Sets maximal flexibel.

Viel Spaß beim Auflegen mit Ableton Live!!

[adsense_id=”4″]

Für alle Frende von Ableton Live habe ich ein Tolles Video gefunden, quasi ein EInsteigerseminar, wie man Live als DJ Programm sinnvoll zum Auflegen nutzt: Viel Spaß!!

 

lautsprecher_abletonlive

Impedanz im AudioStudio bei Mikrofonen und Kopfhörern

Impedanz, der Elektrische Wechselstromwiderstand hat maßgeblichem Einfluss auf den Klang. Die impedanz wird in Ohm (Ω) angegeben.

In erster Linie beeinflusst die Impedanz die Höhen. Induktive elektronische Elemente betonen diese über und kapazitive, parallele Bauteile dämpfen hohe Frequenzanteile. Ist also ein Audiokabel zu lang und zudem noch gewickelt, so wirkt sich dies in Form von Pegelverlusten im Hochtonbereich aus.

  • Falsche Impedanzverhältnisse beeinflussen den Hochtonbereich

Mikrofone und Impedanz

[adsense_id=”4″]

Moderne Mikrofone besitzen meist eine Impedanz von 200 Ohm.

    • Grundsätzlich gilt: Je höher der Impedanzwert eines Verstärkers, desto hochtonreicher ist die Aufnahme
    • Je länger die Kabellänge des Audiokabels ist, desto größer ist der Widerstand. Daher bei Mikrofonkabeln: So lang wie nötig, so kurz wie möglich!!
    • Manche Preamps, also Mikrofonvorverstärker, verfügen über einen Hi- Z oder Z- Schalter. Damit lässt sich der Hochtonbereich maßgeblich beeinflussen. So können Frequenz- und Pegelprobleme mit unterschiedlichen Mikrofonen vermieden werden.

 

Wie wird der Impedanzwert ermittelt?

  • Dieser Steht an den Geräteein- bzw. Ausgängen und in techn. Spezifikationen (Bedienungsanleitung).

Impedanzprobleme treten im Studiobetrieb neben Mikrofonenanwendungenauch auch bei Kopfhörern auf. Wird ein niederohmiger Kopfhörer von beispielsweise 32 Ohm verwendet, kann es schnell zu einer Überlastung und damit zum Clipping des Kopfhörerverstärkers kommen. Daher sollte bei der Kopfhörerwahl auf passende Impedanzwerte zum Kopfhörerverstärker geachtet werden.

Hat ein Kopfhörer beispielsweise einen Wert von 600 Ohm, so liegt am Kopfhörer eine Leistung von 1 mW an, wenn eine Spannung von 775mV erreicht wird.

[adsense_id=”4″]

In den technischen Angaben wird bei einem Kopfhörer wird meist der Wirkungsgrad (dB/ mW) angegeben. Hat dieser einen Wert von 101 dB/mW, so wird eine Schallleistung von von 101 dB erzeugt, wenn eine Spannung von 775 mV bei 600 Ohm anliegt.

granularsynthese_pauls-extreme-stretch

Granularsynthese in Ableton Live zur Tempoanpassung in Echtzeit mit und ohne Artefakte

Bei Ableton Live wurden die Möglichkeiten der Audiobearbeitung in „Echtzeit“ revolutioniert. Nachdem auditives Material in die Software geladen wurde, kann direkt eine Resynthese durch Granularsynthese erfolgen. Die Software lädt förmlich zu wilden Experimenten ein. Jedoch werden diese ab einem gewissen Grad durch Artefakte begrenzt.

Ableton Live basiert auf der Granularsynthese, weil diese weniger rechenintensiv ist als bspw. FFT- oder Waveletverfahren (Vgl. Granularsynthese). Somit erweist sich die Granularsynthese als livetauglich, wie es bereits der Programmname erahnen lässt. Hier ist die Echtzeitfähigkeit von diversen Audiomanipulationen begründet.Bei den anderen, in dieser Arbeit vorgestellten, Verfahren sind die Artefakttoleranzen zwar wesentlich höher, jedoch wird meist ein separates „Rendering“ für die Umsetzung benötigt. Dies geht auf Kosten der intuitiven Bedienbarkeit.

[adsense_id=”4″]

Das Spezialgebiet von Live ist die zeitliche Anpassung. Ein Loop kann problemlos mitMaterial anderen Tempos gemischt werden. Jede Zählzeit kann mit den Warpmarkern gedehnt bzw. gestaucht, also an die gewünschte Stelle verschoben werden. Somit lassen sich Timingschwankungen und groove Akzente gezielt bearbeiten und anpassen. Dies geschieht mittels „granularem Timestretching“. Die analysierten Grains werden entweder mehrfach hintereinander angeordnet (Streckung) oder es werden vereinzelte Grains ausgelassen (Stauchung). Die algorithmische Manipulationsfähigkeit lässt sich innerhalb eines gewissen Bereichs ohne wahrnehmbare Verfremdung durch Artefakte realisieren. Diese reicht bei komplexem Material in Abletons Software bis etwa 14 %[1]. Erst dann treten deutliche Artefakte hervor, welche sich weiterhin im kreativen Sinne als Effekt einsetzen lassen.

Bei vielen cluborientierten Produktionen sind häufig artefakthaltige Melodielinien wahrnehmbar. Diese sind leicht zu erzeugen und entstehen beispielsweise, wenn man einen Klangbereich zu sehr in seinem zeitlichen Verlauf dehnt und darüberhinaus stark pitcht.

[adsense_id=”4″]

Je nach Art des Materials können in Ableton zur Qualitätsmaximierung folgende spezialisierte Algorithmen für

lrhythmisches

lflächiges

lmono- oder

lpolyphones Material

angewandt werden.[2]

Dafür gibt es folgende Makros:

Beats:

Dieser Modus ist für rhythmisches, transientenreiches Material geeignet. Zur besseren Erfassung und Quantisierung der einzelnen Zählzeiten läst sich vorab das Raster von einem ganzen Takt bis zu einer Stufe von 1/32 in Schritten des Faktors 2 wählen.

Tones:

Diese Einstellung erweist sich bei tonal, monophonem Material als besonders geeignet. Dabei ist die Größe der Grainhüllkurven bzw. Fensterfunktionen mit dem Parameter „Grain Size“ zwischen einem Wert von 12 bis 100 ms stufenlos einstellbar.

Texture:

Dieses Makro ist speziell für die Bearbeitung komplexer polyphoner Klänge konzipiert. Zu dem höher auflösbaren „Grain Size“ Parameter, hier im Bereich von 2 bis 263, kommt der Parameter „Flux“.Dieser Regler des Texture-Algorithmus führt je nach Einstellungsgrad zu gewissen Ungenauigkeiten in der Auslesung der Grains. Dabei handelt es sich um zufällige Variationen der Graingröße. Dieser ist ein wenig vergleichbar mit dem Spray-Parameter des Granular-Delays aus dem Programm „Mulch’s DLGranulator“.

Re-Pitch und Complex:

Bei diesen beiden Modi lassen sich keine weiteren Parameter einstellen. Wie die Namen schon vermuten lassen, erweisen sich diese Makros vor allem zum Re-Pitchen bzw. zum Bearbeiten von komplexem Material.

Die Änderung der Tonhöhe ist in Ableton bei konstanter zeitlicher Dauer ohne weiteres möglich. Die detaillierte Tonhöhenänderungsfähigkeit scheint hier nur zweitrangig zu sein. Sollen z.B. einzelne Vokal-Passagen korrigiert werden, so muss der zu korrigierende Bereich erst als eigenständiger „Clip“ separiert werden. Die Tonhöhenbearbeitung bezieht sich immer auf den ganzen Clip. Im Gegensatz dazu lässt sich bei der Tempomanipulation jeder einzelne Schlag unabhängig von den anderen im Clip befindlichen verändern.Für die Korrektur einzelner falscher Noten wäre eine Software, wie bspw. Melodyne, besser geeignet. Diese Software analysiert das eingegebene Material und ordnet jeden Klang bzw. jeden musikalischen Ton, bspw. einer Melodielinie, auf einer Notenlinie an. Somit liegen die Klänge in diesem Editor vor und können gesichtet bzw. korrigiert werden. Man kann mit Klängen in ähnlicher Weise flexibel umgehen, wie mit Mididaten.


 

[1]Anselm Rößler: Pocket Guide Musikproduktion, PPV Median Verlag, Bergkirchen 2004, S.285

[2]Carsten Gertzen, Udo Haupt: Timestretching und Pitchshifting Script der Technischen Universität Ilmenau, S.4

absynth_ni_abletonliveworkshop-de

Klanggestaltung mit Absynth von Native Instruments- Dem sehr guten Sound Design Tool als VST Plugin

Dieser Artikel über Native Instruments Absynth ist gerade in Arbeit. Meiner MEinung nach ist dieses Plug In das ultimative Sound Design Tool, das man in seinen Sequenzer implementieren kann. Ganz egal ob man Logic, Pro Tools, Cubase oder Ableton Live verwendet.

 

Das Plugin Absynth kombiniert eine Vielzahl an Synthesemöglichkeiten. Neben subtraktiver Synthese ist ringmodulation, FM-Synthese oder klassisches Sampling möglich. Sogar Granularsynthese kann mit Native Instruments Absynth realisiert werden. Mein Tipp: Absynth und alles wird gut. Wie gesagt, in kürze mehr, nachdem ich mich durch die tiefen der Möglichkeiten gewelzt habe!!

[adsense_id=”4″]

_DSC1247-Bearbeitet

Unterschiedliche Arten der Granularsynthese

Die Granularsynthese eignet sich hervorragend zur Bearbeitung von Klangmaterial undbewirkt beeindruckende Ergebnisse. Sie ist als rein synthetische Methode zur Klangformung und -erzeugung zu verstehen. Im Gegensatz zur Fouriersynthese geht man bei der Granularsynthese nicht in den Frequenzraum. Dies ist das Besondere an diesem Verfahren und somit liegt darin die Begründung für die Echtzeitfähigkeit.

Bereits 1947 formulierte der britische Physiker Dennis Gabor seine Entdeckungen zur akustischen Quantisierung des menschlichen Hörens. Die Granularsynthese basiert damit auf der sog. Gabortransformation.[1]

granularsynthese_pauls-extreme-stretch

[adsense_id=”4″]

Als ersterKomponist bediente sich Iannis Xenakes dieser Technologie. Er betrachtetejegliche Klänge als eine Aneinanderreihung von akustischen Elementarteilchen, aus denen jeder Klang zusammengesetzt ist. Diesen Sachverhalt hielt auch Xenakes in einer theoretischen Abhandlung fest.[2]Diese Annahmen wurden in den 80er Jahren mathematisch belegt. 1000 bis 1500 auditive Elementarteilchen pro Minute lassen demnach einen kontinuierlich stufenlosen Klangeindruck wahrnehmbar werden.[3]Sämtliches akustisches Material kann als Aneinanderreihung minimaler Klangimpulse (zw. 1 & 10 ms Dauer) betrachtet werden, deren Zusammensetzung im zeitlichen Verlauf variiert.

Die Bestandteile eines Klangs durch eine Folge von akustischen Elementarien mit Übergangswahrscheinlichkeiten lässt sich gut an einem Streichinstrument veranschaulichen. Beim Streichen einer Saite mit dem Bogen wird diese ergriffen und solange gespannt, bis die Rückstellkräfte ausreichend groß geworden sind. Die Saite schnellt zurück und beginnt energetisch abnehmend hin und her zu schwingen, bis sie erneut von den Bogenhaaren erfasst und wieder gespannt wird. Dieser Prozess wiederholt sich während des Streichens stetig, wobei kontinuierlich unvorhersagbare Variationen auftreten. Gerade diese Abweichungen lassen einen Klang besonders lebendig erscheinen.[4]

Am Kölner-Studio für Elektronische Musik, an dem u.a. Karlheinz Stockhausen tätig war, wurden granulare Experimente auf Tonband durchgeführt. Hier ordnete man viele unterschiedliche Klangfragmente hintereinander auf Tape an.

Sobald beim Abspielen eine gewisse Geschwindigkeit erreicht wurde, waren diese Klänge mitdeutlich gesteigerter Brillianz wahrnehmbar. Zudem verkürzten sich die Ein- und Ausschwingzeiten. Bei weiterer Erhöhung der Bandgeschwindigkeit ergaben sich aus den einzelnen Fragmenten gänzlich neue Klänge, die nicht mehr auf das ursprüngliche Material zurückgeführt werden konnten. Sie sind regelrecht zu einem neuen und einheitlich kontinuierlichem Sound verschmolzen.[5]

Ab Mitte der 70er Jahre forschte Curtis Roads an der Granularsynthese weiter. Bei ersten Untersuchungen mit dem Computer erwies sich die umfangreich anfallende Datenmenge als recht problematisch. Diese Datenmenge kam zustande, da neben der Erfassung der einzelnen Grains ebenso deren Hüllkurve und Amplitude gespeichert werden musste.Roads beobachtete die Auswirkungen von parametrischen Veränderungen der Wellenformen, Lautstärken und Frequenzen bei konstanter Dauer und Hüllkurven der Klangfragmente. Es stellte sich eine optimale Grainlänge von ca. 20ms heraus. Jedoch lieferten auch Zeiten von 10- 60 ms im Allgemeinen akzeptable Ergebnisse.

Im kompositorischen Bereich lassen sich mit der Granularsynthese neben unabhängigen Veränderungen der Dauer, Periode und Dichte weitere interessante Übergänge zwischen zwei Klängen gestalten. Sogar Zwischenstufen sind durch Interpolieren realisierbar.

Durch die Klangzerlegung können bei der Reproduktion die Anordnungen und Abspielgeschwindigkeiten so variiert werden, dass neue und einzigartige bzw. noch nie erreichte Klänge gehört werden können. In diesem Zusammenhang spricht man bei der Granularsynthese auch vom„Resyntheseverfahren“ (Resynthese durch Granularsynthese). Diese sind die häufigsten Granularanwendungen, die u.a. bei den Programmen Malstrom in Reason, Max/MSP von Cycling ’74, Ableton Live und weiteren dieser Art zum Einsatz kommen.[6]

Das Grain

Ein Grain besteht aus einer Wellenform und einer einhüllenden Lautstärkekurve. Die Länge eines Grains beträgt zwischen 1 und 150 ms (Mikrozeitebene). Ein einzelnes Grain ist folglich vom Gehör kaum oder nur als ein Klick rezipierbar. Die Hörwahrnehmungsgrenze von Audioevents beginnt bei einer Dauer von etwa 3 ms.

Darunter ist ein einzelnes Grainereignis aufgrund der Trägheit des Gehörs quasi nicht hörbar. Mit zunehmender zeitlicher Länge wird dieses immer signifikanter durch das Ohr erkennbar. Unter einer Dauer von 50 ms können keine Aussage über die Periodizität getroffen werden. Demnach kann eine Tonhöhe nicht bestimmt werden.

[adsense_id=”4″]

 

Abb. 6Wellenform eines Grains mit seiner Hüllkurve

Je höher das auditive Material in Grains aufgelöst wird (mehr Grains = geringere Dauer eines einzelnen Grains), umso rapider steigt der damit verbundene Rechenaufwand an. Es wird zunehmend schwerer, die daraus resultierend größer werdende Anzahl einzelner Grains, unter Berücksichtigung des erwünschten Klangergebnisses zu kontrollieren. Daher bedient man sich gerne der Clouds (deutsch: Wolken).

 

 

Abb. 7 zeigt die möglichen Hüllkurven der Grains : a) Gauss b) Quasi-Gauss c) Segment d) Dreieck e) Sincf) Expodec g) Rexpodec

Diese ermöglichen hierbei eine musikalischere Herangehensweise. Mehrere Parameter können somit bei einem Regelungsvorgang zusammengefasst undberücksichtigt werden. Da jedes Grain, wie bereits erwähnt, eine eigene Wellenform mit definierter Frequenz und Amplitude besitzt, kann es bei der Anordnung der Grains zu Störgeräuschen kommen.

Zu beachten ist weiterhin, dass die Phasenlage von einem zum darauf folgenden Grain mehr oder weniger stark ausgeprägte Differenzen aufweisen kann. Aus diesem Grund werdenÜberlappungen an den Randbereichen derHüllkurven einzelner Grains durchgeführt.

 

Abb.8 Abfolge von Momentaufnahmen eines Klanges bei der Granularsynthese

Die Parameter eines Grains sind:

  • Die Länge der Hüllkurve
  • Die Form der Wellenform
  • Die Form der Hüllkurve
  • Die Abspielgeschwindigkeit der Wellenform
  • Die Frequenz der Wellenform

Weiterhin lässt sich die Anzahl der Abspielwiederholungen und die Wiedergabeanordnung derGrains (dauer) variieren.

Um bei der Resynthese durch Granularsynthese Artefakte zu vermeiden, und um die Phasengenauigkeit der Grains beizubehalten, muss die Grundschwingung möglichst exakt erfasst werden. Diese Analyse wird umso schwieriger, je polymorpher und rauschanteiliger, also je komplexer, ein Signal ist. Zur Durchführung der Granularsynthese gibt es unterschiedliche Verfahren. Die wesentlichen Differenzen bestehen in der Bildung der einzelnen Grains und der Neuanordnung bei der Reproduktion bzw. Resynthese. Diewichtigsten Methoden werden im Folgenden dargestellt.

Synchrone Granularsynthese

Bei der Synchronen Granularsynthese wird mittels mehrerer Oszillatoren und Hüllkurven ein Grainstrom erzeugt. Die Graindichte beschreibt die Ausgabe der Oszillatoren in „Grains pro Sekunde“ (gps). Unterhalb einer Dichte von 20 Grains pro Sekunde ist nur ein metrischer Rhythmus wahrnehmbar.[8] Wird die Graindichte auf über 20 Grains in der Sekunde erhöht, können wir einen kontinuierlichen Klang hören, der sich durch einen Grundton und erkennbare Obertönen zusammensetzt. Sogar Formantregionen werden dadurch erkennbar.[9]

 

 

Abb. 9 Einfluss der Graindichte auf die Tonhöhe

Die Abbildung 9 stellt den Einfluss der Graindichte auf die Tonhöhe dar. Die resultierende Tonhöhe eines Grainstromes ist von der Interaktion zwischen drei Hauptperioden abhängig.

Zum Einen von der Frequenz der Wellenform innerhalb des Grains. Ebenso ist die zur Grainhüllkurve zuordbare Frequenz (Grainlänge) hierfür bedeutsam. Zum Anderen durch die Periode, die der Graindichte bzw. Grainrate eines Grain-Stromes entspricht.

Allgemein kann gesagt werden, dass die Grundtonhöhe durch die längste Periode dieser drei Hauptperioden bestimmt wird.Durch eine Veränderung der Verhältnisse dieser aufgeführten Parameter zueinander kann die resultierende Tonhöhe des Klanges nach oben oder nach unten verschoben werden. Eine Verdopplung der Grainrate entspricht hierbei einer Erhöhung um eine Oktave.

Quasi-Synchrone-Granularsynthese

Die Quasi Synchrone Granularsynthese ähnelt prinzipiell der Synchronen. Der wesentliche Unterschied liegt hier in der Art der Anordnung einzelner Grains. Sie werden nicht mehr starr wiedergegeben. Der Abstand der „Körner“ wird mittels eines Zufallsgenerators bestimmt. Wird der Faktor für unregelmäßige Anordnung jedoch zu groß gewählt, so können sich einzelne Grains überschneiden. Das Klangereignis ist in diesem Fall der Asynchronen Synthese ähnlich, die im Folgenden beschrieben wird.[11]

Asynchrone-Granularsynthese

Bei der Asynchronen Granularsynthese ist die Anordnung der einzelnen Grains nicht mehr linear. Mehrere Körner werden gleichzeitig oder stückweise überlagert wiedergegeben. Sie werden innerhalb einer sog. Wolke (Cloud) zusammengefasst. Die zeitliche Anordnung wirddurch Zufallsalgorithmen bestimmt. Das Ausgangsmaterial wird hier total zerlegt. Für die Synthese an sich kann Ausgangsmaterial verwendet werden, jedoch klingt dieses sehr verfremdet. Alternativ können Frequenzen beliebiger Art für die Grains gewählt werden, die nicht vorher aufgenommen werden müssen. Hier ist dann die reine Granularsynthese gemeint.

 

 

Abb. 10 Zusammenfassung der Grains in Wolken

Die Art der Hüllkurve führt zu Amplitudenmodulationen. Diese bewirkt das Auftreten von Seitenbändern, welche im Intervall der Hüllkurvenperiode vorkommen. Die mittlere Frequenz der Amplitudenmodulation lässt sich errechnen, indem der Faktor Eins durch die Länge der Grains in Sekunden dividiert wird.

Die so entstehenden Seitenbänder werden bei längeren Grainzeiten zunehmend schmaler.[12]Die Anzahl der Grains sowie deren strukturelle Anordnung und Beschaffenheit innerhalb einer Wolke haben einen maßgeblichen Einfluss auf den resultierenden Klang. Der Füllfaktor definiert, wieviel Grains mit einer bestimmten zeitlichen Dauer innerhalb dieser „Clouds“ strukturiert sind. Dieser lässt sich aus dem Produkt von Grains pro Sekunde mit definierter Dauer in Sekunden errechnen. 20 Grains in einem Wolkenereignis von einer Sekunde bei einer Grainlänge von 0,1 Sekunden ergeben einen entsprechenden Füllfaktor von 1. Bei einem Faktor größer als Eins ist diese Wolke bereits als ein kontinuierlich und tonal klingender Ton hörbar.

Die Signalbearbeitung erfolgt je nach Ausgangsmaterial in zwei möglichen Spektren. Handelt es sich um ein monophonen Klang, so wird dieser im sog. Kumulusspektrum bearbeitet. Dies ist ein Frequenzband, welches über die Dauer einer Wolke verändert bzw. moduliert werden kann. Polyphone Klänge, wie z.B. Akkorde, werden im Stratusspektrum erfasst. Dieses besteht aus mehreren Frequenzbändern.[13]

 

Tip: tool zum Timestretchen:

http://www.synthtopia.com/content/2011/02/11/paul%E2%80%99s-extreme-sound-stretch-now-more-extreme-stretches-your-audio-up-to-one-quintillion-times/


 

[1]Artikel Granularsynthese. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 31. März 2008, 15:18 UTC. URL: http://de.wikipedia.org/w/index.phptitle=Granularsynthese&oldid=44367267

[2]André Ruschkowski: Elektronische Klänge und musikalische Entdeckungen,Reclam Verlag, Stuttgart, 1998 S.315

[3]Curtis Roads: Microsound The MIT Press, Cambridge; London, S. 112

[4]Carsten Gertzen, Udo Haupt: Timestretching und PitchshiftingScript der Technischen Universität Ilmenau, S.5

[5]André Ruschkowski: Elektronische Klänge und musikalische Entdeckungen,Reclam Verlag, Stuttgart, 1998, S. 314 ff

[6]Wgr08

[7]Hag05

[8]Curtis Roads: Microsound The MIT Press, Cambridge; London, S.93

[9]Curtis Roads: Microsound The MIT Press, Cambridge; London, S.94

[10] Hag05

[11]Curtis Roads: Microsound The MIT Press, Cambridge; London, S.93

[12]Curtis Roads: Microsound The MIT Press, Cambridge; London, S.102

[13]Curtis Roads: Microsound The MIT Press, Cambridge; London, S.108

time-stretch

Time Stretching und Pitch shifting als aussergewöhnliche Audio Effekte

Soll die Tonhöhe eines Signals unabhängig von seiner Länge (Pitch-Shift) oderumgekehrt (Time-Stretch) verändert werden, so muss das Problem des fest physikalischen Zusammenhanges zwischen Tonhöhe und Geschwindigkeit von Klängen gelöst werden. Dieser Audio Effekt sollte uns durch das Abspielen einer Schallplatte mit unterschiedlichen Umdrehungsgeschwindigkeiten hinreichend bekannt sein.

[adsense_id=”4″]

Eine Sprecherstimme bspw. einer bestimmten Märchenfigur kann demnach durch eine drastische Verlangsamung des Abspieltempos stimmlich zu einem Monster mutieren. Dieser mechanische Zusammenhang kann mithilfe eines Audio Programms(Cubase, Nuendo, Logic, Pro Tools), unter Verwendung der dargestellten Algorithmen(Audio Effekt), geschickt umgangen werden.

Die verschiedenen Effekt Algorithmen erweisen sich, wie eingangs dargestellt,immer im Bezug zum Audio Ausgangsmaterial als unterschiedlich effizient.

Die Bearbeitung ist dabei umso schwieriger, je komplexer und transienter die Zusammensetzung des akustischen Materials ist.

Die gefensterte Fourier- Transformation als Phasenvocoder stellt hier eine Lösungsmöglichkeit dar. Dabei kann der Shift-Prozess gut an der Arbeitsweise eines Phasen- Vocoders veranschaulicht werden.[1]Demnach wird das Signal durch 512 oder bis zu 1024 Bandpasskanäle mit steilen Flanken erfasst. Bei konstanter Dauer können die einzelnen Partialfunktionen (Sinusfunktionen) um einen beliebigen Wert transponiert wiedergegeben werden. Hier kommt den Formanten eine besondere Beachtung zu. Beim Pitching-Prozess werden diese mittransponiert. Da die Formanten bei natürlicher Wiedergabe von verschiedenen Tonhöhen konstant bleiben, dürfen diese folglich bei der Bearbeitung nicht frequenziell verschoben werden.

Sie müssen quasi vom bearbeiteten Material entfernt bzw. durch die Formanten des ursprünglichen Materials ersetzt werden. Diese Aufgabe kommt wieder speziellen, untergeordneten Algorithmen zu, die letztendlich die mehr oder weniger stark ausgeprägten Amplitudenverteilungen der Formanten auf die richtige Position verschieben.

Beim Time-Stretching Effekt hingegen werden die definierten Partialfunktionen der einzelnen Bänder einfach um einen gewissen Zeitrahmen verlängert wiedergegeben. Dieser Ansatz erweist sich bei tonalen Signalen mit periodischem Verlauf als besonders geeignet. Transiente Sounds werden allerdings recht stark verfälscht, da hier weitestgehend keine periodische Fortsetzung vorliegt. Artefakte und hörbare „Verwaschungen“ des Klanges treten bei vergleichsweise kleinen Veränderungen schon recht deutlich hervor. [2]

Das Phasenvocoder Konzept auf Basis der Fouriertransformation wurde von James L. Flanagan und R.M. Golden im Jahr 1965 entwickelt .[3] Ursprünglich war diese Technik zur Signlalkomprimierung gedacht. Es ist besonders gut für polyphones Material prädestiniert.

 

Problematisch ist jedoch auch hier die nicht vermeidbare Unschärfe (vgl. Kapitel Fourier-Analyse). Eine ähnlich präzise Auflösung, vergleichsweise der unseres Ohres, lässt sich hiermit nicht erreichen. Das Auflösungsvermögen unseres Gehörs bleibt in diesem Zusammenhang immer die Bewertungsgrundlage der algorithmischen Qualität. Ab einem gewissen Grad der Veränderung treten auch bei überwiegend periodischen Signalen mehr oder weniger starke Artefakte auf, deren Ursache in der mangelnden Kohärenz durch die Sinus- Funktion begründet liegt.[4]

Eine andere Realisierungsstrategie zur Entkopplung der Tonhöhe von der zeitlichen Ausbreitung stellt die Time-Domain-Harmonic-Scaling (TDHS) dar. Diese Methode ist für einzelne bzw. monophone Signale prädestiniert, deren Grundfrequenz jedoch richtig erfasst sein muss. Hier wird durch eine Autokorrelation die Grundfrequenz erfasst, aus derer dann durch Modulation mit einer Funktion ein Wavelet abgeleitet wird.[5] Bei einem Pitch-Shifting bleiben bei dieser Methode insbesondere die natürlichen Formanten unverändert. Diese können zudem unabhängig vom Pitch eingestellt werden. Jedoch stoßen auch die Formantbarbeitungen wegen der besagten Abhängigkeit zur Grundfrequenz bei polyphonem Sound an ihre Grenzen.

[adsense_id=”4″]

Ein, bei beiden dargestellten Verfahren, großes Problem liefert die hohe Lokalisation der Basisfunktion. Ein neuerer erfolgversprechender Ansatz ist hier das MPEX Verfahren auf der MCFE Basis (Multiple Component Feature Extraction). Diese Methode beruht u. a. auf dem Wavelet Prinzip und wurde von Prosoniq entwickelt. Bei diesem Algorithmus steht weniger das mathematische Signalsverständnis, als die menschliche Wahrnehmung und neuronale Signalverarbeitung im Vordergrund.

Aufgrund der erweiterten und variationsreicheren Basisfunktionen ist dieses Verfahren demnach für komplexere Signalewesentlich besser geeignet.[6]

Weiterhin sind auch Resyntheseanwendungen durch Granularsynthese zur unabhängigen Bearbeitung von Zeit und Tonhöhe möglich. Das besondere ist hier die hohe Geschwindigkeit und damit die Echtzeitfähigkeit. Es muss keine Analyse erfolgen. Das Signal wird lediglich in Grains unterteilt und kann danach direkt manipuliert werden.

Algorithmische Tonhöhenänderungen lassen sich im Allgemeinen ohne eine hörbare Qualitätsminimierung im Rahmen von bis zu 5 Halbtönen anwenden, wo hingegen eine zeitliche Streckung von 130% ohne hörbare Artefakte in Abhängigkeit des komplexem Ausgangsmaterials erreicht werden kann.[7]

Vor allem die Cubase bzw. Nuendo Software von Steinberg erweist sich hier als ein sehr effizientes audio Effekt Tool, das wesentlich bessere Ergebnisse als bspw. Ableton Live liefert.

Wie bereits erwähnt, können die Bearbeitungsprobleme von polyphonem Material umgangen werden, wenn die Einzelsignale (z. B. die einzelnen Spuren eines Songs) vor der Mischung separat bearbeitet werden. Xavier Serra stellte fest, dass es schon zu erheblichen Artefakteverminderungen kommt, wenn komplexes Summenmaterial lediglich in zwei Gruppen getrennt wird. Die Erste sollte dabei klangliches und die Zweite transientenreiches sowie „rauschendes“ Material beinhalten.[8] Durch diese Differenzierung werden nun maßgeblich nur die tonalen Anteile gestaucht bzw. gestreckt. Perkussive Signale müssen nicht sonderlich stark verändert werden. Vor allem beim Time-Streching spielt hier die zeitliche Neuanordnung im Stauchungs- bzw. Dehnungsverhältnis eine wichtigere Rolle, als die Klänge an sich zu dehnen. So bleiben die Einschwingphasenerhalten und das Ergebnis ist daher wesentlich natürlicher. Liegen die einzelnen Spuren vor dem Mischen bspw. eines Songs zur separaten Manipulation vor, so sind Pitch-Shiftings von bis zu einer Oktave oder analogdazu Zeitvariationen bei unveränderter Tonhöhe von bis zu 200 % möglich, ohne das Artefakte hörbar hervortreten.[9]

Bis jetzt hängt das Ergebnis des Audio Effekts maßgeblich von der geschickten Anwendung und auch manuellen Trennung des Materials bei der Bearbeitung durch den Anwender ab.

Ob ein Algorithmus für die Summenbearbeitung komplexer Mischsignale realisierbar wird, der ähnlich gute Ergebnisse im Vergleich zur Einzelbearbeitung der Spuren liefert, bleibt abzuwarten.

TippLies zum Thema Cubase, Time Streching und Audio-Effekte mehr auf SonicSystem.de


[1]Carsten Gertzen, Udo Haupt: Timestretching und PitchshiftingScript der Technischen Universität Ilmenau, S.5

[2] Stephan M. Bernsee: Tutorials URL: http://www.dspdimension.com

[3]Carsten Gertzen, Udo Haupt: Timestretching und PitchshiftingScript der Technischen Universität Ilmenau, S.5

[5]Stephan M. Bernsee: Tutorials

[6]Stephan M. Bernsee: Tutorials

[7]Stephan M. Bernsee: Tutorials

[8]Carsten Gertzen, Udo Haupt: Timestretching und PitchshiftingScript der Technischen Universität Ilmenau, S.6

[9]Stephan M. Bernsee: Tutorials

dsc7865

Bratsche/Viola mit tollem Sound ca. 100 Jahre | 1800€ | Geipel/Stettin

Hallo,
nachdem ich beruflich zunehmend in Richtung Sound Design/Computermusik/generische Musik fokussiere, möchte ich meine Bratsche abgeben. Es ist zu schade, wenn die tolle Bratsche mit einem sehr warmen und tollen Sound nicht gespielt wird.

Die Bratsche ist geprüft und überholt worden und somit sofort einsatzbereit.

Sie klingt sehr schön!!!

Hier ein paar Bilder des hochwertigen Instruments:

https://www.dropbox.com/sh/jfxqe68gzl4m58f/WEJWI9AVUO#/

Eckdaten:
Größe:  3/4  [15 Zoll]
Alter: ca. 100 – 150 Jahre alt

Geigenbauer: August Geipel / Stettin

Sound der Bratsche: warmer runder Klang der Bratsche

1.800 € VB

Tel.: 0179 198 18 30

Das Streichinstrument kann bei uns in Hamburg gern besichtigt und ausprobiert werden.

Gruß
H.-G. Hoyer

Bei Interesse bitte kurze Notiz in das Kontaktformular. Wir melden uns umgehend bei Ihnen!

Ihre Email (Pflichtfeld)

Betreff

Ihre Nachricht

Musikrichtungen – Musik Genres – Welches Genre ist meine Musik?

Ambient ist eine Variante der Elektronischen Musik. Ambient soll eine bestimmte (nicht notwendigerweise angenehme) Atmosphäre schaffen, ohne aufdringlich zu sein oder dem Hörer Aufmerksamkeit abzuverlangen. Perkussion und Rhythmus stehen (sofern überhaupt vorhanden) bei der klassischen Ambient-Musik völlig im Hintergrund. Es dominieren sanfte, langgezogene und warme Akkorde, räumliche Effekte, Soundscapes und Feldaufnahmen von Geräuschen aus der Natur. Häufig werden auch elektronische Orgeln (Keyboards) und Blasinstrumente eingesetzt. Die Musikstücke sind meist sehr lang und bauen sich oft gemächlich auf, wobei sie eher selten einer klassischen Songstruktur folgen.


Deep House ist die langsamste und melodiöseste Stilart des House. Musikalisch dominiert hier ebenso der gut tanzbare gerade 4/4-Takt. Die Geschwindigkeit bewegt sich im Bereich von ca. 122-127 BPM.

In Chicago produzierte Larry Heard als Fingers Inc. mit den Sängern Ron Wilson und Robert Owens ab 1986 smoothe, perkussive House-Tracks mit souligen Vocals. Die Blaupause für den Deep House: Ein Sound, der sich insbesondere mit seinen jazzigen, bisweilen gesangslastigen Arrangements vom damals populären New Yorker Garage House abhob.

Deep House hat ungefähr die gleiche Geschwindigkeit wie Disco, aber reduziertere, hypnotisierendere Grooves, und war eine Reaktion auf die vorherrschende opulent bis hysterische Party House Music. Die deepen, smoothen Basslines waren auch der Namensgeber für den Deep House. Elementar und charakteristisch für den klassischen Deep House ist die Nighttime-Atmosphäre, betont durch Strings- und Flute-Sounds. Das Spektrum aktueller Tracks ist sehr groß, es reicht von Soul-Einflüssen über Jazz bis zu Tech House, aber alles in einem gemäßtigtem Tempo meist um 125 BPM.

In Chicago kam es Ende der 1980er Jahre zu einer regelrechten Deep-House-Welle. Die meisten House-Produzenten produzierten nun auch Deep-House-Tracks wie z. B. Fast Eddies „Can U Still Dance“ (1988) und Marshall Jeffersons „Truth Open Your Eyes“ (1988). Zu den stilprägenden Alben gehört unter anderem „Promised Land“ von Joe Smooth.

Musikgeschichtlich gesehen war die Erschaffung des Deep House die Weiterentwicklung des Chicago House mittels der Fusion mit dem Garage House aus New York zu einem neuen gemeinsamen Sound und einer Vereinigung und Annäherung der beiden bisher sehr getrennt und autark existierenden Szenen. Deep House war einer der prägendsten Stile für das House-Genre, führt heute in den Clubs aber eher ein Nischendasein und wird dort weiterhin von einer eingeschworenen Fangemeinde goutiert.

Die regionale Ausdifferenzierung und Weiterentwicklung des Ur-House führte 1986 neben der Entwicklung des Deep House aber auch zur Ausbildung eines weiteren Stils in Chicago: dem Acid House, der außer einem riesigen Hype 1988 in England aber niemals an die lange und gleich bleibende Popularität des Deep House heranreichte.


 

Elektronische Musik bezeichnet Musik, die durch elektronische Klangerzeuger hergestellt und mit Hilfe von Lautsprechern wiedergegeben wird. Im deutschen Sprachgebrauch war es bis zum Ende der 40er Jahre üblich, alle Instrumente, an deren Klangentstehung bzw. -übertragung in irgendeiner Weise elektrischer Strom beteiligt war, als elektrische Instrumente zu bezeichnen. Konsequenterweise sprach man daher auch von elektrischer Musik. Bis heute besteht eine Kontroverse in der Terminologie, da einerseits ein wissenschaftlicher Begriff der Akustik und andererseits eine Gattung der Neuen Musik, gleichzeitig aber auch ein Oberbegriff über neue Musikstile der Unterhaltungsmusik gemeint ist.

Electronica bezeichnet: eine nicht einheitlich verwendete Sammelbezeichnung für verschiedene Stilarten der Elektronischen Musik, wie z. B. IDM, Drum ’n’ Bass, Big Beat und verschiedene Downbeat-Genres (u. a. Trip Hop, Dub und Lounge-Musik); im weiteren Sinne werden auch Techno und House sowie Electro und Electroclash hinzugezählt

Techno bezeichnet eine elektronisch oder künstlich produzierte Tanzmusik im 4/4-Takt, was jedoch von jedem Künstler anderes interpretiert wird. Stilistisch dominiert der Rhythmus den Techno, weswegen er auch als die pure Form der elektronischen Tanzmusik bezeichnet wird.

Das Tempo des Techno unterscheidet ihn von den anderen Richtungen der Elektronischen Musik. Im Allgemeinen liegt es zwischen 120 bpm (beats per minute) und 150 bpm, was in der Realität von dem Style und dem eigenen Geschmack jedes Künstlers abhängig ist. Fälschlicherweise wird Techno zwecks Verallgemeinerung auch als ein Oberbegriff für die elektronische Musik verwendet, was sich historisch in der Umgangssprache des Deutschsprachigen Raums festgesetzt hat.

„Minimal“ kann nicht nur für Minimal Techno, sondern auch für Minimal Music im Allgemeinen stehen.

Minimal Music

Eine exakte Charakterisierung dieser Musikrichtung ist wegen der großen stilistischen Vielfalt ebenso schwierig wie eine zeitliche Abgrenzung gegen einen Post-Minimalismus (hier steht die Frage im Raum, inwieweit die Minimal Music in ihrer Entwicklung von ihren ursprünglichen Prinzipien abgerückt ist und ab Mitte der 1970er Jahre von Post-Minimalismus gesprochen werden kann oder muss). Es gibt aber eine Reihe von Merkmalen, die typische Werke dieses Stils aufweisen.

Minimal Music ist verglichen mit Kunstmusik von eher geringer harmonischer Komplexität. Sie bewegt sich meistens im Rahmen einer modalen Tonalität und verwendet Dissonanzen nur sehr sparsam. Das rhythmische Element (oft Polyrhythmik) ist in der Minimal Music stark hervorgehoben, sie ist stark repetitiv, das heißt: ein einfaches Grundmuster (Pattern) wird über längere Zeiträume ständig mit nur leichten, oft kaum wahrnehmbaren Variationen wiederholt, das Stück ergibt sich dann aus der einfachen Aneinanderreihung der Variationen. Wird ein Muster gleichzeitig mit geringfügig unterschiedlichen Geschwindigkeiten gespielt, kommt es zum so genannten Effekt der Phasen-Verschiebung (phase shifting, phasing).

Die Minimal Music hat für eine zeitgenössische Musik außerhalb der Popmusik (mit der es einige Wechselwirkungen gibt) eine beträchtliche Popularität errungen, wenn auch nicht unbedingt beim traditionellen Publikum Klassischer Musik.


Minimal Techno

Als Minimal Techno bezeichnet man eine Stilrichtung des Techno, die sich durch minimalistische Arrangements auszeichnet. Es ist im Wesentlichen eine experimentelle Weiterentwicklung des traditionellen Techno aus Detroit. Als Urvater gilt der DJ und Produzent Robert Hood, dessen Album Minimal Nation (1994) viele Produzenten beeinflusste.

Beschreibung

Meist bestehen die Minimal-Techno-Tracks nur aus den typischen Four-To-The Floor Drums (klassisch hierfür die Sounds des Drumcomputers TR-909), Synth-Bass und Effekten. Es wird mit einzelnen Klängen, Klangvariationen und Unregelmäßigkeiten in der sonst monotonen Struktur der Komposition experimentiert. Oft werden überraschende Effekte oder fragmentierte Melodien eingestreut. Grundsätzlich ist Minimal Techno dennoch atonal, es gibt aber einige Ausnahmen.

Durch die eher niedrige Geschwindigkeit und die starke Monotonie kann diese Musik sehr hypnotisch wirken und wird sowohl auf der Tanzfläche, als auch im Chill Out-Floor gespielt.

Eng verwandt mit dem Minimal Techno ist der Minimal House (auch „Microhouse“ genannt). Der Unterschied liegt größtenteils in der niedrigen Geschwindigkeit und der oft angedeuteten Verbindung zum Funk.

Geschichte

Nach verschiedenen Werken von Richie Hawtin, Moritz von Oswald und Mark Ernestus und anderen, die bereits minimale Strukturen aufwiesen, gilt Robert Hoods 1994 erschienenes Album Minimal Nation als eigentlicher Ursprung der Minimal-Techno-Entwicklung.

1995 veröffentlichte der Brite Gerrard Varley unter seinem Pseudonym G-Man eine E.P. mit der Komposition Quo Vadis, die heute als Meilenstein des Genres gilt und 1999, sowie 2007 im Zuge der neuen Minimal-Bewegung, neu aufgelegt wurde.

In Deutschland wurde die Idee des Techno-Minimalismus in erster Linie von Wolfgang Voigt und Stefan Brügesch (Steve Bug) aufgegriffen und weiterentwickelt. In diesem Zusammenhang sind auch Voigts Studio 1-Schallplatten als wegweisende Veröffentlichungen zu nennen.

Nachdem das Genre eher die Form einer Randerscheinug innerhalb der boomenden Techno-Szene hatte, gewann es Anfang des 21. Jahrhunderts durch junge Interpreten zunehmend an Bedeutung und entwickelte sich in Mitteleuropa zur angesagten Club-Musik. Mit einer breiten Palette an erfolgreichen Plattenlabels und -distributoren wie beispielsweise Kompakt, Poker Flat Recordings, M_nus, Perlon, Freude am Tanzen oder Trapez festigte sich Deutschland seine Position als Zentrum dieser musikalischen Bewegung.

Interpreten

Erfolgreiche Interpreten im deutschsprachigen Raum sind Dominik Eulberg , Matthias Tanzmann, Wolfgang Voigt (alias Mike Ink), Steve Bug, Thomas Brinkmann, Florian Meindl sowie das Produzentenduo Moritz von Oswald und Mark Ernestus. Die Minimal-Techno-Szene der Stadt Köln, für die vor allem Voigts Label Kompakt steht, wurde auch international bekannt (teilweise wurde dafür der Begriff Sound of Cologne verwendet). Weltweit zählen Richie Hawtin, Troy Pierce, Robert Hood, John Tejada, Robag Wruhme, Daniel Bell, Magda und Ricardo Villalobos zu den populärsten Vertretern.


Der Musikstil Tech House, manchmal auch mit Tech abgekürzt, ist ein Untergenre der elektronischen Tanzmusik, das etwa Mitte der 1990er Jahre entstand. Die Musikrichtung soll eine Fusion aus Techno und House sein.

Der Begriff ist wie viele andere sogenannte Genrebezeichnungen in der Elektronischen Tanzmusik nicht unumstritten, da sich die Musikrichtung sowohl zu Techno als auch zu House nicht ohne weiteres abgrenzen lässt und sich zudem mit mehreren anderen Richtungen (zum Beispiel Progressive House, Hardhouse, aber auch Minimal Techno) überschneidet. Teilweise wird sogar Musik, die eindeutig dem Techno zuzuordnen ist, nur kurz „Tech“ genannt.

Tech House charakterisiert sich meist durch einen rhythmischen Sound, der reduzierte melodische Elemente beinhaltet. Die Geschwindigkeit ist etwas höher als im traditionellen House (meist 125 bis 135 bpm), aber langsamer als bei den meisten Techno-Stilen. Der beim House charakteristische Rhythmus aus punktierten Sechzehnteln wird im Tech House minimalistisch umgesetzt, jedoch noch so, dass man die damit verbundenene Funkyness noch bemerken kann. Sounds akustischer Instrumente oder Vocals werden häufig synthetisch imitiert. Es finden sich kurze Tonsequenzen, oder auch minimale Moll-Akkord-Flächen und atonale Sounds.

Tech-House-Tracks werden in Diskotheken oft als sogenannter „Lückenfüller“ verwendet, weil sie sich für das Mixing mit vielen anderen Genres wie zum Beispiel Dance, Italo-Dance und Techno gut eignen. Wahre Connaisseure des Genres, die es z.B. in der Tradition der Minimal Music sehen, würden ein puristisches Instrumentalset sicher bevorzugen.


Touch OSC mit Max/MSP verbinden

Open Sound Control in Windows über TouchOSC umsetzen:

http://www.cycling74.com/forums/topic.php?id=18065

http://hexler.net/software/touchosc-android

http://hexler.net/docs/touchosc-setup-other – hier ist erklärt, wie Touch-OSC mit anderen Geräten und anderer (Musik-)Software, wie Max/MSP, Midi-tools wie Cubase, Logic, Ableton Live, etc kommunizieren kann. Für Max/MSP gibt es hier auch zahlreiche Patsches, im x.maxpat Format.

 

Cubase_Tastatur_04

Cubase Tastatur Layout – zum selber machen

Anleitung zum Erstellen einer Cubase Shortcut Tastatur. Zunächst diese PDF-Datei mit de Layouts für die Cubase Tastatur herunterladen und auf einfachem weißen Papier ausdrucken.

Nun die einzelnen Tasten ausschneiden.

[adsense_id=”2″]

Jetzt vorsichtig mit einem langen dünnen Gegenstand die Tasten einer Standart-Tastatur herauslösen. Ich benutze für das Cubase Tastatur-Layout  eine Standart Tastatur von Saitek (Gibt es in jedem Media-Markt für rund 8-9 €). die Saitek Tastatur hat ein angenehmes Feeling und eignet sich hervorragend zum Umbau bspw. einer individuellen Cabase Tastatur.

Nun einen ca. 5 cm langen Tesafilmstreifen zur Hand nehmen…

no images were found

Und dami,t wie auf dem Bild zu sehen, die Cubase-Taste in der Mitte fixieren. Mit ein wenig Übung gelingt das recht gut!!

[adsense_id=”2″]

Jetzt die überstehenden Enden bis auf ein kurzes Stück zum “Umschlagen” mit einer Schere kürzen…

Und diese Enden dann auf der Cubase umschlagen… Somit ist das Cubase-Layout auf der Taste ausreichend gut befestigt. Durch das Tesalfilm sind die Tasten auch nicht schmutzanfällig. Das Cubase-Layout hält locker mehrere Jahr!!

Jetzt die Cubase Tasten einsetzen – und FERTIG. Viel Spaß mit der selbst gebauten Cubase Tastatur!!

midi_key_editor_cubase

Der Midi Key-Editor – Tipps & Tricks zum Arbeiten mit den Cubase Key-Editor-Werkzeugen

Wichtige Tastaturbefehle bei der Arbeit im Cubase Key-Editor:

Alt+gedrückter Maus:  hiermit können sowohl Regions im Projektfenster als auch Midi-events im Key-Editor geschnitten und durch “gedrücktes Wegziehen” auch kopiert werden.

Shift+Strg: hiermit lässt sich der Velocity-Wert jedes Balkens direkt einstellen bzw. auf den gewünschten Wert ziehen.

[adsense_id=”2″ ]

gleichzeitig drückst, kannst du die Velocity (!) jedes Midi-Balken direkt einstellen/ziehen (steht nicht im Handbuch).

Alt:  zeichnest du Midi-Events (Balken) ein (ist dann Stift).

[adsense_id=”4″ ]

arduino_controller

MIDI-Controller für Cubase und zur Steuerung von VST-Instrumenten

Novation Nocturn & Cubase

 

http://www.cubase.net/phpbb2/viewtopic.php?t=133984&sid=e56c037e5e7b8dfb8927e366db38eeee

 

Behringer BCR 2000 & Cubase

http://witez.blogspot.com/2007/11/cubase-41-und-behringer-bcr2000.html?showComment=1315756094500#c2126514789461404463

 

Kenton Killamix Mini & Cubase

 

Tipp im Umgang mit Cubase und Midi-Controllern bei Instrumentenspuren

Um Doppelbelegungen zu vermeiden bieten sich folgende Optionen an:

  • Explizit den MIDI Input der MIDI/Instrument Spur auf das Eingabemidiinterface welches Du für das VSTI benutzen willst umstellen und nicht auf All MIDI Inputs stehen lassen
  • Oder unter Geräte konfigurieren->MIDI->MIDI-Anschluss-Einstellungen das Häckchen in der Spalte “In ‘All MIDI Inputs'” für die Mackie Control MIDI Interfaces entfernen
  • Oder die MIDI Zurdnung in den Plugins umstellen/entfernen

Arduino Board mit MaxMSP verbinden (Maxuino)

Max MSP lässt sich mittlerweile über eine Vielzahl an Möglichkeiten mit dem Arduinoboard verknüpfen. Nach einigem Testen ist mein Favorit Maxuino.

 [adsense_id=”2″]

In kurzform wird folgendes benötigt:

  • Max/MSP
  • Arduino Board
  • routeOSC (erwiterung für Max/MSP zur Verarbeitung von OSC-Daten)
  • arduino.maxpat (Objekt zur Kommunikation von Max/MSP zum Arduino-Board)
  • Firmata Library

Besser als das folgende Tutorial kann ich es auch nicht beschreiben:

http://www.soundplusdesign.com/?p=1305

 

 

 

N.I. Absynth 5 – wichtige Infos, Tipps & Links

Absynth @ KVR:
http://www.kvraudio.com/get/107.html

Absynthsounds: Seite von Simaon Stockhausen mit diversen Absynth Patches, Absynth Tutorials, usw. Nach einer einmaligen Paypal-Zahlung von 22€ erhältst du vollen Zugriff auf sämtliche Absynth-Sounds  http://www.absynthsounds.com/ 

Banks & Patches @ KVR-Audio:
http://www.kvraudio.com/banks.php?s=list&what=107

[adsense_id=”4″]

Absynthblog von Simon von Stockhausen: http://absynthsounds.blogspot.com/

Absynth Presets von KVR: Gratis Native Instruments Absynth Patches zum Download bei KVR-Audio: http://www.kvraudio.com/banks.php?s=list&what=107&format=&order=date

[adsense_id=”4″]

nativeinstruments4control

4CONTROL von Native Instruments – Wie wird dieser Controller verwendet?

Hallo,

 

vor germaumer Zeit hat mir ein bekannter einen “4Control” Midi Controller von N.I. geschenkt. Wenn ich diesen nun an mein MIDI-Interface anschließe, so kann ich damit nicht wie Midiüblich in 127 Schritten schalten… Sondern die Werte stehen fast immer mittig und flackern maximal einen Wert nach links und einen nach rechts…

Hab gehört, dass hier irgendwie mit 2x 7 Bit gearbeitet wierd, um eine höhere Auflösung zu bekommen (wie beim Pitch-BendingRad)… Stimmt das ? Dann wäre dies aber nicht Midi-kompatibel… Brauche ich ggf. zum Betreiben der “4-Control” ein zusätzliches Tool?

 

Danke!!!

Semantische audioanalyse – Klang auf Bedeutung reduzieren

[adsense_id=”4″]

[adsense_id=”2″]
—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

—————————————————————–

Klangfarbe (auch Timbre)- als bedeutender psychoakustische Parameter zur ästhetischen Klangempfindung

Die Klangfarbe gillt als einer der wichtigsten psychoakustischen Parameter. Theoretisch entspricht die Klangfarbe der Art & Anzahl von Partialschwingungen, sowie spektralen Geräuschanteilen. Dennoch ist der psychoakustische Parameter Klangfarbe physikalisch nicht eindeutig beschreibbar.

Mit zunehmender Anzahl und Intensität von Obertönen gewinnt der Klang an Schärfe.


Links zum Thema Klangfarbe:

Klangfarbe-Wikipedia-Artikel

Die LED- Erklärungen, Anleitungen und Tipps zum elektronischen LED-Bauteil

LED Vorwiderstandsrechner

weiterer Vorwiderstandsrechner für Reihen & Parallelschaltung

Eine Leuchtdiode benötigt unbedingt eine geregelte Stromzufuhr. Vorwiegend wird diese durch einen Vorwiderstand umgesetzt. Der Vorwiderstand sorgt dafür, dass zuviel Spannung oder Strom die LED nicht zerstört. Als erstes ein paar Werte von den LEDs:
Es gibt Low-Current-LEDs (Niedrig-Strom-LEDs) und die „normalen“ LEDs.
Die Low-Current-LEDs benötigen zum Leuchten nur einen Strom zwischen 2 und 5 mA.
Die anderen vertragen Ströme bis zu 30 mA (Richtwert ist 20mA!).
Die Spannung, die eine Diode zum Leuchten benötigt, ist von der Farbe der LED abhängig.
Hier ein paar Werte: (Alle LEDs die hier aufgeführt sind superhell)
Rot Spannung: 1,85 V Strom: 30 mA
Grün Spannung: 3,3V Strom: 20 mA
Gelb Spannung: 2,0 V Strom: 30 mA
Blau Spannung: 3,5 V Strom: 20 mA
Weiß Spannung: 3,5 V Strom: 20 mA
Pink Spannung: 3,6 V Strom: 20 mA
Violett Spannung: 3,6 V Strom: 20 mA
Türkis Spannung: 3,8 V Strom: 20 mA

So, was bedeutet das jetzt für den Anwender? Ganz einfach, das sind die Werte, die die Dioden aushalten. Alles was darüber ist, muß ein Vorwiderstand übernehmen.
Berechnung des Vorwiderstandes:
Die Formel dafür ist:
Wert d. Widerstandes = (Gesamtspannung – LED-Spannung) / Strom
Beispiel:
Du hast eine Spannung von 12 V und willst eine blaue LED anschließen.
Also, die Spannung, die der Widerstand verarbeiten muß sind:
12 V – 3,5 V = 8,5 V
Der Strom, den die LED aushält sind 20 mA. Daraus folgt der Widerstandswert:
8,5 V / 20 mA = 425 Ohm. Bei diesen Werten kommt oft eine ungerade Zahl heraus, die man nicht als Widerstandswert im Katalog findet. Deshalb nimmt man den nächsthöheren Wert, um die LED nicht zu gefahrden, hier z. B. 470 Ohm.

Wie muß jetzt das alles angeschlossen werden?
Plus –> Widerstand –> LED –> Minus

Massive Wobble Bass Video Tutorials (Dubstep, drum n bass)

[adsense_id=”4″]
In musikrichtungen wie Drum n´Bass oder auch Dubstep wird der Bass als stilprägender “Wobble Bass” gespielt. Dieser Sound wird neben dem Sound Design der Klangfarbe hauptsächlich durch entsprechende LFO-Modulationen des Low-Cut-Filters erzeugt. Wie die am Beispiel des Native Intruments Massive-Sysnthesizers erreicht wird, zeigt folgendes Videotutorial:

___________________________________________

___________________________________________

transistor_elektronik_bauteil

Der Transistor- Erklärungen, Anleitungen und Tipps zum elektronischen Transistor-Bauteil

[adsense_id=”2″] 

Transistoren sind Bauelemente zur Verstärkung kleiner Ströme. Die Anschlüsse eines Transistors heißen Emitter (E), Basis (B) und Kollektor (C). Bei beiden Transistoren liegt der Basisanschluss in der Mitte. Der Emitter liegt rechts, wenn Sie auf die Beschriftung gucken und die Anschlüsse nach unten zeigen.

[adsense_id=”4″]

Audio-Patchkabel günstig selberbauen – 6,3 Audio-Klinkenstecker Belegung

Anleitung zum Löten von 6,3mm Klinke Patchkabel>>>>>

[adsense_id=”2″]

Patchkabel sind in der Anschaffung teilweise recht teuer. Neben der Kostenersparnis hat man beim Selbstbau auch gleich einen gewaltigen Einfluss auf die Qualität von Bauteilen und deren Verarbeitung.

Viele Fertig-Patch- Kabel würde ich heute nicht mehr kaufen. Die NAchteile liegen auf der Hand: Verschweißte Stecker, Billige Kabel. Ein weiterer Riesenvorteil: Man kann exakt die gewünschten Längen bei den Patch-Chrds erstellen.

Beim hochwertigen Eigenbau können auch im Nachhinein gebrochene Lötstellen problemlos repariert werden. Zuguterletzt klingen Qualitäts Patch-Kabel deutlich besser!

Zunächst benötigen wir zur Herstellung eines 6,3mm Klinken-Patch-Kabels 2 6,3mm Klinkenstecker (mono) Und ein 2 Adriges Kabel. Je dicker das Kabel ist, desto besser ist die Audio-Übertragung. Hierbei muss es sich jedoch nicht zwangsläufig um sog. Hifi-audio-Kabel handeln.

Allerdings sollte eine Ader des Kabels farblich markiert sein (siehe Foto:  weißer Streifen auf einer Kabelseite). Damit können wir Das Massekabel deutlich vom Signalkabel unterscheiden.

Würde ein Kabelende an den Signalanschluss des 6,3mm Klinkenstecker und das andere an die Masse des anderen Klinkensteckers angeschlossen werden, so würde dieses Kabel eine Phasendrehung um 180°Grad verursachen. Eine Solche Phasendreuhng kann bei Audio-Signalen verherende Folgen haben. Der schlimmste Fall wären komplette Auslöschungen einiger akustischer Klanganteile.

[adsense_id=”2″]

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Ob für die Nutzung mit Patchbays oder zur Verkabelung von externem Audio-/ Studio-Equipment: Patch-Chords sind nützliche Helfer, von denen stets eine gewisse Anzahl in jedes Musikstudio gehört.

SonicSystem-Tipp: Eine Streifen farbiges Isolierband an dedem der beiden Stecker macht das Patchen erheblich einfacher. So können sofort die Kabel besser zugeordnet werden (siehe das Foto mit den farbigen Patch-Kabeln an der Patch-Bay).

grosser_kondensator

Der Kondensator- Erklärungen, Anleitungen und Tipps zum elektronischen Kondensator-Bauteil

[adsense_id=”2″]

Ein Kondensator ist ein wichtiges elektronisches Bauteil, welches aus zwei dicht aneinanderliegenden Metallflächen und einer Isolierschicht besteht. Wird Gleichstrom an einen Kondensator angeschlossen, so wird dieser solange elektrisch aufgeladen, bis seine Spannung so groß ist, wie die Spannung der Stromwuelle. sobald dieser Fall eingetreten ist, fließt kein Strom mehr und der Kondensator wirkt wie ein unendlich großer Widerstand. Ein Kondensator mit großer Metallplattenfläche und geringem Plattenabstand hat eine große Kapazität, speichert also bei einer angelegten Spannung viel LAdung. Diese Kapazität eines Kondensators wird in Farad (F) gemessen. Besonders große Kapazitäten werden mit Elektrolytkondensatoren (Elkos) erreicht.

Der Minuspol ist in der Regel durch einen weißen Streifen gekennzeichnet und hat einen kürzeren Anschlussdraht.

1000 pF

2 µF

3,9 nF

[adsense_id=”4″]

Bauanleitung: Elektret-Kondensator Mikrofon selber Bauen mit Schaltplan

Hier entsteht ein Artikel zum Selbstbau eines Elektret-Kondensator-Mikrofons.

[adsense_id=”2″]

Ein ELektret Kondensator Mikrofon mit den technischen Daten:

Frequenzbereich 35...18000 Hz, Impedanz 2,4 kΩ, Empfindlichkeit -72 dB,
Betriebsspannung 1,5...10 V-. Maße (ΩxH): 9,8x5 mm.

[adsense_id=”2″]

Grundschaltung, um das Elektret-Kondensator Mikrofon mit Strom zu versorgen

So sieht diese Grundschaltung (siehe Zeichnung zuvor) auf einem Steckbrett aus. Das Elektret Kondensator Mikrofon kann nun an ein Mikrofon-Vorverstärker (Preamp) direkt angeschlossen werden.

[adsense_id=”4″]

SonicSystem-Tipp: Schaltpläne für Mikrofon Vorverstärekr und Röhren-Verstärker

elektret_steckbrett

Elektronik Grundlagen/Schaltungsbau

Hier ein paar nützliche Links und Tipps zum Bau von elektronischen Schaltungen:

http://www.elektronik-kompendium.de/

Tipp: http://www.talkingelectronics.com
(Viele ELektronische Bauanleitungen mit Schaltungen/Schaltplänen)

http://www.mikrocontroller.net/articles/Elektronik_Allgemein

Literaturtipps:

Make: Elektronik: Lernen durch Entdecken

Vom Widerstand zum Schaltkreis: Messen, Prüfen, Bauen, Experimentieren- http://www.amazon.de/Vom-Widerstand-zum-Schaltkreis-Experimentieren/dp/3881803939/ref=pd_sim_b_2

Von der Schaltung zum Gerät: Die 63 besten Elektronik-Projekte- http://www.amazon.de/Von-Schaltung-zum-Ger%C3%A4t-Elektronik-Projekte/dp/388180823X/ref=pd_sim_b_6

Was ist ein gutes Mikrofon für Gesang & Instrumente im Tonstudio?

Jörg Wuttke hat zwei bisher unveröffentlichte unbedingt lesenswerte Mikrofonaufsätze ins Internet gestellt, die besonders für junge Mikrofon-User gedacht sind, die nach klanglich groß machenden, extra positiv-färbenden Mikrofonen ganz speziell für Flöte, Saxophon, Geige, Flügel oder schwache Stimme suchen; also das wäre quasi der ganz besondere “Löffel nur für Erbsensuppe” Laughing

[adsense_id=”4″]

>>> Zitiert von Eberhardt Sengpiel, von dem ich auch die Links habe :)

“Was ist ein gutes Mikrofon?” – Vortrag, gehalten auf der 23. Tonmeistertagung 2004
http://www.cms.ingwu.de/index.php?option=com_content&view=article&id=67:19-was-ist-ein-gutes-mikrofon

[adsense_id=”4″]

“Wissenswertes rund ums Mikrofon” – Vortrag, gehalten auf der 24. Tonmeistertagung 2006
http://www.cms.ingwu.de/index.php?option=com_content&view=article&id=68:20-wissenswertes-rund-ums-mikrofon

Mikrofon-Aufnahme-Technik

Welches Mikrofon ist das richtige, ein Großmemran-Mikrofon? Oder hat ein Kleinmembran-Mikrofon auch große Vorteile? Die Videovorträge über “Studio Know-how – Das Mikrofon” sind bei einem Vortrag von
Dipl-Ing. Joerg Wuttke im Mai 2009 an der Hochschule der Medien Stuttgart entstanden. Sie enthalten viel geballtes Wissen zum Thema Mikrofontechnik bei der täglichen Arbeit im Musikstudio.

[adsense_id=”2″]

________________________________________________________________________
Block 1 – Teil 1 – Physik und Emotion in der Audiotechnik
[adsense_id=”2″]
________________________________________________________________________
Block 1 – Teil 2 – Das Großmembran-Dogma und dessen wahrer Kern

________________________________________________________________________
Block 1 – Teil 3 – Mikrofon- und Kabel-Vergleich

________________________________________________________________________
Block 2 – Teil 1 – Schallübertragung Mikrofon und das logarithmische Maß

________________________________________________________________________
Block 2 – Teil 2 – Schalldruck und Schallwelle

________________________________________________________________________
Block 2 – Teil 3 – Die Kugel & Der Kammfilter-Effekt

________________________________________________________________________
Block 2 – Teil 4 – Diffuser Schall & Das Schallfeld

________________________________________________________________________
Block 3 – Teil 1 – Der Frequenzgang

________________________________________________________________________
Block 3 – Teil 2 – Der Frequenzgang & tiefe Frequenzen

________________________________________________________________________
Block 3 – Teil 3 – Das Polardiagramm

________________________________________________________________________
Block 3 – Teil 4 – Polardiagramm & Frequenz

________________________________________________________________________
Block 3 – Teil 5 – Das PolarFlex-System

________________________________________________________________________
Block 3 – Teil 6 – Die Dynamik

________________________________________________________________________
Block 4 – Teil 1 – Druck- & Druckgradientenempfänger

________________________________________________________________________
Block 4 – Teil 2 – Richtcharakteristiken

________________________________________________________________________
Block 4 – Teil 3 – Grenzflächenmikrofon

________________________________________________________________________
Block 4 – Teil 4 – Richtmikrofon & Grenzfläche

________________________________________________________________________
Block 5 – Teil 1 – Praktische Gesichtspunkte

________________________________________________________________________
Block 5 – Teil 2 – Praktische Gesichtspunkte

________________________________________________________________________
Block 6 – Teil 1 – Einleitung Stereofonie

________________________________________________________________________
Block 6 – Teil 2 – Stereofonie-Systeme

________________________________________________________________________

Weiterer Vortrag auf YouTube (HdM Stuttgart) – 17 Teile
Mikrofone verstehen 01 – Zweifelhafte Mikrofonbeschreibungen
http://www.youtube.com/watch?v=6-ReOUTKwLw&feature=related
Mikrofone verstehen 02 – Grundlagengebiete
http://www.youtube.com/watch?v=euUlm0XzS6w&feature=related
Mikrofone verstehen 03 – Technische Daten in Datenblättern
http://www.youtube.com/watch?v=cEHYHFyEgkA&feature=related
Mikrofone verstehen 04 – Übertragungsbereich
http://www.youtube.com/watch?v=mYVWAyxbBGU&feature=related
Mikrofone verstehen 05 – Empfindlichkeit
http://www.youtube.com/watch?v=axqxiU_NBPs&feature=related
Mikrofone verstehen 06 – Grenzschalldruck, Bemerkung zum Dämpfungsschalter
http://www.youtube.com/watch?v=BDSoX6oVPkY&feature=related
Mikrofone verstehen 07 – Positionierung des Ersatzgeräuschpegels
http://www.youtube.com/watch?v=dEy-fxxS54I&feature=related
Mikrofone verstehen 08 – Bemerkung zu Zeitverhalten, der Phasengang
http://www.youtube.com/watch?v=ZeqGKG34dEY&feature=related
Mikrofone verstehen 09 – Frequenzgang bei einer Großmembran-Niere
http://www.youtube.com/watch?v=Fl49l4RhKdA&feature=related
Mikrofone verstehen 10 – Addition von Frequenzgängen
http://www.youtube.com/watch?v=AfUNxMEFEJg&feature=related
Mikrofone verstehen 11 – Frequenzgänge eines Mikrofons mit Kugelcharakteristik
http://www.youtube.com/watch?v=6k_oqNF-IxQ&feature=related
Mikrofone verstehen 12 – Polardiagramm, Frequenzgang, Schalleinfallswinkel
http://www.youtube.com/watch?v=DYE-DPfQIHM&feature=related
Mikrofone verstehen 13 – Schallfeldkomponenten
http://www.youtube.com/watch?v=fHbBPmqtYX4&feature=related
Mikrofone verstehen 14 – Veranschaulichung des Polardiagramms
http://www.youtube.com/watch?v=303PvkQYz4k&feature=related
Mikrofone verstehen 15 – Bemerkung zu Freifeld- und Diffusfeldmessung, das Bündelungsmaß
http://www.youtube.com/watch?v=LWZAqY4vAQM&feature=related
Mikrofone verstehen 16 – Konsequenzen bei der Mikrofonwahl
http://www.youtube.com/watch?v=3OU-TOn4tvI&feature=related
Mikrofone verstehen 17 – Der Innenwiderstand und Lastwiderstand
http://www.youtube.com/watch?v=MNKQ7mwC5VM&feature=related

________________________________________________________________________

________________________________________________________________________

usb_mobile_power_pack

mobiles Batterie-USB Ladegerät für smartphones, iPhone, Mp3 Player. etc.

Wer kennt es nicht: Gerade unterwegs, und der Akku des MP3-Players, das iPhones bzw. Android-Smartphones ist leer-Ein Ladegerät muss her. Nur hat man gerade kein Ladegerät noch eine Steckdose vorhanden. Die mobile Stromlösung: ich benötige ich ein mobiles Ladegerät/-system, was ich stets dabei habe und das mein Gerät mit USB Anschluss mobil mit Strom versorgt bzw. den Akku meines Telefons unterwegs auflädt!!

 [adsense_id=”2″] Ich habe einen einfachen USB-Power-mobile-charger gebaut. Allerdings fehlt hier eine aktive Elektronik zur Regelung des USB-Ladestroms und der Ladestrom-Stärke. Eine solche Elektronik holt auch den letzten Rest aus einer Batterie und lädt das mobile Endgerät (iPhone, Smartphone, mp3-player) wesentlich effektiver. Besonders durch die aktuelle Einigung einiger Handy-Hersteller zur gemeinsamen Verwendung des mini-USB-Anschlusses zum Laden der Handys wird das USB-Ladegerät bzw, mobile USB-Akku-Packs zunehmend bedeutsamer und universeller. [adsense_id=”4″]

Ich habe mein USB-Ladegerät letztendlich mit einer USB-Buchse versehen. So lassen sich sämliche Geräte mit X-beliebigem USB-Anschluss mobil aufladen. Diese USB-Ladegerät mit 4 x 1,2 Volt (durch die 4 NiMH-Akkus) kommt also ganz ohne elektronik aus.

Hier ist eine Bauanleitung für ein mobiles USB-Ladegerät (Battery-Power-Pack) fürs iPhone, Smartphone mp3-Player und sonstige mobile Geräte mit USB-Ladeanschluss… (Minty Boost: Portable USB power by Lady Ada) – Der unterschied zu meiner Variante: Hier ist definitiv eine Ladeelektronik notwendig, da ja nur 2 Batterien zum LAden verwendet werden…

>>>>>>das selbstgebaute mobile USB-Ladegerät!!

Arbeiten mit Hitpoints im Cubase Audio-Sample-Editor

[adsense_id=”2″]

Wenn die Maus in den rot markierten Bereich gelangt, wird der Mauszeiger automatisch zum Ein- & Ausschalt-Tool der Hitpoints. Nach einem Klick ist der jeweilige Hitpoint noch vorhanden, jedoch inaktiv.

Ausserhalb des roten Bereichs wird der Mauszeiger zum Wiedergabe-Tool der einzelnen Slices (Bereiche zwischen den gesetzten Hitpoints).

[adsense_id=”4″]

Strg + Maus: Durch drücken der Strg-Taste wird der Mauszeiger zum Löschen-Tool (Radiergummi). Durch Klicken auf einzelne Hitpoints bei gedrückter Strg-Taste werden folglich Hitpoints dauerhaft gelöscht. Achtung: Bewegt man die Maus bei gedrückter Strg-Taste wiederum in den roten Bereich, so können einzelne Hitpoints auch gesperrt werden. Regelt man jetzt bspw. den Empfindlichkeitsregler zum automatischen Setzten von Hitpoints an Transienten herunter, so bleiben einmal gesperrte Hitpoints stehen!!

Alt + Maus: Durch drücken der Alt-Taste wird der Mauszeiger zum Stift-Tool, mit dem sich manuell Hitpoints an gewünschten Stellen setzten lassen. Manuell eingezeichnete Hitpoints sind zunächst alle gesperrt. So kann auch im Nachhinein der Empfindlichkeitsregler verstellt werden, ohne dass die mauelenl gesetzten Hitpoints dabei gleich entfernt würden.

Behringer BCR 2000 als Channel EQ Controller nutzen

Overlays und Zip-File zum flashen der BCR 200 als 14 Bit Steuergerät / Controller für Cubase.
Die xcf Dateien sind die Overlays im GIMP Format falls jemand noch was ändern möchte. Die Frequenz, Quickcontrols und Gaineinstellungen sind 14Bit Nachrichten und können die Wertebereiche mit 16384 Stufen einstellen.
Das ist besonders für den Frequenzbereich sehr genau und ermöglicht präzise Eistellungen. Normale Midi-Controller arbeiten nur mit einer Auflösung von 8 Bit. Da das erste Bit für die Message-Codierung draufgeht, bleibt ein resultierender Wertebereich von 0- 127 = Ungenau.

Ihr müsst die mp3 Datei in zip umbenennen (man kann hier sonst keine zips uploaden).
Hier die Overlays

[adsense_id=”4″]

[adsense_id=”2″]

Hier die zip-Datei zum flashen der BCR 2000

Die Overlays und die Datei wurden von Beatback (Recordingforum) erstellt und von mir nochmals in diesem Artikel aufgeführt!!

arduino_mega_01

Arduino Interfacing Pure Data – Die Verbindung des Arduino-Boards mit Pure Data

Arduino Interfacing Pure Data – Mehrere Möglichkeiten auf der Pure Data Seite gegenübergestellt: hier der Link

Firmata: Interfacing Pure Data mit Firmata im Detail: Das Firmata 2.2 release ist nun ofizieller Bestandteil der Arduino 0019 Software!!

Firmata Test-Tool zu Firmata 2.2

Pduino-0.5beta6-mega.zip – Für Arduino-Mege – Identisch zum “normalen” Pure data, alerdings inkl. aler 16 Analog inputs + Checkboxen, um die Arduino-Inputs einzeln zu aktivieren.

Firmata Main-Page

Um Firmata mit Pure Data nutzen zu können, benötigt man neben Firmata auch eine Kopie von PDuino