204 Angewandte Neue Instrumentenkunde Der Komplexität virtueller Klangerzeuger konnte letztlich nur mit einer Virtualisie-rung des Interfaces Rechnung getragen werden. Ein Beispiel dafür, dass die zuneh-mende Verfügbarkeit berührungsemp1ndlicher Bildschirme jedoch nicht an sich mit Trivialisierung einhergeht, war die Einführung des Touchscreen-Controllers Lemur (Abb. 5.14), der über den OSC- bzw. MIDI-Standard mit dem Computer kommuni-ziert. Der Lemur brachte zunächst zwar » Touch-Control « ausgesuchter Programm-funktionen, behielt gleichzeitig jedoch das eher unfexible, starre Mapping seiner virtuellen Kontrollelemente und der Klangerzeugungssoftware bei. Einfacher wur-de der Umgang mit ihm – jedenfalls für User des schon mehrfach erwähnten Pro-gramms Live der Berliner Firma Ableton – erst über die Nutzung der noch komple-xeren Software Max/MSP als Mittler zwischen Lemur und Live:94 Eine direkte Spie-gelung von Programmfunktionen auf dem berührungsemp1ndlichen 13\"-Bild-schirm des Lemur machte manuelle Zuweisung überfüssig. Das Mapping zwischen virtuellem Klangerzeuger und physischem Körper wird damit automatisiert und die lang schon kritisierte Unterscheidung real/virtuell weiter nivelliert.Während der Lemur Interface blieb und hier noch durchaus eine Trennung von Generator (Programm) und Interface (jetzt ebenfalls Programm) wahrgenommen werden konnte, wurde die Verbindung von beiden mit Einführung von Tablet-PCs (z. B. iPad von Apple, Xoom von Motorola, Playbook von RIM) weiter automati-siert. Auch hier – wie in 5.3.3 beschrieben – propagieren einige Anwendungen (z. B.touchAble) noch die Wiederholung einer Funktionalität des Tablets als Interface (Spieltisch) für den Klangerzeuger (Programm/virtuelles Instrument), selbst wenn das Mapping, die Zuweisung von Kontroll- und Programmfunktionen, zunehmend automatisch erfolgte. Wenn Programme jedoch nicht bloß » Kontrollfunktion « über-nehmen, sondern nativ 95 zur Klangerzeugung auf Tablets eingesetzt werden, wird die Linie der musikalischen Interfaces (vom Orgel-Spieltisch über MIDI-Masterkey-boards, Faderboxen bis hin zum touchable controller Lemur und den Fernsteuerungs-Apps aus 5.3.3) durchbrochen, respektive beendet. Nach manuellem Mapping von Hardware-Controller und Software, automatischem Mapping von Hard- und Soft-ware und automatischem Mapping zwischen Software und Software wird hier deutlich, dass Mapping durch den User, auch mit automatisierten Verfahren, nicht mehr notwendig ist.Die klingenden virtuellen Formen der Instrumenten-Apps stehen für nichts an-deres als sich selbst, sie sind keine Fernbedienung, keine Verweise auf etwas Ande-res, Externes.96 Durch die Notwendigkeit der Verbindung der verschiedenen Teile wird – so ließe sich sogar schlussfolgern – die Unterscheidung von Interface und 94 In Form von » Max4Live « , dass Max/MSP direkt in Ableton Live integriert und so die Entwicklung ei -ner Spiegelung der Programmoberfäche auf dem Touchscreen des Lemurs ermöglichte, siehe auch Vi -deo auf http://www.jazzmutant.com/mu.php, Zugriff am 6.5.2011.95 Als die Rechenleistung der PCs Klangerrechnungen in Echtzeit erlaubte, entstand eine vergleichbare Entwicklung. Statt Synthesizer nur über MIDI-Sequenzer anzusteuern, konnten Programme direkt (nativ) auf den Rechnern installiert werden. Daher der Firmenname » Native Instruments « . Klanger-zeuger-Apps sind die nativen Instrumente heutiger Tablets.96 Es sei denn, sie sind Simulationen schon bekannter Instrumente, z. B. legendärer analoger Synthesizer.Doch dies ist eine andere Form des Verweises.