KNÖPFE - SCHALTER - PUNKTDISPLAYS 167 ne umfangreichen Bedienungselemente ausgelegt. Klangprogrammierende Musi-ker sind damit wieder angewiesen auf das begrenzte Display. Wenngleich aufgrund kostengünstig werdender Bauteile vielfach größere Displays in Nachfolgemodellen Verwendung finden, ist dies keineswegs ein zu verallgemeinernder Automatismus. Viele Hardwarekomponenten sind selbst der Schrumpfung unterworfen und lassen schlechterdings überhaupt keinen Platz weder für größere Displays noch für die wenigen verbliebenen Klangparameterkontrollen. Mit der Materialität schrumpft auch das Display wieder, und zurückbleiben schlichte syntheserelevante Ziffernan-gaben. Bedienungselemente sind bei solchen Geräten nicht nur auf das absolute Minimum reduziert, sondern sie nehmen sich so winzig aus, daß sie kaum mehr greifbar sind und Parameterveränderung zur Geduldsarbeit gerät. „Die Elektronik ist keine Technik zum Anfassen mehr“1, schreibt denn auch Jochen Gros, und so nimmt es kein Wunder, daß zuweilen sogar auf diese wenigen Bedienungselemente völlig verzichtet wird. Klangeditierung ist zwar weiterhin möglich, doch nur noch mit Hilfe eines extern betriebenen Softwareprogrammes. „Wenn [...] die Produkte demnächst erst einmal sprechen und hören lernen, dann schrumpfen uns auch noch die Knöpfe und Schalter im wahrsten Sinne des Wortes unter den Händen weg. Die Mensch-Maschine-Schnittstelle wird dadurch zum ‘Voice-Interface’. Ohne den Widerstand aber, den die Bedienungsfläche noch der Miniaturisierung entgegensetzt, kann die Elektronik fast unbegrenzt weiter-schrumpfen.“ 2 Bis dahin ist es noch ein weiter Weg, da Computertechnologie bei der für ein jedes Hören notwendigen Gestalterkennung noch weitgehend versagt und wohl auch in Zukunft noch versagen wird.3 Wohl mögen Computer sprechen lernen, und sie tun dies allerorten auch schon, doch umgekehrt, bei dem Versuch, aus dem Hintergrundrauschen Sprachlaute herauszufiltern und obendrein darin auch noch den gemeinten Sinn zu entdecken, sind Computern schnell ihre Grenzen gesetzt4. Aber auch ohne vernünftige Spracherkennung schrumpfen schon jetzt die 1 Gros, Jochen, zitiert nach Rötzer, Florian: Mediales und Digitales, a.a.O., S. 35/36 2 Ebd., S. 35/36 3 Vgl. auch Foley, James D.: Neuartige Schnittstellen zwischen Mensch und Computer. In: Computeranwendungen (Spektrum der Wissenschaft). Heidelberg 2/1990, S. 106/107 4 Das „Verstehen von kontinuierlichem Sprechen“ Computern als technische Fertigkeit zu implementieren, ist bislang kein überragender Erfolg beschieden, und „so hat sich der Versuch, eine formale Theorie zu finden, die dem Computer diese Fertigkeit eben-falls ermöglicht, selbst im mit Enttäuschungen übersäten Gebiet der CUU [= Compu-terunterstützte Unterweisung, Anm. d. Verf.] als herausragende Enttäuschung erwie-sen.“ (Dreyfus, Hubert L./Dreyfus, Stuart E.: Künstliche Intelligenz, a.a.O., S. 195). Daß dies auch in Zukunft so bleiben wird, ist Folge dessen, daß nicht allein das Wis-sen um syntaktische Strukturen von Sprache und das Wissen um Wortbedeutungen Verstehen garantiert, sondern darüber hinaus der Kontext, in dem Wörter und Sätze gesprochen werden, maßgeblich den Sinn mitbestimmt. Wörter und Sätze sind also si-tuationsabhängig, einen kontextunabhängigen Bedeutungskern, der notwendige Vo-raussetzung für verstehende Computer wäre, gibt es nicht. (vgl. dazu: Winograd, Ter-ry/ Flores, Fernando: Erkenntnis Maschinen Verstehen, a.a.O., S. 180-209). Auch mit