Call for Papers

CfP: „Akustische Interfaces“

Kooperative Tagung der AG „Interfaces“, der AG „Auditive Kultur und Sound Studies“ sowie der AG „Medienwissenschaft und Dis/Ability Studies“ der Gesellschaft für Medienwissenschaft (GfM)

Zeit: 4.– 6. Mai 2022.

Ort: Humboldt-Universität zu Berlin, Medientheater, Georgenstraße 47 in 10117 Berlin.

Deadline: 15.01.2022


Interfaces, verstanden nicht nur als Schnittstelle und Ort zwischen zwei (oder mehr) Entitäten wie Maschine/Maschine oder Mensch/Maschine, sondern als Medien der Darstellung und Repräsentation von Daten sowie als Kommunikations-, Interaktions- und Kooperationsbedingungen, werden in der Medienwissenschaft häufig primär unter visuellen Gesichtspunkten thematisiert. Forschungen zur auditiven Ausgestaltung von Interfaces sind demgegenüber immer noch vergleichsweise rar. Matthew Kirschenbaum (2008) attestiert den New Media Studies einen „prevailing bias […] toward display technologies“. Erkki Huhtamos begrifflicher Vorschlag einer „Screenology“ für ein disziplinäres Feld, welches sich mit Screens als „information surfaces“ beschäftigen solle, kann dafür als ebenso programmatisch gelten wie Lev Manovichs prospektiver Attest, unsere Gesellschaft sei eine „society of the screen“.

Mittlerweile hat sich ein kultursemiotisch, bildwissenschaftlich und diagrammatisch differenziertes Beschreibungsvokabular für die Analyse visueller HCI-Metaphern und ästhetischer Gestaltungskonventionen herausgebildet, filmwissenschaftliche Konzepte werden auf Interfaces übertragen (z.B. Jan Distelmeyers Vorschlag der „Interface-Mise-en-Scène“) und selbst noch die Beschäftigung mit APIs (Programmierschnittstellen) und anderen infrastrukturellen Tiefenaspekten des Interface-Komplexes bedient sich primär Netzwerkdiagrammen und Datenvisualisierungen. Wie aber lassen sich die Ästhetiken, Praktiken und Dispositive akustischer Interfaces studieren? Welche Begriffe und Konzepte bieten medienwissenschaftliche Ansätze, wobei diese und weitere mitunter eine Verschiebung hin zu Prozessen des Interfacing nahelegen? Wie ist die vermeintliche Flüchtigkeit sonischer Interaktion und Kooperation oder akustischer Repräsentation adressier- und beschreibbar?

Neben jüngeren Ansätzen im Feld der „Ludomusicology“ (Fritsch/Summers 2021), die sich dem im Diskurs zu digitalen Spielen vernachlässigten Aspekt des Musikalischen widmen, und dem für das Thema maßgeblichen Band Auditory Display (Kramer 1994), adressiert der Begriff „akustische Interfaces“ auch Fragen jenseits des musikalischen Designs und inkludiert ebenso Aspekte, die sich nicht unter dem Begriff auditiver Ästhetik oder allein der Übertragung von Bedeutung durch Sprache subsumieren lassen. Der begriffliche Vorschlag eines Fokus’ auf „akustische Interfaces“ ist zudem breiter gefasst als eine Analyse medientechnischer Verfahren der Sonifikation, d.h. der Hörbarmachung originär nicht-akustischer Phänomene zum Zweck des Erkenntnisgewinns. Der Interface-Begriff zielt nicht exklusiv auf Wissensproduktion ab, sondern steht grundlegender für die Bedingung, Ermöglichung sowie Begrenzung von Kommunikation beziehungsweise Interaktion ein. So greifen stets ermöglichende und beschränkende (disabling) Momente bei akustischen Interface-Prozessen ineinander, wie etwa Mack Hagood (2019) konstatiert.

Eine zentrale Herausforderung für die medienwissenschaftliche Analyse von auditiven Interfaces ist der Aspekt der Gleichzeitigkeit und Hybridität unterschiedlicher auditiver Schnittstellenregime. Der gerichtete und ungerichtete Hörsinn erlaubt die parallele Wahrnehmung disparater auditiver Quellen. Diese Komplexität stellt für technische Systeme und Algorithmen eine Herausforderung dar, die entlang einer Experimental-, Wissens- und Mediengeschichte in unterschiedliche Richtungen zu weisen scheint. Darin nehmen die Erforschung der automatischen Spracherkennung, die Entwicklung akustischer Eingabe-Schnittstellen oder Hörtests sowie aktuell die Konzeptualisierung ‚smarter‘ Geräte des Hörens für Menschen mit eingeschränktem Hörvermögen jeweils einen spezifischen Platz ein. Im weiteren Sinne ließe sich auch nach „deaf interfaces“ (Helmreich/Friedner 2012) und deren Verhältnis zu akustisch operierenden Schnittstellen fragen. Generell und mit Blick auf gegenwärtige Tendenzen des digitalen Kapitalismus erscheint ebenso die generative Dimension akustischer Schnittstellen brisant, etwa in Bezug auf die Produktion (mobiler) algorithmisch erzeugter Environments für medizinische Testszenarien, Wellbeing-Praktiken (Apps wie Endel, aber auch VR-Anwendungen) oder Mobilitäts-Regime (AVAS bei Elektroautos).

Medientechnologisch und -kulturell hat sich in den letzten Jahrzehnten das auditive Interface-Paradigma der maschinellen Sprachgenerierung und stimmlichen Steuerung insbesondere durch die anhaltende Konjunktur gegenwärtiger Voice-Machine-Interfaces (VMI) auf dem Massenmarkt etablieren können. Auf Grundlage technischer Entwicklungen des 20. Jahrhunderts in den Bereichen der maschinellen Erzeugung, Erkennung und Prozessierung von Sprache, konsolidiert sich sprach- und tonbasierte Human-Computer Interaction (HCI) in verschiedenen Anwendungsfeldern: Von der mobilen Interaktion mit Smartphones und stationären Geräten der Unterhaltungselektronik (Smart TV, Spielkonsolen) über Smart Speaker und Intelligente Persönliche Assistenten (IPA) im sog. Smart Home bis hin zur aktuellen Generation von Navigationssystemen in der Automobilität. Mit der Sprachsteuerung verbindet sich schon seit der Vision des Memex oder der Idee des ‚phonetic typewriters‘ in den 1950er-Jahren (mit kontinuierlich verschobenen Erwartungshorizonten) die Aussicht auf ‚natürlichere‘, intuitive und (nicht selten) ‚unmittelbare‘ Interaktion mit technischen Systemen. Auf Sprachsteuerung basierende Interfaces werfen eine Reihe neuer Fragen auf, die von der Veralltäglichung und Habitualisierung von ubiquitären User Interfaces bis zur kritischen Auseinandersetzung mit neuen Techniken der KI-gestützten Voice Analytics reichen können.

Die Tagung, die als Kooperationsprojekt der GfM-Arbeitsgrupppen „Interfaces“, „Auditive Kultur und Sound Studies“ und „Medienwissenschaft und Dis/Ability Studies“ veranstaltet wird, setzt sich zum Ziel, eine neue Perspektive auf die Wissens-Geschichte von (digitalen) Interfaces zu eröffnen, die die Bedeutung des Akustischen für die Ausdifferenzierung gegenwärtiger Interfacekulturen herausarbeitet. Dabei geht es erstens darum, akustische Interfaces in ihrer Ästhetik und Medialität in den Fokus zu rücken und medienwissenschaftliche sowie interdisziplinäre Analyseansätze – etwa an den Schnittstellen zu den Sound Studies, der Kulturgeschichte, Kulturwissenschaft oder auch Disability History – zu erproben. Zweitens steht zur Debatte, in welchem Verhältnis akustische Interface-Elemente zu weiteren Interface-Interaktionsformen stehen und welche Wechselwirkungen oder Paradigmenwechsel in angewandten Forschungsfeldern wie der Sprachsteuerung oder dem Sound Design zu beobachten sind. Drittens will die Tagung nach den politischen, sozialen, soziotechnischen und kulturellen Herausforderungen fragen, die mit der gesellschaftlichen Etablierung und Verbreitung akustischer Interfaces verbunden sind.

Um Beitragsvorschläge (max. 500 Wörter) wird bis zum 15.01.2022 an akustische-interfaces@medienwissenschaft-berlin.de gebeten. Wissenschaftliche und/oder künstlerisch-gestalterische Beiträge (ca. 20 min Länge) von Nachwuchswissenschaftlerinnen und etablierten Forscherinnen, sowie Beiträge von Studierenden sind gleichermaßen willkommen. Für den letzten Tag der Veranstaltung sind zudem Arbeitsgruppen zu verschiedenen Themen geplant, hierzu können gerne schon Ideen eingereicht werden. Rückmeldungen zu den Einreichungen werden zum 15.02.2022 versendet. Die Tagung findet vom 04.–06.05.2022 in Berlin statt. Eine Publikation der Beiträge ist geplant. Reise- und Übernachtungskosten können im Einzelfall (nicht pauschal) übernommen bzw. bezuschusst werden, wenn keine anderweitigen institutionellen Mittel zur Verfügung stehen. Das mögliche Themenspektrum für Einreichungen inkludiert (ist aber nicht begrenzt auf):

  • Theorie, Geschichte und Ästhetik akustischer Interfaces
  • Definitorische Schärfung: Was sind akustische Interfaces (und was nicht?)
  • Methodologien: Wie akustische Interfaces erforschen?
  • Die Bedeutung des Paradigmas des Akustischen für die historische Formierung der HCI (Human-Computer Interaction)
  • Diversität & Design akustischer Schnittstellen: die ‚Handhabung‘ akustischer Interfaces
  • Ko-Produktion von akustischen Interfaces und Dis/Ability
  • Professionelles und situiertes Wissen akustischer Interface-Prozesse
  • Praxeologie und Praxistheorie: Praktiken und (Dis-)Funktionalitäten des Natural Language Processing (NLP)
  • Politiken akustischer Interfaces: Sprachsteuerung und Signaldiskriminierung
  • „Acoustic Intelligence“: Nachrichtentechnik und Datenpraktiken akustischer Interfaces
  • Siri, Alexa & Co. als Teil von Medien- und Big Data-Infrastrukturen: Die ‚hidden algorithms‘ und ‚big data practices‘ akustischer Interfaces
  • Akustisches Wissen, Überwachung und Datenkritik: Vom Panoptikum zum ‚Panakustikum‘?
  • Hörgeräte, akustische Prothesen und ihre Epistemologie in der Transducer- und Verstärkertechnik
  • Akustische Interfaces als soziotechnische Gefüge: Narrative und Imaginationen der Medienindustrie (Production Studies und Selling Strategies)

Organisation: Christoph Borbach, Konstantin Haensch, Timo Kaerlein, Shintaro Miyazaki, Robert Stock, Sabine Wirth

Kontakt: akustische-interfaces@medienwissenschaft-berlin.de

Link zum Call for Papers

Call for Papers als PDF