Skip to content
Licensed Unlicensed Requires Authentication Published by düsseldorf university press 2022

Die zweifache akustische Intelligenz virtueller Sprachassistenten zwischen verteilter Kooperation und Datafizierung

From the book Acoustic Intelligence

  • David Waldecker and Axel Volmar

Abstract

Virtuelle bzw. intelligente persönliche Assistenten (IPAs), die mit Schnittstellen zur Ein- und Ausgabe gesprochener Sprache ausgestattet sind, bevölkern - u. a. in Form smarter Lautsprecher - zunehmend die häusliche Umgebung. Versteht man die Smartness der Geräte als eine auf akustische Daten bezogene Künstliche Intelligenz, treten zwei unterschiedliche Aspekte zutage, die zwar selten zusammen betrachtet werden, aber dennoch zumeist koexistent sind und einander sogar zu einem gewissen Grad bedingen: Zum einen zeigen wir anhand der Interaktion mit Sprachassistenten, dass akustische Intelligenz als maschinelle Intelligibilität auf die Zuarbeit der menschlichen Nutzer* innen angewiesen ist, um kommunizieren zu können. Sie erweist sich diesbezüglich als eine verteilte Form von Intelligenz. Zum anderen erscheint akustische Intelligenz als anbieterseitige Strategie der Beschaffung, Auswertung und ökonomischen Verwertung der von den Nutzer*innen produzierten akustischen Daten, die wiederum auf den technischen Bedingungen maschineller Lernverfahren und Cloud-Infrastrukturen basiert und sich als Datafizierung häuslicher Sprachkommunikation manifestiert.

© 2022 Walter de Gruyter GmbH, Berlin/Boston
Downloaded on 27.4.2024 from https://www.degruyter.com/document/doi/10.1515/9783110730791-011/html
Scroll to top button