
DAS KI-PROJEKT

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren
Anmeldungen & weitere Infos per E-Mail an Projektleiter Marcus Munzlinger: marcus.munzlinger@pavillon-hannover.de
In der Digital Convention „Prototyping A’n’A“ haben wir in Diskussionen rund um die Geschlechterverhältnisse eine Datenbank aus Meinungen, Themen und Fakten geschaffen, aus der ein Bot mittels maschinellem Lernen heranwuchs: A’n’A. Mit der Geburt dieser Künstlichen Intelligenz wurde das Projekt AlanAlaine abgeschlossen und das Projekt „A&I“ begann: Die Sozialisation einer KI, unseres Bots A’n’A. Dazu benötigen wir erneut Eure Hilfe: Lernt A’n’A in unseren Workshops kennen, setzt Euch mit seiner Wahrnehmung der Welt auseinander und helft der KI dabei, ihren Charakter auszubilden. Dabei gilt es, auch etwas über uns selbst zu lernen.
Technische und politische Bildung kommen im Projekt „A&I“ zusammen. A’n’As Horizont ist noch sehr eingeschränkt, *seine* Meinungen engstirnig, *sein* Wissen begrenzt. Das wollen wir ändern. Zusammen sichten wir den Datensatz, diskutieren die Inhalte, entwerfen ein pädagogisches Konzept für unseren Bot: Welche Perspektiven fehlen in *seinem* Repertoire? Was muss *die* KI über Geschlechterverhältnisse wissen? Was wünschen wir uns, wie *sie* uns und Anderen gegenübertritt?
In verschiedenen Workshops nutzen wir die kollektive Arbeit an der Datenbank unseres intelligenten Chatbots, um miteinander ins Gespräch zu kommen: Wie wirken die Geschlechterverhältnisse auf uns? Welchen Informationen vertrauen wir? Über welche Datenbänke verfügen wir aufgrund unserer Sozialisation, wie verarbeitet der Algorithmus in unseren Köpfen alte und neue Informationen miteinander? Und wie ist es überhaupt möglich, einander zu verstehen, Kompromisse zu finden und etwas neues entstehen zu lassen? Die Ergebnisse der Workshops werden das „Bewusstsein“ und die Sprache unserer Künstlichen Intelligenz A’n’A für immer verändern – und womöglich gilt das auch für die Teilnehmer*innen.
Gefördert duch die Stiftung Niedersachsen und den Fonds Soziokultur aus Mitteln der Beauftragten der Bundesregierung für Kultur und Medien im Rahmen von NEUSTART KULTUR. In Zusammenarbeit mit der IT-Gruppe Geisteswissenschaften / dem LMU Center for Digital Humanities und dem andersraum e.V.

Mit dem Laden des Beitrags akzeptieren Sie die Datenschutzerklärung von Facebook.
Mehr erfahren
Der scheinbare Quantensprung der letzten zehn Jahre im Feld so genannter “Künstlicher Intelligenz” besteht nicht so sehr in der Weiterentwicklung dieser Technologie. Vielmehr liegt die Ursache in der explosionsartigen Zunahme digital verfügbarer Daten, mit denen die schon länger existierenden Modelle maschinellen Lernens umgesetzt werden können.
Diese Daten entspringen unserem alltäglichen Leben. Sie spiegeln die sozialen Verhältnisse wieder, unter denen sie erfasst wurden. Wenn eine KI sich diskriminierend verhält, dann deshalb, weil sie entsprechende Korrelationen in den Datensätzen festgestellt hat. Bewerbungsbots in großen Unternehmen sortieren vielfach Frauen in der Vorauswahl nach unten, weil sie anhand der Datenlisten der letzten Jahrzehnte feststellen, dass weniger Frauen als Männer eingestellt wurden. Kaufempfehlungen auf Plattformen wie Amazon verfolgen ein aggressives Marketing oft stereotyper Produkte und wecken gerade bei jüngeren Menschen erst entsprechende Bedürfnisse – weil Algorithmen für jedes Produkt mit geschlechtsspezifischen Daten gefüttert werden. Auf diese Weise aber werden nach Geschlecht sortiert Informationen effektiv vorenthalten, womit die Sozialisation der Individuen maßgeblich beeinflusst wird. Und ein Textbot, der viele Reaktionen auf Plattformen wie Facebook hervorrufen soll, setzt ohne vorbeugende Programmierung natürlich beleidigende und diskriminierende Sprache ein – schlicht weil der Algorithmus die entsprechende Korrelation in der Wirklichkeit der sozialen Medien korrekt berechnet hat.
Die Diskussion um KI ist somit in erster Linie keine technische, sondern eine darüber, für welche sozialen Verhältnisse wir diese Technologie einsetzen wollen. Diese Diskussion wollen wir im Pavillon am konkreten Beispiel der gemeinsamen Produktion eines intelligenten Chatbots führen. Und demonstrieren, welchen Effekt unser Diskussionsverhalten auf die Gestalt einer KI haben kann – sowie ihren Einsatz im Feld der Kultur und der politischen Auseinandersetzung erproben. Die KI soll uns, unsere Art, miteinander zu sprechen und zu streiten, unsere Vorurteile und unsere Fähigkeit zum Dialog wie der kritischen Auseinandersetzung spiegeln und so helfen, nicht nur diese Technik, sondern auch unser soziales Verhalten besser zu verstehen.
Ziel des Projektes ist die Durchführung des so genannten “Turing-Tests” im Feld der Soziokultur, vor allem im Bereich der gesellschaftspolitischen Auseinandersetzung. Alan Turing (1912 – 1954) entwickelte bereits in den 1940er und 1950er Jahren diejenigen mathematischen Konzepte, aus denen die heute verwendeten selbstlernenden Algorithmen hervorgingen. Der auf das Jahr 1950 zurückgehende “Turing-Test” stellt eine Testperson in eine Unterhaltung mit einem Menschen und einer Maschine. Kann die Testperson die Antworten nicht klar zuordnen, hat die Maschine als “Künstliche Intelligenz” den Test bestanden.
Alan Turing wurde aufgrund seiner Homosexualität 1952 zur chemischen Zwangskastration verurteilt. Die daraus resultierenden hormonellen Probleme verursachten schwere Depressionen, die ihn 1954 in den Suizid trieben. Wir fragen:
Was haben wir Alan Turings Lebenswerk alles zu verdanken? Was hat sich daraus entwickelt? Und wie entwickelt(e) sich der gesellschaftliche Umgang mit Geschlecht, an dem Alan Turin seiner Zeit zu Grund ging? Welche Rolle spielt KI für die heutigen Geschlechterverhältnisse, welche kann sie zukünftig noch spielen, welche sollte sie spielen?

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren