Kategorie: Algorithmen

  • Any | One Day the Future Has Died. Impossible Possibilities of Artificial Intelligence

    Any | One Day the Future Has Died. Impossible Possibilities of Artificial Intelligence

    Any | One Day the Future Has Died. Impossible Possibilities of Artificial Intelligenc

    In Kooperation mit Academy of Transcultural Exchange (AtA), DFG-Research Network „Gender, Media and Affect“ und netzforma* e.V. / Organisiert von Katrin Köppert, Nelly Yaa Pinkrah, Francesca Schmidt und Pinar Tuzcu

    Am: 27. – 29. Oktober 2022

    @ Hochschule für Grafik und Buchkunst Leipzig, Wächterstraße 11, 04107 Leipzig

    (english below)

    KonferenzposterZiel dieser Konferenz ist es zu verstehen, ob Künstliche Intelligenz trotz ihrer kontroversen Anwendung und ihres Einsatzes in der heutigen digitalisierten Gesellschaft angeeignet werden kann. Indem wir die Grenzen und bisweilen unzugänglichen Versprechen dieser Technologie betrachten, erforschen wir die unmöglichen Möglichkeiten von KI, die über das Verständnis von KI als reiner Kognition bzw. deren stumpfe Nachahmung hinausgehen. Wir möchten Diskussionen fortsetzen und eröffnen, die KI als eine verkörperte Erfahrung, als eine sinnliche, magische, geheimnisvolle, poetische Technologie, eine Technologie der Zukünfte erforschen. Dabei ist zu bedenken, dass KI nicht nur die in digitale und soziale Codes eingebettete Ungleichheit und Ungerechtigkeit widerspiegelt und fortschreibt; sie ist auch ein experimenteller Versuch, ein Labor, das sich dafür begeistert, die Möglichkeiten einer dekolonialen, queer-feministischen, kapitalismuskritischen und ökologisch vernetzten Gesellschaft zu entdecken und zu erahnen.

    Wir freuen uns sehr, das vorläufige Programm mit Euch zu teilen (Über diesen Link: https://www.hgb-leipzig.de/hochschule/kalender/1518). Das Programm ist noch vorläufig, da sich Konferenzplanung aufgrund der Mehrfachkrisen, in denen wir leben, stark verändert hat. Ihr könnt Euch gerne jetzt schon anmelden: any_one@hgb-leipzig.de.

    Wir arbeiten daran, Kinderbetreuung, Übersetzung und Gebärdensprachdolmetschen anzubieten. Bitte meldet Euch bei uns und teilt uns Eure  Wünsche und Bedürfnisse mit: any_one@hgb-leipzig.de.

    Die Konferenz wird in der Hochschule für Grafik und Buchkunst Leipzig stattfinden. Dennoch wird eine Online-Teilnahme möglich sein. Wer  ausschließlich online teilnehmen möchte, lässt es uns bitte wissen. Wir beobachten auch die COVID 19 Situation und behalten uns vor, die Konferenz kurzfristig auf online umzulegen.

    Weitere Informationen: https://www.hgb-leipzig.de/hochschule/kalender/1518

    ///

    Any | One Day the Future Has Died. Impossible Possibilities of Artificial Intelligence

    In cooperation with Academy of Transcultural Exchange (AtA), DFG-Research Network „Gender, Media and Affect“, netzforma* e.V. / Organized by Katrin Köppert, Nelly Yaa Pinkrah, Francesca Schmidt and Pinar Tuzcu

    Oct 27-29, 2033

    @ Hochschule für Grafik und Buchkunst Leipzig, Wächterstraße 11, 04107 Leipzig

    In this conference, we aim to understand whether it is possible to embrace Artificial Intelligence despite its controversial application and employment in today’s digitized society. By looking at the limits and at times inaccessible promises of this technology, this conference explores the impossible possibilities of AI that go beyond the understanding and blunt imitation of pure cognition. It aims at continuing and opening up discussions that explore AI as an embodied experience, as a sensual, magical, mysterious, poetic technology, a technology of futures, while keeping in mind that this technology does not only reveal the inequality and injustice embedded in digital and social codes; it is also an experimental attempt, a lab, that is enthusiastic about discovering and envisioning the possibilities of a decolonial, queer-feminist, capitalist-critical and ecologically networked society.

    We are very pleased to share the preliminary program with you (via this link: https://www.hgb-leipzig.de/hochschule/kalender/1518). The program is still preliminary, as conference planning has changed a lot due to the multiple crises we live in. So please stay tuned and/or register already: any_one@hgb-leipzig.de.

    We are working on it, to provide child care, translation and sign language interpreting. Please, get in touch to inform us about needs and wants: any_one@hgb-leipzig.de.

    The conference has been planned to take place at the Academy of Visual Arts Leipzig. Nevertheless, online participation will be possible. If you would like to participate online exclusively, please, let us know. We are also monitoring the COVID 19 situation and reserve the right to switch the conference to online at short notice.

    More informations: https://www.hgb-leipzig.de/hochschule/kalender/1518

  • KI & WIR* Convention

    KI & WIR* Convention

    Vom 26. bis 27. November findet zum dritten Mal findet die KI & WIR* Convention statt und wir sind als Kooperationspartner*in mit dabei.

    Der Schwerpunkt dieses Jahr liegt auf KI Literacy, also der Frage wie wir alle KI, besser verstehen. Denn KI sollte kein Thema sein, über das wenige Expert*innen reden, sondern betrifft uns alle und wir alle sollten über die Technologien, die uns betreffen mitentscheiden.

    Bis zum 15. Oktober läuft auch noch der Call für alle, die eigene Ideen und Programmpunkte einbringen möchten.

  • EDIT-A-THON Intersectional AI Toolkit

    EDIT-A-THON Intersectional AI Toolkit

    Wir freuen uns in Kooperation mit dem Humboldt Institut für Internet und Gesellschaft, Motif und SUPERRR einen EDIT-A-THON anbieten zu können. Das Event findet am 1. September 2021 von 16 bis 19 Uhr im Humboldt Institut für Internet und Gesellschaft in Berlin statt.

    Du musst nicht selbst coden können oder tief im Thema stecken, denn wir möchten gemeinsam ergründen, wie ein intersektionales Toolkit für AI aussehen muss.

    Die Veranstaltung wird in Englisch stattfinden. Weiter Informationen und die Anmeldung findest du hier: https://www.hiig.de/events/edit-a-thon-intersectional-ai-toolkit/

    Wir freuen uns auf Euch!

     

  • DATEN MACHT RECHT

    DATEN MACHT RECHT

    Algorithmen – oft synonym gesetzt mit Big Data, künstlicher Intelligenz oder maschinellen Lernen – gestalten unsere Wirklichkeit. Sie sortieren den Feed unserer Social Media Plattformen und beeinflussen damit den gesellschaftlichen Diskurs. Sie werden in sensiblen Entscheidungsprozessen verwendet wie etwa der Vergabe von Sozialleistungen, und entscheiden damit über gesellschaftliche Teilhabechancen. Algorithmen werden an den EU-Außengrenzen eingesetzt, um Flüchtlinge zu überwachen und zu verwalten. Das BAMF nutzt sie, um die Glaubwürdigkeit von Asylbewerber:innen zu überprüfen. Datenbasierte Algorithmen können letztlich jeden Prozess automatisieren über den hinreichend Daten verfügbar sind (vgl. AlgorithmWatch).

    Datenbasierte Algorithmen versprechen Rationalität und Effizienz. Ihnen sind jedoch epistemische Grenzen inhärent: Sie werten vergangene Sachverhalte aus, generalisieren und typisieren. Einzelfälle und Zukunft sind nicht ihr Geschäft. Sie entstehen auch nicht aus dem Nichts und werden in keinem neutralen Limbo verwendet. Vielmehr sind ihre Entwicklung und Anwendung eingebettet in unserer gegenwärtigen – ungleichen – Realität. Ungleichheitsverhältnisse können sich in datenbasierten Algorithmen fortsetzen und auf diese Weise festschreiben. Es gibt kein „view from above, from nowhere“ (Haraway 1988: 589).

    Haraways und andere feministische Technologieanalysen werden gerade jetzt und gerade für die Rechtswissenschaft relevant. Denn aktuell werden insbesondere auf EU-Ebene die Weichen gestellt, die darüber entscheiden, wie datenbasierte Algorithmen unsere Gegenwart und Zukunft prägen sollen (vgl. u.a. DSA; DMA; KI-Gesetz). Diese Gegenwart und Zukunft sollten wir gemeinsam formen.

    Dafür laden der Lehrstuhl für Internationalen Menschenrechtsschutz (Prof. Dr. Nora Markard) und netzforma* e.V. zu einer Reihe von Lunch Talks ein.

    Nähere Informationen und Anmeldemodalitäten und die Links zur Veranstaltungsanmeldung finden Sie auf der Webseite der Universität Münster.

    Bilder der Vortragenden beim Talk Normative Algorithmen

    Bei der Veranstaltungsreihe DATEN MACHT RECHT diskutieren Ann-Kathrin Koster, Paola Lopez und Victoria Guijarro Santos über datenbasierte Algorithmen in Entscheidungsprozessen (13.5.2021).

    Bild der Vortragenden vom Talk Hass Digital

     

    Alexandra Geese, Dr. Berit Völzmann und Francesca Schmidt diskutieren über Hassrede in sozialen Netzwerken (23.6.2021).

    Bild der Vortragenden vom Talk Fleeing Data Protection

     

    Dr. Petra Molnar spricht über den Einsatz datenbasierter Algorithmen an den EU-Außengrenzen (8.7.2021).

    Bild der Vortragenden vom Talk Just AI

     

     

    Prof. Dr. Linnet Taylor spricht über eine gerechte Regulierung von künstlicher Intelligenz (15.7.21).

     

     

    Die Lunch Talks von DATEN MACHT RECHT finden jeweils von 12.00-13.15 Uhr digital auf Zoom statt. Die Referentinnen beginnen mit kurzen Eingangsstatements und kommen dann miteinander ins Gespräch. Im Anschluss wird das Gespräch für das Publikum geöffnet.

    Wir freuen uns auf eine spannende Diskussion mit Euch!

  • Filmvorführung Coded Bias

    Filmvorführung Coded Bias

    Wir freuen uns, in Kooperation mit Motif Institute und Superrr eine Filmvorführung und anschließende Diskussionsveranstaltung des Filmes „Coded Bias“ zu präsentieren!

    For englisch please scroll down.

    Über „Coded Bias“

    Die moderne Gesellschaft befindet sich am Schnittpunkt zweier entscheidender Fragen: Was bedeutet es, wenn Künstliche Intelligenz zunehmend unsere Freiheitsrechte bestimmt? Welche Konsequenzen hat es für die Menschen, wenn die KI einen Bias gegen sie hat? Als die MIT Media Lab-Forscherin Joy Buolamwini entdeckt, dass die meisten Gesichtserkennungsprogramme dunkelhäutige Gesichter und Gesichter von Frauen nicht richtig erkennen, beginnt sie eine Untersuchung der weit verbreiteten Biases in Algorithmen. Es stellt sich heraus, dass Künstliche Intelligenz nicht neutral ist, und Frauen sind führend, um sicherzustellen, dass unsere Bürgerrechte geschützt werden. Coded Bias feierte seine Premiere auf dem Sundance Film Festival 2020 und folgt Forschenden und Anwält*innen, die untersuchen, wie Algorithmen Vorurteile kodieren und verbreiten. Sehen Sie sich den offiziellen Trailer an.opsis: Die moderne Gesellschaft befindet sich am Schnittpunkt zweier entscheidender Fragen: Was bedeutet es, wenn künstliche Intelligenz zunehmend unsere Freiheitsrechte bestimmt? Und was sind die Konsequenzen für die Menschen, gegen die die KI voreingenommen ist? Als die MIT Media Lab-Forscherin Joy Buolamwini entdeckt, dass die meisten Gesichtserkennungsprogramme dunkelhäutige Gesichter und Gesichter von Frauen nicht richtig erkennen, beginnt sie eine Untersuchung der weit verbreiteten Voreingenommenheit in Algorithmen. Es stellt sich heraus, dass künstliche Intelligenz nicht neutral ist, und Frauen sind führend, um sicherzustellen, dass unsere Bürgerrechte geschützt werden. Coded Bias feierte seine Premiere auf dem Sundance Film Festival 2020 und folgt Forschern und Anwälten, die untersuchen, wie Algorithmen Vorurteile kodieren und verbreiten. Hier  der offiziellen Trailer:


    Durch klicken auf das Video wird es von YouTube nachgeladen.

    Anmeldungen werden hier vor dem 8. April 2021. Nach Ihrer Anmeldung erhalten Sie einen Link und einen Passcode, um den Film anzusehen. Der Film wird 5 Tage lang verfügbar sein, vom 3. bis 7. April 2021. Bitte beachten Sie: Die Vorführung ist auf 50 Plätze begrenzt. Reservierungen werden nach dem Prinzip „Wer zuerst kommt, mahlt zuerst“ vorgenommen.

    Über die Diskussion

    Nehmen Sie an der Filmdiskussion am 8. April 2021 um 18:30 Uhr auf Zoom teil! Die Diskussion wird mit drei kurzen Beiträgen von netzforma* und Motif Institute und Superrr Lab eingeleitet. Die Organisationen werden einige der Arbeiten vorstellen, die sie in diesem Bereich durchgeführt haben. Netzforma* hat kürzlich ein Buch über feministische KI veröffentlicht, Motif Institute arbeitet an feministischen Zukünften und Superrr hat (zusammen mit Lorena Jaume-Palasi) ein Forschungspapier über den Einsatz von KI in Rekrutierungsprozessen und Geschlechterdiskriminierung geschrieben. Nach den Inputs werden wir eine informelle Diskussion mit allen Anwesenden führen. Wir freuen uns sehr darauf, mehr Leute kennenzulernen, die in diesem Bereich aktiv sind oder ein allgemeines Interesse daran haben.

    Die Veranstaltung findet in englisch statt.
  • Publikation: Wenn KI, dann feministisch. Impulse aus Wissenschaft und Aktivismus

    Publikation: Wenn KI, dann feministisch. Impulse aus Wissenschaft und Aktivismus

    Cover von Wenn KI, dann feministischSexrobotik, Drohneneinsätze und Sprachassistent*innen – all das und Vieles mehr läuft unter den Schlagworten Künstliche Intelligenz (KI) und Algorithmen.  Doch was genau umfassen KI und Algorithmen und wie vielfältig sind die Perspektiven auf diese tatsächlich? KI – eine Kehrtwende im Mensch-Maschine Verhältnis? Ein Mythos? Eine Utopie? Die Zukunftsszenarien schwanken zwischen Bedrohung und Verheißung. Klar ist: Technologie im Allgemeinen und algorithmische Prozesse im Speziellen sind nicht ohne Herrschafts- und Machtbezug denkbar. Gerade deshalb gilt es fortwährend, diese Systeme vor dem Hintergrund feministischer Sichtweisen und Wertvorstellungen kritisch zu betrachten, zu bewerten und neu zu entwickeln. Feministische Betrachtungsweisen und intersektionale Zugänge finden kaum bis keine Berücksichtigung, und so reproduzieren sich traditionell patriarchale Sichtweisen und verstärken sich durch den Einsatz von KI. Reicht es aus, KI gerechter zu gestalten? Wenn ja, nach wessen Kriterien? Wie verändert sich Überwachung im Zuge automatisierter Entscheidungsprozesse? Ist die Forderung nach Transparenz die Lösung oder lenkt sie von den notwendigen Forderungen ab? Wer definiert diese sogenannte KI, das Wort zwischen den Gänsefüßchen? Wie kann der Diskurs über KI inklusiv geführt werden? Diese Publikation begleitet aktuelle Entwicklungen intersektional feministisch. Ziel ist es, angesichts sich verdichtender technischer und gesellschaftspolitischer Entwicklungen, neue Perspektiven auf Künstliche Intelligenz und Algorithmen zu entwickeln. Die grundlegende mathematische Formel der Algorithmen muss  lauten: Wenn KI, dann feministisch.

    Diese Publikation steht unter: CC-BY-NC-ND
    Der Artikel „Kontrollverlust und (digitale) Entmündigung Das Gewaltpotential Künstlicher Intelligenz“ von Leena Simon steht unter: CC-BY-SA

    Das Buch kann hier bestellt und hier schon als PDF gelesen werden werden.

    Wir freuen uns über Spenden!

     

    2020_wenn-ki-dann-feministisch_netzforma

     

    Foto von Studio SMS
  • Netzforma* beim Digitalen Salon im HIIG

    Netzforma* beim Digitalen Salon im HIIG

    Unsere Vorständinnen Katharina Mosene, Christina Dinar und Francesca Schmidt waren am 29. Juli 2020 beim Digitalen Salon am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG). Dort haben sie über Diskriminierung in algorithmischen  Entscheidungssystemen und Künstlichen Intelligenzen gesprochen. Ebenfalls auf dem Panel saß Shirin Riazy.


    Durch klicken auf das Video wird es von YouTube nachgeladen.

     

  • “Wenn KI, dann feministisch” geht weiter!

    “Wenn KI, dann feministisch” geht weiter!

    Anknüpfend an das letztjährige Barcamp Wenn KI, dann feministisch möchten wir dieses Thema in diesem Jahr weiter vertiefen und haben uns deshalb entschieden, eine Publikation mit dem Titel Wenn KI, dann feministisch zu veröffentlichen. Dafür möchten wir verschiedene Personen aus Wissenschaft, Politik und Aktivismus bitten, ihre Einschätzungen zu Themen wie digitaler Gewalt, Überwachung und Robotik an der Schnittstelle zu Antidiskriminierung, Feminismus und Antirassismus für uns niederzuschreiben.

    Einen Eindruck wie das Barcamp war, findet ihr in diesem Post.

    Die Publikation wird sich mit den Themenkomplexen von Künstlicher Intelligenz und digitaler Gewalt, Überwachung, algorithmische Entscheidungssystemen, Robotik, medialen Darstellungen, feministische Kunst und Überlegungen zu möglichen feministischen Utopien beschäftigen.

    Die Publikation, wird kostenlos zugänglich sein und auf unsere Webseite als E-Book veröffentlicht.

    Gefördert werden wir wieder von der Landeszentrale für politische Bildung Berlin. Jedoch brauchen wir noch weiter Spenden, um das Projekt möglich zu machen. Wenn ihr uns dabei unterstützen möchtet, könnt ihr entweder direkt an uns Spenden oder über unsere Betterplace Kampagne:

  • Audiofeature zum Barcamp

    Audiofeature zum Barcamp

    Hier könnt ihr das Audiofeature zu unserem Barcamp „Wenn KI, dann feministisch“ hören:

     

     

    Photo by rakhmat suwandi
  • Wenn Ki, dann feministisch: So war’s

    Wenn Ki, dann feministisch: So war’s

    Die Veranstaltung „Wenn KI, dann feministisch!“ fand am 2. November 2019 in der Universität der Künste in Berlin mit ca. 150 Teilnehmenden statt. Das Ziel des Barcamps, angesichts sich verdichtender technischer und gesellschaftspolitischer Entwicklungen, war es neue Perspektiven und Antworten auf Künstliche Intelligenz und Algorithmen zu entwickeln. Dafür wollten wir einen offenen und diversen Raum schaffen, in welchem die Folgen und Chancen von Künstlicher Intelligenz ganz konkret aus einer feministisch-intersektionalen Perspektive diskutiert werden konnten. Mittelpunkt der Diskussion bildeten die sich aus algorithmischen Systemen ergebenden Gefahren für die Gleichberechtigung zwischen den Geschlechtern, aber auch mit Hinblick auf ihre Verwobenheit mit weiteren gesellschaftsrelevanten Merkmalen Gender, race, Klasse, Religion, Bildung, Herkunft sowie unterschiedliche körperliche Größen und Formen.

    Sparkling Input

    Der einführende Vortrag von Nushin Yazdani (KI- und Ethikforscherin), bot zu Beginn der Veranstaltung eine detaillierte inhaltliche Einführung in das Thema Künstliche Intelligenz (KI). Nushin Yazdani legte dabei den Fokus auf die sich in algorithmischen Systemen (AS) ausbildenden Herrschafts- und Machtstrukturen sowie die damit einhergehenden vielfältigen und intersektionalen Diskriminierungsformen. Der Vortrag machte die Relevanz feministischer, intersektionaler Perspektiven und deren Einbeziehen in die Entwicklung und Regulierung Künstlicher Intelligenz anhand theoretischer Einordnung wie auch praktischer Beispiele deutlich und stellte vor allem Fragen wie Worüber reden wir, wenn wir über KI sprechen? Werden feministische Betrachtungsweisen und intersektionale Zugänge berücksichtigt oder traditionell patriarchale Sichtweisen fortgeschrieben? Reicht es aus, KI gerechter zu gestalten? Wenn ja, nach wessen Kriterien?
    Nushin Yazdani

    Workshops

    Verschiedenen Expert*innen aus Politik und Zivilgesellschaft haben einen Input gegeben und zusammen mit netzforma* den jeweiligen Workshop betreut: Chris Köver (Mitbegründerin des Missy Magazine und Journalistin bei netzpolitik.org), Julia Krüger (netzpolitik.org), Dr. Nakeema Stefflbauer (Gründerin von FrauenLoop), Anne Roth (Netzpolitik-Referentin der Fraktion DIE LINKE im Bundestag), Katrin Fritsch und Helene von Schwichow (MOTIF – Institute for Digital Culture) und Natalie Sontopski (Code Girls). Ziel war es durch den Input von Expert*innen eine Vertiefung zu spezifischeren Themenbereichen im Kontext von Künstlicher Intelligenz zu generieren. Gemeinsam wurden in den jeweiligen Workshops Ideen und Konzepte für einen feministischen und demokratischen Umgang mit Künstlicher Intelligenz entwickelt.

    Mythos Transparenz

    Der Begriff Transparenz in Bezug auf algorithmische Systeme umfasst sowohl den Quellcode (insbesondere für Fachleute) sowie Einblicke in die Logik der algorithmischen Systeme (AS) (für Fachleute, sowie für Nutzer*innen von spezifischen AS, etwa bei der Google Suche). Leitend für den Workshop war die Frage Was müsste sich ändern, um die Entscheidung der AS nachvollziehen zu können? – z.B. die Gründe bei einer Ablehnung eines Kredits. Transparenz wird hier als sinnvoll erachtet, wo AS individuellen (Ablehnung eines Kredits) und gesellschaftlichen Schaden (Existenz von Bias in Algorithmen) umgehen. Hier spielt insbesondere eine politische Gestaltung eine zentrale Rolle: Die User*innen sollten nicht in der “Holschuld” sein, sondern die Unternehmen in der Verpflichtung, Dritte zu informieren, welche Daten wofür gesammelt werden. Hier scheint eine staatliche Schutzpflicht sinnvoll (eine Art Aufsichtsbehörde, wie z.B. im analogen Beispiel der Apotheke/Medizin), die den Staat als Innovationsmotor fordern, um den Druck von der Zivilgesellschaft zu nehmen.

    Feministische Technik- und Gesellschaftstheorie

    Anne Roth, Netzpolitik-Referentin der Fraktion DIE LINKE im Bundestag, machte deutlich, dass eine feministische Technik- und Gesellschaftstheorie nicht ganz vorne anfangen muss. Hier sind das 1985 von Donna Haraway verfasste Cyborg Manifest sowie das Venus Matrix Manifest des Old Boys Network (OBN) ganz zentral. Kurz gesagt: Wir können unseren Kampf in den historischen Kontext einordnen. Anne Roth und netzforma* haben hier versuchten eine positive Sicht auf Künstliche Intelligenz und algorithmische Systeme zu werfen. AS können beispielsweise nützlich sein, aufzuzeigen wenn Gremien nicht divers besetzt sind oder Veranstaltungen männlich dominiert sind. Somit sind AS nicht generell nur als Machtinstrumente zu verstehen, sondern könnten auch als Gerechtigkeitsmotoren eingesetzt werden. Dies erfordert allerdings ein diverses Team an Programmierer*innen, gute Datensätze und ausreichend finanzielle Ressourcen.

    Feministische Netzpolitik

    Wie sehen aus einer feministischen Perspektive konkrete politische Programme und Forderungen in Bezug auf Regulierungsszenarien aus? Diesen Komplex diskutierten wir im Rahmen eines Weltcafés mit der Expertin Julia Krüger von netzpolitik.org. Neben einer umfangreichen Diskussion über das jüngst erschienene Gutachten der Datenethikkommission mit Blick auf KI, ging es in den Kleingruppen vor allem um eine nähere Definition und Ausgestaltung der im Gutachten aufgeführten Bedingungen für Einsatz, Implementierung und Weiterentwicklung von KI. Was bedeutet Transparenz und wo setzt diese an? Wer schreibt den Code, wer bestimmt den Datensatz selbstlernender Systeme und nach welchen Kriterien wird dieser zusammengesetzt? Welche Bereiche sehen wir als begründet schützenswerte, und deshalb notwendigerweise KI-freie Bereiche (z.B. Gerichte und Strafverfolgung). Insgesamt wurde deutlich, dass dieser Bereiche schon auf nationaler Ebene vielschichtig und komplex ist und dringend in einem breiten gesellschaftlichen Diskurs vertieft werden muss.

    Neue Technologie, alte Stereotype: Gender Bias bei KI

    Die meisten Sprachassistent*innen sind weiblich markiert – entweder durch ihre Namen und/oder ihre Stimme. Damit sind die Sprachassistent*innen, die an sich keinen humanoiden Körper haben, trotzdem eindeutig gegendert. Ziel des Workshops war es, in Kleingruppen zu überlegen, wie dieser Geschlechtszuordnung und der damit einhergehenden Stereotypenbildung begegnet werden kann. Wir haben in verschiedenen Ansätzen versucht, die Stimme neu zu denken: Etwa indem keine vorprogrammierte Stimme verwendet wird, sondern diese jeweils eingestellt werden muss bzw. eine genderneutrale Stimme (z.B. Computerstimme) verwendet wird. Insgesamt zeigt die Problematik der Stimmen von Sprachassistent*innen jedoch, dass es, um größere, strukturelle Probleme der Geschlechterstereotype geht .

    Feministische Künstliche Intelligenz

    In ihrem Vortrag schuf Dr. Nakeema Stefflbauer Bewusstsein dafür, dass algorithmische Systeme weder neutrale noch reflexive Entscheidungsinstrumente sind. Somit können sie immer, vor allem bei unreflektiertem Einsatz, diskriminierende Auswirkungen haben. Um dem entgegenzuwirken, ist es daher wichtig, die Diversität der Gesellschaft nicht nur anzuerkennen, sondern auch zu berücksichtigen – insbesondere mit Fokus auf Gender, race, Klasse, Religion, körperliche Größen und Formen in algorithmischen Modellen, Datensätzen und Systemen. Dr. Stefflbauer machte anhand empirischer Beispiele, wie etwa anhand von Gesichtserkennungsalgorithmen, deutlich, dass Künstliche Intelligenz niemals unabhängig vom gesellschaftlichen Kontext gedacht werden kann. So lange kapitalistisch-patriarchale Strukturen existieren, müssen wir neue technische Entwicklungen immer auch in diesen Kontext betrachten und bewerten.

    Feminist Futures

    Der Workshop wurde von Katrin Fritsch & Helene von Schwichow von MOTIF – Institute for Digital Culture, einem unabhängigen Thinkthank an der Schnittstelle von Technologie und Kultur, geleitet . Basierend auf ihrem Workshop Artificial Intelligence and Ethics nutzten sie den Workshop, um eine feministische (Dys-)U-topie zu entwerfen. Dabei identifizierten sie zuerst Problemfelder und entwickelten davon ausgehend feministische, positive Alternativen, vor allem im Bereich der individuellen und gesellschaftlichen Bildung. Daraus entwickelten sie dann das Konzept des Bildungs-all-in-chip.. Ein technisches Artefakt, dass allen Menschen die gleichen Bildungsmöglichkeiten durch die Nutzung von Künstlicher Intelligenz eröffnet.

    CODONAUT – Ein interaktiver Film von Felix Pauschinger

    Während der gesamten Veranstaltung hatten die Teilnehmer*innen die Möglichkeit, den interaktiven Film “Codonaut” von Felix Pauschinger zu schauen. „Der Codonaut erkundet, wohin wir uns programmieren – welche Welt wir mit der Erschaffung künstlicher Intelligenz entstehen lassen. Gegenwärtig und in der Zukunft. Wir erlauben es der Rezipientin (= der Codonautin), sich einen eigenen Weg durch den Kosmos der Informationen rund um das Thema KI zu suchen. In dem Tempo, das der Codonaut als richtig fühlt. Unterstützt wird sie dabei von der Künstlichen Intelligenz der Korsakow – Software, die inhaltliche Kontexte herstellt. Klassische, auch journalistische Erzählungen folgen in ihrer Gesamtheit einem Spannungsbogen. Spannung wird über gegensätzliche Pole erzeugt. Einem Schwarz oder Weiß, einem Gut oder Böse. Diese – auch im Wortsinn – Polarisierung erschwert jedoch den nötigen gesellschaftlichen Diskurs zum Thema Künstliche Intelligenz. Dort, wo es nur Gut oder Böse gibt, bleibt kaum Raum für Zwischentöne. Korsakow ermöglicht es uns, als Autoren eine wesentlich neutralere Position einzunehmen, als im klassischen Dokumentarfilm oder Feature. Bei Codonaut soll es weniger um die Präsentation spektakulärer Techniken gehen. Vielmehr sind uns die gesellschaftlichen, philosophischen und sozialen Implikationen wichtig”
    Felix Pauschinger – http://about.codonaut.de/

    Abschlussperformance

    Die Performance “we have many names” der Künstlerin Olivia Hyunsin Kim bildete den Abschluss der Veranstaltung. In ihr stellte Hyunsin feministische Gesellschaftsperspektiven in den Vordergrund. Gemeinsam mit dem Publikum machte sie BIPOC-Frauen* und ihren Einfluss auf die Entwicklung von Technik, KI und Algorithmen sichtbar. Durch ein aktives verteilen der Namen dieser Frauen* im Raum wurde eine Auseinanderstzung angestoßen und der Raum mit diesen Geschichten eingenommen.

    Kunstausstellung Wenn KI, dann feministisch

    Die Kunstausstellung, kuratiert von Dr. Katrin Köppert, zeigte Kunstwerke von Andy King, Iyo Bissek, Klara Kirsch, Astrid Kraniger, Cammack Lindsey, Melissa Lücking und Alix Stria, Studierende und Künstler*innen der Universität der Künste. Damit bot sie den Teilnehmenden die Möglichkeit, sich auf ästhetischer Ebene dem Thema Künstliche Intelligenz anzunähern. Aufgrund des großen Erfolgs der Ausstellung blieb diese noch für sieben weitere Tage geöffnet. Die Ausstellung wurde insgesamt von ca. 300 Besucher*innen besichtigt.