Blog

  • Release-Party zur Publikation

    Release-Party zur Publikation

    Unsere Publikation »Wenn KI, dann feministisch. Impulse aus Wissenschaft und Aktivismus« ist seit kurzer Zeit veröffentlicht und falls ihr es noch nicht getan habt, könnt ihr sie hier herunterladen oder bestellen. Auch auf diesem Weg möchten wir allen Beteiligten nochmals für ihren großartigen Beitrag zu diesem Projekt danken!

    Da wir sehr glücklich über die tollen Artikel der Autor*innen, das Design und die Unterstützung der Berliner Landeszentrale für politische Bildung sind, möchten wir feiern: Wir laden euch am Donnerstag, den 25.03.2021von 18.00 – 20.00 Uhr zur Release-Party ein!

    Person hat Buch geöffnet
    Foto von Studio SMS

    Zusammen mit euch wollen wir einen Blick in die Publikation werfen und die drängendsten Entwicklungen im Kontext von Künstlicher Intelligenz aus feministischer Perspektive in den Mittelpunkt stellen. In kurzen Inputs geben euch die Autor*innen einen Einblick in ihre Artikel. Mit dabei sind Leena Simon, Deniz Erden, Josephine D’Ippolito, Tiara Roxanne, Katrin Köppert, Annika Kühn, Hannah Lichtenthäler, Johanna Mellentin, Francesca Schmidt, Victoria Guijaro-Santos und viele mehr.

    Im Anschluss wollen wir mit euch anstoßen und in den feierlichen Teil des Abends übergehen. Anmelden könnt ihr euch mit einer Mail an info@netzforma.org. Ihr bekommt dann kurz vor der Veranstaltung den Link zur Teilnahme zugesandt.

    Neben der offiziellen Release-Party sind wir bereits am kommenden Donnerstag, den 11.03.2021 beim »4. Hamburger Gesprächskreis Automatisiertes Entscheiden« mit unserer Publikation zu Gast. Katharina Mosene (netzforma* & HBI) führt in die Veranstaltung ein und Victoria Guijarro-Santos (netzforma* & Universität Münster) und Phillip Lücking (Universität Kassel) diskutieren unter dem Titel »Nicht gut, nicht böse, nie neutral: KI im Brennpunkt feministischer und intersektionaler Kritik«. Weitere Informationen zur Anmeldung und zum Ablauf findet ihr hier.

    Wir sind weiterhin ehrenamtlich aktiv und daher auf eure Spenden angewiesen. Wenn ihr uns unterstützen möchtet, könnt ihr das von nun an ganz einfach über unsere Betterplace-Kampagne tun.

    Aufgeschlagenes buch
    Foto von Studio SMS
  • Publikation: Wenn KI, dann feministisch. Impulse aus Wissenschaft und Aktivismus

    Publikation: Wenn KI, dann feministisch. Impulse aus Wissenschaft und Aktivismus

    Cover von Wenn KI, dann feministischSexrobotik, Drohneneinsätze und Sprachassistent*innen – all das und Vieles mehr läuft unter den Schlagworten Künstliche Intelligenz (KI) und Algorithmen.  Doch was genau umfassen KI und Algorithmen und wie vielfältig sind die Perspektiven auf diese tatsächlich? KI – eine Kehrtwende im Mensch-Maschine Verhältnis? Ein Mythos? Eine Utopie? Die Zukunftsszenarien schwanken zwischen Bedrohung und Verheißung. Klar ist: Technologie im Allgemeinen und algorithmische Prozesse im Speziellen sind nicht ohne Herrschafts- und Machtbezug denkbar. Gerade deshalb gilt es fortwährend, diese Systeme vor dem Hintergrund feministischer Sichtweisen und Wertvorstellungen kritisch zu betrachten, zu bewerten und neu zu entwickeln. Feministische Betrachtungsweisen und intersektionale Zugänge finden kaum bis keine Berücksichtigung, und so reproduzieren sich traditionell patriarchale Sichtweisen und verstärken sich durch den Einsatz von KI. Reicht es aus, KI gerechter zu gestalten? Wenn ja, nach wessen Kriterien? Wie verändert sich Überwachung im Zuge automatisierter Entscheidungsprozesse? Ist die Forderung nach Transparenz die Lösung oder lenkt sie von den notwendigen Forderungen ab? Wer definiert diese sogenannte KI, das Wort zwischen den Gänsefüßchen? Wie kann der Diskurs über KI inklusiv geführt werden? Diese Publikation begleitet aktuelle Entwicklungen intersektional feministisch. Ziel ist es, angesichts sich verdichtender technischer und gesellschaftspolitischer Entwicklungen, neue Perspektiven auf Künstliche Intelligenz und Algorithmen zu entwickeln. Die grundlegende mathematische Formel der Algorithmen muss  lauten: Wenn KI, dann feministisch.

    Diese Publikation steht unter: CC-BY-NC-ND
    Der Artikel „Kontrollverlust und (digitale) Entmündigung Das Gewaltpotential Künstlicher Intelligenz“ von Leena Simon steht unter: CC-BY-SA

    Das Buch kann hier bestellt und hier schon als PDF gelesen werden werden.

    Wir freuen uns über Spenden!

     

    2020_wenn-ki-dann-feministisch_netzforma

     

    Foto von Studio SMS
  • Netzforma* beim Digitalen Salon im HIIG

    Netzforma* beim Digitalen Salon im HIIG

    Unsere Vorständinnen Katharina Mosene, Christina Dinar und Francesca Schmidt waren am 29. Juli 2020 beim Digitalen Salon am Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG). Dort haben sie über Diskriminierung in algorithmischen  Entscheidungssystemen und Künstlichen Intelligenzen gesprochen. Ebenfalls auf dem Panel saß Shirin Riazy.


    Durch klicken auf das Video wird es von YouTube nachgeladen.

     

  • “Wenn KI, dann feministisch” geht weiter!

    “Wenn KI, dann feministisch” geht weiter!

    Anknüpfend an das letztjährige Barcamp Wenn KI, dann feministisch möchten wir dieses Thema in diesem Jahr weiter vertiefen und haben uns deshalb entschieden, eine Publikation mit dem Titel Wenn KI, dann feministisch zu veröffentlichen. Dafür möchten wir verschiedene Personen aus Wissenschaft, Politik und Aktivismus bitten, ihre Einschätzungen zu Themen wie digitaler Gewalt, Überwachung und Robotik an der Schnittstelle zu Antidiskriminierung, Feminismus und Antirassismus für uns niederzuschreiben.

    Einen Eindruck wie das Barcamp war, findet ihr in diesem Post.

    Die Publikation wird sich mit den Themenkomplexen von Künstlicher Intelligenz und digitaler Gewalt, Überwachung, algorithmische Entscheidungssystemen, Robotik, medialen Darstellungen, feministische Kunst und Überlegungen zu möglichen feministischen Utopien beschäftigen.

    Die Publikation, wird kostenlos zugänglich sein und auf unsere Webseite als E-Book veröffentlicht.

    Gefördert werden wir wieder von der Landeszentrale für politische Bildung Berlin. Jedoch brauchen wir noch weiter Spenden, um das Projekt möglich zu machen. Wenn ihr uns dabei unterstützen möchtet, könnt ihr entweder direkt an uns Spenden oder über unsere Betterplace Kampagne:

  • Audiofeature zum Barcamp

    Audiofeature zum Barcamp

    Hier könnt ihr das Audiofeature zu unserem Barcamp „Wenn KI, dann feministisch“ hören:

     

     

    Photo by rakhmat suwandi
  • Webinar: Corona-Apps – Tracing, Tracking, Qurarantänekontrolle

    Webinar: Corona-Apps – Tracing, Tracking, Qurarantänekontrolle

    Durch klicken auf das Video wird es von YouTube nachgeladen.

    Kann eine App gegen Corona helfen? Wird „Contact Tracing“ durch die Corona-App zu mehr staatlicher Überwachung in der Zukunft führen? Sollte ich mir die App herunterladen, wenn sie kommt?

    Zur Zeit wird sehr intensiv über Apps zur Bekämpfung der Corona-Pandemie diskutiert. Es tobt eine Debatte um unterschiedliche technische Ansätze. Hauptsächlich geht es dabei um zentralisierte oder dezentralisierte Datenspeicherung. So manche Datenschützer*innen sehen rot, doch einige Politiker*innen beschwören die App als heiliges Mittel um einem Lockdown zu entkommen.

    Dabei fällt auf: Es diskutieren wieder einmal hauptsächlich weiße cis-Männer darüber, welche Technologie möglicherweise gut für uns alle ist. Dieses Webinar ändert das!

    In kurzen Inputs erklären Laura Dornheim, Johanna Mellentin und Lorena Jaume-Palasi wie die aktuell geplante Contact-Tracing-App technisch funktionieren soll, welchen rechtlichen Rahmen es dafür gibt und was eine solche App für uns als Gesellschaft bedeuten könnte. Im Anschluss diskutieren Teilnehmer*innen mit den drei Expertinnen.

    Johanna Mellentin ist Juristin und arbeitet seit mehreren Jahren zu Menschenrechten und Digitalisierung, unter anderem bei Amnesty International. Seit März ist sie wissenschaftliche Mitarbeiterin im Bundestagsbüro von Konstantin von Notz. Außerdem ist sie Vorständin bei netzforma* e.V.

    Lorena Jaume-Palasí ist Gründerin von The Ethical Tech Society eine gemeinnützige Organisation, die das Ziel verfolgt, Prozesse der Automatisierung und Digitalisierung zu erforschen und in Bezug auf ihre gesellschaftliche Relevanz normativ einzuordnen. Sie war mehrfach Sachverständige für das Europäische Parlament und die Europäische Kommission zur künstlichen Intelligenz und Ethik.

    Laura Dornheim ist Wirtschaftsinformatikerin und Dr. in der Gender Studies als Managerin in einem Software-Unternehmen setzt sie sich für mehr Diversity in der Tech-Branche ein. Sie ist ehrenamtliche Sprecherin der AG Digitalisierung der Berliner Grünen und Beirätin des netzpolitischen Think Tanks D64 e.V.

    Das Webinar fand am 11. Mai 2020 auf Einladung von netzforma*, dem Verein für feministische Netzpolitik, statt.

  • Wenn Ki, dann feministisch: So war’s

    Wenn Ki, dann feministisch: So war’s

    Die Veranstaltung „Wenn KI, dann feministisch!“ fand am 2. November 2019 in der Universität der Künste in Berlin mit ca. 150 Teilnehmenden statt. Das Ziel des Barcamps, angesichts sich verdichtender technischer und gesellschaftspolitischer Entwicklungen, war es neue Perspektiven und Antworten auf Künstliche Intelligenz und Algorithmen zu entwickeln. Dafür wollten wir einen offenen und diversen Raum schaffen, in welchem die Folgen und Chancen von Künstlicher Intelligenz ganz konkret aus einer feministisch-intersektionalen Perspektive diskutiert werden konnten. Mittelpunkt der Diskussion bildeten die sich aus algorithmischen Systemen ergebenden Gefahren für die Gleichberechtigung zwischen den Geschlechtern, aber auch mit Hinblick auf ihre Verwobenheit mit weiteren gesellschaftsrelevanten Merkmalen Gender, race, Klasse, Religion, Bildung, Herkunft sowie unterschiedliche körperliche Größen und Formen.

    Sparkling Input

    Der einführende Vortrag von Nushin Yazdani (KI- und Ethikforscherin), bot zu Beginn der Veranstaltung eine detaillierte inhaltliche Einführung in das Thema Künstliche Intelligenz (KI). Nushin Yazdani legte dabei den Fokus auf die sich in algorithmischen Systemen (AS) ausbildenden Herrschafts- und Machtstrukturen sowie die damit einhergehenden vielfältigen und intersektionalen Diskriminierungsformen. Der Vortrag machte die Relevanz feministischer, intersektionaler Perspektiven und deren Einbeziehen in die Entwicklung und Regulierung Künstlicher Intelligenz anhand theoretischer Einordnung wie auch praktischer Beispiele deutlich und stellte vor allem Fragen wie Worüber reden wir, wenn wir über KI sprechen? Werden feministische Betrachtungsweisen und intersektionale Zugänge berücksichtigt oder traditionell patriarchale Sichtweisen fortgeschrieben? Reicht es aus, KI gerechter zu gestalten? Wenn ja, nach wessen Kriterien?
    Nushin Yazdani

    Workshops

    Verschiedenen Expert*innen aus Politik und Zivilgesellschaft haben einen Input gegeben und zusammen mit netzforma* den jeweiligen Workshop betreut: Chris Köver (Mitbegründerin des Missy Magazine und Journalistin bei netzpolitik.org), Julia Krüger (netzpolitik.org), Dr. Nakeema Stefflbauer (Gründerin von FrauenLoop), Anne Roth (Netzpolitik-Referentin der Fraktion DIE LINKE im Bundestag), Katrin Fritsch und Helene von Schwichow (MOTIF – Institute for Digital Culture) und Natalie Sontopski (Code Girls). Ziel war es durch den Input von Expert*innen eine Vertiefung zu spezifischeren Themenbereichen im Kontext von Künstlicher Intelligenz zu generieren. Gemeinsam wurden in den jeweiligen Workshops Ideen und Konzepte für einen feministischen und demokratischen Umgang mit Künstlicher Intelligenz entwickelt.

    Mythos Transparenz

    Der Begriff Transparenz in Bezug auf algorithmische Systeme umfasst sowohl den Quellcode (insbesondere für Fachleute) sowie Einblicke in die Logik der algorithmischen Systeme (AS) (für Fachleute, sowie für Nutzer*innen von spezifischen AS, etwa bei der Google Suche). Leitend für den Workshop war die Frage Was müsste sich ändern, um die Entscheidung der AS nachvollziehen zu können? – z.B. die Gründe bei einer Ablehnung eines Kredits. Transparenz wird hier als sinnvoll erachtet, wo AS individuellen (Ablehnung eines Kredits) und gesellschaftlichen Schaden (Existenz von Bias in Algorithmen) umgehen. Hier spielt insbesondere eine politische Gestaltung eine zentrale Rolle: Die User*innen sollten nicht in der “Holschuld” sein, sondern die Unternehmen in der Verpflichtung, Dritte zu informieren, welche Daten wofür gesammelt werden. Hier scheint eine staatliche Schutzpflicht sinnvoll (eine Art Aufsichtsbehörde, wie z.B. im analogen Beispiel der Apotheke/Medizin), die den Staat als Innovationsmotor fordern, um den Druck von der Zivilgesellschaft zu nehmen.

    Feministische Technik- und Gesellschaftstheorie

    Anne Roth, Netzpolitik-Referentin der Fraktion DIE LINKE im Bundestag, machte deutlich, dass eine feministische Technik- und Gesellschaftstheorie nicht ganz vorne anfangen muss. Hier sind das 1985 von Donna Haraway verfasste Cyborg Manifest sowie das Venus Matrix Manifest des Old Boys Network (OBN) ganz zentral. Kurz gesagt: Wir können unseren Kampf in den historischen Kontext einordnen. Anne Roth und netzforma* haben hier versuchten eine positive Sicht auf Künstliche Intelligenz und algorithmische Systeme zu werfen. AS können beispielsweise nützlich sein, aufzuzeigen wenn Gremien nicht divers besetzt sind oder Veranstaltungen männlich dominiert sind. Somit sind AS nicht generell nur als Machtinstrumente zu verstehen, sondern könnten auch als Gerechtigkeitsmotoren eingesetzt werden. Dies erfordert allerdings ein diverses Team an Programmierer*innen, gute Datensätze und ausreichend finanzielle Ressourcen.

    Feministische Netzpolitik

    Wie sehen aus einer feministischen Perspektive konkrete politische Programme und Forderungen in Bezug auf Regulierungsszenarien aus? Diesen Komplex diskutierten wir im Rahmen eines Weltcafés mit der Expertin Julia Krüger von netzpolitik.org. Neben einer umfangreichen Diskussion über das jüngst erschienene Gutachten der Datenethikkommission mit Blick auf KI, ging es in den Kleingruppen vor allem um eine nähere Definition und Ausgestaltung der im Gutachten aufgeführten Bedingungen für Einsatz, Implementierung und Weiterentwicklung von KI. Was bedeutet Transparenz und wo setzt diese an? Wer schreibt den Code, wer bestimmt den Datensatz selbstlernender Systeme und nach welchen Kriterien wird dieser zusammengesetzt? Welche Bereiche sehen wir als begründet schützenswerte, und deshalb notwendigerweise KI-freie Bereiche (z.B. Gerichte und Strafverfolgung). Insgesamt wurde deutlich, dass dieser Bereiche schon auf nationaler Ebene vielschichtig und komplex ist und dringend in einem breiten gesellschaftlichen Diskurs vertieft werden muss.

    Neue Technologie, alte Stereotype: Gender Bias bei KI

    Die meisten Sprachassistent*innen sind weiblich markiert – entweder durch ihre Namen und/oder ihre Stimme. Damit sind die Sprachassistent*innen, die an sich keinen humanoiden Körper haben, trotzdem eindeutig gegendert. Ziel des Workshops war es, in Kleingruppen zu überlegen, wie dieser Geschlechtszuordnung und der damit einhergehenden Stereotypenbildung begegnet werden kann. Wir haben in verschiedenen Ansätzen versucht, die Stimme neu zu denken: Etwa indem keine vorprogrammierte Stimme verwendet wird, sondern diese jeweils eingestellt werden muss bzw. eine genderneutrale Stimme (z.B. Computerstimme) verwendet wird. Insgesamt zeigt die Problematik der Stimmen von Sprachassistent*innen jedoch, dass es, um größere, strukturelle Probleme der Geschlechterstereotype geht .

    Feministische Künstliche Intelligenz

    In ihrem Vortrag schuf Dr. Nakeema Stefflbauer Bewusstsein dafür, dass algorithmische Systeme weder neutrale noch reflexive Entscheidungsinstrumente sind. Somit können sie immer, vor allem bei unreflektiertem Einsatz, diskriminierende Auswirkungen haben. Um dem entgegenzuwirken, ist es daher wichtig, die Diversität der Gesellschaft nicht nur anzuerkennen, sondern auch zu berücksichtigen – insbesondere mit Fokus auf Gender, race, Klasse, Religion, körperliche Größen und Formen in algorithmischen Modellen, Datensätzen und Systemen. Dr. Stefflbauer machte anhand empirischer Beispiele, wie etwa anhand von Gesichtserkennungsalgorithmen, deutlich, dass Künstliche Intelligenz niemals unabhängig vom gesellschaftlichen Kontext gedacht werden kann. So lange kapitalistisch-patriarchale Strukturen existieren, müssen wir neue technische Entwicklungen immer auch in diesen Kontext betrachten und bewerten.

    Feminist Futures

    Der Workshop wurde von Katrin Fritsch & Helene von Schwichow von MOTIF – Institute for Digital Culture, einem unabhängigen Thinkthank an der Schnittstelle von Technologie und Kultur, geleitet . Basierend auf ihrem Workshop Artificial Intelligence and Ethics nutzten sie den Workshop, um eine feministische (Dys-)U-topie zu entwerfen. Dabei identifizierten sie zuerst Problemfelder und entwickelten davon ausgehend feministische, positive Alternativen, vor allem im Bereich der individuellen und gesellschaftlichen Bildung. Daraus entwickelten sie dann das Konzept des Bildungs-all-in-chip.. Ein technisches Artefakt, dass allen Menschen die gleichen Bildungsmöglichkeiten durch die Nutzung von Künstlicher Intelligenz eröffnet.

    CODONAUT – Ein interaktiver Film von Felix Pauschinger

    Während der gesamten Veranstaltung hatten die Teilnehmer*innen die Möglichkeit, den interaktiven Film “Codonaut” von Felix Pauschinger zu schauen. „Der Codonaut erkundet, wohin wir uns programmieren – welche Welt wir mit der Erschaffung künstlicher Intelligenz entstehen lassen. Gegenwärtig und in der Zukunft. Wir erlauben es der Rezipientin (= der Codonautin), sich einen eigenen Weg durch den Kosmos der Informationen rund um das Thema KI zu suchen. In dem Tempo, das der Codonaut als richtig fühlt. Unterstützt wird sie dabei von der Künstlichen Intelligenz der Korsakow – Software, die inhaltliche Kontexte herstellt. Klassische, auch journalistische Erzählungen folgen in ihrer Gesamtheit einem Spannungsbogen. Spannung wird über gegensätzliche Pole erzeugt. Einem Schwarz oder Weiß, einem Gut oder Böse. Diese – auch im Wortsinn – Polarisierung erschwert jedoch den nötigen gesellschaftlichen Diskurs zum Thema Künstliche Intelligenz. Dort, wo es nur Gut oder Böse gibt, bleibt kaum Raum für Zwischentöne. Korsakow ermöglicht es uns, als Autoren eine wesentlich neutralere Position einzunehmen, als im klassischen Dokumentarfilm oder Feature. Bei Codonaut soll es weniger um die Präsentation spektakulärer Techniken gehen. Vielmehr sind uns die gesellschaftlichen, philosophischen und sozialen Implikationen wichtig”
    Felix Pauschinger – http://about.codonaut.de/

    Abschlussperformance

    Die Performance “we have many names” der Künstlerin Olivia Hyunsin Kim bildete den Abschluss der Veranstaltung. In ihr stellte Hyunsin feministische Gesellschaftsperspektiven in den Vordergrund. Gemeinsam mit dem Publikum machte sie BIPOC-Frauen* und ihren Einfluss auf die Entwicklung von Technik, KI und Algorithmen sichtbar. Durch ein aktives verteilen der Namen dieser Frauen* im Raum wurde eine Auseinanderstzung angestoßen und der Raum mit diesen Geschichten eingenommen.

    Kunstausstellung Wenn KI, dann feministisch

    Die Kunstausstellung, kuratiert von Dr. Katrin Köppert, zeigte Kunstwerke von Andy King, Iyo Bissek, Klara Kirsch, Astrid Kraniger, Cammack Lindsey, Melissa Lücking und Alix Stria, Studierende und Künstler*innen der Universität der Künste. Damit bot sie den Teilnehmenden die Möglichkeit, sich auf ästhetischer Ebene dem Thema Künstliche Intelligenz anzunähern. Aufgrund des großen Erfolgs der Ausstellung blieb diese noch für sieben weitere Tage geöffnet. Die Ausstellung wurde insgesamt von ca. 300 Besucher*innen besichtigt.

  • Wenn KI, dann feministisch

    Wenn KI, dann feministisch

    So sollte die grundlegende mathematische Formel für Algorithmen lauten. Unter diesem Titel veranstalten netzforma* in Kooperation mit dem Institut für Geschichte und Theorie der Gestaltung der Universität der Künste Berlin (UDK) und dem Gunda-Werner-Institut für Feminismus und Geschlechterdemokratie am 02.11.2019 ein Barcamp und eine Ausstellung, um aktuelle Entwicklungen feministisch* zu begleiten. Ziel ist es angesichts sich verdichtender technischer und gesellschaftspolitischer Entwicklungen, neue Perspektiven und Antworten auf Künstliche Intelligenz und Algorithmen zu entwickeln.

    Autonomes Fahren, Drohneneinsätze, Haushaltsrobotik  und Sprachassistent*innen – alles läuft zur Zeit unter den Schlagworten künstliche Intelligenz und Algorithmen. Doch was genau umfassen KI und Algorithmen und wie vielfältig sind die Perspektiven tatsächlich? KI – eine Kehrtwende im Mensch-Maschine Verhältnis? Ein Mythos? Eine Utopie? Die Zukunftsszenarien schwanken zwischen Bedrohung und Verheißung. Klar ist: Technologie im Allgemeinen und algorithmische Prozesse im Speziellen sind nicht ohne Herrschafts- und Machtbezug denkbar. Gerade deshalb gilt es, diese Systeme vor dem Hintergrund feministischer Sichtweisen und Wertvorstellungen kritisch zu betrachten, zu bewerten und neu zu entwickeln. Die grundlegende mathematische Formel der Algorithmen muss also lauten: Wenn KI, dann feministisch.

    Wir wollen wissen: Worüber reden wir, wenn wir über KI sprechen? Werden feministische Betrachtungsweisen und intersektionale Zugänge berücksichtigt oder traditionell patriarchale Sichtweisen fortgeschrieben? Reicht es aus, KI gerechter zu gestalten? Wenn ja, nach wessen Kriterien? Ist die Forderung nach Transparenz die Lösung oder nur ein Mythos? Welche politischen und künstlerischen Potentiale bietet feministische Netzpolitik, um Risiken von KI und Algorithmen zu beschränken und Chancen zu stärken? Außerdem geht es um die Basis einer jeden KI: Coding.

    In Kooperation mit der UdK Berlin, Institut für Geschichte und Theorie der Gestaltung und dem Gunda-Werner-Institut für Feminismus und Geschlechterdemokratie.

    Direkt zum Programm

    Barcamp u.a. mit
    Katrin Fritsch & Helene von Schwichow, MOTIF – Institute for Digitial Culture
    Code Girls
    Olivia Hyunsin Kim, Performancekünstler*in
    Chris Köver, netzpolitik.org
    Julia Krüger, Netzpolitik.org
    Anne Roth, Netzpolitik-Referentin der Fraktion DIE LINKE im Bundestag
    Dr. Nakeema Stefflbauer, Frauenloop
    Nushin Isabelle Yazdani, AI ethics researcher

    Ausstellung u.a. mit
    Iyo Bisseck
    Andy King
    Klara Kirsch
    Astrid Kraniger
    Cammack Lindsey
    Melissa Lücking
    Alix Stria

     
    Wann: 02.11.2019 von 10-18 Uhr
    Wo: Universität der Künste Berlin, Medienhaus, Grunewaldstr. 2-5, 10823 Berlin
    Anmeldung: geschlossen



    Programm:

    9.30 – 10.15 Uhr Anmeldung
    10.15 – 10.30 Uhr Begrüßung und Ausstellungseröffnung
    10.45 – 11.15 Uhr Lightning Talk: Ungerechte Algorithmen? Wie Machine Learning diskriminierende Gesellschaftsstrukturen reproduziert
    mit Nushin Yazdani
     

    Workshopphase: 11.30 – 13.00 Uhr
     
    Was ist KI?  – Input Nakeema Stefflbauer
    Mythos Transparenz – Input Chris Köver
    Feminist Futures – Input Helene von Schwichow und Katrin Fritsch
    Freier Slot 1 & 2
     

    Mittagspause: 13.00 – 15.00 Uhr
     

    Workshopphase: 15.00 – 16.30 Uhr

    Feministische Technik und Gesellschaftstheorie – Input Anne Roth
    Feministische Netzpolitik für KI – Input Julia Krüger
    Neue Technologie, alte Stereotype: Gender Bias bei KI  – Input: Natalie Sontopski
    CODONAUT – interaktiver FilmFilm: Felix Pauschinger
    Freier Slot 1
    Kaffeepause: 16.30 – 17.00


    17.00 – 17.30 Barcamp Slam

    17.30 – 18.00 we have many names – Performance von Olivia Hyunsin Kim
    18.00 – 19.00 Ausklang & Ende

     

    Gefördert durch die Landeszentrale für politische Bildung Berlin.