Computer Code

Algorithmen, Big Data, künstliche Intelligenz und Machine/Deep Learning – Begriffe, die in aller Munde sind und mit denen umfassende gesellschaftliche Veränderungen verbunden sind.

Die Debatte pendelt zwischen dystopischen Szenarien, in denen Roboter und künstliche Intelligenzen den Menschen in all seinen Funktionen ablösen, den Menschen damit überflüssig machen und Heilsversprechen, die dem Menschen eine arbeitslose, aber dennoch finanziell ertragreiche Zukunft voraussagen.

Wie wahrscheinlich entweder das eine, das andere oder etwas in der Mitte ist, liegt derzeit in unseren Händen. Auch wenn Technologien einen Ermöglichungsraum schaffen, so sind sie nicht wertfrei oder neutral, sondern immer eingebunden in bestehende Macht-, Herrschafts- und Diskriminierungsverhältnisse. Das gilt so sehr für künstliche Intelligenzen, wie für Big Data, als Datengrundlage. Sowohl der Einsatz der Technologie, als auch die Sammlung von Daten ist immer kontextbezogen und sollte auch genauso betrachtet und im Zweifel kritisiert werden.

Eine feministische Perspektive, die es darauf anlegt, gesellschaftliche Prozesse intersektional zu analysieren und macht- und hierarchiefrei zu gestalten, ist dabei unerlässlich.

Algorithmen bzw. künstliche Intelligenz kann befähigen bzw. helfen, wenn sie beispielsweise Tumore auf Röntgenbildern mit wesentlich größerer Treffsicherheit und viel schneller erkennt, als es Menschen möglich wäre. SmartGrids und SmartFinance prägen zukünftig ebenfalls unsere Lebenswelt, das populärste Argument ist eine Vereinfachung des Alltags. Aber auch diese Schnittstelle weist eine Kehrseite auf.

Algorithmen bzw. künstliche Intelligenzen können zugleich einschränken oder diskriminieren, wenn sie zum Beispiel darüber entscheiden, ob eine Person kreditwürdig ist oder Prognosen über mögliche Straftäter*innen treffen (Stichwort: Predictive Policing). Denn weder die Datengrundlage noch die Technologien sind neutral. Diskriminierende Stereotype, die sich lebensweltlich und damit in den Daten bereits manifestiert haben, werden in den Code (unbewusst) übernommen. Fehlende Transparenz kann dann tatsächlich zu einer Verfestigung und Verschärfung der Diskriminierung führen.

netzforma* e.V. wird sich intensiv mit Fragen der Gefahr von Diskriminierung, dem Potential für Überwachung und weiteren sozialen, sowie gesellschaftlichen Implikationen auseinandersetzen. Wir fokussieren vor allem auf die technischen Möglichkeiten die mit Algorithmen, Deep Learning und Big Data einhergehen.

Zur Strukturierung der Debatte im Folgenden eine Annäherung an die Begriffe, denn diese werden zuoft synonym verwendet, haben aber teilweise sehr unterschiedliche Technologien als Grundlage.

Künstliche Intelligenz

Künstliche Intelligenz ist ein Art Oberbegriff für Algorithmen, Deep Learning und Machine Learning.

Der Begriff geht auf John McCarthy zurück, der ihn bereits 1955 prägte, und umschreibt im Grunde nichts anderes als „the science and engineering of making intelligent machines“.

Alle weiteren Begriffe können dem Feld der künstlichen Intelligenz zugeordnet werden.

Algorithmen sind (mathematische) Handlungsanweisungen, die auf einem definierten Weg von einem definierten Anfangszustand zu einem definierten Endzustand führen sollen. Algorithmen tauchen in vielen Disziplinen auf.

Im Grunde sind viele Dinge, die wir im Alltag tun, kleine Algorithmen, wie zum Beispiel das Anmelden am Computer oder das Kochen von Wasser.

Deep Learning ist die maschinelle Analyse von Big Data, das wiederum sind sehr große Mengen an Daten und Datenbanken. Dabei wird mit künstlichen neuronalen Netzen gearbeitet, um besonders effiziente Lernerfolge zu erzielen. So können Strukturen erkannt und evaluiert werden. Mit jedem Durchlauf kann die Maschine besser werden.

Big Data ist wie bereits beschrieben die Kapazität zu suchen, zu verbinden und auf große Datenmengen zu verweisen.

weiterlesen:

boyd, d., & Crawford, K. (2012). CRITICAL QUESTIONS FOR BIG DATA. Information, Communication & Society, 15(5), 662-679. doi:10.1080/1369118X.2012.678878

Ferguson, A. (2017). Is “Big Data” racist? Why policing by data isn’t necessarily objective  Ars Technica. Retrieved 19.02., 2018 from https://arstechnica.com/tech-policy/2017/12/is-big-data-racist-why-policing-by-data-isnt-necessarily-objective/

McCarthy, J. (2007). WHAT IS ARTIFICIAL INTELLIGENCE.

Merz, C. (2016). Predictive Policing – Polizeiliche Strafverfolgung in Zeiten von Big Data. Retrieved from https://publikationen.bibliothek.kit.edu/1000054372

Powles, J. (2016). Machine logic: our lives are ruled by big tech’s ‚decisions by data

Vargo, C. J., Guo, L., & Amazeen, M. A. (2017). The agenda-setting power of fake news: A big data analysis of the online media landscape from 2014 to 2016. New Media & Society, Vol 20, Issue 5, pp. 2028 – 2049.

Vincent, J. (2018). Artificial intelligence is going to supercharge surveillance

Wagner, B. (2016). Algorithmic regulation and the global default: Shifting norms in Internet technology. Etikk i praksis – Nordic Journal of Applied Ethics, 10(1), 5.

Alle Themen von netzforma* e.V.

Überwachung
Künstliche Intelligenz
Digitale Gewalt

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.