Diese Woche wurde ich gebeten zu einer Veranstaltung mit dem Titel AI Impact Days beizutragen. Ich nutzte diese Gelegenheit um mich selbst in dem Themenfeld zu verorten und meine Überlegungen hier zu teilen.
Ein selbstkritischer Blick zurück
Der Titel der Konferenz AI for Impact lädt mich auf eine Zeitreise in die späten Nullerjahre des 21. Jahrhunderts ein. In den frühen Gründungsjahren von betterplace.org (ab 2007) war ich regelmäßiger Gast oder Ausrichterin von Konferenzen mit Titeln wie „Digital4Good“, Tech4Good“, „Internet fürs Gute“. Mich faszinierte das Potenzial der Digitalisierung, Entwicklungen wie größere Transparenz, breitere Partizipation oder dem “Long Tail“, der viel mehr Menschen eine Stimme geben konnte. In den Jahren 2007 bis ca. 2014 erlebte ich mich als hochwirksam. Ich hatte viele Flow-Erfahrungen und war überzeugt davon, dass digitale Medien ein neues, demokratischeres Zeitalter einleiten würden.
Im betterplace lab, welches ich 2010 gründete, erforschten wir dafür Dutzende von Trends, wie digitale Medien den sozialen Sektor verbessern konnten. Z.B. die Möglichkeit per SMS niedrigschwellig das Feedback von Begünstigten sozialer Arbeit einzuholen und so an die realen Bedarfe der Zielgruppe anzupassen und damit die Wirksamkeit der Projekte in Echtzeit zu verbessern. Im Rahmen des Lab Around the World, eines mehrjährigen Forschungsprojekts, untersuchten meine KollegInnen und ich pro-soziale digitale Innovationen in 26 Ländern. Hier z.B. einer meiner Berichte aus Ägypten, wo ich 2015 forschte.
Doch während wir uns dafür begeisterten, wie Facebook-Gruppen im Senegal zur Katastrophenbekämpfung oder Wechat in China für Bildung eingesetzt wurde, entwickelten die großen Plattformen ihre Werbeangebote, entstand der Überwachungskapitalismus, erhielten Filterbubbles und Desinformationskampagnen einen Turbo, wurde unsere Aufmerksamkeitsspanne durch die Bombardierung mit Informationen drastisch reduziert usw. Alles Entwicklungen, die heute direkt in das Szenario des Technofaschismus einfließen. In Folge ist es wahrscheinlich, dass die Welt fragmentierter und polarisierter ist denn je und damit der dringend benötigte Raum für gemeinsam erarbeitete Lösungen für die großen gesellschaftlichen und ökologischen Herausforderungen radikal verkleinert wird.
Den Hügel optimiert, den Vulkanausbruch ignoriert
Während ich mich an den Grundsatz hielt, dass Technik im Kern neutral sei und in meiner Bubble davon ausging, die meisten Menschen würden Technologie pro-sozial einsetzen wollen, verliefen die total gegenläufigen Trends und Entwicklungen von mir weitgehend unbeachtet. Bis ich dann, spätestens 2016 mit Trump und Brexit konfrontiert, noch mal neu hinschaute und sah, dass es offenbar deutlich mehr Menschen, Gründer, Technologen, Unternehmer etc. gab, die an ihrem eigenen Reichtum und ihrer Macht interessiert waren, als an pro-sozialen Entwicklungen wie SMS-Begünstigten Feedback, dezentralen Katastrophentools oder transparenten Entwicklungshilfeorganisationen.
Nicht, weil sie unmoralisch oder gar “böse” waren, sondern weil sie aus ihrer subjektiven Lebenserfahrung von Trauma, Mangel, Kompensation und Hyperindividualität Impulsen folgen, die für sie total Sinn machen, aber einer Gemeinwohl-Orientierung diametral im Weg stehen.
Wenn ich also heute AI for Impact höre, dann erinnert es mich daran, wie ich in den letzten 18 Jahren einen wunderschönen Hügel optimiert habe, während nebenan ein riesiger Vulkan an Fahrt aufnahm und mit seiner Lava und Zerstörungsmacht heute Leben zerstört, Freiheiten und Wahlmöglichkeiten einschränkt. Die Tech 4 Good Entwicklung erscheint mir im Rückblick, wenigstens teilweise, wie ein Betäubungsmittel oder Ablenkungsmanöver, welches Konzerne vor sich hergetragen haben, die mit ihrem Kerngeschäft die völlig anderen, entgegengesetzten Interessen ihrer Shareholder verfolgten.
Realität besteht aus Innen und Außen
In unserer Arbeit verwenden wir oft das 4-Quadrantenmodell von Ken Wilber. Es zeigt uns, dass Realität immer eine äußere, sichtbare, sowie ein innere, meist nur subjektiv erfahrbare Dimension hat. Wir sind, spätestens seit der Aufklärung vordringlich mit der äußeren Dimension beschäftigt. Aber Realität ist ganz und ausgegrenzte Teile verschaffen sich unweigerlich Gehör. Wenn wir sie ignorieren oder abwehren kommen sie wie ein Boomerang zu uns zurück.
Deshalb möchte ich im Folgenden beide Dimensionen miteinander verbinden.
Wenn ich mir heute meine 2007plus Perspektive auf die Welt anschaue, dann erkenne ich mein großes Bedürfnis, mich ziemlich einseitig mit den positiven Potentialen neuer Technologien /Entwicklungen zu beschäftigen. Das gleiche ist mir mit Globalisierung, eine Dekade früher, passiert, wo ich in Büchern wie Tanz der Kulturen, ebenfalls eher Win-Win Szenarien herausarbeitete. Diese Potentialorientierung, eigentlich durchaus sympathisch, ist jedoch untrennbar mit meiner biographischen Prägung verbunden. Aus meiner Kindheit bringe ich eine Psychodynamik mit, er es schwer fällt sich mit Negativem oder Konservativem zu verbinden. In meinem Elternhaus erlebte ich die für die 1970er Jahre in Deutschland ziemlich typische emotionale Stummheit und Lähmung, gepaart mit einer meinen Eltern eigenen Negativität allem Zukunftsorientierten und „modernen“ gegenüber: In meinem Elternhaus war man für den Shah und gegen Abtreibung.
Ich litt sehr unter dieser Weltsicht und entwickelte als Überlebensmechanismus eine fast schon obsessive positive Sicht auf Realität und Innovation. Natürlich sah ich auch Negatives, aber meine eigene Gestaltungskraft verband ich damit, mich mit dem positiven Potential in allem zu verbinden und dieses in der Welt zu manifestieren.
2016 kam dann der große Tech-Lash und mir wurde bewusst, dass ich mich getäuscht hatte und eine zu einseitige, minderkomplexe Sicht auf Digitalisierung hatte. Ich wurde ent-täuscht, d.h. meine Täuschung wurde entlarvt. Diese Entwicklung hat sich in den letzten Monaten nochmals enorm gesteigert. Mir wird schwindelig, wenn ich sehe, wie viele US-Technologen und Tech-Investoren vor der Trump Regierung den Kotau machen und wie wir in Richtung Technofaschismus abgleiten.
Technologie als Symptom und Treiber von Fragmentierung
Heute interessiert mich insbesondere wie Technologie den Trend der Fragmentierung und Polarisierung in der Welt beeinflusst. Ich bin nach wie vor überzeugt, dass digitale Technologien in der Zukunft eine zentrale Rolle spielen werden und auch das Potential haben, zu einer Welt, wie ich sie mir wünsche – fairer und inklusivee – beizutragen. Aber noch sehe ich wenig Technologienutzung am Horizont die darauf verweist.
Statt dessen verstärken viele führende KI-Technologien Fragmentierung und Spaltung. Damit beziehe ich mich auf die Erfahrung, dass immer mehr Menschen erleben, dass sich verschiedene Perspektiven, Meinungen, Gedanken, Verhaltensformen gegenseitig ausschließen. Das Unterschiede nicht nebeneinander existieren können. Das die Vielfalt der Welt nicht als „sowohl als auch“, sondern als „entweder-oder“ auftaucht. (Parallel schreibe ich gerade an einem anderen Post, in dem ich ausführlicher auf das Thema Fragmentierung eingehen werde).
Neben dieser Wahrnehmungsdimension, dass immer mehr Welten unvereinbar erscheinen, sehe ich aber auch, dass die gegenwärtigen technologischen Entwicklungen zu einer immer größeren realen gesellschaftlichen Spaltung und einem großen Machtungleichgewicht beitragen. Denn KI, so wie wir sie heute erleben und unbeachtet der wahrscheinlich auch vielen positiven zukünftigen Innovationen, geht mit einer Verschiebung von Wert und Macht eint: hin zu einer kleinen Schicht gut ausgebildeter, weißer Männer mit Kapital, weg von all diejenigen, die sich bisher mit Lohnarbeit ihren Lebensunterhalt verdient haben und die in naher oder mittlerer Zukunft durch Algorithmen ersetzt werden können.
Technologien, die sich „for Good“ oder „for Impact“ einsetzen, sind für mich solche, die de-fragmentierend wirken. Die also eine tiefere Beziehung zur Realität eingehen. Eine „bessere Welt“ ist demnach eine, in der Menschen sich auf mehr Aspekte der Realität beziehen können, die in ihren Geschäftsmodellen, Arbeitspraktiken , Netzwerken etc. mehr Perspektiven, mehr Beziehung, mehr Verbindung einbinden. Eine ausführlichere Darstellung dieses Prinzips, dass Fragmentierung auf Exklusion von Wirklichkeit basiert und das „Fortschritt“ bedeutet, mehr Realität einzubeziehen, findet sich in diesem Blogpost).
Wie viel Realität beziehen KI Anwendungen ein?
Angewandt auf KI für Impact stelle ich mir deshalb die Frage: wieviel Realität können wir in KI einbeziehen?
In diesem Zusammenhang interessieren mich Themen, die sowohl innere als auch äußere Dimensionen des Lebens beantworten:
- Wie beziehen wir uns als Individuum und als Gesellschaft auf KI?
Nehmen wir Teil an der Polarisierung, die in KI entweder die Lösung aller Probleme sieht, oder große Ängste äußert und sie abwehrt? Beide Haltungen sind häufig Teil einer Stress-Reaktion, die eine reife, differenzierte und ethisch geleitete Diskussion verhindert. - Wer baut KI?
Jaron Lanier schreibt von AI als „it’s a little boys thing“. Viele der „Jungs“ sind Mitte 40er, kinderlos und haben ein Nerd-Mindset. Frauen sind deutlich unterrepräsentiert. Eine Studie des Berliner Think Tanks Interface ergab, dass von ca. 1.6 Millionen AI Professionals nur 22% Frauen sind. Und die wenigsten davon in leitenden Positionen. Welche Aspekte der Realität können diese EntwicklerInnen und Unternehmer inkludieren - Trainingsdaten
Die meisten Trainingsdaten werden ohne Einwilligung der Urheber genutzt. Ebenso wird die gesamte materielle Infrastruktur, die Kate Crawford in Atlas of AI beschrieben hat, ausgeblendet: vom Sourcing seltener Erden bis zur Ausbeutung nicht-elitärer Arbeiter. - Verzerrte Daten
KI basiert auf verzerrten und gefilterten Daten und das System ist sich nicht bewusst, dass es so viel ausschließt. Dadurch werden die dominanten gesellschaftlichen Verzerrungen reproduziert und Fragmentierung exponentiell gesteigert. Ich selbst sehe immer wieder wie hartnäckig sich stereotype Bilder, beispielsweise von Frauen, aber auch AktivistInnen oder UnternehmerInnen in der Bildgenerierung mit Tools wie Midjourney wiederholen. - Wohin gehen KI Investments?
Natürlich gibt es viele potentiell pro-soziale KI-Anwendungen in Bereichen wie Medizin oder Energieeffizienz. Aber die vergleichbaren Investitionen in Bereichen wie dem militärisch-industriellen Komplex, Cyberkriminalität oder Konsum/ Werbung sind unweit größer. Ich möchte besser verstehen, welche Faktoren dazu führen, dass wir wirtschaftliche Profitabilität so viel höher gewichten als soziale oder ökologische Wirksamkeit. - Welches sind die großen Entwicklungslinien?
Soweit bislang sichtbar, verstärkt KI sowieso schon eklatante Machtungleichgewicht, beispielsweise zwischen Kapital und Lohnarbeit. Daraus ergeben sich spannende Fragen, u.a. nach der materiellen Absicherung großer Bevölkerungsgruppen. Aber auch über das materielle hinausgehende Herausforderungen, z.B. Welche Strukturen und Sinnangebote entwickeln wir für die Arbeiterlose Gesellschaft? Und darauf aufbauend: Welche Rolle können Sozialunternehmen dabei spielen, diese neuen sozialen Entwicklungen mit zu gestalten, abzufedern? - Außen & Innen
In wieweit beziehen KI-Modelle und Anwendungen überhaupt die inneren Dimensionen des Lebens ein und sind sensibel für Werte wie Verbundenheit, Potentialentfaltung, Partizipation, Purpose etc.? Wie stärkt oder schwächt eine KI-Anwendung die Beziehung zu mir, Dir und zur Welt? Welche Räume und Praktiken brauchen wir, um Fragen rund um die ethische Dimension des technologischen Wandels adäquat zu behandeln?
Der AI 4 Impact Diskurs kann eine sinnvolle Integration von KI in der Sozialwirtschaft begleiten. Wir können neue Wege gehen und alternative Modelle und Anwendungen bauen. Dies ist jedoch angesichts der höchst unterschiedlichen Investitionsmittel eher unwahrscheinlich. Dennoch kann eine informierte Diskussion Orientierung geben, Ängste nehmen, Inspiration verbreiten, und ethische Diskussionen befeuern.
Andererseits kann ein KI 4 Good Diskurs aber auch die Fehler der früheren Tech4Good Welle wiederholen und von vielen kritischen Entwicklungen im Bereich ablenken oder eine bestimmte Form von Aktivismus und Rhetorik fördern, an die ich nicht mehr glaube.
Unter letzte fällt die Annahme, wir bräuchten nur mehr Informationen und Daten, um die Zukunft besser kontrollieren und die anstehenden Probleme lösen zu können. Doch Leben ist viel zu komplex, als das es so mechanisch kontrolliert werden kann. Vielmehr bin ich daran interessiert herauszufinden, wie wir wirklich neue Ideen entwickeln können und den Wiederholungszwang, in dem wir alle größtenteils gefangen sind, durchbrechen.
Vieles von dem, was wir heute „Innovation“ nennen, ist aus der Fragmentierung entstanden und verstärkt diese. Wenn wir die innere Dimension des Lebens ernst nehmen und Fragen nach Sinnhaftigkeit, Priorisierung, Beziehungsfähigkeit, Trauma, Verletzung und Heilung etc. ernst nehmen, könnten wir Produkte und Geschäftsmodelle bauen, von denen wir jetzt noch gar keine Vorstellung haben, die aber wirklich innovativ sind, d.h. stimmige Antworten auf die großen Fragen bieten.,