Digitalisierung bedeutet für uns vor allem gesellschaftliche Veränderung.
Diese geschieht auf privatem, wie auf beruflichem Gebiet.
Sie bringt neue An- und Herausforderungen mit sich.

Dieser Prozess geht allerdings so schnell und nimmt so wenig an die Hand, dass es vielen Menschen kaum möglich ist, Schritt zu halten und die Konsequenzen dieser Transformation zu durchdringen.

 Was wir tun 

Die gemeinwohlorientierte Stiftung Digital Age möchte sich gemeinsam mit Expert*innen dieser neuen Herausforderungen annehmen und mit Hilfe von Aufklärungsarbeit, Bildungs- und Beratungsangeboten dazu beitragen, dass möglichst viele Menschen am Prozess der Digitalisierung aktiv und bewusst teilhaben können. Wir hoffen, den Menschen mit unserer Arbeit Zuversicht bezüglich der gesellschaftlichen Veränderungen zu geben. Wir können Vorbehalte oder Unsicherheiten abbauen und dabei helfen, diesen Prozess als große Chance zu begreifen.

 Ethische Fragen 

Neben unserer Aufklärungsarbeit und der Entwicklung von Weiterbildungsangeboten wollen wir uns auch den ethischen Fragen widmen, die der Transformationsprozess der Digitalisierung aufwirft. Die aus unserer Sicht tiefgreifende Veränderung der gesellschaftlichen Strukturen führt dazu, dass sich grundlegende Fragen der Moral neu stellen. Oder die Veränderungen rufen gesellschaftlich gänzlich neue Situationen hervor, welche folgerichtig mit den Maßstäben bestimmter ethischer Vorstellung noch nicht beantwortet werden können. Ständig werden neue Diskurse zu technologischen Themen im Hinblick auf Moral losgetreten, an denen sich Digital Age beteiligt und mit denen wir Euch vertraut machen wollen. Unter anderem halten wir die folgenden ethischen Fragenkomplexe für relevant:

 Welche Entscheidungen will ich/wollen wir als Gesellschaft Computerprogrammen überlassen? 

Bereits heute haben wir die Möglichkeit, den unterschiedlichsten Computerprogrammen wichtige und weniger wichtige Entscheidungen, die unser Leben betreffen, zu überlassen. Dazu gehören so verhältnismäßig harmlose, jedoch keineswegs belanglose Dinge wie die automatisierte Verwaltung des eigenen Terminkalenders durch ein Computerprogramm oder der Kühlschrank, der Lebensmittel selbstständig nachbestellt, wenn sie zur Neige gehen. Hierunter fallen jedoch auch weitreichende Entscheidungen, etwa folgend auf medizinische Diagnosen oder jene eines Autopiloten in einer Unfallsituation. Soll dieser einen anderen Menschen überfahren, um einem Baum auszuweichen oder in diesen hineinfahren und Insassen gefährden?

Was zunächst eine individuelle Entscheidung zu sein scheint, wird dabei schnell zu einer Frage, die auch (zum Teil schwerwiegende) Auswirkungen auf andere Mitglieder der Gesellschaft hat: Wenn etwa das Auto, das mich transportiert entscheiden muss, ob es nun eine andere Person überfährt oder gegen einen Baum steuert, ist das eine Entscheidung, die nicht nur mich betrifft. Ohne dass die Person, deren Leben hier gegen meines steht, sich dafür entschieden hat, ihr Leben einem Computerprogramm anzuvertrauen, ist sie nun Teil einer solchen Entscheidung. Was hier relativ offensichtlich erscheint, gilt auch in vielen anderen Bereichen. Künstliche Intelligenzen, die an Börsen mitspekulieren, Computerprogramme, die kritische Infrastruktur steuern, Software, die darüber entscheidet, ob eine Person einen Kredit erhält oder eine Versicherung abschließen darf: Viele Aspekte unseres Lebens werden bereits von Computerprogrammen beeinflusst, ohne dass wir Einfluss auf die Art und Weise hätten, wie diese Entscheidungen getroffen werden, teilweise auch ohne, dass wir damit einverstanden wären.

Für eine digitale Gesellschaft wirft das ethische Fragen danach auf, inwiefern wir es Computerprogrammen erlauben wollen, Entscheidungen zu treffen, die das Leben einzelner oder vieler Menschen betreffen. Inwiefern sollten die betroffenen Menschen ein Mitbestimmungsrecht darüber haben, nach welchen Kriterien die Computerprogramme diese Entscheidungen treffen und – ganz unabhängig von dieser konkreten Frage – welche moralischen Maßstäbe sollten sich auch in den Computerprogrammen widerspiegeln?

 Wie können Computerprogramme dazu beitragen, dass alle Menschen gleichberechtigt an der Gesellschaft teilhaben können? 

In der heutigen Gesellschaft sind die Teilhabemöglichkeiten der Menschen an der Gesellschaft sehr stark von der sozialen Ausgangssituation einer Person abhängig. Verschiedene Diskriminierungsmuster, beispielsweise Sexismus, Rassismus, Klassismus, Ableismus (Diskriminierung von Menschen mit Be_hinderungen), Antisemitismus und viele weitere Formen von Diskriminierung verhindern faktisch die Chancengleichheit: Menschen mit reichen Eltern können häufiger studieren als Menschen aus armen Haushalten, Frauen sind seltener in den Führungsebenen von Firmen und Behörden anzutreffen als Männer, rassifizierte Menschen bekommen schwieriger einen Job oder eine Wohnung als Menschen, die der Mehrheitsgesellschaft zugeschrieben werden.

Wo Klassismus, Sexismus, Rassismus oder irgendeine andere Form der Diskriminierung aufgrund des vorurteilsbehafteten Denkens der Individuen zum Ausschluss betroffener Menschen führt, sind Computerprogramme grundsätzlich in der Lage dazu, solche Diskriminierungen zu verhindern. Wenn sie beispielsweise über die Vergabe eines Jobs oder einer Wohnung entscheiden, müssten derartige Diskriminierungen dabei keine Rolle spielen. In der Realität sieht das jedoch anders aus: Künstliche Intelligenzen, die etwa bei Schönheitswettbewerben eingesetzt wurden, reproduzierten rassistische Schönheitsideale. KI’s, die für Sozialprognosen eingesetzt werden, sorgen dafür, dass People of Color öfter eingesperrt werden als Weiße (mehr zu diesem Thema hier). In diesem Zusammenhang stellt sich die Frage, wie Computerprogramme dazu eingesetzt werden können, dass sie die Teilhabemöglichkeiten aller Menschen an der Gesellschaft vergrößern und nicht bestimmte Gruppen anderen vorziehen.

 Wie wollen wir unser Zusammenleben gestalten, wenn immer mehr Arbeiten von Computerprogrammen und Robotern für uns erledigt werden?

Mit der voranschreitenden Digitalisierung immer mehr Arbeiten von Robotern übernommen, wodruch viele Arbeitsplätze verloren gehen.. Dies wirft Problematiken auf: In unserer Gesellschaft wird ein Großteil des Lebens durch Arbeit bestimmt. Sie sichert den Lebensunterhalt und viele Menschen begreifen ihre Arbeit als wertvolle Tätigkeit im Dienste der Gesellschaft, die ihrem Leben einen Sinn zu geben scheint. Was als jahrhundertealte Ideologie gereift ist, würde in diesem Fall in kurzer Zeit den Lebensumständen widersprechen. Plötzlich würden sich nicht mehr nur – relativ einfach zu lösende (etwa durch ein bedingungsloses Grundeinkommen, etc.) – Fragen der Finanzierung des Lebensunterhalts der beschäftigungslosen Menschen ergeben, sondern viele Menschen stünden plötzlich ohne Perspektive, ohne Lebenssinn da.

In Kontext der Digitalisierung stellt sich also vor allem die Frage, wie sich das bestehende Wertesystem verändern muss, um einer solchen Situation Rechnung zu tragen. Das wirft auch grundlegende Fragen danach auf, inwiefern die heutige Arbeitsideologie auf die Menschen wirkt, welche Diskriminierungen sie erzeugt und wie sie entstanden ist.

 Wie lassen sich neu entstehende Machtkristallationspunkte und deren Missbrauch vermeiden?

Die zunehmende Digitalisierung hat auch die Strukturen der Gesellschaft(en) verändert bzw. ist im Begriff, diese zu verändern. Alte Machtkristallationspunkte verlieren zum Teil an Bedeutung, dafür entstehen neue. In einer Welt, in der viele Menschen täglich das Internet nutzen, um ihre Probleme zu lösen, kommt dem generellen Einstiegspunkt eine machtvolle Bedeutung zu: Für viele Menschen ist das nach wie vor die Suchmaschine Google, aber auch soziale Medien wie Facebook, Twitter und Instagram nehmen für manche Menschen diese Rolle ein. Die hinter diesen Plattformen stehenden Unternehmen wissen über ihre Nutzer*innen beinahe alles: Sie kennen ihre Hobbys, ihre Probleme, ja häufig sogar die Krankheitssymptome, bevor die*der Ärzt*in es weiß. Genutzt wird dieses Wissen heute vorrangig dazu, zielgruppenorientierte Werbung einzublenden und die Menschen dadurch zum Kauf eines bestimmten Produktes zu bewegen. Es gibt weitere Bestrebungen, dieses enorme Wissen über jede*n einzelne*n Nutzer*in zu gebrauchen. Das Unternehmen Facebook beispielsweise experimentierte in der Vergangenheit damit, die Stimmung seiner Nutzer*innen zu verändern. Zunehmend häufiger spielt das Wissen solch machtvoller Konzerne über ihre Nutzer*innen auch eine Rolle bei der Entscheidung über Kreditvergaben, Versicherungen, ja sogar über etwaige Gefängnisaufenthalte.

Das sind nur einige Beispiele für neue Machtkristallationspunkte, die im Internet, wie es heute existiert, entstanden sind. Dabei sind diese Machtkristallationspunkte oft subtiler als ihre realweltlichen Pendants. Oft werden sie als solche erst dann erkannt, wenn “Missbrauchsfälle” bekannt werden. Aus ethischer Sicht stellt sich jedoch weniger die Frage danach, wann es sich um den Missbrauch solcher Macht handelt. Es geht vielmehr darum, wie die Entstehung diese Kristallationspunkte von Macht vermieden werden können, welcher Nutzen welche potenzielle Machtposition rechtfertigt und inwiefern die Nutzer*innen des Internets in die Entscheidung über deren Strukturen eingebunden werden sollten.