Im Krisen-Labyrinth: Fünf Herausforderungen, die wir angehen müssen

Bei den vielen derzeitigen Krisen kann man schon mal verzweifeln. Wir können nicht alle Probleme auf einmal angehen, daher: ein nüchterner Überblick.

In Pocket speichern vorlesen Druckansicht 6 Kommentare lesen

(Bild: MIT Technology Review)

Lesezeit: 6 Min.
Inhaltsverzeichnis

Das Jahr 2024 ist noch jung, wirft aber bereits große Schatten voraus: Mehr als zweieinhalb Milliarden Menschen stimmen 2024 darüber ab, wie es weitergehen soll in ihrem Land und in der Welt. Allen voran stehen die US-Wahlen im Mittelpunkt des Interesses, könnte doch Donald Trump erneut Präsident werden. Aber auch Russland und die Ukraine wählen einen neuen Präsidenten; die EU, Indien und Indonesien neue Parlamente; Sachsen, Thüringen und Brandenburg einen neuen Landtag.

Was politisch in diesem Jahr geschieht, könnte erheblichen Einfluss auf Technik-Entwicklungen haben: Vom Ausgang der Wahlen hängt ab, welche Technologien künftig wie gefördert, reguliert oder verboten werden. Zum anderen aber hat auch die Technik – durch soziale Medien und Künstliche Intelligenz – einen großen Einfluss auf die Wahlentscheidung der Menschen. Diese Rückkopplung macht die Lage besonders brisant: Sie liefert einen großen Hebel, die Dinge zum Besseren oder Schlechteren zu verändern.

Oft ist die große Stärke einer technischen Entwicklung zugleich ihre Schwäche. Etwas überspitzt könnte man auch sagen: je erfolgreicher, desto risikoreicher. Denn nur, was entsprechend wirkmächtig ist, kann auch existenziell gefährlich werden. Und je enger Vor- und Nachteile miteinander verwoben sind, desto schwieriger wird es, die Risiken anzugehen, ohne die Chancen zu riskieren.

Ein Paradebeispiel dafür sind die sozialen Medien. Ihr Glanz und ihr Elend existieren aus den gleichen Gründen: dem Beharren auf Freiheit. Genauer gesagt, der Freiheit ihrer frühen Vordenker – wohlhabende weiße Männer aus Kalifornien, welche die Schattenseiten ungezügelter Plattformen selten selbst erleben müssen. Die Freiheit der einen ist damit die Unfreiheit der anderen. Dieser Effekt hat bereits Millionen ehemaliger Twitter-Nutzer ins digitale Exil getrieben. Doch mit Twitter respektive X verschwindet auch eine zentrale Arena, auf der unterschiedliche Ansichten aufeinanderprallen konnten – oft in schrillen Tönen, aber immerhin. Wenn nun neue, bessere Plattformen vom Twitter-Exodus profitieren, ist das für diese zwar erfreulich, aber für die Gesellschaft relativ unerheblich: Die digitale Landschaft bleibt fragmentiert. Und es ist fraglich, ob sie je wieder zusammenwachsen wird.

Vor einem ähnlichen Dilemma steht die Künstliche Intelligenz. Sie ist, so scheint es, vor allem unter zwei Bedingungen gefährlich: wenn sie besonders gut funktioniert oder besonders schlecht. Vom ersten Fall konnten sich Demokraten-Wähler in New Hampshire überzeugen. Sie bekamen Mitte Januar einen automatisierten Telefonanruf, der sie aufforderte, nicht an den Vorwahlen teilzunehmen. Die Stimme klang nach Präsident Joe Biden – doch sie wurde von einer KI generiert. Irgendjemand wollte auf diese Weise die Wahlen manipulieren. Den zweiten Fall musste ein Radiomoderator miterleben. ChatGPT hatte fälschlicherweise eine Verbindung mit sexuellem Missbrauch herbeihalluziniert und der Nachrichtendienst MSN die Meldung ungeprüft weiterverbreitet. Diese Beispiele demonstrieren, dass die Bekämpfung der KI-Halluzinationen leichter gesagt ist als getan.

Nun könnte man einwenden, das Ganze sei ein menschliches, kein technisches Problem. Schließlich seien es immer noch Menschen, die die Verantwortung dafür tragen, ob sie den Vorschlägen von Maschinen folgen oder nicht. Doch so einfach ist es nicht.

Die neue MIT Technology Review 2/2024

Das zeigt sich vor allem im Krieg, wo Soldaten in unklaren Situationen unter hohem Zeitdruck Entscheidungen über Leben und Tod treffen müssen. Können sie es sich unter diesen Umständen überhaupt erlauben, auf die Hilfe einer KI zu verzichten? In der Luftfahrt gibt es schließlich auch zahlreiche Fälle, in denen die Weigerung der Piloten, auf eine Maschine zu hören, zu einer Katastrophe führte.

Ohne KI wird es in Zukunft also kaum gehen, mit ihr aber auch nicht so richtig – denn möglicherweise lassen sich solche "Halluzinationen" mit der aktuellen Architektur großer Sprachmodelle nicht verhindern.

Vergleichbar ist die Lage bei PFAS (per- und polyfluorierte Alkylsubstanzen), zu denen die weit verbreiteten Fluorkunststoffe zählen. Ähnlich wie KIs sind sie aus demselben Grund erfolgreich, aus dem sie so gefährlich sind. Konkret bedeutet das in diesem Fall: Sie interagieren kaum mit anderen Stoffen. Das macht sie in Regenjacken, Bratpfannen oder Kabelisolierungen praktisch unverzichtbar, in der Natur aber auch unzerstörbar. Sie werden seit etwa 70 Jahren weitgehend unreguliert freigesetzt und sickern irgendwann ins Grundwasser, aus dem sie kaum noch herauszubekommen sind. Vor einem Jahr hat die EU – als globale Vorreiterin – einen Vorschlag für das Verbot der ganzen PFAS-Familie vorgelegt. Doch was daraus wird, dürfte wiederum wesentlich von der kommenden EU-Parlamentswahl abhängen.

Die Politik ist auch bei einer weiteren großen Herausforderung der entscheidende Faktor, auch wenn sie zunächst nur nach einer Rechenübung für Ingenieure klingt: Wie viel Stromspeicher brauchen wir künftig, um Dunkelflauten im Winter zu überbrücken? Szenarien für technische Lösungen gibt es genug. Allerdings unterstellen sie, dass alle Entscheidungen rational getroffen werden. "Wir wissen aus unserer Erfahrung, dass das nicht der Fall ist", meint Michael Sterner, Professor an der OTH Regensburg.

Aber der Mensch, heißt es oft, wächst mit seinen Aufgaben. Dafür würde es jetzt langsam Zeit – deshalb sei an dieser Stelle auf die neue Ausgabe von MIT Technology Review hingewiesen, die sich mit den aufgezählten Krisen und weiteren Herausforderungen auseinandersetzt.

(grh)