Artificial Intelligence: Sie wird uns knechten. Oder umgekehrt.

Artificial Intelligence empfinden wir als nützlich. Das aufkommende Unwohlsein können und mögen wir noch nicht recht greifen. Eine überraschende Entwicklung im Fernen Osten zeigt jetzt, dass und wie wir vernünftig mit der neuen Macht umzugehen haben.

 

Überblick

Artificial Intelligence ist ein tragendes Thema für fast alle Lebensbereiche und eine große Macht. Der Nutzen steht außer Frage. Und doch brauchen wir mächtige Instrumente, um die unbändige Kraft für unsere Zivilisation im Zaum zu halten. Eine unerwartet drastische Entwicklung im fernen Osten zeigt, was unweigerlich geschieht, wenn wir den Handlungsbedarf unterschätzen oder verharmlosen.

Bartels zugeschn.

Steven Spielberg

Jeder, der ihn sah, entwickelte im Jahr 2001 tiefes Mitgefühl mit David. Er war der Held von Stephen Spielbergs Film AI-Künstliche Intelligenz. Der auf Menschlichkeit programmierte Roboter David war unerschütterlich menschlich. Er berührte uns mehr als die ihn umgebenden Menschen.

Die Vision von Stephen Spielberg war richtig, denn wir laufen direkt auf eine Intelligenz zu, die wie wir denken und fühlen und uns dabei überrunden kann.

Nützlicher Fortschritt

Künstliche Intelligenz, lernende Maschinen, hier einfach als „AI“ bezeichnet, das sind Umschreibungen einer neuen zivilisatorischen Dimension.

Es beruhigt uns, wenn wir erfahren, dass Maschinen automatisch, schnell und zuverlässig:

  • Krankheitsbilder erkennen und Therapien vorschlagen
  • die wahrscheinliche Verbreitung von Seuchen erkennen und Maßnahmen vorschlagen
  • Verkehrsströme harmonisieren
  • Lieferketten optimieren
  • technische und ökonomische Risiken erkennen und gegensteuern
  • Handelsstrategien aus Korrelationen entwickeln
  • meteorologische Prognosen erstellen
  • Autos sicher steuern
  • Anlageentscheidungen treffen
  • Kandidaten für die Eheschließung identifizieren
  • Begabungen von Menschen erkennen und deren Rekrutierung vorschlagen
  • die Gewinnung von neuen Kunden planen
  • Betrug und Geldwäsche feststellen
  • uns auf Nachrichten und zum Kauf angebotene Artikel aufmerksam machen, die uns interessieren könnten
  • Schach und Go spielen

und sich dabei immer weiter perfektionieren, indem sie sich sogleich auf Veränderungen im Datenkranz einstellen. Sie nehmen fortlaufend unsere Bedürfnisse und Vorlieben auf und können uns immer besser bedienen. Niemand schläft deswegen schlechter.

Wie wir Menschen mit Informationen umgehen

Die Fähigkeit, Informationen zu absorbieren, ist bei jedem Menschen einerseits biologisch vorgegeben. Andererseits ist sie durch Training dehnbar.

Es gibt jedoch immer eine Grenze. Wenn zu viele Informationen auf einen Menschen zulaufen, dann reagiert er so, wie es seine biologische Hardware vorgibt: Er filtert.

Wenn die eingehende Information die Aufnahmekapazität übersteigt, blenden wir das überflüssig Erscheinende aus. Wir arbeiten dann mit dem nach der Ausblendung übrigbleibenden Datenmaterial. Dieses können wir, wenn wir wollen und uns davon einen Vorteil versprechen, immer neu kombinieren. Originalität ist das Ergebnis von einleuchtend erscheinenden Assoziationen, also neuronalen Verknüpfungen.

Wie Maschinen mit Informationen umgehen, von HAL lernen

Maschinen haben wesentlich mehr Aufnahmekapazität als Menschen. Sie arbeiten nicht chemisch und elektrisch wie das menschliche Gehirn, sondern rein elektrisch. Damit sind sie viel schneller als der Mensch. Sie berücksichtigen auch die Information, die wir Menschen als nicht relevant erscheinend beiseitegelassen haben.

Maschinen müssen viel mehr Datenmaterial aufnehmen als Menschen, damit sie Übereinstimmungen feststellen und als gesicherte Grundlage für ihre Berechnungen heranziehen können. Sie beherrschen ja noch keine neuronalen Verknüpfungen.

Die Baustellen hierfür sind aber längst eröffnet. Sobald die Maschinen Synapsen beherrschen, wird man sie auch auf menschliche Reaktionen und Werte hin programmieren können. Dabei wird man den menschlichen Selbsterhaltungstrieb auslassen müssen, damit ein Rechner nicht seine nach einer Störung notwendige Abschaltung zu verhindern versucht. Das haben wir schon im Jahr 1968 von Kubricks HAL gelernt.

Menschen steuern die AI

Es beruhigt uns, wenn wir erfahren, dass der Mensch beim Gebrauch von AI weiter das Steuerruder in der Hand hat. Menschen bestimmen die Denkrichtung der Maschine, sie geben die Impulse. Führungskräfte werden in der Zukunft daran gemessen werden, wie sie in der Lage sind, die neuen Möglichkeiten sinnvoll einzusetzen:

If managers aren’t ramping up experiments in the area of machine learning, they aren’t doing their job. Over the next decade, AI won’t replace managers, but managers who use AI will replace those who don’t.”

Menschen bügeln Fehler aus

Da AI mehr Faktoren als der Mensch auswerten, kann es sein, dass beim Betrieb einreißende und sich verstärkende Fehler nur schwer erkennbar sind. Es kann auch geschehen, dass die Maschine ein sachlich unrichtiges Steuerungsverhalten von Menschen als Routine lernt, sich also falsch kalibriert.

Um dies zu vermeiden, brauchen die Nutzer der AI Augenmaß, erfahrene Kollegen und zusätzliche Programme, welche Kalibrierungen sichtbar und auf Plausibilität nachprüfbar machen. Dies sind beherrschbare Betriebsrisiken.

Menschen machen bei der Steuerung Fehler

Die Verarbeitung von Daten kann falsch sein, ohne dass Dritte dies leicht erkennen können. Das kann mit unabsichtlichen methodischen Fehlern oder mit dem Bestreben zusammenhängen, ein bestimmtes Ergebnis zu erzielen. Unabsichtliche oder angestrebte Verzerrungen sind für den Außenstehenden schwer zu erkennen.

Wenig hilfreiche Kritik

Stephen Hawking sieht in AI die Totenglocken der menschlichen Zivilisation. Er weist auf keinen Weg, der daran vorbeiführt. Es hilft aber nicht, den moralischen Zeigefinger zu heben und keine Lösungen anzubieten. Elon Musk weist auf Gefahren für den Menschen hin und investiert dann in Initiativen, die besonders aggressiv vorgehen, indem sie über Elektroden im Gehirn die Vereinigung von Mensch und Maschine herbeiführen. Der Geist ist längst aus der Flasche herausgekommen. Wir müssen uns mit ihm arrangieren.

Der Mensch ist gefährlicher als die Maschine

Wenn der Mensch als Herrscher über die AI beschließt, diese für nicht rechtsstaatlich legitimierte oder sonstwie unethische Zwecke einzusetzen, dann steckt das Risiko nicht in der Maschine.

Wir fühlen uns zunächst nicht gestört, wenn AI ganz diskret z.B. unsere Konsumgewohnheiten, unseren sozialen Umgang und unsere Bewegungsmuster erfasst und auswertet.

Die Verarbeitung und Verdichtung der erfassten Daten kann indessen zu Eingriffen in die in allen zivilisierten Rechtsstaaten geschützte Privatsphäre führen. Dies kann jeden Menschen sehr schnell an seinen empfindlichsten Stellen treffen. Der Versuch des Rechtssystems, die Erfassung von Daten immer von der Zustimmung des Produzenten von Daten abhängig zu machen, ist ein stumpfes Plastikschwert und ganz sicher keine zureichende Verteidigung der bürgerlichen Privatsphäre. Wer nämlich nicht zustimmt, den schränkt die dann nicht nutzbare Technik merklich ein. Wer nicht nickt, bezahlt dafür mit praktischen Nachteilen.

Stellen wir die theoretische Betrachtung zurück und schauen wir auf eine sich gerade konkretisierende Illustration dessen, was Menschen mit AI falsch machen können:

Die Volksrepublik China wird bis zum Jahr 2020 ein Social Credit System verpflichtend einführen. Dieses arbeitet mit Daten, die Ali Baba, AliPay, WeChat, Sesame Credit und andere weit verbreiteten Dienste fortlaufend über Verhaltensmuster und Kontakte der gesamten Bevölkerung übermitteln.

In das Rating fließen nicht nur die finanzielle Ausstattung und Zuverlässigkeit ein, sondern auch das soziale Verhalten und die persönlichen Vorlieben. Millionen von Chinesen haben sich in der Erwartung von Vorteilen bereits freiwillig auf das System eingelassen. Zu diesen Vorteilen gehören Erleichterungen etwa beim Mieten eines Wagens oder bei der Bewilligung von Reisegenehmigungen. Man rät den Teilnehmern, zum Schutz ihres eigenen Status den Umgang mit Personen zu meiden, die ein niedriges Ranking haben.

Nach der Aufnahme der Gesamtbevölkerung in das System ist damit zu rechnen, dass Menschen mit schlechtem Ranking Schwierigkeiten bekommen, wenn sie eine Beschäftigung suchen, keine Aussicht auf die Bewilligung eines Kredits haben, Reisebeschränkungen unterworfen sind und von anderen Menschen gemieden werden. Als Deutsche haben wir keinen Engpass damit, uns weitere „nützliche“ Anwendungsbereiche vorzustellen.

Praktischer Handlungsbedarf

Über die Wertung solcher Entwicklungen braucht man nicht zu debattieren, wenn man in den Bahnen eines europäischen Rechtsstaats denkt und fühlt. Die Groteske aus dem Osten, die geschwind zur gesellschaftlichen Wirklichkeit wird, hilft uns, den letzten Zweifel am Handlungsbedarf auszuräumen:

Wir müssen überall dort, wo AI in Bereiche eindringt, die unsere Verfassungen schützen, für wirksame Abschreckung Sorge tragen. Wer massenhaft gesammelte Daten individualisiert und in persönliche Bereiche eindringt, gehört empfindlich bestraft. Die Unterscheidung zwischen dem Einbrecher, der in eine Wohnung eindringt und demjenigen, der über die Verarbeitung von Daten in die persönliche Sphäre eindringt, ist hinfällig.

Wenn die Verdichtung von Daten dazu dient, gefährliche Straftäter ausfindig zu machen, sollte dafür in Fortschreibung unserer normalen Maßstäbe ein richterlicher Beschluss notwendig sein. Unser Wirtschaftsrecht hat sich über die Jahre mit Strafrecht angereichert. Beim Schutz der bürgerlichen Privatsphäre werden wir diese Keule leider auch brauchen. Gegen die geballte Macht von fehlgesteuerter AI hilft nur die geballte Macht des Staates. Die ist glücklicherweise auf den Schutz der bürgerlichen Freiheit ausgerichtet. Es ist gleichgültig, ob der Übergriff auf einen fremden Staat oder einen Internet-Konzern zurückgeht. Die Wirkung ist gleich.

Es mag sein, dass die uns verteidigende Keule nicht immer trifft. Wenn der Staat sie schwingt, kann er aber auch AI einsetzen. Wenn wir ihm nicht die Waffen zu unserer Verteidigung in die Hand geben, sind wir schutzlos.

Gleichzeitig sollten wir den Einsatz von AI für im Allgemeininteresse stehende Zwecke begrüßen und nachhaltig fördern. Die eingangs genannten Anwendungsbereiche von AI sind alle förderlich. In Grenzbereichen kann es Zweifelsfragen geben, doch darüber einigen wir uns nach den Regeln des Rechtsstaats.

Dr. Martin Bartels, LightFin

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert