Künstliche Vertrauensfragen

Der Security- und Kryptographie-Experte Bruce Schneier hat in einem Vortrag an der Harvard Kennedy School die Wichtigkeit von Vertrauen in Zusammenhang mit künstlicher Intelligenz erörtert. Meine Zusammenfassung:

Vertrauen ist die Grundlage für eine funktionierende Gesellschaft. Es gibt zwei verschiedene Arten von Vertrauen, zwischenmenschliches und soziales Vertrauen.

  • Zwischenmenschliches Vertrauen basiert auf der Beziehung zwischen Menschen, die sich kennen.
  • Soziales Vertrauen basiert auf Moral, Reputation, Gesetzen und Security-Technologien – diese schränken unser Verhalten ein und machen es vertrauenswürdig. Gesetze und Technologien sorgen für ein höheres soziales Vertrauen und sind skalierbar. Je komplexer eine Gesellschaft, desto wichtiger sind Gesetze und Technologien aufgrund ihrer Skalierbarkeit.

Zwischenmenschliches und soziales Vertrauen werden gerne verwechselt. Das passiert häufig in Zusammenhang mit Unternehmen, die wir oft als „Personen“ wahrnehmen, z.B. bei Marken, Social Media Accounts, Maskottchen etc. Die Verwechslung der zwei Vertrauensarten wird durch KI zunehmen.

KI-Systeme werden als menschlich wahrgenommen, obwohl sie nur Dienstleistungen sind. Im Optimalfall sind diese Dienstleistungen hilfreich, wahrscheinlicher ist aber, dass KI-Systeme ihre Nutzer:innen ausspionieren und manipulieren wollen. Überwachung und Manipulation sind schließlich das Geschäftsmodell des Internets.

KI wird so entwickelt werden, dass sie möglichst vertrauenserweckend wirkt. Dadurch wird die Verwechslungsgefahr zwischen zwischenmenschlichem und sozialen Vertrauen erhöht. Das ist so gewollt, denn es ist lukrativ und das menschliche Antlitz der KI verschleiert den einseitigen Einfluss der Unternehmen, die die KI betreiben.

Unternehmen werden die durch die Verwechslung von zwischenmenschlichem mit sozialem Vertrauen entstandene Verwirrung für ihren wirtschaftlichen Erfolg nutzen. Das tun sie auch heute schon, aber rund um KI wird dies zunehmen, denn die Verwendung natürlicher Sprache durch KI wird noch schneller scheinbares zwischenmenschliches Vertrauen kreieren. Außerdem werden mit Daten angereicherte digitale Assistent:innen eine größere Intimität ermöglichen.

Die negativen Konsequenzen dieser Verwechselung können sehr unterschiedlich sein – von versteckter Ausnutzung, über Falschinformationen bis hin zu illegalen Aktivitäten. Deswegen braucht es vertrauenswürdige KI – KI, deren Limitationen man kennt, deren Training man versteht, deren Biases man sich bewusst ist und korrigieren kann, deren Ziele man kennt.

Vertrauenswürdige KI kann nur durch politische Regularien entstehen. Regierungen müssen für Vertrauen in der Gesellschaft sorgen, sie müssen daher durch Regulierung das richtige Umfeld für vertrauenswürdige KI schaffen. Dazu gehören Transparenzgesetze (wann wird KI eingesetzt, wie wird sie trainiert, welche Biases und Tendenzen gibt es), Sicherheitsbestimmungen (wann darf KI eingesetzt werden) und Strafen.

Regulierung muss die KI-kontrollierenden und -nutzenden Unternehmen betreffen, nicht die KI selbst. Am Ende gibt es derzeit noch für jeden KI-Einsatz Menschen, die diesen steuern und dafür verantwortlich sind. Eine Daten-Treuhänderschaft mit zusätzlichen Verpflichtungen kann für generative KI ein wichtiges Instrument sein. Außerdem braucht es „public AI models„, die von der und für die Öffentlichkeit entwicklt werden.

Regierungen müssen rund um KI soziales Vertrauen schaffen:

We can never make AI into our friends. But we can make them into trustworthy services—agents and not double agents. But only if government mandates it. We can put limits on surveillance capitalism. But only if government mandates it.

0 Kommentare

Dein Kommentar

Want to join the discussion?
Feel free to contribute!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.