Beiträge

KI-Kostennutzenvergleich

Die Crypto-Kritikerin Molly White (www.web3isgoinggreat.com) hat einen lesenswerten Beitrag über generative AI geschrieben.

Sie wirft einen pragmatischen Blick auf deren tatsächlichen Nutzen und die realen Probleme, die die Anwendungen verursachen:

https://www.citationneeded.news/ai-isnt-useless/

TikTok-Tamtam 2

Ein Journalist verkauft einen gebrauchten Bleistift auf TikTok, das seit kurzem eine eCommerce Plattform sein möchte. Eine schräge, aber lesenswerte Geschichte:

https://nymag.com/intelligencer/2024/01/what-i-learned-selling-a-used-pencil-on-tiktok-shop.html

Ernüchterungsvorhersage

Generative AI ist beeindruckend. Die Erwartungen an ihr Potenzial sind aber zu groß, das Bewusstsein für ihre negativen Konsequenzen ist zu klein. Ihre Regulierung wird 2024 an Bedeutung gewinnen.

Das ist die lesenswerte Einschätzung des US-Ökonomen Daron Acemoğlu: https://www.wired.com/story/get-ready-for-the-great-ai-disappointment/

Hypeentwicklungszustände

Am Jahresanfang gibt es immer zahlreiche Voraussagen, welche Trends und Next Big Things uns demnächst prägen werden. Viel davon ist geprägt von PR und Marketing, gerade wenn es um Technologie geht.

Zwei lesenswerte Artikel, einer über Amazons Zustelldienst via Drohne und was daraus wurde – https://www.nytimes.com/2023/11/04/technology/amazon-drone-delivery.html – ein anderer zu selbstfahrenden Autos: https://www.theguardian.com/commentisfree/2023/dec/06/driverless-cars-future-vehicles-public-transport

tl;dr: es ist nicht alles Gold, was glänzt.

Künstliche Vertrauensfragen

Der Security- und Kryptographie-Experte Bruce Schneier hat in einem Vortrag an der Harvard Kennedy School die Wichtigkeit von Vertrauen in Zusammenhang mit künstlicher Intelligenz erörtert. Meine Zusammenfassung:

Vertrauen ist die Grundlage für eine funktionierende Gesellschaft. Es gibt zwei verschiedene Arten von Vertrauen, zwischenmenschliches und soziales Vertrauen.

  • Zwischenmenschliches Vertrauen basiert auf der Beziehung zwischen Menschen, die sich kennen.
  • Soziales Vertrauen basiert auf Moral, Reputation, Gesetzen und Security-Technologien – diese schränken unser Verhalten ein und machen es vertrauenswürdig. Gesetze und Technologien sorgen für ein höheres soziales Vertrauen und sind skalierbar. Je komplexer eine Gesellschaft, desto wichtiger sind Gesetze und Technologien aufgrund ihrer Skalierbarkeit.

Zwischenmenschliches und soziales Vertrauen werden gerne verwechselt. Das passiert häufig in Zusammenhang mit Unternehmen, die wir oft als „Personen“ wahrnehmen, z.B. bei Marken, Social Media Accounts, Maskottchen etc. Die Verwechslung der zwei Vertrauensarten wird durch KI zunehmen.

KI-Systeme werden als menschlich wahrgenommen, obwohl sie nur Dienstleistungen sind. Im Optimalfall sind diese Dienstleistungen hilfreich, wahrscheinlicher ist aber, dass KI-Systeme ihre Nutzer:innen ausspionieren und manipulieren wollen. Überwachung und Manipulation sind schließlich das Geschäftsmodell des Internets.

KI wird so entwickelt werden, dass sie möglichst vertrauenserweckend wirkt. Dadurch wird die Verwechslungsgefahr zwischen zwischenmenschlichem und sozialen Vertrauen erhöht. Das ist so gewollt, denn es ist lukrativ und das menschliche Antlitz der KI verschleiert den einseitigen Einfluss der Unternehmen, die die KI betreiben.

Unternehmen werden die durch die Verwechslung von zwischenmenschlichem mit sozialem Vertrauen entstandene Verwirrung für ihren wirtschaftlichen Erfolg nutzen. Das tun sie auch heute schon, aber rund um KI wird dies zunehmen, denn die Verwendung natürlicher Sprache durch KI wird noch schneller scheinbares zwischenmenschliches Vertrauen kreieren. Außerdem werden mit Daten angereicherte digitale Assistent:innen eine größere Intimität ermöglichen.

Die negativen Konsequenzen dieser Verwechselung können sehr unterschiedlich sein – von versteckter Ausnutzung, über Falschinformationen bis hin zu illegalen Aktivitäten. Deswegen braucht es vertrauenswürdige KI – KI, deren Limitationen man kennt, deren Training man versteht, deren Biases man sich bewusst ist und korrigieren kann, deren Ziele man kennt.

Vertrauenswürdige KI kann nur durch politische Regularien entstehen. Regierungen müssen für Vertrauen in der Gesellschaft sorgen, sie müssen daher durch Regulierung das richtige Umfeld für vertrauenswürdige KI schaffen. Dazu gehören Transparenzgesetze (wann wird KI eingesetzt, wie wird sie trainiert, welche Biases und Tendenzen gibt es), Sicherheitsbestimmungen (wann darf KI eingesetzt werden) und Strafen.

Regulierung muss die KI-kontrollierenden und -nutzenden Unternehmen betreffen, nicht die KI selbst. Am Ende gibt es derzeit noch für jeden KI-Einsatz Menschen, die diesen steuern und dafür verantwortlich sind. Eine Daten-Treuhänderschaft mit zusätzlichen Verpflichtungen kann für generative KI ein wichtiges Instrument sein. Außerdem braucht es „public AI models„, die von der und für die Öffentlichkeit entwicklt werden.

Regierungen müssen rund um KI soziales Vertrauen schaffen:

We can never make AI into our friends. But we can make them into trustworthy services—agents and not double agents. But only if government mandates it. We can put limits on surveillance capitalism. But only if government mandates it.

LLM-Entwicklungsbeobachtung

Ein lesenswerter Blogbeitrag zum Status quo der technischen Entwicklung und der Anwendung von Large Language Models, über deren aktuellen und zukünftigen Nutzen, über ihre Limitationen und durch sie entstehende Sicherheitsrisiken:

https://simonwillison.net/2023/Aug/3/weird-world-of-llms/

KI-Vertrauen

Bruce Schneier ist mit Sicherheit einer der bekanntesten IT-Security-Experten weltweit. Er setzt sich momentan für vertrauenswürdige KI ein. KI-Anwendungen, deren Entscheidungs- bzw. Empfehlungsparameter man nicht kenne, solle man nicht vertrauen. Den AI Act der Europäischen Kommission sieht Schneier als wichtigen Schritt.

Lesenswert:

https://www.schneier.com/blog/archives/2023/08/the-need-for-trustworthy-ai.html

Offenheitskonsequenzen

Bruce Schneier über Large Language Models, deren Code als Open Source Software zugänglich ist – einerseits bergen solche Modelle viel Potenzial (z.B. verringerte Dominanz einzelner Unternehmen), andererseits entstehen dadurch neue regulatorische Herausforderungen (z.B. bei Haftungsfragen).

Lesenswert:

https://slate.com/technology/2023/05/ai-regulation-open-source-meta.html

Fähigkeitsverlust

Eine spannende Perspektive zum allgegenwärtigen KI-Thema: Wie bereiten wir uns auf eine Welt vor, in der viele Menschen aufgrund immer besserer Technologien ihre Fähigkeiten einbüßen?

Lesenswert:

https://zephoria.medium.com/deskilling-on-the-job-bbd71a74a435

Sozialkapitalerhaltungsmaßnahmeen

Jonathan Haidt, Psychologieprofessor an der NYU und Eric Schmidt, der ehemalige CEO von Google, haben gemeinsam einen Artikel über potenzielle Gefahren von künstlicher Intelligenz im Zusammenhang mit sozialen Medien verfasst.

Sie fassen einerseits entstehende Problemfelder zusammen (z.B. Steigerung von Falschinformationen, KI-gestützte „Influencer“…) und machen andererseits Vorschläge für Maßnahmen, um gegenzusteuern (z.B. Authentifizierung und Identitätsüberprüfung, Transparenzverpflichtungen für Plattformen…).

Lesenswert:

https://www.theatlantic.com/technology/archive/2023/05/generative-ai-social-media-integration-dangers-disinformation-addiction/673940/