Beiträge

LLM-Entwicklungsbeobachtung

Ein lesenswerter Blogbeitrag zum Status quo der technischen Entwicklung und der Anwendung von Large Language Models, über deren aktuellen und zukünftigen Nutzen, über ihre Limitationen und durch sie entstehende Sicherheitsrisiken:

https://simonwillison.net/2023/Aug/3/weird-world-of-llms/

KI-Vertrauen

Bruce Schneier ist mit Sicherheit einer der bekanntesten IT-Security-Experten weltweit. Er setzt sich momentan für vertrauenswürdige KI ein. KI-Anwendungen, deren Entscheidungs- bzw. Empfehlungsparameter man nicht kenne, solle man nicht vertrauen. Den AI Act der Europäischen Kommission sieht Schneier als wichtigen Schritt.

Lesenswert:

https://www.schneier.com/blog/archives/2023/08/the-need-for-trustworthy-ai.html

Offenheitskonsequenzen

Bruce Schneier über Large Language Models, deren Code als Open Source Software zugänglich ist – einerseits bergen solche Modelle viel Potenzial (z.B. verringerte Dominanz einzelner Unternehmen), andererseits entstehen dadurch neue regulatorische Herausforderungen (z.B. bei Haftungsfragen).

Lesenswert:

https://slate.com/technology/2023/05/ai-regulation-open-source-meta.html

Fähigkeitsverlust

Eine spannende Perspektive zum allgegenwärtigen KI-Thema: Wie bereiten wir uns auf eine Welt vor, in der viele Menschen aufgrund immer besserer Technologien ihre Fähigkeiten einbüßen?

Lesenswert:

https://zephoria.medium.com/deskilling-on-the-job-bbd71a74a435

Sozialkapitalerhaltungsmaßnahmeen

Jonathan Haidt, Psychologieprofessor an der NYU und Eric Schmidt, der ehemalige CEO von Google, haben gemeinsam einen Artikel über potenzielle Gefahren von künstlicher Intelligenz im Zusammenhang mit sozialen Medien verfasst.

Sie fassen einerseits entstehende Problemfelder zusammen (z.B. Steigerung von Falschinformationen, KI-gestützte „Influencer“…) und machen andererseits Vorschläge für Maßnahmen, um gegenzusteuern (z.B. Authentifizierung und Identitätsüberprüfung, Transparenzverpflichtungen für Plattformen…).

Lesenswert:

https://www.theatlantic.com/technology/archive/2023/05/generative-ai-social-media-integration-dangers-disinformation-addiction/673940/

Kompressionserscheinungen

Der Science-Fiction-Autor Ted Chiang hat im New Yorker einen Artikel über ChatGPT geschrieben. Der Algorithmus fasziniert uns, weil er Antworten auf Fragen geben und komplexe Sachverhalte zum Teil „in eigenen Worten“ erklären kann. Das assoziieren wir nämlich mit Verständnis und Lernfähigkeit.

Eigentlich handelt es sich bei den Antworten aber um statistisch hergeleitete Vereinfachungen, Ted Chiang vergleicht sie mit einem stark komprimierten Bild, dem viele Details fehlen, das aber trotzdem noch erkennbar ist.

Eine aus meiner Sicht sehr lesenswerte Zusammenfassung der Limitationen von Large Language Models:

https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web

KI-Potenzial

Für die ChatGPT-Interessierten:

NYU-Professor Gary Marcus beschreibt in einem Blogbeitrag die Limitationen von ChatGPT und das Problem zu großer Erwartungshaltungen rund um künstliche Intelligenz, z.B. bei der „Zukunftsvision“ selbst fahrender Autos: https://garymarcus.substack.com/p/24-seriously-embarrassing-hours-for

Ebenfalls interessant: Ein Artikel von Nathan Sanders und Bruce Schneier über das Potenzial von ChatGPT für politisches Lobbying und die Konsequenzen, die sich daraus ergeben, wenn algorithmisch definierte Texte für politische Meinungsbildung verwendet werden: https://www.schneier.com/blog/archives/2023/01/ai-and-political-lobbying.html