Beiträge

Kompressionserscheinungen

Der Science-Fiction-Autor Ted Chiang hat im New Yorker einen Artikel über ChatGPT geschrieben. Der Algorithmus fasziniert uns, weil er Antworten auf Fragen geben und komplexe Sachverhalte zum Teil „in eigenen Worten“ erklären kann. Das assoziieren wir nämlich mit Verständnis und Lernfähigkeit.

Eigentlich handelt es sich bei den Antworten aber um statistisch hergeleitete Vereinfachungen, Ted Chiang vergleicht sie mit einem stark komprimierten Bild, dem viele Details fehlen, das aber trotzdem noch erkennbar ist.

Eine aus meiner Sicht sehr lesenswerte Zusammenfassung der Limitationen von Large Language Models:

https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web

KI-Potenzial

Für die ChatGPT-Interessierten:

NYU-Professor Gary Marcus beschreibt in einem Blogbeitrag die Limitationen von ChatGPT und das Problem zu großer Erwartungshaltungen rund um künstliche Intelligenz, z.B. bei der „Zukunftsvision“ selbst fahrender Autos: https://garymarcus.substack.com/p/24-seriously-embarrassing-hours-for

Ebenfalls interessant: Ein Artikel von Nathan Sanders und Bruce Schneier über das Potenzial von ChatGPT für politisches Lobbying und die Konsequenzen, die sich daraus ergeben, wenn algorithmisch definierte Texte für politische Meinungsbildung verwendet werden: https://www.schneier.com/blog/archives/2023/01/ai-and-political-lobbying.html