Beiträge

Öffentlich-rechtliche Social Media

Die BBC, der öffentlich-rechtliche Rundfunk Großbritanniens, erklärt in einem Blogpost, warum sie jetzt auf Mastodon aktiv ist.

tl;dr: die BBC betreibt einen experimentellen Mastodon-Server um ein „Public Service Internet“ zu unterstützen. Die Einrichtung war mit einigen Herausforderungen verbunden, z.B. den notwendigen Überlegungen zur selbst aufzusetzenden Moderation der Inhalte. Der Server wird für 6 Monate laufen, danach wird evaluiert.

Das wäre für den ORF auch eine sehr gute Idee…

Werbeparametertransparenz

Die amerikanische News-Plattform The Markup zeigt in einem Artikel den Detailgrad der Profile, die über die Nutzerinnen und Nutzer digitaler Plattformen angelegt werden.

Zuschreibungen wie „Receptive to emotional Messaging“ oder „Mid – Life Strugglers – Small-Town Families“ entstehen durch verhaltensbasierte Daten und werden für verhaltensbasierte Werbung verwendet.

Den dazugehörigen Datensatz hat übrigens der österreichische Tech-Forscher und -Aktivist Wolfie Christl entdeckt.

Lesenswert:

https://themarkup.org/privacy/2023/06/08/from-heavy-purchasers-of-pregnancy-tests-to-the-depression-prone-we-found-650000-ways-advertisers-label-you

Verhaltensdatensammlungsstopp

Die norwegische Datenschutzbehörde verbietet Meta (Facebook, Instagram), auf Verhaltensdaten basierende Werbung anzubieten.

Die Behörde im Wortlaut: „Invasive commercial surveillance for marketing purposes is one of the biggest risks to data protection on the internet today„.

Die Arbeit von NOYB und Co. trägt Früchte – und positive Entwicklungen starten ja oft in Skandinavien…

https://techcrunch.com/2023/07/17/norway-meta-ads-ban/

Sozialkapitalerhaltungsmaßnahmeen

Jonathan Haidt, Psychologieprofessor an der NYU und Eric Schmidt, der ehemalige CEO von Google, haben gemeinsam einen Artikel über potenzielle Gefahren von künstlicher Intelligenz im Zusammenhang mit sozialen Medien verfasst.

Sie fassen einerseits entstehende Problemfelder zusammen (z.B. Steigerung von Falschinformationen, KI-gestützte „Influencer“…) und machen andererseits Vorschläge für Maßnahmen, um gegenzusteuern (z.B. Authentifizierung und Identitätsüberprüfung, Transparenzverpflichtungen für Plattformen…).

Lesenswert:

https://www.theatlantic.com/technology/archive/2023/05/generative-ai-social-media-integration-dangers-disinformation-addiction/673940/

Kompressionserscheinungen

Der Science-Fiction-Autor Ted Chiang hat im New Yorker einen Artikel über ChatGPT geschrieben. Der Algorithmus fasziniert uns, weil er Antworten auf Fragen geben und komplexe Sachverhalte zum Teil „in eigenen Worten“ erklären kann. Das assoziieren wir nämlich mit Verständnis und Lernfähigkeit.

Eigentlich handelt es sich bei den Antworten aber um statistisch hergeleitete Vereinfachungen, Ted Chiang vergleicht sie mit einem stark komprimierten Bild, dem viele Details fehlen, das aber trotzdem noch erkennbar ist.

Eine aus meiner Sicht sehr lesenswerte Zusammenfassung der Limitationen von Large Language Models:

https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web

Falschinformationskorrektur

Der Toaster wurde nicht vom schottischen Wissenschaftler Alan MacMasters erfunden. Diese falsche, auf einem Streich basierende Behauptung war jedoch über Jahre in der Wikipedia und von dort ausgehend in zahlreichen Newsartikeln zu finden. Schlussendlich wurde sie korrigiert: https://www.bbc.com/news/the-reporters-63622746

Für solche Korrekturen braucht es eine aktive Community, die Wissen einbringt und ergänzt 🔍

Wer also noch keinen Neujahrsvorsatz hat: Wikipedianerin bzw. Wikipedianer kann man werden 🤓

Mehr dazu hier: https://de.wikipedia.org/wiki/Wikipedia:Beteiligen

Verhaltensdatennutzungsreduktion

Max Schrems und NOYB sind wesentliche Player, was die (sehr wichtige) Durchsetzung von Datenschutz in Europa betrifft.

Im Jänner 2023 wird sich zeigen, ob eine von ihnen initiierte Klage dazu führt, dass Facebook/Meta europäischen NutzerInnen erlauben muss, personalisierte (i.e. auf gesammelten Nutzungsdaten aufbauende) Werbung abzuschalten. Verbunden ist das auch mit einer potenziell sehr hohen Strafe, falls entschieden wird, dass die Nutzung der Verhaltensdaten – und damit ein wesentlicher Teil des Geschäftsmodells von Facebook, Instagram & Co. – in den letzten Jahren illegal war.

Das ist/wird sehr spannend:

https://noyb.eu/en/noyb-win-personalized-ads-facebook-instagram-and-whatsapp-declared-illegal

cloud out

Als CTO eines Softwareherstellers (37signals, Unternehmen hinter Basecamp & HEY) hat David Heinemeier Hansson seine Gedanken zu Cloud Computing in einem Blog-Post zusammengefasst.

Er beschreibt, wann die Nutzung von Cloud Services aus seiner Sicht sinnvoll ist (simple Applikationen mit niedrigem Traffic, Applikationen mit stark schwankendem Traffic) und wann und warum nicht (Kosten, Zentralisierung, Abhängigkeiten).

Lesenswert:

https://world.hey.com/dhh/why-we-re-leaving-the-cloud-654b47e0