Beiträge

Wikipediarelevanz

In meiner Kolumne für das Factory-Magazin schreibe ich über Wikipedia und die Industrie: https://factorynet.at/menschen/die-bedeutung-von-wikipedia-fuer-die-produktion/

Von der Bedeutung der Wikipedia für die Produktion

Eine Jugendliche in der Steiermark sucht eine Lehrstelle bei innovativen Betrieben in der Region. Ein Einkäufer in Zentralasien recherchiert zu Anlagenbauern für nachhaltige Produktionsverfahren. Eine Wissenschaftlerin in Spanien sucht nach potenziellen Forschungspartnern in ihrem Bereich. Für ihre Anfragen nutzen sie Suchmaschinen, Sprachassistenten oder KI-gestützte Chatbots.

Bestmögliche Antworten zu liefern ist das Verkaufsargument dieser digitalen Werkzeuge, die Auswahl der für die Antworten benötigten Informationen ihre Kernkompetenz. Vertrauenswürdige Informationen zu finden, stellt heute eine zunehmende Herausforderung dar. Worauf stützen sich also die Ergebnisse von Google, Siri oder ChatGPT?

Die Wikipedia als Fundament digitalen Vertrauens

Im Detail wissen wir nicht, wie Suchergebnisse zustande kommen – das ist das wohlgehütete Geschäftsgeheimnis großer Technologieunternehmen. Einige Eckpfeiler sind aber bekannt: Als vertrauensvolle Quellen gelten wissenschaftliche Einrichtungen, etablierte Medien oder demokratisch legitimierte Institutionen, in Österreich z.B. Webseiten mit gv.at-Endung. Eine weitere zentrale Informationsbasis für die genannten Dienste: die Wikipedia.

Während die Idee eines Online-Lexikons, das von jedem Menschen bearbeitet werden kann, in den frühen 2000er Jahren noch als abstrus abgetan wurde, hat sich die Wikipedia mit der Ausbreitung des Internets professionalisiert und als Fundament digitalen Vertrauens etabliert. Die Inhalte der Enzyklopädie, die permanent von einer offenen und aktiven Gemeinschaft kontrolliert werden, gelten heute als der gemeinsame Informationsnenner der digitalen Gesellschaft. Wikipedia-Artikel bilden daher die Grundlage moderner Dienste, z.B. die Google Infobox oder zahlreiche KI-Modelle.

Wieso sollte das  die österreichische Produktion interessieren?

Österreichs produzierende Betriebe und die produktionsnahen Forschungseinrichtungen genießen einen sehr guten Ruf. Viele von ihnen sind innovativ und spezialisiert, werden oft als „Hidden Champions“ bezeichnet. In Österreich gibt es viele Organisationen, die über weltweit gefragtes, durch Patente oder wissenschaftliche Publikationen bestätigtes, Fachwissen verfügen. Dieses kann z.B. spezifische Produktkategorien, Produktionsverfahren oder internationale Standards betreffen.

Solche Unternehmen oder Einrichtungen und ihr Spezialwissen können für eine Enzyklopädie wie die Wikipedia relevant sein. Häufig sind diese dort aber nicht oder nur sehr unzufriedenstellend auffindbar – die Jugendliche, der Einkäufer oder die Wissenschaftlerin werden dann höchstwahrscheinlich bei ihren Suchanfragen nicht darauf hingewiesen. So entgehen österreichischen Institutionen potenzielle Fachkräfte, Kund:innen oder Partnerschaften.

Kein Ort für Eigenwerbung und Marketing-Sprech

Falls Sie nun den Impuls verspüren, Ihre Kommunikationsabteilung mit einer neuen Aufgabe zu betrauen: seien Sie vorsichtig. Das Vertrauen, das die Wikipedia genießt, kommt nicht von ungefähr. Für die korrekte Erstellung und Bearbeitung von Wikipedia-Artikeln gibt es ein äußerst umfangreiches Regelwerk, das – zum Glück! – zumeist sehr genau eingehalten wird.

Nur eine kleine Zahl von Informationen ist für die Wikipedia geeignet. Wann ein Unternehmen einen eigenen Eintrag haben kann, ist klar definiert. Für Quellenangaben gelten in der Wikipedia strikte Kriterien, Ihre Firmenwebseite ist z.B. keine geeignete Informationsbasis für Wikipedia-Artikel. Im Marketing übliche Formulierungen, z.B. ausschmückende Adjektive oder das Wort „Hidden Champion“, haben in der Wikipedia keinen Platz. Der Versuch der Eigenwerbung wird strikt und öffentlich einsehbar geahndet, bezahltes Schreiben – dazu gehört auch das Bearbeiten von Artikeln in der Arbeitszeit – ist nur unter Einhaltung strenger Regeln erlaubt.

Für viele Unternehmen oder Forschungseinrichtungen kann die Arbeit mit der Wikipedia dennoch interessant sein. Dabei geht es nicht nur um das Sichtbarmachen von Kompetenz oder Relevanz. Es geht auch darum, in Zeiten zunehmender Fehl- und Desinformationen zu einer demokratischen Informationsbasis unserer Gesellschaft beizutragen. Dabei kann und sollte man ganz klein anfangen – machen Sie mit!

KI-Kostennutzenvergleich

Die Crypto-Kritikerin Molly White (www.web3isgoinggreat.com) hat einen lesenswerten Beitrag über generative AI geschrieben.

Sie wirft einen pragmatischen Blick auf deren tatsächlichen Nutzen und die realen Probleme, die die Anwendungen verursachen:

https://www.citationneeded.news/ai-isnt-useless/

TikTok-Tamtam 2

Ein Journalist verkauft einen gebrauchten Bleistift auf TikTok, das seit kurzem eine eCommerce Plattform sein möchte. Eine schräge, aber lesenswerte Geschichte:

https://nymag.com/intelligencer/2024/01/what-i-learned-selling-a-used-pencil-on-tiktok-shop.html

Ernüchterungsvorhersage

Generative AI ist beeindruckend. Die Erwartungen an ihr Potenzial sind aber zu groß, das Bewusstsein für ihre negativen Konsequenzen ist zu klein. Ihre Regulierung wird 2024 an Bedeutung gewinnen.

Das ist die lesenswerte Einschätzung des US-Ökonomen Daron Acemoğlu: https://www.wired.com/story/get-ready-for-the-great-ai-disappointment/

Hypeentwicklungszustände

Am Jahresanfang gibt es immer zahlreiche Voraussagen, welche Trends und Next Big Things uns demnächst prägen werden. Viel davon ist geprägt von PR und Marketing, gerade wenn es um Technologie geht.

Zwei lesenswerte Artikel, einer über Amazons Zustelldienst via Drohne und was daraus wurde – https://www.nytimes.com/2023/11/04/technology/amazon-drone-delivery.html – ein anderer zu selbstfahrenden Autos: https://www.theguardian.com/commentisfree/2023/dec/06/driverless-cars-future-vehicles-public-transport

tl;dr: es ist nicht alles Gold, was glänzt.

Künstliche Vertrauensfragen

Der Security- und Kryptographie-Experte Bruce Schneier hat in einem Vortrag an der Harvard Kennedy School die Wichtigkeit von Vertrauen in Zusammenhang mit künstlicher Intelligenz erörtert. Meine Zusammenfassung:

Vertrauen ist die Grundlage für eine funktionierende Gesellschaft. Es gibt zwei verschiedene Arten von Vertrauen, zwischenmenschliches und soziales Vertrauen.

  • Zwischenmenschliches Vertrauen basiert auf der Beziehung zwischen Menschen, die sich kennen.
  • Soziales Vertrauen basiert auf Moral, Reputation, Gesetzen und Security-Technologien – diese schränken unser Verhalten ein und machen es vertrauenswürdig. Gesetze und Technologien sorgen für ein höheres soziales Vertrauen und sind skalierbar. Je komplexer eine Gesellschaft, desto wichtiger sind Gesetze und Technologien aufgrund ihrer Skalierbarkeit.

Zwischenmenschliches und soziales Vertrauen werden gerne verwechselt. Das passiert häufig in Zusammenhang mit Unternehmen, die wir oft als „Personen“ wahrnehmen, z.B. bei Marken, Social Media Accounts, Maskottchen etc. Die Verwechslung der zwei Vertrauensarten wird durch KI zunehmen.

KI-Systeme werden als menschlich wahrgenommen, obwohl sie nur Dienstleistungen sind. Im Optimalfall sind diese Dienstleistungen hilfreich, wahrscheinlicher ist aber, dass KI-Systeme ihre Nutzer:innen ausspionieren und manipulieren wollen. Überwachung und Manipulation sind schließlich das Geschäftsmodell des Internets.

KI wird so entwickelt werden, dass sie möglichst vertrauenserweckend wirkt. Dadurch wird die Verwechslungsgefahr zwischen zwischenmenschlichem und sozialen Vertrauen erhöht. Das ist so gewollt, denn es ist lukrativ und das menschliche Antlitz der KI verschleiert den einseitigen Einfluss der Unternehmen, die die KI betreiben.

Unternehmen werden die durch die Verwechslung von zwischenmenschlichem mit sozialem Vertrauen entstandene Verwirrung für ihren wirtschaftlichen Erfolg nutzen. Das tun sie auch heute schon, aber rund um KI wird dies zunehmen, denn die Verwendung natürlicher Sprache durch KI wird noch schneller scheinbares zwischenmenschliches Vertrauen kreieren. Außerdem werden mit Daten angereicherte digitale Assistent:innen eine größere Intimität ermöglichen.

Die negativen Konsequenzen dieser Verwechselung können sehr unterschiedlich sein – von versteckter Ausnutzung, über Falschinformationen bis hin zu illegalen Aktivitäten. Deswegen braucht es vertrauenswürdige KI – KI, deren Limitationen man kennt, deren Training man versteht, deren Biases man sich bewusst ist und korrigieren kann, deren Ziele man kennt.

Vertrauenswürdige KI kann nur durch politische Regularien entstehen. Regierungen müssen für Vertrauen in der Gesellschaft sorgen, sie müssen daher durch Regulierung das richtige Umfeld für vertrauenswürdige KI schaffen. Dazu gehören Transparenzgesetze (wann wird KI eingesetzt, wie wird sie trainiert, welche Biases und Tendenzen gibt es), Sicherheitsbestimmungen (wann darf KI eingesetzt werden) und Strafen.

Regulierung muss die KI-kontrollierenden und -nutzenden Unternehmen betreffen, nicht die KI selbst. Am Ende gibt es derzeit noch für jeden KI-Einsatz Menschen, die diesen steuern und dafür verantwortlich sind. Eine Daten-Treuhänderschaft mit zusätzlichen Verpflichtungen kann für generative KI ein wichtiges Instrument sein. Außerdem braucht es „public AI models„, die von der und für die Öffentlichkeit entwicklt werden.

Regierungen müssen rund um KI soziales Vertrauen schaffen:

We can never make AI into our friends. But we can make them into trustworthy services—agents and not double agents. But only if government mandates it. We can put limits on surveillance capitalism. But only if government mandates it.

LLM-Entwicklungsbeobachtung

Ein lesenswerter Blogbeitrag zum Status quo der technischen Entwicklung und der Anwendung von Large Language Models, über deren aktuellen und zukünftigen Nutzen, über ihre Limitationen und durch sie entstehende Sicherheitsrisiken:

https://simonwillison.net/2023/Aug/3/weird-world-of-llms/

KI-Vertrauen

Bruce Schneier ist mit Sicherheit einer der bekanntesten IT-Security-Experten weltweit. Er setzt sich momentan für vertrauenswürdige KI ein. KI-Anwendungen, deren Entscheidungs- bzw. Empfehlungsparameter man nicht kenne, solle man nicht vertrauen. Den AI Act der Europäischen Kommission sieht Schneier als wichtigen Schritt.

Lesenswert:

https://www.schneier.com/blog/archives/2023/08/the-need-for-trustworthy-ai.html

Offenheitskonsequenzen

Bruce Schneier über Large Language Models, deren Code als Open Source Software zugänglich ist – einerseits bergen solche Modelle viel Potenzial (z.B. verringerte Dominanz einzelner Unternehmen), andererseits entstehen dadurch neue regulatorische Herausforderungen (z.B. bei Haftungsfragen).

Lesenswert:

https://slate.com/technology/2023/05/ai-regulation-open-source-meta.html

Fähigkeitsverlust

Eine spannende Perspektive zum allgegenwärtigen KI-Thema: Wie bereiten wir uns auf eine Welt vor, in der viele Menschen aufgrund immer besserer Technologien ihre Fähigkeiten einbüßen?

Lesenswert:

https://zephoria.medium.com/deskilling-on-the-job-bbd71a74a435