MIT Technology Review-Redakteur Wolfgang Stieler beobachtet und berichtet seit über zwei Jahrzehnten über neue technische Entwicklungen. Mit großen Sprachmodellen wie GPT-3 ist bald eine künstliche Intelligenz verfügbar, die selbst den Technologieoptimisten aus dem Heise-Verlag besorgt aufhorchen lässt. „Je besser ein Sprachmodell die Welt versteht, desto besser kann man damit auch gezielten Missbrauch betreiben“, sagt der Redakteur des renommierten MIT-Magazins im Interview. Wir sprechen mit ihm über die Gefahren von automatisch generierten Texten, die das Potenzial haben, politische Meinung zu beeinflussen und den Journalismus grundlegend zu verändern. Außerdem erklärt Stieler, warum es nichts nützt, solche Technologien unter Verschluss zu halten oder sich auf die automatisierte Erkennung und Bewertung von KI-generierten Inhalten zu verlassen.
Hören Sie die aktuelle Folge in Ihrem Lieblingsplayer oder direkt auf der Seite:
- „Es ist keine Frage ob, sondern wann solche Sprachmodelle im großen Maßstab zur Verfügung stehen.“
- „GPT-3 ist eine Technologie, die sich leicht missbrauchen lässt.“
- „Wir brauchen einen gesellschaftlichen Rahmen und Regulierungen. Daran arbeitet die EU – die Frage ist nur, ob sie schnell genug ist.“
- „Letztendlich ist es kein rein technisches, sondern ein gesellschaftliches Problem.“
Schreibe einen Kommentar