Schlagwort: openAI

Kommentar: Künstliche Intelligenz erfordert mehr Medienkompetenz

Wer am 30. März 2024 die Tagesschau um 20 Uhr gesehen hat, wurde dabei auch über die neuesten Entwicklungen der KI-Firma openAI informiert. Das Unternehmen, das auch für den bekannten KI-Bot ChatGPT verantwortlich ist, hat nun eine Software zur Imitation von Stimmen erstellt. Ein fünfzehn-sekündiger Sprachclip reiche dem Programm aus, damit es eine menschliche Stimme möglichst originalgetreu nachstellen könne: Das ist ein technischer Sprung, denn bisher waren wesentlich längere Sprachaufnahmen nötig, um derartige KIs entsprechend zu trainieren.

Free matrix background“/ CC0 1.0

Aus Sicherheitsgründen gibt das Unternehmen die Neuentwicklung noch nicht der Öffentlichkeit preis. Zu groß ist wohl die Angst, dass die Software in die falschen Hände geraten, für Desinformation genutzt werden könnte. Doch ist das wirklich die Lösung für ein so drängendes Problem? Wenn openAI seine Neuentwicklung erst später freigibt – ist dann die Gefahr von Desinformationskampagnen kleiner? Wohl kaum, denn mit den Präsidentschaftswahlen in den USA oder den Wahlen zum EU-Parlament stehen im KI-Zeitalter schon in jüngster Zukunft zwei potentiell einschneidende Erlebnisse in diesem Zusammenhang an.

Ist es nicht verwunderlich, dass der Schutz der Welt vor Desinformation davon abhängig gemacht wird, wann eine Firma eine bestimmte Software freigibt? Fast bedrohlich wirkt die Vorstellung, dass es vielleicht nur einen skrupellosen Manager bei openAI mehr braucht, um derartige „Sicherheitsmaßnahmen“ über Bord zu werfen. Vorbei die Vorsicht, vorbei die Rücksicht. Manches mag man sich nicht ausmalen.

Spätestens seit dem Jahr 2023 ist „künstliche Intelligenz“ aus dem Alltag vieler Menschen nicht mehr wegzudenken. Das mag man positiv oder negativ deuten, wütend oder gelassen aufnehmen, bedenklich oder selbstverständlich finden: Klar ist, dass die KI nicht mehr so schnell verschwinden wird, wie sie auf die Tagesordnung vieler Unternehmen und Privatpersonen gerückt ist. In welcher Form auch immer – in Zukunft muss sich die Menschheit wohl auf ein Leben mit „künstlicher Intelligenz“ einstellen.

Ja, es mag übervorsichtig oder sogar stur klingen, aber: Wer nur das Potential künstlicher Intelligenz sieht, denkt nicht ganzheitlich genug. Wenn die Gesellschaft mit KI Leben muss, sollte sie auch einen angemessenen Umgang mit der neuen Technik finden – nicht zwingend ablehnend, aber besser auch nicht blind bejubelnd. Wo künstliche Intelligenz hinfällt, sollte menschliche Intelligenz mithalten können.

Mit Blick auf nachgestellte Videos und vorgetäuschte Stimmen sollte das früh und zwar früh genug anfangen: Das 21. Jahrhundert ist geprägt von Medien – wie seriös diese sind oder sein können, unterscheidet sich von Fall zu Fall. In einer durch und durch digitalisierten Welt sollten wir Menschen nicht sofort wegsehen, nicht vorschnell die Augen zusammenkneifen. Augen zu und durch – das hat im schlimmsten Fall zur Folge, dass man gegen eine Wand läuft.

Heute braucht es einen bewussten und selbstbewussten Umgang mit klassischen, neuen und kommenden Medien, auf allen gesellschaftlichen Ebenen. Unsere Gesellschaft sollte sich den Herausforderungen stellen, die KI bietet. In den Schulen der Welt sollte mehr Medienkompetenz vermittelt werden. Es sollte gelehrt und gelernt werden, wie man sich zwischen und in mitten von Medien zurechtfinden kann, und welche Rolle man dahingehend selbst spielt. Die Frage nach dem richtigen Umgang mit künstlicher Intelligenz ist auch eine Frage nach medialer Souveränität. Diese sollten wir nicht unbeantwortet lassen.

Die Grauzone der künstlichen Intelligenz

Es gibt bestimmte Themen, die plötzlich in den Nachrichten auftauen und dann ziemlich lange immer wieder behandelt werden – natürlich von unterschiedlichen Seiten und Betrachtungswinkeln, versteht sich. Eines dieser Themen ist zumindest gefühlt auch das der „künstlichen Intelligenzen“. Dabei geht es zum Beispiel um Chatprogramme wie „ChatGPT“ oder auch Bildgeneratoren wie „Stable Diffusion“.

Derartige Softwareprojekte basieren im Grunde auf einem recht ähnlichen Prinzip: Im Zuge des sogenannten maschinelle Lernens werden solche künstlichen neuronalen Netzwerke mit einer Fülle an Daten gefüttert, die dann abgefragt und passend kombiniert werden können. Die Ergebnisse, die ChatGPT und Konsorten also liefern, hängen zwangsläufig davon ab, auf welche Daten diese Systeme zugreifen können.

Der Begriff der künstlichen Intelligenz klingt für mich recht futuristisch, ein bisschen nach Science Fiction und natürlich auch werbetauglich. In den letzten Monaten habe ich dazu viele Beiträge gelesen und auf unterschiedlichen Wegen davon gehört. Mein Eindruck bleibt: Manche der technischen und einige der gesellschaftlichen Auswirkungen und Ausprägungen der bejubelten und verschmähten KI bleiben schlicht noch ungeklärt. Oft eben auch eine gewisse Grauzone.

Eine besonders umstrittene Frage ist etwa, inwiefern künstliche Intelligenzen und die Entwickler und Firmen dahinter gegen das Urheberrecht verstoßen, wenn sie fremde Inhalte zum KI-Training nutzen. Dürfen die das eigentlich? Tja, gut das ich kein Jurist bin, der hier möglichst schnell eine Entscheidung fällen soll: Lernen die KI-Systeme wirklich oder saugen sie nur auf und geben wieder? Schaffen die künstlichen Intelligenzen nun neue Inhalte, wenn sie Bestehendes neu kombinieren? Ich denke, dass die Fragen berechtigt sind – aber einfach noch nicht geklärt.

Wie Golem.de berichtet, versucht zum Beispiel die amerikanische New York Times nun zu verhindern, dass diverse KI-Programme eine Bandbreite der angebotenen Inhalte zum Training verwenden. Dazu hat man Anfang August die eigenen Nutzungsbedingungen angepasst. Golem zitiert hier, dass so neben Text- und Bildinhalten auch „Illustrationen, Designs, Audioclips, Videoclips, ‚Look and Feel‘, Metadaten, Daten oder Zusammenstellungen“ geschützt werden sollen.

Ich finde diese Nachricht wirklich beachtlich. Nachdem nun schon lange darüber diskutiert wird, wie die künstlichen neuronalen Netzwerke und das Urheberrecht zusammenpassen, ist das eine verhältnismäßig klare Position. Laut Golem habe die NY-Times zwar auch einen Deal mit Google abgeschlossen, die ebenfalls an KI-Systemen arbeiten. Aber angesichts dem Dissens in der Diskussion und der scheinbaren politischen Starre in diese Richtung denke ich: Diese Meldung sollten wir mal im Hinterkopf behalten.

Bonus: Distrowechsel auf meinem Laptop

Da ich mir gerade nicht ganz sicher bin, ob ich noch einen eigenen Beitrag dazu schreiben möchte oder nicht, hier ein kleiner Bonus-Abschnitt: Ich habe wieder einmal die GNU/Linux-Distribution auf meinem Laptop gewechselt. Nachdem ich eine Zeit lang KDE neon verwendet habe, wollte ich jetzt mal wieder Gnome. Fedora ist eben eine klassische Gnome-Distribution. Gut, der Zwergendesktop ist oftmals der Standard in der Linux-Welt. So setzen Debian und Ubuntu auf Gnome als direkten Vorschlag bei einer Standardinstallation oder installieren die Umgebung eben direkt mit. Auch SUSE setzt für die eigene Enterprise-Distribution auf Gnome als Default.

Die Gnome-Integration ist bei Fedora definitiv sehr gut – aber die Distribution definiert sich natürlich nicht nur über den Desktop. Auch interessant ist der semi-rollende Veröffentlichungsansatz, bei dem einige Pakete auch unter den stabilen Versionen aktualisiert werden. Der Paketmanager DNF kommt für mich derzeit zwar nicht wirklich an apt von Debian heran. Aber die wichtigsten und zusätzliche interessante Funktionen bietet er allemal. Auch Fedoras innovative Vorstöße bei den immutablen Distributionen finde ich spannend. Mal schauen, wie sich Fedora auf dem Laptop so schlägt. Blogartikel kann man damit ja schonmal gut schreiben. 🙂