Schlagwort: ChatGPT


  • Kommentar: Künstliche Intelligenz erfordert mehr Medienkompetenz

    Einsortiert in: , ,

    Wer am 30. März 2024 die Tagesschau um 20 Uhr gesehen hat, wurde dabei auch über die neuesten Entwicklungen der KI-Firma openAI informiert. Das Unternehmen, das auch für den bekannten KI-Bot ChatGPT verantwortlich ist, hat nun eine Software zur Imitation von Stimmen erstellt. Ein fünfzehn-sekündiger Sprachclip reiche dem Programm aus, damit es eine menschliche Stimme möglichst originalgetreu nachstellen könne: Das ist ein technischer Sprung, denn bisher waren wesentlich längere Sprachaufnahmen nötig, um derartige KIs entsprechend zu trainieren.

    Free matrix background“/ CC0 1.0

    Aus Sicherheitsgründen gibt das Unternehmen die Neuentwicklung noch nicht der Öffentlichkeit preis. Zu groß ist wohl die Angst, dass die Software in die falschen Hände geraten, für Desinformation genutzt werden könnte. Doch ist das wirklich die Lösung für ein so drängendes Problem? Wenn openAI seine Neuentwicklung erst später freigibt – ist dann die Gefahr von Desinformationskampagnen kleiner? Wohl kaum, denn mit den Präsidentschaftswahlen in den USA oder den Wahlen zum EU-Parlament stehen im KI-Zeitalter schon in jüngster Zukunft zwei potentiell einschneidende Erlebnisse in diesem Zusammenhang an.

    Ist es nicht verwunderlich, dass der Schutz der Welt vor Desinformation davon abhängig gemacht wird, wann eine Firma eine bestimmte Software freigibt? Fast bedrohlich wirkt die Vorstellung, dass es vielleicht nur einen skrupellosen Manager bei openAI mehr braucht, um derartige „Sicherheitsmaßnahmen“ über Bord zu werfen. Vorbei die Vorsicht, vorbei die Rücksicht. Manches mag man sich nicht ausmalen.

    Spätestens seit dem Jahr 2023 ist „künstliche Intelligenz“ aus dem Alltag vieler Menschen nicht mehr wegzudenken. Das mag man positiv oder negativ deuten, wütend oder gelassen aufnehmen, bedenklich oder selbstverständlich finden: Klar ist, dass die KI nicht mehr so schnell verschwinden wird, wie sie auf die Tagesordnung vieler Unternehmen und Privatpersonen gerückt ist. In welcher Form auch immer – in Zukunft muss sich die Menschheit wohl auf ein Leben mit „künstlicher Intelligenz“ einstellen.

    Ja, es mag übervorsichtig oder sogar stur klingen, aber: Wer nur das Potential künstlicher Intelligenz sieht, denkt nicht ganzheitlich genug. Wenn die Gesellschaft mit KI Leben muss, sollte sie auch einen angemessenen Umgang mit der neuen Technik finden – nicht zwingend ablehnend, aber besser auch nicht blind bejubelnd. Wo künstliche Intelligenz hinfällt, sollte menschliche Intelligenz mithalten können.

    Mit Blick auf nachgestellte Videos und vorgetäuschte Stimmen sollte das früh und zwar früh genug anfangen: Das 21. Jahrhundert ist geprägt von Medien – wie seriös diese sind oder sein können, unterscheidet sich von Fall zu Fall. In einer durch und durch digitalisierten Welt sollten wir Menschen nicht sofort wegsehen, nicht vorschnell die Augen zusammenkneifen. Augen zu und durch – das hat im schlimmsten Fall zur Folge, dass man gegen eine Wand läuft.

    Heute braucht es einen bewussten und selbstbewussten Umgang mit klassischen, neuen und kommenden Medien, auf allen gesellschaftlichen Ebenen. Unsere Gesellschaft sollte sich den Herausforderungen stellen, die KI bietet. In den Schulen der Welt sollte mehr Medienkompetenz vermittelt werden. Es sollte gelehrt und gelernt werden, wie man sich zwischen und in mitten von Medien zurechtfinden kann, und welche Rolle man dahingehend selbst spielt. Die Frage nach dem richtigen Umgang mit künstlicher Intelligenz ist auch eine Frage nach medialer Souveränität. Diese sollten wir nicht unbeantwortet lassen.


  • Die Grauzone der künstlichen Intelligenz

    Einsortiert in: ,

    Es gibt bestimmte Themen, die plötzlich in den Nachrichten auftauen und dann ziemlich lange immer wieder behandelt werden – natürlich von unterschiedlichen Seiten und Betrachtungswinkeln, versteht sich. Eines dieser Themen ist zumindest gefühlt auch das der „künstlichen Intelligenzen“. Dabei geht es zum Beispiel um Chatprogramme wie „ChatGPT“ oder auch Bildgeneratoren wie „Stable Diffusion“.

    Derartige Softwareprojekte basieren im Grunde auf einem recht ähnlichen Prinzip: Im Zuge des sogenannten maschinelle Lernens werden solche künstlichen neuronalen Netzwerke mit einer Fülle an Daten gefüttert, die dann abgefragt und passend kombiniert werden können. Die Ergebnisse, die ChatGPT und Konsorten also liefern, hängen zwangsläufig davon ab, auf welche Daten diese Systeme zugreifen können.

    Der Begriff der künstlichen Intelligenz klingt für mich recht futuristisch, ein bisschen nach Science Fiction und natürlich auch werbetauglich. In den letzten Monaten habe ich dazu viele Beiträge gelesen und auf unterschiedlichen Wegen davon gehört. Mein Eindruck bleibt: Manche der technischen und einige der gesellschaftlichen Auswirkungen und Ausprägungen der bejubelten und verschmähten KI bleiben schlicht noch ungeklärt. Oft eben auch eine gewisse Grauzone.

    Eine besonders umstrittene Frage ist etwa, inwiefern künstliche Intelligenzen und die Entwickler und Firmen dahinter gegen das Urheberrecht verstoßen, wenn sie fremde Inhalte zum KI-Training nutzen. Dürfen die das eigentlich? Tja, gut das ich kein Jurist bin, der hier möglichst schnell eine Entscheidung fällen soll: Lernen die KI-Systeme wirklich oder saugen sie nur auf und geben wieder? Schaffen die künstlichen Intelligenzen nun neue Inhalte, wenn sie Bestehendes neu kombinieren? Ich denke, dass die Fragen berechtigt sind – aber einfach noch nicht geklärt.

    Wie Golem.de berichtet, versucht zum Beispiel die amerikanische New York Times nun zu verhindern, dass diverse KI-Programme eine Bandbreite der angebotenen Inhalte zum Training verwenden. Dazu hat man Anfang August die eigenen Nutzungsbedingungen angepasst. Golem zitiert hier, dass so neben Text- und Bildinhalten auch „Illustrationen, Designs, Audioclips, Videoclips, ‚Look and Feel‘, Metadaten, Daten oder Zusammenstellungen“ geschützt werden sollen.

    Ich finde diese Nachricht wirklich beachtlich. Nachdem nun schon lange darüber diskutiert wird, wie die künstlichen neuronalen Netzwerke und das Urheberrecht zusammenpassen, ist das eine verhältnismäßig klare Position. Laut Golem habe die NY-Times zwar auch einen Deal mit Google abgeschlossen, die ebenfalls an KI-Systemen arbeiten. Aber angesichts dem Dissens in der Diskussion und der scheinbaren politischen Starre in diese Richtung denke ich: Diese Meldung sollten wir mal im Hinterkopf behalten.

    Bonus: Distrowechsel auf meinem Laptop

    Da ich mir gerade nicht ganz sicher bin, ob ich noch einen eigenen Beitrag dazu schreiben möchte oder nicht, hier ein kleiner Bonus-Abschnitt: Ich habe wieder einmal die GNU/Linux-Distribution auf meinem Laptop gewechselt. Nachdem ich eine Zeit lang KDE neon verwendet habe, wollte ich jetzt mal wieder Gnome. Fedora ist eben eine klassische Gnome-Distribution. Gut, der Zwergendesktop ist oftmals der Standard in der Linux-Welt. So setzen Debian und Ubuntu auf Gnome als direkten Vorschlag bei einer Standardinstallation oder installieren die Umgebung eben direkt mit. Auch SUSE setzt für die eigene Enterprise-Distribution auf Gnome als Default.

    Die Gnome-Integration ist bei Fedora definitiv sehr gut – aber die Distribution definiert sich natürlich nicht nur über den Desktop. Auch interessant ist der semi-rollende Veröffentlichungsansatz, bei dem einige Pakete auch unter den stabilen Versionen aktualisiert werden. Der Paketmanager DNF kommt für mich derzeit zwar nicht wirklich an apt von Debian heran. Aber die wichtigsten und zusätzliche interessante Funktionen bietet er allemal. Auch Fedoras innovative Vorstöße bei den immutablen Distributionen finde ich spannend. Mal schauen, wie sich Fedora auf dem Laptop so schlägt. Blogartikel kann man damit ja schonmal gut schreiben. 🙂


  • Ist das menschlich?

    Einsortiert in: ,

    Die „künstliche Intelligenz“ ist in aller Munde und aus den täglichen Diskussionen nicht mehr wegzudenken. So oft finden sich Meinungen zu ChatGPT, den Firmen, die das alles verzapft und den Investoren, die neuesten Entwicklungen mitzuverantworten haben. Zu behaupten, dass künstliche neuronale Netzwerke überall mit offenen Armen empfangen werden, ist ziemlich realitätsfern. Stattdessen scheinen sich momentan eher wieder die allzu typischen Lager der Befürworter und Gegnern „des Neuen“ herauszubilden. Das ist nicht das erste mal, dass die Gesellschaft mit einer vermeintlich extrem neuen, hochmodernen Technologie konfrontiert wird, und sich uneins ist. Trotzdem habe ich das Gefühl, dass manchmal – nicht immer natürlich – aber doch hin und wieder anders über das Thema der künstlichen Intelligenzen diskutiert wird, als das bei anderen neuen, gesellschaftlichen Entwicklungen der Fall war.

    Ich möchte hier nicht die technischen Aspekte hinter den künstlichen neuronalen Netzen diskutieren. Auch wenn ich dazu im Hinblick auf die Softwarefreiheit und die Macht der Tech-Firmen hinter den modernen KI-Systemen starke Meinungen habe – wirkliche Expertise möchte ich mir in diesem Bereich nicht anmaßen. Stattdessen stellen sich mir auch ganz andere Fragen. Die hängen natürlich auch mit der Technik zusammen – aber nicht nur. Um es herunterzubrechen: Ist das menschlich – und was ist menschlich? Diese Fragen kommen mir nur zu oft in den Sinn, wenn ich an künstliche Intelligenz denke.

    Interessanterweise lässt sich diese Fragestellung auf unterschiedliche Weisen beantworten, die Antworten selbst lassen sich damit aber auch nicht schneller finden: Ist das menschlich? Diese Frage lässt sich natürlich auf die künstliche Intelligenz selbst anwenden: Ist ChatGPT menschlich? Wir können mit dieser KI interagieren – aber auf welcher Ebene? Auf welcher Gesprächsebene unterhalten wir uns mit einem Chatbot, der sich bisher eigentlich nur aus veralteten Quellen gespeist und diese bestenfalls zusammengemischt hat? Ich kann diese Frage nicht beantworten, möchte sie aber zumindest einmal im Raum stehen lassen. Denn damit umzugehen, ist sicherlich nicht nur für mich schwierig – aber für viele in der Zukunft womöglich nötiger denn je. Die Entwicklungen der KI-Industrie schienen in den letzten Jahren einen Rekord nach dem anderen zu brechen. Fragt sich nur warum, und wie. Und vielleicht auch warum genau jetzt.

    Damit geht sicherlich auch die zweite wichtige Frage einher: Ist unser Verhalten als Menschheit gegenüber der KI menschlich? Und was genau meinen wir eigentlich damit? Das Wort „menschlich“ erfordert bei der Interpretation wieder ein gutes Stück Sprachakrobatik. Natürlich sind unsere Reaktionen auf die Chatbots menschlich, denn wir sind ja die Menschen. Das könnte man meinen, sich einer sehr plausiblen Argumentation bedienen und das ganze Thema für sich selbst ad acta legen. Könnte man. Muss man aber nicht. Wenn es doch nur so einfach wäre, denke ich manchmal. Mir geht es auch um die Reaktionen in sich und nicht nur um die Perspektive, aus der sie kommen: Ich habe das Gefühl, dass der kometenhafte Aufstieg der künstlichen Intelligenz auch Auswirkungen auf unsere Wahrnehmung dieser Technologie gehabt hat. Und genau diese Auswirkungen sind es, die ich nicht wirklich einschätzen kann. Bin ich damit allein? Vermutlich nicht. Vielleicht ist es ja genau diese Unsicherheit, die uns einmal mehr von der künstlichen Intelligenz unterscheidet. Vielleicht.

    Einen weiteren interessanten Text zu künstlichen neuronalen Netzwerken und dem Umgang damit findet ihr hier: https://gnulinux.ch/zum-wochenende-menschlichkeit-qualitaet-bestimmt