ChatGPT und Co: Wie verändert KI unser Leben?

Der im November 2022 veröffentlichte KI-basierte Dialog-Bot ChatGPT findet auf fast jede Frage eine Antwort und ist in der Lage, diese in natürlich fließender Sprache zu formulieren. Ob und bei welchen Gattungen die so generierten Texte tatsächlich mit denen von Menschen mithalten können, ist umstritten. Kommentatoren debattieren, wie ein angemessener Umgang gestaltet werden müsste.

Alle Zitate öffnen/schließen
NRC (NL) /

Der Mensch ist nötiger denn je

NRC Handelsblad warnt davor, ChatGPT blind zu vertrauen:

„Es muss weiterhin eine Zusammenarbeit geben. Menschliches Urteilsvermögen, Kreativität und moralische Abwägungen werden durch diese neue Technologie nur noch wichtiger. Kritisch sein beim Inhalt, dabei, wer diese Anwendung kontrolliert und besitzt, bei den möglichen sozialen und wirtschaftlichen Folgen: Gesetzgeber und Aufsichtsbehörden müssen aufmerksamer sein, als sie es beim Aufkommen der Sozialen Medien waren - genau wie jeder, der damit arbeitet. Gerade weil die Antworten des Programms so beeindruckend sind, besteht die Gefahr, dass Menschen ihm blind vertrauen.“

Delo (SI) /

Chancen richtig nutzen

Europa darf sich nicht von Angst leiten lassen, findet Delo:

„Damit künstliche Intelligenz wirklich als Motor der Wirtschaft akzeptiert wird, muss Vertrauen in ihre Funktionsweise aufgebaut werden. ... Der Einsatz künstlicher Intelligenz kann Fortschritte bei einer Vielzahl von Aktivitäten ermöglichen: im Kampf gegen den Klimawandel, bei der Optimierung von Industrieprozessen, bei der effektiveren Nutzung von Ressourcen, im Gesundheitswesen, in der Infrastruktur, in der Altenpflege. Deshalb sollte Angst nicht das Leitprinzip der europäischen Politik bei der Regulierung sein, sondern die Nutzung der sich bietenden Chancen unter Achtung der Grundrechte.“

Le Monde (FR) /

EU-Regulierung ist unzureichend

Die von der EU-Kommission geplante Regulierung von Künstlicher Intelligenz scheint den Risiken von Tools wie ChatGPT nicht gewachsen zu sein, warnen IT-Sicherheitsexperten in Le Monde:

„ChatGPT würde lediglich in die letzte Kategorie risikobehafteter KI fallen, die als 'begrenztes Risiko' bezeichnet wird: KI, die mit Menschen interagiert. Diese müssen gemäß der Regulierung nur vor dem Einsatz einer KI gewarnt werden, ohne dass dies näher erläutert wird. Reicht das aus, um eine kritische Haltung gegenüber einer neuen Art des Zugangs zu Wissen zu entwickeln?“

The Spectator (GB) /

Das Ende des Schreibens

Eine Existenzkrise für eine ganze Berufsgruppe befürchtet The Spectator:

„Das war's. Es ist an der Zeit, die Feder, den Kugelschreiber und das schicke iPad wegzupacken: Die Computer werden es bald besser machen. ... Als erstes werden Maschinen akademische Arbeiten ersetzen – Essays, Doktorarbeiten, langweilige Lehrtexte (die sie wenig überraschend schon jetzt locker produzieren können). Fan-Fiction und selbstveröffentlichte Romane sind dem sofortigen Untergang geweiht. Als nächstes sind einfache journalistische Arbeiten dran, dann Qualitätsjournalismus, Genre-Literatur, Geschichte, Biografien und Drehbücher. ... 5.000 Jahre des geschriebenen Wortes und 500 Jahre in denen Menschen ein Leben, eine Karriere, ja sogar Ruhm durch Worte erlangten, gehen abrupt zu Ende.“

Irish Examiner (IE) /

Zeitenwende in der Schule

Besonders für Lehrkräfte wird ChatGPT künftig eine große Herausforderung darstellen, glaubt Irish Examiner:

„Im Vereinigten Königreich wurden Dozenten schon aufgefordert, die Art der Leistungsnachweise in ihren Kursen zu überprüfen, da dieses neue Tool das Potenzial hat, glaubwürdige und qualitativ hochwertige Inhalte mit nur minimalem menschlichem Input zu produzieren. ... Lehrer müssen sich entscheiden, ob sie sich diese Technologie zunutze machen und neue Wege zur Bewertung von Leistungen finden, oder ob sie ihre Zeit damit verbringen wollen, Regelverstöße aufzudecken. Und für so etwas ist schließlich niemand Lehrer geworden. “

El País (ES) /

Bei mündlichen Prüfungen hilft kein Bot

El País hat einen Vorschlag für den Umgang mit KI in der Schule:

„Jeder Lehrer kann jetzt herausfinden, ob die Arbeit eines Schülers ein bloßes Cut-and-Paste ist. Eine Google-Suche reicht aus, um ein Plagiat zu entdecken. ... All dies vereinfacht den Zugang zu Informationen, erschwert aber das Lehren und Lernen. Letztendlich wird die künstliche Intelligenz in den Unterricht einfließen, aber wir müssen lernen, mit ihr umzugehen. Möglicherweise wird uns die Innovation am Ende paradoxerweise wieder zur Mündlichkeit zurückführen. Dies ist die einzige Möglichkeit zur Bewertung. Die Schüler sollten für die Suche nach Informationen alle ihnen zur Verfügung stehenden Hilfsmittel verwenden, aber sie sollten in der Lage sein, das Ergebnis zu erklären. Persönlich und mit eigenen Worten.“

Le Temps (CH) /

Es bleibt dabei: Der Mensch ist keine Maschine

Die Gefahr liegt nicht in der KI, sondern in der Debatte darüber, warnt Philosoph Thomas Robert in Le Temps:

„Es geht jetzt darum, die Kontrolle über die von den Befürwortern der Künstlichen Intelligenz erzählte Geschichte zurückzugewinnen. Die Gefahr ist, dass sie uns davon überzeugen, dass Intelligenz nichts anderes als die Anhäufung von Wissen ist oder dass Kreativität sich auf die wahrscheinlichste Antwort reduziert. Mit anderen Worten: Die größte Gefahr besteht nicht in den Fortschritten der KI, sondern im Diskurs, der zu einer kümmerlichen Definition des Menschen neigt. Drei Jahrhunderte später versuchen es Programmierer aus dem Silicon Valley erneut mit der Mensch-Maschine-Theorie. Es liegt an uns, ob wir ihr erliegen oder nicht.“

Observador (PT) /

Internationale Grundsätze verhandeln

Ethische Regeln sind wichtig, aber schwierig umzusetzen, gibt Ökonomin Inês Domingos in Observador zu bedenken:

„Das Fehlen des kritischen Denkens bei Maschinen zwingt die Entwickler Künstlicher Intelligenz dazu, ethische Grenzen in ihre Programme aufzunehmen, was nicht zuletzt wegen der Diskrepanzen zwischen den ethischen Werten in verschiedenen Regionen der Welt zunehmend Anlass zur Sorge für die öffentliche Politik gibt. Die EU hat 2018 eine Reihe von Leitlinien für die ethische Nutzung Künstlicher Intelligenz erstellt, ebenso China 2019. ... Aber die Umsetzung und die Werte beider Regionen sind sehr unterschiedlich, insbesondere in Bezug auf den Schutz der Privatsphäre.“