(© picture alliance / CHROMORANGE / Christian Ohde)

  Künstliche Intelligenz

  20 Debatten

Das weltweit erste umfassende KI-Gesetz wird Tatsache: Das EU-Parlament hat am gestrigen Mittwoch der mit den EU-Staaten ausgehandelten Fassung des AI Act zugestimmt. Praktiken wie Social Scoring oder Gefühlserkennung am Arbeitsplatz werden verboten. Bei der Gesichtserkennung gibt es Ausnahmen für die Strafverfolgungsbehörden. Für einige Kommentatoren ist das eine Verwässerung, andere sehen dennoch einen zukunftsweisenden Erfolg.

Die rasanten Fortschritte auf dem Gebiet der Künstlichen Intelligenz und die daraus entstehenden Herausforderungen gehörten zu den Themen, die 2023 prägten. Zum Jahreswechsel führen Kommentatoren die Debatte weiter und blicken auch auf andere wissenschaftlich-technische Entwicklungen.

Unterhändler von EU-Parlament und Mitgliedsstaaten haben sich auf die Kernpunkte des seit 2021 geplanten AI Act geeinigt. Das Gesetz soll Transparenz garantieren, wo künstliche Intelligenz verwendet wurde, eine hohe Qualität der bei der Entwicklung verwendeten Daten sicherstellen und Urheberrechte schützen. Bei datenschutz- oder sicherheitsrelevanten Anwendungen wird ein menschenkontrolliertes Risikomanagement Pflicht.

Nach frenetischem Hin und Her wird Sam Altman wieder CEO beim ChatGPT-Entwickler OpenAI. Erst am Freitag hatte ihn der Verwaltungsrat überraschend hinausgeworfen. Kurz darauf wurde sein Wechsel zu Microsoft bekannt. Die Drohung vieler weiterer Mitarbeiter, das Unternehmen ebenfalls zu verlassen, zeigte offenbar Wirkung. Die Presse verfolgt das Spektakel beunruhigt.

Sam Altman ist nicht mehr CEO des Softwareunternehmens OpenAI, das den KI-Chatbot ChatGPT entwickelt hat. Der 38-Jährige, der als eines der Gesichter des KI-Booms gilt, wechselt nach seiner überraschenden Entlassung zu Microsoft. Ein Großteil der Belegschaft fordert nun seine Rückkehr und droht mit Kündigung. Kommentatoren finden die Angelegenheit in mehreren Hinsichten bezeichnend.

Bei einem internationalen Gipfel in Großbritannien haben sich 28 Staaten von fünf Kontinenten, darunter auch China, für eine Kooperation bei der Regulierung von Künstlicher Intelligenz ausgesprochen. In einer Erklärung betonten sie ihre Absicht, die Risiken von KI besser verstehen und kollektiv managen zu wollen. Premier Rishi Sunak sprach von einem "Meilenstein". Kommentatoren diskutieren mögliche nächste Schritte.

Der Vormarsch der Künstlichen Intelligenz (KI) in viele existenzielle Lebensbereiche entfacht heftige Debatten und löst bei manchen Zukunftssorgen aus. Regulierungen sind noch im Anfangsstadium. Kommentatoren fragen, ob wir befürchten müssen, in der Arbeitswelt ersetzt zu werden und Kunst ihren Wert verliert.

Künstliche Intelligenz (KI) dringt - etwa in Form von Apps oder Maschinensteuerungsprogrammen - weiter in unser Leben vor und wirft viele Fragen auf: Könnte sie unbeherrschbar werden, Menschen in der Arbeitswelt in bedenklichem Ausmaß ersetzen, gefährliche Risiken in den Bereichen Rüstung und Forschung schaffen? Kommentatoren fragen nach Sinn und Möglichkeiten von Regulierung.

Das EU-Parlament hat gestern das weltweit erste Gesetz zur Regulierung von Künstlicher Intelligenz beschlossen. Es ordnet Anwendungen verschiedenen Risikostufen zu. Als besonders riskant geltende Programme wie solche zur Gesichtserkennung sollen verboten und andere nur unter Auflagen erlaubt werden. Während einige Kommentaren die Entscheidung begrüßen, befürchten andere Überregulierung.

In einer Stellungnahme vom Dienstag hat eine Reihe führender KI-Experten eindringlich vor der Technologie gewarnt und ihre Risiken in eine Reihe mit Pandemien und Atomkrieg gestellt. Zu den Unterzeichnern gehört auch Sam Altman, Chef des ChatGPT-Erfinders OpenAI. Er schlägt vor, eine internationale Behörde zu schaffen, analog der internationalen Atomenergie-Organisation IAEA. Kommentatoren sind überwiegend skeptisch.

Die EU will Vorreiter bei der Regulierung von Künstlicher Intelligenz (KI) werden und kommt dem langsam näher: Die zuständigen Parlamentsausschüsse haben den Artificial Intelligence Act der EU-Komission in geänderter Form, etwa mit dem Verbot von Systemen zur Gesichts- und Gefühlserkennung, angenommen. Anfang kommender Woche soll nun im Europaparlament darüber diskutiert werden.

Die Bedenken gegenüber Künstlicher Intelligenz werden lauter: Zu den kritischen Stimmen zählt seit gestern Geoffrey Hinton, einer der Pioniere der Technologie. Er hat bei Google gekündigt, weil er einen Kontrollverlust der Menschheit in der Zukunft befürchtet und davor uneingeschränkt warnen will. Viele könnten schon bald "nicht mehr erkennen, was noch wahr ist". Auch Kommentatoren sind besorgt.

Über 1.000 Experten der Tech-Branche und Forschung - darunter Elon Musk und Apple-Mitbegründer Steve Wozniak - haben in einem offenen Brief vor den "erheblichen Risiken" Künstlicher Intelligenz (KI) gewarnt. Sie fordern mindestens ein halbes Jahr Entwicklungspause und die Errichtung von Sicherheitsstandards. Kommentatoren diskutieren, ob technischer Fortschritt aufgehalten werden kann und sollte.

Der im November 2022 veröffentlichte KI-basierte Dialog-Bot ChatGPT findet auf fast jede Frage eine Antwort und ist in der Lage, diese in natürlich fließender Sprache zu formulieren. Ob und bei welchen Gattungen die so generierten Texte tatsächlich mit denen von Menschen mithalten können, ist umstritten. Kommentatoren debattieren, wie ein angemessener Umgang gestaltet werden müsste.

Seit einer Woche ist der auf künstlicher Intelligenz basierende Chatbot ChatGPT auf der Website des Anbieters OpenAI öffentlich zugänglich. In wenigen Tagen registrierten sich über eine Million Nutzer, um dem Programm Fragen zu stellen und sich zu unterhalten. Was das neuartige Sprachgenerierungsmodell leisten kann und wo seine Grenzen liegen, beschäftigt die Kommentarspalten.

Die Europäische Kommission hat den weltweit ersten Rechtsrahmen für Künstliche Intelligenz (KI) vorgelegt. Für KI-Systeme, deren Einsatz ein Risiko für die Sicherheit oder die Rechte von Menschen bedeuten kann, sollen künftig strenge Vorgaben gelten. Bei besonders klaren Risiken, etwa wenn der freie Wille manipuliert wird, greift ein Verbot. So soll KI ingesamt vertrauenswürdiger werden.

Die EU-Kommission stellt am heutigen Mittwoch drei Papiere zum Thema Digitalisierung vor, ihrem zweiten Schlüsselprojekt neben dem Europäischen Grünen Deal. Die Brüsseler Behörde erläutert darin unter anderem, wie sie sich die Förderung und Regulierung Künstlicher Intelligenz vorstellt. Dafür ist es allerhöchste Zeit, finden Europas Medien.

Die EU hat Ethikregeln zum Umgang mit Künstlicher Intelligenz vorgelegt. In einer Pilotphase können Unternehmen, Forschungsinstitute und Behörden bis 2020 die ethischen Richtlinien testen. Im Anschluss sollen Gesetzesvorschläge entwickelt werden. Für Kommentatoren zeigen sich Politik und Gesellschaft noch zu passiv bei der Gestaltung der Zukunft.

Die Technik der künstlichen Intelligenz weckt riesige Erwartungen an die Zukunft des Wirtschaftens, Arbeitens, der Mobilität und des Alltagslebens. Gleichzeitig wächst die Furcht davor, dass Roboter den Menschen ersetzen könnten, genauso wie die Sorge um Datenschutz und Cybersicherheit. Kommentatoren in Europa überlegen, wie sich KI so gestalten lässt, dass alle davon profitieren.