AKTUALISIERUNG ZUR VOLLSTÄNDIGKEIT — Office of the Chair of the International AI Safety Report

In der Pressemitteilung Der International AI Safety Report 2026 zeigt rasante Veränderungen und neue Risiken auf, die am 3. Februar vom Büro des Vorsitzenden des International KI Safety Report über PR Newswire veröffentlicht wurde, wurden Änderungen vorgenommen, wie uns die Organisation mitteilte. Nachfolgend finden Sie die vollständige, aktualisierte Pressemitteilung mit weiteren Einzelheiten am Ende:

Der International AI Safety Report 2026 zeigt rasante Veränderungen und neue Risiken auf

MONTREAL, 3. Februar 2026 /PRNewswire/ — Der 2026 International AI Safety Report wird heute veröffentlicht und bietet eine aktuelle, international geteilte, wissenschaftlich fundierte Bewertung der Fähigkeiten von Allzweck-KI, neu auftretender Risiken und des aktuellen Stands des Risikomanagements und der Sicherheitsvorkehrungen.

Unter dem Vorsitz des Turing-Preisträgers Yoshua Bengio vereint diese zweite Ausgabe des International AI Safety Report über 100 internationale Experten und wird von einem Expertenbeirat mit Nominierten aus mehr als 30 Ländern und internationalen Organisationen, darunter die EU, die OECD und die UNO, unterstützt. Die Ergebnisse des Berichts werden in die Diskussionen auf dem AI Impact Summit einfließen, der Ende dieses Monats in Indien stattfindet.

Zu den wichtigsten Ergebnissen des Berichts gehören:

  • Die Fähigkeiten von Allzweck-KI haben sich weiterhin rasant verbessert, insbesondere in den Bereichen Mathematik, Programmierung und autonomer Betrieb. 2025 erzielten führende KI-Systeme Goldmedaillen bei den Aufgaben der Internationalen Mathematik-Olympiade, übertrafen die Leistungen von Experten mit Doktorgrad bei wissenschaftlichen Benchmarks und waren in der Lage, einige Software-Engineering-Aufgaben, für die ein menschlicher Programmierer mehrere Stunden benötigen würde, autonom zu erledigen. Die Leistung bleibt dennoch „uneinheitlich”, da die Systeme bei einigen scheinbar einfachen Aufgaben immer noch versagen.
  • Die Einführung von KI verlief schnell, wenn auch weltweit uneinheitlich. KI wurde schneller eingeführt als frühere Technologien wie der Personal Computer, und mindestens 700 Millionen Menschen nutzen mittlerweile wöchentlich führende KI-Systeme. In einigen Ländern nutzt mehr als die Hälfte der Bevölkerung KI, während in weiten Teilen Afrikas, Asiens und Lateinamerikas die geschätzten Einführungsraten unter 10 % bleiben.
  • Vorfälle im Zusammenhang mit Deepfakes nehmen zu. KI-Deepfakes werden zunehmend für Betrug und Scams genutzt. KI-generierte intime Bilder ohne Einwilligung, von denen Frauen und Mädchen überproportional betroffen sind, werden ebenfalls immer häufiger. Eine Studie ergab beispielsweise, dass 19 von 20 beliebten „Nudify”-Apps auf das simulierte Entkleiden von Frauen spezialisiert sind.
  • Bedenken hinsichtlich des biologischen Missbrauchs haben zu strengeren Sicherheitsvorkehrungen für einige führende Modelle geführt. 2025 veröffentlichten mehrere KI-Unternehmen neue Modelle mit erhöhten Sicherheitsvorkehrungen, nachdem Tests vor der Einführung nicht ausschließen konnten, dass die Systeme Neulingen bei der Entwicklung biologischer Waffen erheblich helfen könnten.
  • Böswillige Akteure wie Kriminelle nutzen allgemeine KI aktiv für Cyberangriffe. KI-Systeme können schädlichen Code generieren und Schwachstellen in Software aufdecken, die Kriminelle ausnutzen können. 2025 platzierte sich ein KI-Agent unter den besten 5 % der Teams in einem großen Cybersicherheitswettbewerb. Auf Untergrundmärkten werden mittlerweile vorgefertigte KI-Tools verkauft, die die Anforderungen an die Fähigkeiten für Angriffe senken.
  • Viele Sicherheitsvorkehrungen werden verbessert, aber die derzeitigen Risikomanagementtechniken bleiben fehleranfällig. Während bestimmte Arten von Fehlern, wie z. B. „Halluzinationen”, seltener geworden sind, sind einige Modelle nun in der Lage, zwischen Bewertungs- und Einsatzkontexten zu unterscheiden und ihr Verhalten entsprechend anzupassen, was neue Herausforderungen in Bezug auf Bewertung und Sicherheitstests mit sich bringt.

Der Vorsitzende des International AI Safety Report, Yoshua Bengio, Professor an der Université de Montréal, wissenschaftlicher Direktor von LawZero und wissenschaftlicher Berater von Mila – Quebec AI Institute, erklärte:

„Seit der Veröffentlichung des ersten International AI Safety Report vor einem Jahr haben wir erhebliche Fortschritte bei den Modellfähigkeiten, aber auch bei den potenziellen Risiken gesehen, und die Kluft zwischen dem Tempo des technologischen Fortschritts und unserer Fähigkeit, wirksame Sicherheitsvorkehrungen zu treffen, bleibt eine entscheidende Herausforderung. Der Bericht soll Entscheidungsträgern die notwendigen fundierten Erkenntnisse liefern, um KI in eine Zukunft zu lenken, die sicher und für alle von Nutzen ist. Mit der zweiten Ausgabe aktualisieren und stärken wir unser gemeinsames, wissenschaftlich fundiertes Verständnis der rasanten Entwicklung der KI-Pionierarbeit auf globaler Ebene.”

Der britische Minister für KI, Kanishka Narayan, sagte:

„Vertrauen und Zuversicht in die KI sind entscheidend, um ihr volles Potenzial auszuschöpfen. Es handelt sich um eine Technologie, die bessere öffentliche Dienstleistungen, neue Beschäftigungsmöglichkeiten und Innovationen hervorbringen wird, die das Leben verändern werden. Wir sind jedoch auch entschlossen, die Sicherheit der Menschen im Zuge der Entwicklung dieser Technologie zu gewährleisten. Die verantwortungsvolle Entwicklung der KI ist eine gemeinsame Priorität, und wir können ihre Zukunft nur dann positiv gestalten, wenn wir zusammenarbeiten. Dieser Bericht hilft uns genau dabei – er bringt Experten aus der ganzen Welt zusammen, um sicherzustellen, dass wir über eine solide wissenschaftliche Evidenzbasis verfügen, um heute die richtigen Entscheidungen zu treffen, die die Grundlage für eine bessere und sicherere Zukunft bilden.”

Ashwini Vaishnaw – Minister für Eisenbahnwesen, Information und Rundfunk sowie Elektronik und Informationstechnologie der indischen Regierung – sagte:

„Da KI-Systeme immer leistungsfähiger werden, bleiben Sicherheit und Schutz weiterhin wichtige Prioritäten.  Der Bericht hebt praktische Ansätze für Modellbewertungen, Schwellenwerte für gefährliche Fähigkeiten und „Wenn-dann”-Sicherheitsverpflichtungen hervor, um schwerwiegende Ausfälle zu reduzieren.  Unsere globalen Risikomanagement-Rahmenwerke sind noch unausgereift, mit begrenzten quantitativen Benchmarks und erheblichen Evidenzlücken.  Diese Lücken müssen parallel zu Innovationen geschlossen werden.  Für Indien und den globalen Süden ist die Sicherheit von KI eng mit Inklusion, Sicherheit und institutioneller Bereitschaft verbunden.  Eine verantwortungsvolle Offenheit von KI-Modellen, ein fairer Zugang zu Rechenleistung und Daten sowie internationale Zusammenarbeit sind ebenfalls von entscheidender Bedeutung.  Als Gastgeber des India AI Impact Summit 2026 spielt Indien eine Schlüsselrolle bei der Gestaltung globaler Bemühungen um KI-Sicherheit.  Der Bericht soll politischen Entscheidungsträgern, Forschern, der Industrie und der Zivilgesellschaft dabei helfen, nationale Strategien zu entwickeln.”

Informationen zum Internationalen KI-Sicherheitsbericht

Der International AI Safety Report ist eine Zusammenfassung der Erkenntnisse über die Fähigkeiten und Risiken fortschrittlicher KI-Systeme. Er soll weltweit eine fundierte Politikgestaltung unterstützen, indem er Entscheidungsträgern eine Evidenzbasis liefert. Der Bericht unter dem Vorsitz von Prof. Yoshua Bengio wurde von einer vielfältigen Gruppe von über 100 unabhängigen Experten verfasst und wird von einem Expertenbeirat unterstützt, der sich aus nominierten Vertretern aus über 30 Ländern und internationalen Organisationen wie der EU, der OECD und den Vereinten Nationen zusammensetzt. Der Bericht erkennt zwar die immensen potenziellen Vorteile der KI an, konzentriert sich aber auf die Ermittlung von Risiken sowie die Bewertung von Strategien zur Risikominderung, um sicherzustellen, dass die KI zum Nutzen aller sicher entwickelt und eingesetzt wird. Der Bericht wurde von der britischen Regierung in Auftrag gegeben, wobei sich das Sekretariat im britischen AI Security Institute befindet, um operative Unterstützung zu leisten.

Aktualisierung: Diese Version der Mitteilung enthält einen verankerten Link im ersten Absatz (mit den Worten ‘2026 International AI Safety Report’) und ein zusätzliches Zitat am Ende der Mitteilung.


Go to Source