Side-Event zu künstlicher Intelligenz und Cybersicherheit

Medienmitteilung, 19.06.2024

Die Schweizer Delegation hat gemeinsam mit der niederländischen Delegation ein Side-Event organisiert. Die diesjährige Veranstaltung stand ganz im Zeichen aktueller Entwicklungen in den Bereichen künstlicher Intelligenz und dem Cybersicherheit.

Diese Aufnahme zeigt die Podiumsteilnehmer während einer Diskussion.
Podiumsteilnehmerin des EDA für digitale Aussenpolitik, Katharina Frey Bossoni, und der niederländische Botschafter zur OSZE, Christophe Kamp, beim Side-Event über künstliche Intelligenz. ©OSZE/Ghada Hazim

Die Schweizer Delegation zur OSZE organisierte in Zusammenarbeit mit den Niederlanden ein Side-Event zu den Möglichkeiten und Risiken einer verstärkten Einbeziehung von künstlicher Intelligenz in die Cybersicherheit und trug so aktiv zur Weiterentwicklung der vertrauens- und sicherheitsbildenden Massnahmen im Cyber-Bereich bei. Diese Veranstaltung bot den Teilnehmerstaaten einen ersten Einblick in das viel diskutierte und oft missverstandene Thema der künstlichen Intelligenz (KI) am Rande der Informellen Arbeitsgruppe "Cyber" der OSZE.

Der erfolgreiche Side-Event zog 40 Delegationen an und ermöglichte eine interaktive Debatte mit kraftvollen Beiträgen der beiden Podiumsteilnehmer aus der Schweiz, Katharina Frey Bossoni vom Schweizer EDA und Mateo Rojas-Carulla, Chief Scientist und Mitbegründer von Lakera, sowie aus den Niederlanden, Dr. Roy Lindelauf, Professor für Datenwissenschaft an der niederländischen Verteidigungsakademie. Die Zusammenarbeit zwischen Hochschulen, Regierungen und dem Privatsektor ist entscheidend für die Entwicklung wirksamer Massnahmen und Regelungen, und die Schweiz fördert ein solches integratives Arbeitsklima in der OSZE.

Die Plattform ermöglichte es den Experten, die wachsende Bedeutung der KI und ihre potenziellen Gefahren zu erörtern, wie z.B. ihren möglichen Missbrauch für Fehlinformationskampagnen und Cyberangriffe, insbesondere auf anfällige Systeme wie intelligente Stromnetze. Grosse Sprachmodelle wie ChatGPT sind aufgrund ihrer Vielseitigkeit und einfachen Nutzung besonders besorgniserregend.  Die Sicherung dieser Modelle ist eine grosse Herausforderung, da böswillige Akteure sie mit leicht verfügbaren Daten ausnutzen können. Die Diskussion unterstrich die Notwendigkeit proaktiver Sicherheitsmassnahmen, klarer Vorschriften und internationaler Zusammenarbeit, um den sich entwickelnden Bedrohungen durch KI zu begegnen.