IT-SA Nürnberg 2025 – Messebericht
– Eindrücke und Highlights unserer Data Science Consultant Anugya Sahu–
Europas führende IT-Security-Messe im Fokus: neue Technologien, inspirierende Sessions und spannende Impulse rund um Cybersicherheit und KI.
Am 08. Oktober 2025 nahm unsere Data Science Consultant Anugya an der IT-SA Messe in Nürnberg teil – einer der bedeutendsten Plattformen für IT-Security in Europa. Zwischen spannenden Fachvorträgen, neuen Kontakten und inspirierenden Gesprächen sammelte sie wertvolle Einblicke in aktuelle Entwicklungen der Cybersicherheit und Zukunftsthemen rund um künstliche Intelligenz, Identitätsschutz und quantensichere Kommunikation.
Session 1: Die europäische Initiative für quantensichere Netzwerke
Inhalt
In diesem Vortrag wurde das Quantum Secure Networks Partnership (QSNP) vorgestellt – eine große europäische Initiative unter Horizon Europe, die Kommunikationssysteme gegen künftige Quantenbedrohungen absichern will. Beteiligt sind unter anderem Fraunhofer, Nokia Bell Labs, Telefónica, T-Mobile und viele weitere Partner.
Key Points
-
Fokus auf Quantum Key Distribution (QKD) und hybride Kryptographie
-
Integration von Quantenkommunikation in bestehende Netzwerke
-
200+ wissenschaftliche Publikationen & geplante Demonstration auf der ECOC 2025 in Kopenhagen
Session 2: Protect Digital Identities with Predictive AI – The Smart Way
Inhalt
One Identity präsentierte, wie künstliche Intelligenz die Verwaltung digitaler Identitäten smarter und sicherer macht. Mit der SmartFactor Authentication™, basierend auf Vigilance AI, werden Nutzerverhalten, Geräte und Kontext analysiert, um das Risiko eines Logins einzuschätzen.
Highlights
- KI bewertet Login-Risiken in Echtzeit
- MFA nur bei verdächtigen Aktivitäten
- Unterstützung passwortloser & biometrischer Logins
- Optimales Gleichgewicht zwischen Sicherheit und Benutzerfreundlichkeit
Session 3: Defending Against Adversarial AI and Deepfake Attacks
Inhalt
In dieser Session sprach Morey J. Haber, Chief Security Advisor bei BeyondTrust, über die wachsenden Gefahren durch Adversarial AI und Deepfakes – also künstlich erzeugte oder manipulierte Inhalte, die Täuschung und Social Engineering auf ein neues Level bringen.
Die Bedrohungslage
Cybersecurity hat sich weiterentwickelt: Neben klassischen Angriffen wie Schwachstellen Exploits oder Identitätsdiebstahl spielen nun Deepfakes und KI gesteuerte Angreifer eine zentrale Rolle. Diese Technologien verändern die Art, wie Malware erstellt, Sicherheitslücken ausgenutzt und Menschen manipuliert werden.
Deepfake Use Cases
-
Adversarial Input – Medieninhalte werden so verändert, dass KI Systeme sie falsch interpretieren (z. B. Bilder, die für Menschen unverändert aussehen, aber Sicherheitsmodelle austricksen).
-
Compromised Biometrics – Biometrische Daten wie Gesichtsscans, Fingerabdrücke oder Stimmprofile können digital gestohlen und missbraucht werden. Da sie nicht änderbar sind, besteht ein dauerhaftes Risiko.
Verteidigungsstrategien
- Multi Modal Verification – Kommunikation und Anfragen müssen über mehrere Kanäle (Audio, Video, Verhalten) überprüft werden. Auffälligkeiten im Ton, Kontext oder Verhalten sind Warnsignale.
- Limit Public Exposure – Reduzierung persönlicher Daten im Netz, insbesondere von Stimmen und Bildern. Metadaten sollten entfernt und Inhalte mit Wasserzeichen versehen werden, um Deepfake Training zu erschweren.
Wichtige Erkenntnisse
-
Vertrauen verschiebt sich von Geräteschutz zu Wahrnehmungsverifikation.
-
Defensive Trainings gegen KI basierte Täuschung müssen jetzt beginnen.
-
Sicherheit erfordert mehrschichtige Verteidigungssysteme aus Technologie, Richtlinien und menschlicher Wachsamkeit.
-
Identitätsüberwachung wird wichtiger, um Verhaltensänderungen bei möglichen Angriffen zu erkennen.
Session 4: Würden Sie Ihre KI Systeme heute schon als gehärtet bezeichnen?
Inhalt
Diese Session drehte sich um die Sicherheit von KI-Systemen – eines der aktuell größten Herausforderungen im IT-Sicherheitsbereich. F5 Networks zeigte, dass klassische Schutzmechanismen wie Firewalls oder Bot-Defense allein nicht ausreichen.
Lösungsansätze
-
AI Guardrails: Richtlinien für das Verhalten von KI-Systemen
-
AI Red Team: Testet Modelle aktiv auf Schwachstellen
-
ADSP-Plattform: Einheitliche Sicherheitsstandards für Modelle & APIs
Session 5: AI at the Frontline – Detecting and Disrupting Modern Scam Campaigns
Inhalt
Diese Session, präsentiert von Gen Digital und Avast, beleuchtete die zunehmende Komplexität moderner Betrugskampagnen und die Rolle von künstlicher Intelligenz bei deren Erkennung und Abwehr. Klassische Bedrohungen wie Malware bestehen fort, doch Scam- und Phishing-Angriffe machen heute den größten Anteil aus. Laut FTC-Daten stiegen die Verluste durch Online-Betrug 2024 auf 12 Milliarden US-Dollar – ein Plus von 25 % gegenüber 2023.
Der Mensch als Hauptziel
Betrüger greifen zunehmend psychologische Schwachstellen aus – etwa Vertrauen, Dringlichkeit oder Routine. Über soziale Medien, Online-Shops und Messaging-Dienste manipulieren sie Nutzer gezielt, um an sensible Daten zu gelangen.
KI als Schutzschild
Avast stellte den Scam Guardian vor – ein KI-basiertes System, das Sprache, Kontext und Verhalten in E-Mails analysiert, um verdächtige Muster zu erkennen. Ergänzt wird es durch den Email Guard, der täglich über zehn Millionen E-Mails überprüft und allein in drei Monaten 2,5 Millionen Betrugsnachrichten identifiziert hat.
Ergebnisse
-
Kombination aus künstlicher Intelligenz und Metadatenanalyse erkennt Scams frühzeitig und präzise.
-
Automatische Aktualisierungen halten Schutzsysteme aktuell – auch bei neuen Betrugsvarianten.
-
Aufklärung und Nutzerbewusstsein bleiben zentrale Säulen moderner Cybersicherheit.
Einblicke
Fazit
Anugya Sahu
Data Science Consultant
