Digital Security and the Disruptive Nature of Artificial Intelligence

Datum/Ort

Donnerstag 30.11.2023, 11:00 Uhr, Raum 02.70.0.10


Zoom Meeting

Beitreten Zoom Meeting: https://uni-potsdam.zoom.us/j/68659870648
Meeting-ID: 686 5987 0648
Kenncode: 67729639


Referent

Prof. Dr. Joachim Posegga, Universität Passau


Prof. Dr. Joachim Posegga ist Inhaber des Lehrstuhls für IT-Sicherheit an der Universität Passau. Er promovierte am KIT und arbeitete zehn Jahre in der Industrieforschung im Bereich Sicherheit, bevor er an die Universität Hamburg berufen wurde, um den Arbeitsbereich Sicherheit in Verteilten Systemen des Departments für Informatik zu leiten. 2009 wechselte er nach Passau und übernahm die Leitung des Instituts für IT-Sicherheit und Sicherheitsrecht (ISL). Seine Forschungsschwerpunkte sind Web-Security, Sicherheitsarchitekturen und -Protokolle mit einem Schwerpunkt auf dem Internet der Dinge.


Zusammenfassung

Artificial Intelligence has a rich scientific history spanning over five decades. Recent breakthroughs in generative AI, driven by Large Language Models (LLMs), surprised the general public with astonishing. Applications that demonstrate near-human performance and are believed to reshape not only the digital economy but society at large.


This presentation delves into a security-centric analysis of Machine Learning systems, particularly focusing on Generative AI like ChatGPT. We explore both the threats posed to these systems and the potential threats that emanate from their deployment. Additionally, we examine the utilization of such systems in security applications, highlighting our recent work on BGP traffic prediction as a practical example.


The discussion extends to the transformative impact of Generative AI on building secure and reliable systems. By introducing novel attack vectors, these systems present significant challenges to the ongoing digital evolution of our societies. We contend that the properties inherent in these systems demand urgent attention to ensure security and reliability, emphasizing the potential for disruption unless research in these domains keeps pace with the real-world deployment of AI components. As we stand at the crossroads of AI-driven transformation, understanding and addressing the security implications are paramount to realizing the full potential of this technology.

Vier Jahre IT-Sicherheitsgesetz - was wurde erreicht, wo wird die Reise hingehen?

Datum/Ort

Mittwoch 10.07.2019, 10:00 Uhr, Raum 03.06.H01


Referent

Wilhelm Dolle, KPMG CERT GmbH


Wilhelm Dolle arbeitet als Partner der KPMG AG Wirtschaftsprüfungsgesellschaft im Bereich Cyber Security und ist Geschäftsführer der KPMG CERT GmbH. Er verfügt über mehr als 25 Jahre Berufserfahrung und ist Experte sowohl für technische als auch organisatorische Aspekte der Informationssicherheit. Dazu gehören etwa Risiko- und Sicherheitsanalysen, der Aufbau von Informationssicherheitsmanagementsystemen bis zur Zertifizierungsreife, aber auch Themen wie Penetrationstests und Sicherheit von Industrieanlagen. Wilhelm Dolle beschäftigt sich ebenfalls intensiv mit regulatorischen Anforderungen an die Informationssicherheit und das IT-Risikomanagement. Er hat einige Studien zum IT-Sicherheitsgesetz und zur Sicherheit in kritischen Infrastrukturen verfasst, ist Autor eines Buches, zahlreicher Artikel in Fachzeitschriften und hat Lehraufträge an verschiedenen Hochschulen inne.


Zusammenfassung

In Deutschland gibt es zahlreiche Institutionen und Einrichtungen, die grundlegende Versorgungsleistungen bereitstellen. Sie bilden so die Basis unseres täglichen Lebens und haben eine wichtige Bedeutung für das staatliche Gemeinwesen oder die öffentliche Sicherheit. Daher werden sie auch als kritische Infrastrukturen (KRITIS) bezeichnet. Die Stabilität kritischer Infrastrukturen wird zunehmend auch durch Cyber-Angriffe bedroht. Der Gesetzgeber hat mit dem im Juli 2015 in Kraft getretenen IT-Sicherheitsgesetz eine regulatorische Vorgabe für Informationssicherheit geschaffen, die zu einem höheren Sicherheitsniveau führen und Ausfällen somit vorbeugen soll. In 2016 und Ende Mai 2017 folgten Umsetzungsverordnungen die das Gesetz für die einzelnen Sektoren spezifiziert haben. Auf das Wichtigste reduziert kommen drei Verpflichtungen auf die Betreiber von KRITIS zu. Die erste ist eine Meldepflicht für alle Vorfälle an das Bundesamt für Sicherheit in der Informationstechnik (BSI). Dann müssen Mindestanforderungen an die IT-Sicherheit erfüllt werden. Beispielsweise muss ein Informationssicherheitsmanagementsystem (ISMS) implementiert, und in Technik und Organisation investiert werden. Der dritte und letzte Punkt sind regelmäßige Sicherheitsüberprüfungen und der Nachweis der Einhaltung der Forderungen aus dem Gesetz dem BSI gegenüber.


Der Vortrag beschreibt wie sich die Sicherheitslandschaft in Deutschland unter anderem durch das Gesetz verändert hat. Fokus soll hier die Sicherheit von Industrieanlagen im Bereich kritische Infrastrukturen sein. Zusätzlich soll beleuchtet werden in welche Richtung uns die Diskussionen um das IT-Sicherheitsgesetz 2.0 führen werden.

Distributed Denial of Service Attacken: Überflutung aus dem Netz

Datum/Ort

Freitag 05.07.2019, 10:00 Uhr, Raum 03.06.H01


Referent

Dr.-Ing. Ralf Gröper, DFN, Berlin


Dr.-Ing. Ralf Gröper arbeitet seit 2011 beim Deutschen Forschungsnetz (DFN) und ist dort verantwortlich für Informationssicherheits- und Trust & Identity-Dienste sowie stellvertretender Informationssicherheitsbeauftragter. Er hat an der Leibniz Universität Hannover Informatik studiert und anschließend über Vertrauensbeziehungen in verteilten heterogenen Authentisierungs- und Autorisierungsinfrastrukturen promoviert.


Zusammenfassung

Denial of Service (DoS) Attacken sind weit älter als das Internet. Im Grunde ist jede Sabotage eines technischen Systems ein DoS. Hierbei musste allerdings meist das System oder eine Komponente davon vor Ort physisch zerstört werden. Im Internet ist dies einfacher: Eine Störung kann durch das entfernte Ausnutzen einer Schwachstelle erfolgen, oder durch das Überfluten des Zielsystems mit unsinnigen Anfragen. Diese Überflutung lässt sich am einfachsten realisieren, wenn sehr viele verteilte Quellen gemeinsam angreifen. Dies ist dann ein volumenbasierter Distributed Denial of Service (DDoS)-Angriff. Im Vortrag werden zunächst unterschiedliche (D)DoS-Angriffsmuster beschrieben und anschließend geeignete Gegenmaßnahmen am Beispiel der Erfahrungen aus dem Betrieb des Deutschen Wissenschaftsnetzes vorgestellt.

Network security for service oriented EE architectures

Datum/Ort

Donnerstag 04.09.2018, 12:00 Uhr, Raum 03.04.0.02


Referent

Dr. Christian Meineck, Porsche AG, Stuttgart

Automotive Ethernet in an AUTOSAR environment

Datum/Ort

Donnerstag 04.09.2018, 11:00 Uhr, Raum 03.04.0.02


Referent

David Fessler, Vector Informatik GmbH, Stuttgart

Heterogeneous Parallel Architectures: Challenges and Solutions

Datum/Ort

Donnerstag 07.09.2017, 10:00 Uhr, Raum 03.04.1.02


Referent

Prof. Dr. Wolfgang Karl, KIT, Lehrstuhl für Rechnerarchitektur und Parallelverarbeitung


Zusammenfassung

Desktops, servers in the area of high performance computing and for commercial applications, and embedded systems are built up with multi- or many-core processor architectures. The spectrum for these processor architectures comprises homogeneous structures with a few complex cores or many quite simple cores on a chip as well as heterogeneous structures, especially in embedded systems. Exploiting the parallelism at all system levels as well as migrating compute intensive parts of a program on application specific accelerators are promising strategies towards high performance, low energy, and high dependability. However, the challenges in computer architecture are not only to provide high performance, energy-ware and dependable systems, but also to hide the complexity of such heterogeneous parallel systems from the user.


Approaches to address these challenges comprise new parallel programming models, methods and tools to support programmers to write efficient parallel programs, and adaptation and virtualization techniques to hide hardware details while efficiently exploiting the resources. In the talk, we concentrate on virtualization and adaptation.

Das IT-Sicherheitsgesetz in der praktischen Umsetzung

Datum/Ort

Freitag 21.07.2017, 10:15 Uhr, Raum 03.04.0.02


Referent

Wilhelm Dolle, KPMG


Wilhelm Dolle arbeitet als Partner der KPMG AG Wirtschaftsprüfungsgesellschaft im Bereich Cyber Security. Er verfügt über mehr als 20 Jahre Berufserfahrung und ist Experte sowohl für technische als auch organisatorische Aspekte der Informationssicherheit. Dazu gehören etwa Risiko- und Sicherheitsanalysen, der Aufbau von Informationssicherheitsmanagementsystemen bis zur Zertifizierungsreife, aber auch Themen wie Penetrationstests und digitale Forensik. Wilhelm Dolle beschäftig ebenfalls intensiv mit regulatorischen Anforderungen an die Informationssicherheit und das IT-Risikomanagement. Er hat einige Studien zum IT-Sicherheitsgesetz und zur Sicherheit in kritischen Infrastrukturen verfasst, ist Autor eines Buches, zahlreicher Artikel in Fachzeitschriften und hat Lehraufträge an verschiedenen Hochschulen inne.


Zusammenfassung

In Deutschland gibt es zahlreiche Institutionen und Einrichtungen, die grundlegende Versorgungsleistungen bereitstellen. Sie bilden so die Basis unseres täglichen Lebens und haben eine wichtige Bedeutung für das staatliche Gemeinwesen oder die öffentliche Sicherheit. Daher werden sie auch als kritische Infrastrukturen (KRITIS) bezeichnet. Die Stabilität kritischer Infrastrukturen wird zunehmend auch durch Cyber-Angriffe bedroht. Der Gesetzgeber hat mit dem im Juli 2015 in Kraft getretenen IT-Sicherheitsgesetz eine regulatorische Vorgabe für Informationssicherheit geschaffen, die zu einem höheren Sicherheitsniveau führen und Ausfällen somit vorbeugen soll. In 2016 und Ende Mai 2017 folgten Umsetzungsverordnungen die das Gesetz für die einzelnen Sektoren spezifiziert haben. Auf das Wichtigste reduziert kommen drei Verpflichtungen auf die Betreiber von KRITIS zu. Die erste ist eine Meldepflicht für alle Vorfälle an das Bundesamt für Sicherheit in der Informationstechnik (BSI). Dann müssen Mindestanforderungen an die IT-Sicherheit erfüllt werden. Beispielsweise muss ein Informationssicherheitsmanagementsystem (ISMS) implementiert, und in Technik und Organisation investiert werden. Der dritte und letzte Punkt sind regelmäßige Sicherheitsüberprüfungen und der Nachweis der Einhaltung der Forderungen aus dem Gesetz dem BSI gegenüber.


Der Vortrag beschreibt eine schlanke und pragmatische Umsetzung der Anforderungen und wie uns dies in der aktuellen Gefährdungslage helfen kann.

Cost-Efficient Execution of Taskgraphs on Heterogeneous Distributed Platforms

Datum/Ort

Mittwoch 28.02.2017, 10:00 Uhr, Raum 03.04.1.02


Referent

Prof. Dr. Jörg Keller, FernUniversität in Hagen


Zusammenfassung

Taskgraphs are a model for a wide range of parallel applications, and taskgraph scheduling has been researched since decades. While processor speed has first been considered constant, and makespan, i.e. execution time, was minimized, the advent of processor frequency scaling has enabled to influence execution speed and lead to research on respecting a given deadline with minimum energy consumption.
Further research refined energy minimization for heterogeneity: here different processors of a system can have different speed ranges and power profiles, and the power and relative speed may depend on the particular task as well. We present the results of an investigation into which parameters strongly influence power consumption and effective processing speed in heterogeneous systems, which lead to a static task scheduler for heterogeneous ARM processors.
In the future, energy supply will more often depend on renewable energy, and thus energy cost in a spatially distributed computing platform will depend on space and time, i.e. be heterogeneous as well.
Consequently, cost will be a better indicator than energy itself. We present first preliminary results about heuristics for static scheduling of taskgraphs in such a system.

Das Taktile Internet: Echtzeitfähigkeit und die kleine Lichtgeschwindigkeit

Datum/Ort

Mittwoch 07.12.2016, 13:30 Uhr, Raum 03.06.S14


Referent

Prof. Dr.-Ing. Rolf Krämer, IHP


Prof. Dr.-Ing. Rolf Krämer erhielt sein Diplom und den Doktortitel von der RWTH Aachen in Elektrotechnik 1979 und 1985. Das Thema seiner Diplomarbeit lautete: "Portability Aspects of System Software". 1985 wechselte er zu den Philips Research Laboratories, wo er bis 1998 in Hamburg und Aachen an verteilten Systemen, Kommunikationssystemen, drahtloser Hochgeschwindigkeitskommunikation und eingebetteter Steuerungs- und Managementsoftware in verschiedenen Positionen und Zuständigkeiten arbeitete.


1998 wurde er Professor an der Technischen Universität Cottbus, mit der Berufung als Abteilungsleiters für drahtlose Systeme des IHP in Frankfurt (Oder). Seine Forschungsinteressen liegen im Bereich der Ultra-High-Speed Wireless System sowie Ultra-Low-Power Wireless Kommunikation. Am IHP leitet er eine Forschungsabteilung mit mehr als 50 Forschern zu Themen schnellster drahtloser Kommunikation, Sensornetze und Middleware-Systeme sowie zuverlässiger Systeme. Im Jahr 2012 erhielt er das DFG-Schwerpunktprogramm "Wireless 100 Gb / s und darüber hinaus" und wurde zum Referenten des Programms ernannt. Prof. Krämer ist Gründer von 2 Start-up Unternehmen.


Zusammenfassung

Das Internet ist in den letzten Jahren zum verbindenden Medium aller Kommunikationseinrichtungen geworden. Durch seine Universalität und Omnipräsenz ist es für die Digitalisierung nahezu aller Systeme unabdingbar geworden. Im Bereich der Industrieautomatisierung, der medizinischen Notfallhilfe, dem autonomen Fahren und einer Vielzahl anderer Anwendungen hat das Internet in der heutigen Form aber massive Schwächen.

  1. Es unterstützt keine Echtzeitfähigkeit
  2. Die Latenzzeiten durch das Netz sind sehr groß und sehr variabel

Das taktile Internet soll dieses Problem lösen und die Möglichkeit einer harten Echtzeitfähigkeit eröffnen. Dabei sind Latenzzeiten von <1ms in vielen Bereichen absolut notwendig.


Im Vortrag werden Ideen zum taktilen Internet dargestellt und insbesondere auch auf die großen Herausforderung eingegangen. Dabei stellt sich heraus, dass die Lichtgeschwindigkeit hier harte Grenzen setzt die völlig neue Architekturkonzepte erfordern.

A parallel simulator of quench for superconducting solenoids

Datum/Ort

Dienstag 16.10.2015, 10:15 Uhr, Raum 03.04.0.02


Referent

Giuseppe Ciaccio, University of Genua


Zusammenfassung

A superconducting magnet is an electromagnet made from windings of a multimaterial cable containing a superconducting wire at its core. When cooled to cryogenic temperature, the wire reaches the superconducting state and thus can conduct much larger electric currents than ordinary wire, creating intense magnetic fields without dissipating heat in the windings. Superconducting magnets are used in MRI machines in hospitals, and in scientific equipment such as NMR spectrometers, mass spectrometers and particle accelerators. In the simplest implementations, the windings take the shape of a classical solenoid. During regular service, a superconducting magnet may under go a phenomenon called "quench". Due to an electric malfunction or mechanical stress or other reasons, a sudden transition from superconducting state to resistive state may occur in one or more regions of the wire. When this happens, the electromagnet starts dissipating its energy as heat in the resistive regions; if the cooling system is not properly dimensioned, such heat may trigger a transition to resistive state in other regions of the windings, so that more and more energy will be dissipated as heat, in a chain reaction that may ultimately lead to a catastrophic failure of the device. A computer simulator of the whole magnet, able to reproduce a quench phenomenon in the space and time domains, would be very useful in the design stage, for properly dimensioning the various safety devices. The available simulators, however, use a very approximated model of the cable and thus may provide inaccurate results; moreover they have long execution time, do not run in parallel, and cannot be customized due to lack of source code. For these reasons we have started developing a new simulator from scratch. We have modelled the device as a set of non-linear parabolic partial differential equations (PDEs) with piecewise continuous coefficients, where local linearization is performed in the discretization phase. For the solver, we have tried two well known finite difference discretization methods, namely, implicit Euler and Crank-Nicolson, solving the arising linear systems of equations with a simple parallel Jacobi method as a first attempt. From our preliminary results, implicit Euler emerges as substantially more efficient than the theoretically more precise Crank-Nicolson method, without incurring in a significantly higher discretization error. On an Infiniband cluster of Intel x86/64 dual-CPU nodes with 8 cores per CPU, the resolution shows a good speedup up to all the 40 cores made available to our tests, demonstrating the feasibility of the parallel approach.

Energy-Efficient Architectures and Algorithms for High Efficiency Video Coding

Datum/Ort

Dienstag 13.10.2015, 10:00 Uhr, Raum 03.04.1.02


Referent

M. Shafique, KIT


Zusammenfassung

The next-generation High Efficiency Video Coding (HEVC) standard provides double compression compared to the state-of-the-art H.264/AVC standard. However, this comes at the cost of tremendous power/performance overhead, which is primarily dominated by an increased number of computations and memory accesses due to the new Coding and Prediction Unit structures. This requires novel design methods and low power techniques at architecture and algorithm level, while also targeting on-chip video memories to cope with this increased memory pressure.
This talk provides a comprehensive analysis of the computational complexity, power consumption, temperature, and memory access behavior for the next-generation High Efficiency Video Coding (HEVC) standard. I will highlight the associated design challenges and present several low-power algorithmic and architectural techniques for developing power-/energy-efficient HEVC-based advanced multimedia systems. This work explores the interplay between the algorithms and architectures to provide high power efficiency while leveraging the application-specific knowledge and video content characteristics. Towards the end, this talk will provide a quick overview of other relevant research projects of my group followed by some highlights on my future research plans and teaching aspects.

Hackern auf der Spur - Aus dem Alltag von Sicherheitsberatern und Forensikern

Datum/Ort

Freitag 10.07.2015, 10:15 Uhr, Raum 03.06.H01


Referent

Wilhelm Dolle, KPMG


Wilhelm Dolle verantwortet als Partner der KPMG den Bereich Security Consulting. Er verfügt über mehr als 20 Jahre Berufserfahrung und ist Experte sowohl für technische als auch organisatorische Aspekte der Informationssicherheit. Dazu gehören etwa Risiko- und Sicherheitsanalysen, der Aufbau von Informationssicherheitsmanagementsystemen bis zur Zertifizierungsreife, aber auch Themen wie Penetrationstests und digitale Forensik. Wilhelm Dolle beschäftig ebenfalls intensiv mit regulatorischen Anforderungen an die Informationssicherheit und das IT-Risikomanagement. Er hat einige Studien zum IT-Sicherheitsgesetz und zur Sicherheit in kritischen Infrastrukturen verfasst, ist Autor zahlreicher Artikel in Fachzeitschriften und hat Lehraufträge an verschiedenen Hochschulen inne.


Zusammenfassung

  • Bedrohungslage anhand der eCrime-Studie 2015
  • Regulatorische Anforderungen aus dem IT-Sicherheitsgesetz
  • Herausforderungen durch Advanced Persistent Threats (APT)
  • Fallstudien aus der Praxis
  • Fazit und Ausblick

Umgehung von Firewalls, IDS und Virenscannern in der Praxis

Datum/Ort

Freitag 19.06.2015, 10:15 Uhr, Raum 03.06.H01


Referent

Steffen Ullrich, genua mbh


Steffen Ullrich arbeitet seit 2001 bei genua an der Entwicklung von Hochsicherheitsfirewalls. Seit 2011 ist er primär in der Forschung tätig und beschäftigt sich dort mit der Erkennung von Gefahren im Web 2.0 und neuen Techniken zur Abwehr gezielter Angriffe. Damit einher geht die Beschäftigung mit den inherenten Schwächen der aktuellen Sicherheitslösungen.


Zusammenfassung

Der Vortrag gibt einen Überblick über verschiedene Technologien zur Untersuchung von Inhalten auf Schadcode und zeigt die theoretischen und praktischen Limitierungen dieser Methoden. Exemplarisch wird gezeigt, mit welchen einfachen Tricks existente Sicherheitssysteme umgangen werden können. Der Fokus liegt dabei auf dem Ausnutzen der unterschiedlichen Interpretation der Daten in Schutz- und Zielsystem.

Leistungseffiziente Server-Nutzung

Datum/Ort

Freitag 09.08.2013, 13:00 Uhr, Raum 03.04.1.02


Referent

Jörg Lenhardt, FernUniversität in Hagen


Zusammenfassung

Moderne Rechenzentren beherbergen eine Vielzahl von Servern verschiedener Leistungsfähigkeit. Begründet ist dies im Wesentlichen durch die unterschiedlichen Zeitpunkte von Neuanschaffungen leistungsfähiger Hardware und des Austauschs defekter oder veralteter Computersysteme. Insgesamt handelt es sich sowohl bezogen auf die Rechenleistung als auch auf die Methoden der Leistungs- bzw. Energie-Einsparungs-Mechanismen um eine äußerst heterogene Umgebung. Aus dem Blickwinkel der Energie-Effizienz gesehen, stellt sich die Frage, wie eine momentane Rechenlast (Operationen pro Zeiteinheit) so auf die Ressourcen verteilt werden kann, dass die elektrische Leistungsaufnahme minimiert wird. Eine Minimierung der elektrischen Leistungsaufnahme ist natürlich nur dann möglich, wenn die Rechenlast kleiner als die verfügbare maximale Rechenleistung ist. Auf diese Weise wird über einen Zeitraum hinweg eine Energieeinsparung möglich. Im Vortrag werden mittelfristige Verteilungsstrategien betrachtet, bei denen der Zusatzaufwand für die Migration von Anwendungen und das Ab- und Anschalten von Serversystemen in Bezug auf den Energiebedarf vernachlässigbar ist. Es wird eine von uns entwickelte Strategie vorgestellt, welche eine vorgegebene Rechenlast so verteilt, dass die elektrische Leistungsaufnahme des heterogenen Zielsystems minimiert wird. Dabei werden Leistungsmessungen realer Serversysteme mit Hilfe des SPECpower_ssj2008 Benchmarks zugrunde gelegt. Anhand der Ergebnisse verschiedener Szenarien werden die Stärken und Schwächen des Verfahrens diskutiert.

Transparenter Zugriff auf Heterogene Architekturen für Stencil-Applikationen im Embedded und HPC-Umfeld

Datum/Ort

Dienstag 09.07.2013, 16:15 Uhr, Raum 03.06.S12


Referent

Prof. Dietmar Fey, Friedrich-Alexander-Universität Erlangen-Nürnberg


Zusammenfassung

Viele Berechnungen aus dem Bereich des wissenschaftlichen Rechnens basieren auf sog. Stencil-Algorithmen. Bekannte Bespiele sind u.a. die Lösung von Partiellen Differentialgleichungen mit der Methode der Finiten Differenzen oder auch die Vielzahl an Operatoren aus der Bildverarbeitung, z.B. zur Auswertung von CT-Daten, welche als Stencils formulierbar sind. Kennzeichen dieser Algorithmen ist die Daten-parallele Berechnung von Gitterpunkten in ein- oder mehr-dimensionalen Gitterstrukturen. In aufeinanderfolgenden diskreten Zeitschritten werden für alle Gitterpunkte neue Zustände berechnet, die vom Zustand des Gitterpunktes selbst und den Zuständen direkter Nachbarpunkte im unmittelbar vorherigen diskreten Zeitschritt abhängen. Da man häufig großen Datenmengen in sehr kurzer Zeit bearbeiten möchte, sind Parallelisierungen notwendig, für die im Bereich des High Performance Computing (HPC) GPUs, vereinzelt FPGAs, im Bereich der Embedded Anwendungen zumeist FPGAs als Hardware-Beschleuniger neben einer CPU in einer heterogenen Architektur eingesetzt werden. Eine effiziente Implementierung von Stencil-Algorithmen hängt entscheidend von der Optimierung der Speicherzugriffe ab, da Stencil-Algorithmen in der Regel Speicherbandbreiten-limitiert sind. Um die komplizierte und zeitraubende Implementierung für den Programmierer transparent zu gestalten, sind sowohl für das HPC-Umfeld als auch für die Embedded Domäne zahlreiche Frameworks, Bibliotheken, Domänen-spezifische Compiler, z.T. kombiniert mit Autotuning-Optimierungen, entstanden. Im Vortrag werden sowohl aus der Literatur bekannte als auch an der FAU erzielte Ergebnisse zur Automatisierung von Stencil-Applikationen vorgestellt. Zu den eigenen Arbeiten zählen die Bibliothek LibGeoDecomp (Library for Geometric Decomposition Codes) für das HPC-Umfeld und VHDL-Templates für die Embedded Domäne. LibGeoDecomp unterstützt Computersimulationen von Stencil-Codes bis hin zu N-Body-Codes. Die Bibliothek übernimmt die Parallelisierung des Programms, der Nutzer kann sich so auf sein Simulationsmodell konzentrieren. Über Plug-ins kann die Bibliothek auf verschiedenste Hardwareplattformen portiert werden. Sie skaliert von Smart Phones bis hin zu mit Grafikkarten bestückten Supercomputern. VHDL-Templates berücksichtigen explizit die Bandbreiten-Limitierung von FPGA-Bausteinen, der durch Aufrollen der äußeren Schleife eines Stencil-Algorithmus und geeigneten Speicherpufferungen entgegengewirkt wird.

[PDF]

Computer Forensik in Theorie und Praxis

Datum/Ort

Freitag 05.07.2013, 12:15 Uhr, Raum 03.06.H01


Referent

Wilhelm Dolle

Aufbau und Funktion von Hochsicherheits-Firewalls

Datum/Ort

Donnerstag 27.06.2013, 12:15 Uhr, Raum 03.06.H01


Referent

Dipl.-Inf. Alexander von Gernler, Technischer Botschafter, genua mbh


Alexander von Gernler ist seit 2005 Mitarbeiter der genua mbh in Kirchheim bei München. Bei dem Firewallhersteller im Hochsicherheits- bereich war er zunächst als Software-Entwickler und später als Scrum-Master tätig. Inzwischen ist er stellvertretender Leiter der Gruppe "Forschung und Entwicklung" und dadurch ständig auf der Suche nach den Firewall-relevanten Themen für morgen. Er betreut die zahlreichen geförderten Forschungsprojekte der Firma und ist immer auf der Suche nach neuen interessanten Kooperationen und Kontakten.


Als Technischer Botschafter hält er Kontakt zu Universitiäten, Hochschulen und Forschungseinrichtungen und kümmert sich so um die Vernetzung der Firma genua im akademischen Umfeld. Unter anderem vermittelt er auch Themen für praxisnahe und technisch anspruchsvolle Bachelor- und Masterarbeiten im Hochsicherheitsumfeld.


Zusammenfassung

In diesem Gastvortrag wird am Beispiel einer real existierenden zweistufigen Firewall die Architektur und Wirkungsweise einer solchen Appliance im Hochsicherheitsumfeld vorgestellt. Es werden beispielhaft verschiedene Komponenten wie minimalistisches Betriebssystem, rekursiver Virenscanner oder Application Level Proxies sowie Ihr Einfluss auf das Gesamtsystem diskutiert. Der Zusammenhang zwischen eingesetzten Methoden der Softwaretechnik wie Peer Review, Test Driven Development oder Continuous Integration auf die Qualität des Entwicklungsprozesses wird beleuchtet. Kurze Ausblicke auf spezielle Einsatzszenarien, Zertifizierung, Vernetzung mit der OpenSource-Szene und die Pläne für die Zukunft runden den Vortrag ab.

[PDF]

Big Data: Anwendungsfelder in der Wissenschaft und Technologien

Datum/Ort

Donnerstag 20.06.2013, 16:15 Uhr, GFZ A69, Raum Z01


Referent

Dr. André Luckow, BMW Group


Zusammenfassung

Die Menge an Daten, die weltweit anfallen und verarbeitet werden, steigt ständig an. Ein Grund ist die allgegenwertige Verfügbarkeit von Sensoren, z.B. in mobilen Geräten, Maschinen, usw., die das umfangreiche Sammeln von Daten ermöglichen. Nach einer aktuellen Studie des IDC wurden im Jahr 2012 rund 2.2 Zetabyte digitale Daten erstellt, abgerufen oder repliziert; dazu zählen Texte, Bilder, Videos, Aufnahmen von Überwachungskameras, Lokationsdaten, usw. Der größte Teil dieser Daten wird dabei von Maschinen, z.B. mobilen Geräten, Flugzeugen, Fahrzeugen, Industrie-Robotern, erzeugt. Insbesondere in verschiedenen Wissenschaftsdisziplinen werden immense Datenmengen erzeugt: so generieren die Detektoren des Large Hydron Colliders am CERN rund 1 PB Daten am Tag; eine moderne Genome Sequenzierungsmaschine kann 1 TB/ Daten pro Tag erzeugen. Das Datenwachstum wird in naher Zukunft weiter zunehmen. Die Bewältigung dieser Datenflut ist mit verschiedenen infrastrukturellen Herausforderungen verbunden: so müssen neben dem Storage, Datentransfers, Datenreplikationen effizient durchgeführt werden; ein gutes Daten/Compute Co-Placement ist die Voraussetzung für die optimale Verarbeitung der Daten.
Cloud-Anbieter, wie Google und Amazon besitzen mittlerweile große, verteilte Infrastrukturen für die Verarbeitung von den durch ihre Diensten generierten Daten. Einen Teil der Infrastruktur wird auch externen Nutzern als Cloud-Dienst zur Verfügung gestellt. Infrastrukturen, wie EGI/Prace in Europa oder XSEDE in den USA, bieten immense Compute und Daten- Ressourcen für wissenschaftliche Anwendungen. Klassisch stand der Aspekt Compute im Mittelpunkt von solchen High Performance Infrastrukturen. Technologien aus dem Cluster und Grid Computing beschäftigten sich primär mit der Ausführung von Anwendungen in Rechnerverbänden, so genannten Cluster, sowie in hoch-verteilten Rechen-Grids. Daten-Handling Aspekte (Dateitransfers, File I/O) wurden in der Regel dem Compute Aspekt untergeordnet. Die Auswertung von Daten spielt aber zunehmend eine wichtigere Rolle - der Anteil an daten-intensiven Anwendungen steigt unaufhaltsam.
Big Data beschreibt den aktuellen Trend und Hype um Technologien die den Umgang mit großen Datenmengen ermöglichen. Ein Beispiel für eine solche Technologie ist Hadoop, ein Framework welches auf dem MapReduce Programmiermodell aufbaut und die effiziente Ausführung von datenintensiven Anwendungen in einem Cluster erlaubt. Im Rahmen dieses Vortrages werden verschiedene Anwendungsfelder sowie Technologien für den Umgang mit Big Data vorgestellt.

[PDF]

Uncertainty and sensitivity analysis of model output: Methods and tools

Datum/Ort

Dienstag 18.06.2013, 10:15 Uhr, Raum 03.04.1.02


Referent

Michael Flechsig, PIK Potsdam


Zusammenfassung

The lecture gives an overview on techniques and tools to deal with uncertainty matters in simulation models and to study sensitivity of model output with respect to uncertainty in model input. Modellers and/or analysts in all research disciplines and in engineering are often confronted with uncertainty matters when designing and/or using simulation models. The notion of uncertainty relates to the system that is mapped by the model or to the mapping process / the model itself. Special sampling techniques in multi-dimensional simulation model parameter spaces have been developed during the last decades to tackle the problem for nonlinear models. They enable assurance of model quality standards from a system's theoretical and statistical point of view. First insights into such techniques, their classification and the model requirements are presented as well as simulation environments that focus on uncertainty and sensitivity issues.

Warnsysteme - von der Sensor-Integration zum System-of-Systems

Datum/Ort

Dienstag 15.01.2013, 16:00 Uhr , Raum 03.04.1.02


Referent

Prof. Joachim Wächter, GFZ Potsdam


Zusammenfassung

Das Tsunami-Desaster Dezember 2004 im Indischen Ozean hat intensive internationale Anstrengungen initiiert, um die Risiken von geologischen Katastrophen zu reduzieren. Dazu gehört auch die Entwicklung von Krisen-Informationssystemen. Diese Systeme zeigen in ihrer Funktionalität und Architektur eine signifikante Weiterentwicklung. Ein Schwerpunkte ist dabei die Integration von Sensorsystemen, Simulationskomponenten und anderen Ressourcen in standardisierte Service-Plattformen. Auf dieser Basis können relevante Prozesse, wie Erdbebenaktivität oder Veränderungen des Meeresspiegels beobachtet und Gefahren erkannt werden. Prognostische Simulationen liefern dann die Grundlagen, um die lokalen Auswirkungen von Ereignissen auf bestimmte Regionen zu analysieren und gezielt Warnmeldungen über verfügbare Disseminationskanäle an definierte Zielgruppen zu versenden. Die Wirksamkeit von nationalen Warnsystemen ist immer stärker von ihrer Integration in internationale Warninfrastrukturen abhängig. Hier arbeiten Warnzentren als System-of-Systems zusammen. Aktivitäten und Reaktionen werden über den Austausch von Messages zwischen den Systemen synchronisiert und gesteuert.

[PDF]

Self-Learning Systems for Network Intrusion Detection

Datum/Ort

Donnerstag 13.12.2012, 14:00 Uhr, Raum 03.06.S12


Referent

Prof. Dr. Konrad Rieck, Georg-August-Universität Göttingen


Zusammenfassung

Computer systems linked to the Internet regularly fall victim to network attacks. Classic security tools, such as intrusion detection systems, have a hard time fending off this threat, as they rely on manually generated detection patterns which are often not available for novel attacks. In this talk, we present intrusion detection systems that build on concepts from machine learning and are capable of identifying novel and unknown attacks automatically. We discuss the inner workings of these systems and present two prototypes that spot attacks in inbound and outbound HTTP communication with high effectivity and efficiency.

[PDF]

Understanding Modern Security Threats: Insights into Current Attack Vectors

Datum/Ort

Freitag 30.11.2012, 10:15 Uhr, Raum 03.06.S14


Referent

Prof. Dr. Thorsten Holz, Ruhr-Universität Bochum


Zusammenfassung

We have witnessed an increasing professionalism in attack vectors over the last couple of years; the attacks on Google and other organizations (known as Operation Aurora) or Stuxnet are just a few examples of the multitude of attacks we face today. In this presentation, we will provide an overview of some of the most interesting attacks observed in the recent past. The main focus of the presentation will be on spam botnets (i.e., networks of compromised machines under the control of an attacker) and we present some analysis results and countermeasures for this threat. The talk will conclude with an outline of research challenges and topics for future work in this area.

[PDF]

Intrusion Detection in SCADA- und Web 2.0 Systemen

Datum/Ort

Donnerstag 01.11.2012, 14:00 Uhr, Raum 03.04.1.02


Referent

René Rietz und Andreas Paul, BTU Cottbus


Zusammenfassung

Der Lehrstuhl Rechnernetze und Kommunikationssysteme der BTU Cottbus stellt im Rahmen seiner IT-Sicherheitsforschung zu neuen Herausforderungen für die Intrusion Detection zwei aktuelle Projekte für den Schutz von Industrieanalagen/Energieleittechnik (SCADA) und das Web 2.0 vor.

Sensorbasierte Sturzerkennung und Prädiktion

Datum/Ort

Mittwoch 30.05.2012, 09:15 Uhr, Raum 03.06.S12


Referent

Dr. Mehmet Gövercin, Charite Universitätsmedizin Berlin


Zusammenfassung

Im Vortrag werden zunächst Stürze im Alter definiert und die Behandlung und die Folgen von Stürzen thematisiert. Daraus werden Ansätze für die technische Unterstützung von Sturzerkennung und Sturzvorhersage entwickelt und aktuelle Projekte vorgestellt.

Research Points on Devices Collaboration of "Internet of Things"

Datum/Ort

Donnerstag 12.03.2012, 09:30 Uhr, Raum 03.04.2.14


Referent

Dr. Jianghua Lü, Beihang University, Beijing, China


Zusammenfassung

"Internet of Things" connects all objects by radio frequency identification devices and other information sensing devices to the Internet to realize recognition and management intelligently. Device collaboration technology which is able to realize automatic collaboration of different devices has become the basic technology of the Internet of Things. However, due to the application in the environment of Internet of Things have the characteristic of large-scale, dynamic and high concurrency and so on, how to achieve effective collaboration and management in large-scale device has become an important research challenge, which mainly involves how to establish a collaboration model and how to implement the model. Thus some characteristics for a collaboration model including high-order collaboration, real-time and temporal features will be discussed, and so as some methods for implementing the model including real-time and paralleling schedules.

Internet of Things: Standards for IPv6 enabled Sensor Networks

Datum/Ort

Dienstag 03.04.2012, 14:00 Uhr, Raum 03.04.1.02


Referent

Prof. Jürgen Schönwälder, Associate Professor of Computer Science Jacobs University Bremen gGmbH


Zusammenfassung

Since 2006, the IETF is working on a set of standards for the Internet of Things. The work originally focused on running IPv6 over IEEE 802.15.4 radios and has since then grown into a much larger project involving several IETF working groups. The goal of the presentation is to provide an overview of these protocol development and standardization efforts. The discussion starts from the IEEE 802.15.4 physical and MAC layer, covers the IPv6 adaptation layer (6LoWPAN), the tree routing layer (RPL), and finally a contrained application protocol (CoAP). The presentation will also explore how more traditional protocols such as SNMP, mDNS or (D)TLS can be ported to constrained devices. A demo with some blinking LEDs will be provided for those who love to see some hard- and software in action.