Industrial Robot Security

DI Dr. Bernhard Dieber | 13.12.2016 | 14:00 Uhr | E.1.42

Kurzfassung

Die immer stärker werdende Vernetzung industrieller Systeme im Sinne der Industrie 4.0 erfordert neue Sicherheitsmaßnahmen für die eingesetzten industriellen Kontrollsysteme. Während bisher Airgaps als ausreichend empfunden wurden, werden in Zukunft IT-Security Prinzipien zum Einsatz kommen müssen. Dies ist aber in den langlebigen Industrieanlagen nicht einfach umsetzbar. Vor allem die kommende Generation an kollaborativen Robotern ist hier speziell verwundbar. In diesem Vortrag werden Probleme bei industrieller Security mit Fokus auf Robotersysteme aufgearbeitet sowie das populäre Software Framework ROS und seine Sicherheitsproblematiken näher betrachtet.

FotoBernhardDieberBernhard Dieber ist seit 2015 am Institut für Robotik und Mechatronik der JOANNEUM RESEARCH Forschungsgesellschaft mbH beschäftigt und leitet seit Juli 2016 die neu gegründete Forschungsgruppe „Robotik Systeme“. Bernhard Dieber verfügt über eine mehr als 10 jährige Erfahrung in den Bereichen Software Engineering, Sensor Networks und Smart Cameras. Die Forschungsinteressen von Dr. Dieber umfassen Software- und Systems-Engineering für robotische Systeme, Systemsicherheit und Sicherheits-Architekturen in Produktionssystemen und die Zuverlässigkeit von Robotersystemen. Arbeiten zu Themenstellungen in Bezug auf eingebettete, verteilte und Echtzeit-Systeme sowie Software-Qualität robotischer Software runden seine wissenschaftliche Tätigkeit anwendungsorientiert ab.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Industrial Robot Security

TEWI Colloquia in Information Systems, 24./25. November 2016

24. November 2016, Lakeside, Raum L 1.014

09:00-11.00, Martin Atzmüller

Title: Data Analytics in Social and Ubiquitous Knowledge Spaces

Abstract: In the age of digital transformation, information and data is becoming ubiquitous. Social Media, Web 2.0, mobile and ubiquitous computing, as well as Industry 4.0 and smart production enable diverse options for the analysis and mining of the emerging complex knowledge spaces. The talk presents according approaches and methods for comprehensive analytics of the respective information and knowledge processes.


11:00-13:00, Patrick Delfmann

Title: Comprehensible Predictive Models for Business Processes

Abstract: Predictive modeling approaches provide a way to analyze, plan, streamline, and control the structure and behavior of business processes. For instance, they can inform decision makers about undesirable events that are likely to happen in the future, giving the decision maker an opportunity to intervene. The talk introduces a new predictive modeling technique for business processes based on probabilistic finite automatons. Fitting such a probabilistic model to a data set of past behavior makes it possible to predict how currently running process instances will behave in the future. To clarify how this technique works and to facilitate its adoption, the talk also shows a way to visualize the probabilistic models. The effectiveness of the technique is assessed via an experimental evaluation with synthetic and real-world data. Finally, the talk reports on current applications of the technique in the areas of classic business process management, corporate communication and collaboration and the Internet of Things.


14:00-16:00, Alexander Felfernig

Title: Recommendation and Decision Technologies for Complex Products and Services

Abstract: Recommendation technologies are widely used for increasing the accessibility of large item assortments – application examples thereof are online platforms such as amazon.com or netflix.com. Although already widely used in industrial environments, there are still many challenges to be tackled to further increase the applicability of these technologies. Especially when providing recommenders for complex products and services such as financial services, electronic equipment, and software artefacts, understandability and manageability issues arise with regard to the underlying knowledge bases. In scenarios where groups of users are interacting with such systems, mechanisms have to be provided that assure fairness and consensus in the underlying decision process. Furthermore, knowledge about human decision making has to be taken into account when developing recommendation systems, for example, mechanisms have to be included that are able to counteract decision biases. Finally, recommendation technologies are not only used for recommending products and services but also act as key-enabling technologies for achieving persuasive goals. This talk will focus on a discussion of solutions that help to tackle the mentioned challenges and have already shown to be useful in industry. In this context, new research results in terms of algorithms and techniques will be presented. The talk will be concluded with an overview of major issues for future research.


16:00-18:00, Sabine Graf

Title: How to make educational information systems more adaptive, intelligent and personalized?

Abstract: Information systems are prevalent in our daily lives and research showed that making such systems more adaptive, intelligent and personalized by enabling them to automatically consider users’ current situations, characteristics and preferences and providing them with actionable information can make these systems more effective and easier to use. An important domain for such information systems is education. Although research showed that education works best when it is tailored to individual people’s needs, the information systems that are widely used by educational institutions (e.g., learning management systems such as Moodle) provide very limited to no personalization, adaptivity or intelligent support. Furthermore, while these systems typically gather and store huge amounts of data about how people use these systems, even with the advancements in data mining, business intelligence and decision support systems in recent years, in the educational sector, such data are rarely used to inform and benefit users (e.g., instructors, learners, etc.). This talk will discuss how educational information systems can be enhanced to provide adaptive recommendations, intelligent support and customized information to learners, instructors and educational institutions. More concretely, the talk will focus on how to detect and retrieve a variety of useful information from raw data as well as how to present such information to users, for example, through dashboards and visualizations, or in the form of adaptive interfaces, intelligent support and personalized recommendations, using techniques from different fields such as data mining, user modelling, data/knowledge analytics, recommender systems, decision support systems, business intelligence and others. Results and findings will be discussed, showing that such enhanced information systems allow to better support users such as learners, instructors and the administration of educational institutions. In addition, future research directions will be outlined, to continue addressing some of the prevalent challenges in blended and technology enhanced education, such as increasing learner performance, improving user satisfaction and providing the right information to the right person at the right time. Furthermore, potential opportunities to apply our research to other domains such as e-commerce, business, tourism, etc. will be discussed.


25. November 2016, Lakeside, Raum L 1.014

9:00-11.00, Christian Huemer

Title: Model-Driven ERP System Development

Abstract: In the discipline of accounting, the resource-event-agent (REA) ontology is a well accepted conceptual accounting framework to analyze the economic phenomena within and across enterprises. We used REA as a basis for developing a domain specific modeling language and corresponding tool support for ERP system development. Evidently, a model-driven approach requires transforming the REA-DSL artifacts to code. Thus, we developed the transformation of the REA-DSL to a relational database for an ERP system. This approach offers the advantage that a domain expert verifies the relevant data in an „accounting language“, whereas the IT expert is able to work with traditional data base structures.

In an alternative approach, we target the adaptation of an ERP system to specific company’s needs by configuration and customization which usually is cost-intensive and requires experts with specialized know-how. Therefore, we developed a model-driven approach that configures a generic ERP system to customer needs by means of models in order to provide a less costly solution. In the so-called REAlist approach, the REA business models serve as configuration information to be interpreted at run-time by the generic, domain-agnostic ERP engine.

This talk will first introduce the REA-DSL that provides the foundation for both approaches and will afterwards highlight the REA-DSL transformation to data base structures and elaborate in detail on the REAlist architecture. In order to demonstrate the future research portfolio, the presented work is further discussed in the context of Industrie 4.0 and will highlight open research challenges for horizontal and vertical integration of ERP systems in production processes.


11:00-13.00, Dietmar Jannach

Titel: Empfehlungssysteme – Mehr als smarte Algorithmen zur Matrixvervollständigung

Kurzfassung: Automatisierte Empfehlungen und Personalisierung sind heutzutage ein allgegenwärtiger Bestandteil unserer Nutzererfahrung sowohl im World Wide Web als auch in mobilen Apps. In der Informatikforschung wurden in diesem Umfeld in den letzten Jahren enorme Fortschritte gemacht. Die Aufgabe der entwickelten Algorithmen ist es zumeist, möglichst exakt vorherzusagen, wie relevant ein Produkt, ein Service oder allgemein ein Objekt für den einzelnen Benutzer ist. Das Empfehlungsproblem wird in diesen Arbeiten oft als Problem der Vervollständigung einer dünn besetzten Matrix aus Benutzern und Objekten betrachtet. In diesem Vortrag wird anhand aktueller Forschungsergebnisse darauf eingegangen, warum Algorithmen mit einer hohen Vorhersagegenauigkeit auf Vergangenheitsdaten nicht unbedingt diejenigen sind, die zu den nützlichsten Empfehlungen für die Benutzer in der Praxis führen. Ausgehend von diesen Erkenntnissen wird ein konzeptueller Rahmen vorgeschlagen, der von einer algorithmenorientierten Vorgehensweise zu einem interdisziplinären ziel- und nutzenorientierten Forschungsansatz führt.


14:00-16:00, Agnes Koschmider

Titel: Vorrausschauende Analysen für smarte Umgebungen

Kurzfassung: Trotz der heute zu beobachtenden Verbreitung von Sensoren in unterschiedlichsten Geräten und Umgebungen, die Daten für individuelle Objekte (Auto, Person, etc.) mit personenbezogenen Verhaltensprofilen sammeln, existieren zur Prädiktion individuellen Verhaltens überraschend wenige wissenschaftliche Ergebnisse und praktische Ansätze. Dabei hätten Anwendungen solcher Verfahren potentiell einen hohen wirtschaftlichen als auch sozialen Mehrwert. Denkt man beispielsweise an Smart Home Umgebungen zur Unterstützung der Heimpflege älterer Menschen, ließen sich z.B. individuelle Wahrscheinlichkeiten zum Wechsel in eine andere Pflegestufe innerhalb einer gewissen Zeit prognostizieren. Im Kontext von Connected Cars könnten durch Auswertung menschlichen Verhaltens individuelle Gefahrensituationen prognostiziert werden, die den Eingriff des Fahrers ins System erfordern. Existierende Forschungsarbeiten im Bereich prädiktive Verhaltensanalyse beschränken sich weitgehend auf strukturierte Prozesse, bei denen die Reihenfolge einzelner Aktivitäten vordefiniert ist und sich alle individuellen Objekte nach dem gleichen Prozessschema richten. Diese Vorbedingungen des strukturierten menschlichen Verhaltens trifft in smarten Umgebungen, bei denen Daten aus Sensoren gesammelt werden (wie Smart Home oder Connected Cars) nicht zu, hier sprechen wir von unstrukturierten Entscheidungsfindungsprozessen.


16:00-18:00, Thomas Setzer

Title: Robust Integration of Judgmental and Statistical Predictions in Forecasting Support Systems

Abstract: The accuracy of forecasting plays a pivotal role in enterprise decision making as forecasts usually form part of an IS on which business functions, such as marketing or resource planning depend. Today, forecasts are typically derived by expert judgment supported by model-based predictions that are provided within forecasting support systems (FSS). There is, however, evidence that this integration is often carried out poorly and the resulting predictions are regularly biased. In this talk, I propose an alternative forecast generation process that – in the spirit of crowd wisdom and forecast blending – combines individual model-based and judgmental forecasts ex-post to derive less biased and more robust predictions. The core of the combination method is the analytical derivation of the previously unknown bias–variance decomposition of a combination’s mean squared error (MSE). In our recent work we could derive this decomposition for an important class of linear combinations (weighting schemes) of individual forecasts, which allows for determining the weighting scheme with minimum expected MSE. Empirical results will be presented that show significantly lower MSE when applying the approach compared the judgmental forecasts or commonly used weighting schemes. The outlook of the talk will discuss a novel kind of debiasing support system. The system is aimed at a cognitive engineering of experts (to reduce bias over time) and avoiding high-impact errors introduced by adjusting originally sound judgmental expectations through the combination. Based on an expert’s error history, the system provides information on the bias suggested to drive the difference and prompts him/her for action and explanation in case of strong deviation between the combined forecast and his/her expectation.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für TEWI Colloquia in Information Systems, 24./25. November 2016

Dem Leben im All auf der Spur

Dr. Gerda Horneck | 30.11.2016 | 18:00 Uhr | HS 10

Kurzfassung

Die Geschichte unserer Biosphäre reicht mindestens 3,8 Milliarden Jahre zurück, wie Fossilienfunde im ältesten Sedimentgestein belegen. Seit dieser Zeit hat sich das Leben von einfachsten Mikroorganismen zu der heutigen Vielfalt und dem Artenreichtum entwickelt, und hat dabei die Erde selbst, vor allem ihre Atmosphäre und die Gesteine, entscheidend mitgeprägt. Noch wissen wir nicht, wie das Leben einst entstanden ist und ob die Erde in dieser Hinsicht ein Unikat im Universum ist oder ob Leben eher ein kosmisches Phänomen ist, das zwangläufig immer dann entsteht, wenn die entsprechenden Voraussetzungen erfüllt sind. Hierbei sind Masse und Energie eines Sternes wesentliche Größen, die das Ausmaß eines lebensfreundlichen „Grüngürtels“, der so genannten habitablen Zone, bestimmen. Mit Hilfe der Weltraumtechnologie sind wir nun in der Lage, die Suche nach Leben außerhalb der Erde auch wissenschaftlich anzugehen: mit Raumsonden erforschen wir unser Sonnensystem – hier sind vor allem unser Nachbarplanet Mars und die Monde Europa, Titan und Enceladus der Riesenplaneten im Mittelpunkt -, mit Weltraumteleskopen erkunden wir das Universum bis in weit entfernte Regionen, und schließlich wird der Mensch selbst aufbrechen, um den Weltraum zu erkunden und vielleicht sogar einmal zu besiedeln.

Gerda Horneck studierte Biologie und Mikrobiologie in Frankfurt/Main und begann unmittelbar nach Abschluss ihrer universitären Ausbildung mit der Arbeit im Bereich Weltraumforschung. Diese Tätigkeiten führten sie von der Univ. Frankfurt/Main (Arbeitsgruppe Weltraum-Biophysik) über einen Aufenthalt als Visiting Scientist an einer Klinik in La Jolla (Kalifornien) zum Deutschen Zentrum für Luft- und Raumfahrt Köln, wo sie ab 1981 zuerst die Gruppe Exobiologie und danach die Sektion für Strahlungsmedizin am Institut für Luftfahrtmedizin leitete. Von 1997 bis 2004 war Dr. Horneck als stellvertretende Direktorin dieses Instituts am DLR tätig. Seit 2004 fungiert sie als externe Beraterin des DLR.

Dr. Horneck lehrte u.a. an den Universitäten Frankfurt/Main, Kiew und Peking, als leitende Forscherin war sie mit einer Reihe von Experimenten an Weltraummissionen beteiligt (z.B. zum Überleben von Bakterien im All oder zur Zellregeneration nach Strahlungsschäden). Sie ist Trägerin mehrerer Auszeichnungen, so etwa des DLR Senior Scientist Award oder des Life Sciences Award der Internationalen Akademie der Astronautik. 2010 wurde – in Anerkennung ihrer Pionierarbeit im Bereich der bakteriellen Forschung in Weltraum- und stark strahlenden Umgebungen – ein neu entdecktes Bakterium nach Gerda Horneck benannt.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Dem Leben im All auf der Spur

Wege, Umwege, Irrwege zur Kanalkapazität : Zur Geschichte der Entwicklung hocheffizienter digitaler Übertragungsverfahren [Slides]

Prof. Johannes Huber | 20.06.2016 | 17:00 Uhr | Lakeside B04, B4.1.114

Kurzfassung

Mit der Entwicklung der Informationstheorie gelang C. E. Shannon, dessen 100. Geburtstag heuer im Mai durch zahlreiche Feiern gedacht wurde, bereits im Jahre 1948 der Beweis, dass mittels Codierverfahren auch über gestörte Übertragungskanäle prinzipiell eine fehlerfreie digitale Übertragung möglich ist, solange nicht versucht wird, mehr Daten zu übertragen als die Kapazität des Kanals zulässt. Dieses Kanalcodierungstheorem leitete eine breite Forschungstätigkeit auf dem Gebiet der Kanalcodierung ein. Dennoch wurden über viele Jahre trotz des Einsatzes anspruchsvollster mathematischer Methoden nur eher bescheidene Fortschritte erreicht und das Ziel, die informationstheoretische Kapazität von Übertragungskanälen in der Praxis nutzbar zu machen, galt viele Jahre als grundsätzlich unerreichbar. Erst durch die Zufallserfindung der sog. „Turbo-Codes“ kam 1993 neue Bewegung in das Gebiet und dabei stellt es sich heraus, dass die Entwicklung durch das wenig geeignete Optimierungsziel „Maximierung der Minimaldistanz“, das aber niemals hinterfragt worden war, in eine ungünstige Richtung gelenkt worden war. Schließlich erkannte McKay 1996, dass die bereits 1963 von R. Gallager vorgeschlagenen „Low Density Parity Check Codes“  von allen bisher bekannt gewordenen Ansätzen wohl der direkteste Weg nahe an die Kanalkapazität gewesen wäre. So war das Problem eigentlich bereits 33 Jahre lang weitgehend gelöst, ohne dass dies bemerkt worden war. Im Jahr 2007 stellte schließlich Erdal Arikan mit der Erfindung der Polar Codes einfache Codier- und Decodierverfahren vor, durch die für eine nach unendlich strebende Codewortlänge die Kanalkapazität mathematisch beweisbar erreicht wird. Wieder zeigte sich, dass mit den nahe verwandten Reed-Muller Codes infolge des falschen Optimierungskriteriums bereits 53 Jahre zuvor das Ziel nur knapp verfehlt worden war.

Im Vortrag wird ausgehend von der Shannon´schen Informationstheorie der Begriff Kanalkapazität eingeführt. Die Wissenschaftsgeschichte wird anhand von verschiedenen Lösungsansätzen nachgezeichnet und es werden die Hemmnisse, die dabei zu Irr- und Umwegen geführt haben, identifiziert. Ein Ausblick auf die aktuelle Forschung und offene Fragen schließt den Vortrag ab.

Folien:

Huber

Johannes Huber studierte Elektrotechnik an der Technischen Universität München und erwarb 1977 das Diplom. Er wurde 1982 zur Dr.-Ing. promoviert und erhielt 1991 den Titel Dr.-Ing. habil. mit einer Monographie zur Trelliscodierung. Seit 1991 ist er Professor für Nachrichtentechnik und Leiter des Lehrstuhls für Informationsübertragung an der Friedrich-Alexander-Universität Erlangen-Nürnberg. Von 2007 bis 2009 war er Dekan der Technischen Fakultät.

In der Forschung ist Johannes Huber auf den Gebieten digitale Übertragung, Informations- und Codierungstheorie, codierte Modulation, Entzerrungs- und Detektionsverfahren, MIMO-Übertragungsverfahren, DSL etc. aktiv. Er hat zwei Monographien verfasst und ist Autor und Co-Autor von ca. 330 wissenschaftlichen Veröffentlichungen. In den Jahren 1988, 2000 und 2006 wurden Publikationen, die er verfasst bzw. mit verfasst hat, mit dem Preis der deutschen informationstechnischen Gesellschaft ausgezeichnet. 2004 erhielt er den Innovationspreis der Vodafone-Stiftung für Mobilfunk und in den Jahren 2003 und 2010 wurde ihm der EEEfCOM Innovationspreis verliehen.

Prof. Huber ist Fellow of the IEEE, Corresponding Fellow of the Royal Society of Edinburgh und ordentliches Mitglied der Bayerischen Akademie der Wissenschaften (BAdW). An der BAdW leitet er die Kommission „Forum Technologie“ und ist stellvertretender Sprecher der Sektion III: Naturwissenschaften, Mathematik, Technikwissenschaften.

Inzwischen sind 11 seiner ehemaligen Doktoranden selbst Professoren an namhaften Universitäten und Hochschulen.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Wege, Umwege, Irrwege zur Kanalkapazität : Zur Geschichte der Entwicklung hocheffizienter digitaler Übertragungsverfahren [Slides]

Embedded Device Security: Countering Side-Channel Analysis and Fault Attacks

Dr. Martin Schaffer | June 28, 2016 | 12:00 | E.1.42

Abstract

Though cryptographic algorithms like AES are crypto-analytically secure, real implementations must at least be analyzed versus logical attacks like API misuse. Smart Cards and similar devices in addition face fault- and side channel analysis attacks. Such attacks exploit physical effects to manipulate the device or learn information about secret information. As these attacks are very critical, customers in the Smart Card world ask for third party evaluation (e.g. Common Criteria or EMVCo) to high assurance levels. If passed, a certificate is issued by a trusted party. With the rise of the IoT, physical attacks and the respective third-party witnessing of resistance soon get relevant there as well. This talk will give an overview of physical attacks and respective countermeasures in HW and SW. Moreover, it introduces how such devices are evaluated and certified and how much do attacks “cost”.

Dr. Schaffer studied computer science at Klagenfurt University and Swiss Federal Institute of Technology, focusing on security, privacy and cryptography. While conducting research in these fields, he received his PhD from Klagenfurt University. In 2001 he also worked for IBM Research Zurich Lab. 2008, Dr. Schaffer joined NXP Semiconductors where he held several positions in the security area over the last years, such as Security Architect and Cryptographer. Since 2014, Dr. Schaffer is Head of Security Maturity & Certification.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Embedded Device Security: Countering Side-Channel Analysis and Fault Attacks

Rückblick: Polynomial matrices – a brief overview [Slides]

Der Rückblick zum TEWI-Kolloquium von Dr. Stephan Alexander Weiss am 25.04.2016 beinhaltet die Folien:

Abstract

Polynomial matrices can help to elegantly formulate many broadband multi-sensor / multi-channel processing problems, and represent a direct extension of well-established narrowband techniques which typically involve eigen- (EVD) and singular value decompositions (SVD) for optimisation. Polynomial matrix decompositions extend the utility of the EVD to polynomial parahermitian matrices, and this talk presents a brief overview of such polynomial matrices, characteristics of the polynomial EVD (PEVD) and iterative algorithms for its solution. The presentation concludes with some surprising results when applying the PEVD to subband coding and broadband beamforming.

WeissStephan Weiss is Head of the Centre for Signal and Image Processing at the University of Strathclyde. He obtained Dipl.-Ing. and PhD degrees in 1995 and 1998 from the Universities of Erlangen-Nuernberg and from the University of Strathclyde. Since then, he has been a member of academic staff at the Universities of Southampton (1999-2006) and Strathclyde (1998/99 and since 2006). With his team we works on adaptive, array and statistical signal processing problems with applications in acoustics & audio, communications and biomedical problems. He has been co-organiser of the European Signal Processing Conference (EUSIPCO) 2009 in Glasgow and a number of other events.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Rückblick: Polynomial matrices – a brief overview [Slides]

Rückblick: Student-centered teaching patterns in the context of computational thinking problem solving processes [Video][Slides]

Der Rückblick zum TEWI-Kolloquium von Dr. Bernhard Standl-Gruber am 18.5.2016 beinhaltet die Videoaufzeichnung und die Folien:

Video:

No correct api key set in Bitmovin Settings.

Folien:

Abstract

Successful learning can take place when the learner is addressed at all levels of learning instead of limiting teaching to knowledge transfer but also involving an emotional and skills level. Considering this as the student-centered approach, we designed, carried out and revised in practice computer science lessons in 9th grade classrooms. During these real classroom experiences we identified certain successful scenarios when such learning was effective. We subsequently transformed scenarios to a more abstract representation and obtained as a result 24 patterns, which uniformly describe how student-centered lessons in computer science can be carried out. The patterns don’t specify detailed instructions for the teacher but still hold all the information necessary to be coherent with the pedagogical approach in the context of computer science. Instead of providing a detailed description of lesson plans and exact scenarios, the patterns describe how different teaching procedures can be approached alongside the student-centered approach. The advantage of this representation is, that it leaves the freedom of individual implementation to the teacher. In order to prove the concept of the patterns four case studies in classrooms were carried out with the design-based research approach as driving force combined with mixed methods as questionnaires, classroom meetings, and audio recordings. Outcomes showed, that these patterns have impact on students’ perception of the teacher’s attitudes. Furthermore, we identified detailed aspects of students’ communication characteristics during problem solving processes. In a next step, these patterns were further applied during a research visit in the United States in the context of computational thinking problem solving tasks. Assuming that problem solving processes can be found in everyday occurrences, computational thinking problem solving skills affect everyone and should be part of a general knowledge every person should have these days. Therefore, we combined the patterns with computer science algorithms in the context of everyday life settings and designed lesson scenarios for four high school classes. These classroom activities were accompanied with the mixed research approach and case studies. First results of this study showed, that students improved required skills for computational problem solving.

standlBernhard Standl is a postdoctoral researcher and lecturer at the Faculty of Computer Science at the University of Vienna and computer science teacher at a secondary school in Vienna. After graduating from computer science and history studies with teacher certification, he finished in 2014 the PhD studies in computer science education at the University of Vienna in Austria and completed the thesis in the interdisciplinary field of computer science and education. Since 2008 he was part of computer science education and interdisciplinary, international projects. 2015 he stayed as Fulbright research fellow at Missouri State University in Springfield, MO where he carried out an individual research project named coThink – Computational Thinking. His research interests are focused on computer science education and technology enhanced learning at secondary school level and is interested in research for promoting computational thinking aimed at inspiring students for experiencing computer science as an exciting subject.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Rückblick: Student-centered teaching patterns in the context of computational thinking problem solving processes [Video][Slides]

Roboter im Weltraum

Dr. Roland Brockers | 01.06.2016 | 18:00 Uhr | Lakeside B11, Raum Leibniz
Vortrag zusammen mit Gerhard Paar siehe http://kiss.aau.at/

 

Kurzfassung

Kameras sind ein wesentlicher Bestandteil von fast jedem unbemannten Raumschiff, welches für die Weltraumforschung verwendet wird. Da ein Bild mehr als tausend Worte sagen kann, sind wir überwältigt von Bildern, die uns Weltraum-Teleskope, Planeten-Orbiter, oder Roboter zur Erforschung von unbekannten Himmelskörpern senden. Bilder und Videos bieten eine so reiche Quelle an Informationen, dass sie mit Unterstützung von Bildverarbeitungsmethoden für verschiedene Missionen in der Vergangenheit erfolgreich genutzt wurden. Während Bilddaten von Orbiter verwendet werden, um ganze Planeten abzubilden und zukünftige Oberflächen-Missionen zu planen, haben Planeten-Landefahrzeuge Bilddaten für die Evaluierung einer sicherer Landezone verwendet. Autonome Fahrzeuge wie der Mars Rover verwendeten Bildverarbeitungsmethoden für die autonome Navigation. In diesem Vortrag werden wir erforschen, wie Bildverarbeitung von verschiedenen Weltraummissionen eingesetzt wurden und einen Blick darauf werfen, wie der Bedarf an Autonomie bei künftigen Missionen die Anwendung von Bildverarbeitung die Weltraumforschung erweitern wird.

BrockersDr. Roland Brockers ist ein Mitglied der Mobility and Robotic Systems Section am Jet Propulsion Laboratory in Pasadena, Kalifornien. Er erwarb seinen Doktortitel in Elektrotechnik an der Universität Paderborn in Deutschland im Jahr 2005. Mit mehr als 16 Jahren Erfahrung in Forschung und Entwicklung in der visuellen, autonomen Navigation von unbemannten Systemen konzentriert sich seine Arbeit derzeit auf unbemannte Luftfahrzeuge. Roland Brockers war in den letzten 6 Jahre als Projektleiter bei mehreren Projekten mit Mikroluftfahrzeugen am JPL beteiligt, einschließlich an autonomen Landungen, visuelle Lagebestimmung, autonome Hindernisvermeidung und der Einsatz von UAVs in verschiedenen Forschungsanwendungen, wie z. B. Ökosystem Monitoring in Precision Farming-Szenarien.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Roboter im Weltraum

Business Impact Analysen auf Basis der Auswertung von Architekturinformationen durch neuronale Netzwerke

Alexander Beck | 02.06.2016 | 08:30 Uhr | E.2.37

Kurzfassung

Einen neuen Ansatz stellt die Analyse von Bedrohungsszenarien mit ganzheitlichem Blick auf IT-Infrastrukturen dar. Allerdings ist die Schutzbedarfs- oder Auswirkungsanalyse ein proaktiver Blick in die Zukunft, wo welche Bedrohungen zu erwarten sind. Eine Betrachtung der Auswirkungen auf Geschäftsprozesse wie sie typischerweise durch Business Impact Analysen angefertigt werden, ist nicht inbegriffen. (Wo kommen wir her). So stellt die Einbeziehung der unterschiedlichsten Architekturschichten einer IT-Infrastruktur eine sinnvolle Ergänzung dar, so dass die Frage nach dem richtigen Fokus möglicher Handlungsfelder sich von einem potentiellen Angriffsvektor weg, hin zu einem Kritikalitätsgrad hinsichtlich der Geschäftsprozesse wandelt. (Was wollen wir verändern). Die Frage die sich dabei stellt, wie können die umfangreichen Architekturinformationen in ausreichendem Maße beschrieben und analysiert werden, um solch eine Geschäftsprozessanalyse für einen eingetretenen Schadensfall zu ermöglichen. (Was ist das Ziel). Der Vortrag bietet einen Überblick über damit einhergehende Herausforderungen und stellt eine Diskussionsgrundlage für weitere Ansätze zu dieser Problematik dar. (Wo stehen wir, Erwartungshaltung)

beckAlexander Beck ist seit 2011 bei der Volkswagen AG tätig. Zuvor studierte er Informatik an Hochschule Harz und Otto-von-Guericke-Universität Magdeburg unter anderem mit den Schwerpunkten Datenintensive Systeme und Sicherheit. Im Rahmen seiner Dissertation erforscht er Verfahren zur automatisierten Sicherheitsbewertung von komplexen heterogenen IT-Infrastrukturen auf Basis neuronaler Netze. Beruflich war er mehrere Jahre in der Informationssicherheit im Volkswagen Konzern tätig und beschäftigte sich mit den Themen Authentifizierung und Verschlüsselung. Aktuell arbeitet er im Bereich IT Projekt- und Programmmanagement der Volkwagen Financial Services AG  und verantwortet IT Projekte im In- und Ausland.

 

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Business Impact Analysen auf Basis der Auswertung von Architekturinformationen durch neuronale Netzwerke

Modeling of photovoltaic systems using Matlab: simplified green codes [Video]

Tamer Khatib | 17.05.2016 | 16:00 Uhr | B04 L4.1.114

Abstract: This book presents simplified coded models for photovoltaic (PV)-based systems using MATLAB to help readers understand the dynamic behavior of these systems. Through the use of MATLAB, the reader has the ability to modify system configuration, parameters, and optimization criteria. Topics covered include energy sources, storage, and power electronic devices. The book contains six chapters that cover systems’ components from the solar source to the end user. Chapter 1 discusses modeling of the solar source, and Chapter 2 discusses modeling of the PV source. Chapter 3 focuses on modeling of PV systems’ power electronic features and auxiliary power sources. Modeling of PV systems’ energy flow is examined in Chapter 4, while Chapter 5 discusses PV systems in electrical power systems. Chapter 6 presents an application of PV system models in systems’ size optimization. Common control methodologies applied to these systems are also modeled in this book.

  • Covers the basic models of the whole PV power system, enabling the reader modify the models to provide different sizing and control methodologies
  • Examines auxiliary components to PV systems, including wind turbines, diesel generators, and pumps
  • Contains examples, drills, and codes Modeling of Photovoltaic Systems Using MATLAB: Simplified Green Codes is a reference for researchers, students, and engineers who work in the field of renewable energy, and specifically in PV systems.

Video:

Biography:
Tamer T.N. Khatib, Biography
Latest update:May,2016

Tamer is a photovoltaic power systems professional. He holds a B.Sc. degree in electrical power systems from An-Najah National University, Palestine as well as a M.Sc. degree and a Ph.D degree in photovoltaic power systems from National University of Malaysia, Malaysia. In addition he holds Habilitation (the highest academic degree in German speaking countries) in Renewable and sustainable energy from Alpen Adria Universität, Klagenfurt, Austria. Currently he is an Assistant professor of renewable energy at An-Najah National University.
So far, he has 2 patents, 3 books and 90 research articles, while  his current h-index is 17. He has lectured 20 courses for undergraduate students, supervised 4 Ph.D researches, 4 master researches and 25 bachelor researches.
He is a senior member of IEEE, IEEE Power and Energy Society, The International Solar Energy society, Jordanian Engineers Association, Palestinian Solar and Sustainable Energy Association and International Association of Engineers.
His research interests mainly fall in the scope of photovoltaic systems and solar energy fundamentals. These interests include PV systems design and optimization, modeling and control of PV systems, hybrid PV/Wind systems, hybrid PV/diesel systems, Grid connected PV systems, sun trackers, MPPT technology, inverters in PV system, solar chargers, batteries and charge controllers, solar energy fundamentals, solar energy prediction, AI applications for solar energy and PV systems, wind power systems, wind chargers, wind energy modeling and prediction.​

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Modeling of photovoltaic systems using Matlab: simplified green codes [Video]
RSS
EMAIL