Methoden des Design- und Optimierungsprozesses für intelligente Sensoren

Sensoren stellen die Schnittstellen zwischen der ”realen physikalischen” und der elektrischen/elektronischen (und digitalen) Welt dar. Nicht zuletzt aufgrund der stets steigenden Komplexität technischer Systeme nehmen nicht nur die Anzahl und die Aufgaben von Sensoren zu, sondern auch die Anforderungen an diese hinsichtlich Genauigkeit, Zuverlässigkeit und Sicherheit. Daneben sind auch zahlreiche weitere Anforderungen wie geringer Platz- und Energiebedarf oder geringe Kosten zu erfüllen

Um diesen hohen Anforderungen gerecht zu werden, werden oftmals „intelligente Sensoren“ eingesetzt, die neben einem (oder mehreren) Primärsensor(en) auch analoge und digitale Signalaufbereitung, Hard- und Software für Signalverarbeitung und Eigendiagnose sowie drahtgebundene oder drahtlose Kommunikationseinrichtungen aufweisen. Mitunter beinhalten derartige Sensoren eigene „Kraftwerke“, um sich aus der Umgebung mit Energie zu versorgen („Energy Harvesting“) und somit völlig autark arbeiten zu können. Für den Entwurf derartiger Systeme werden Methoden benötigt, die es den Designern ermöglichen, die Komplexität zu beherrschen.

In dem Vortrag werden Ansätze für den modellbasierten Design- und Optimierungsprozess von intelligenten Sensoren vorgestellt. Dabei spielen insbesondere die Themen Messunsicherheit, Zuverlässigkeit und Sicherheit eine große Rolle. Ein wesentlicher Aspekt ist die Berücksichtigung möglicher Störeinflüsse (Herstellungstoleranzen, Rauschen, Elektromagnetische Störer, Defekte, …) und deren Auswirkung während der gesamten Entwurfphase. Diese Vorgehensweise führt einerseits zu robusten Designs und erlaubt andererseits eine frühzeitige Erkennung von kritischen Faktoren, wodurch Fehlentwicklungen vermieden werden können

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Methoden des Design- und Optimierungsprozesses für intelligente Sensoren

Numerical simulation for electrical tomography sensor systems and robust parameter estimation using stochastic methods

Electrical capacitance tomography (ECT) belongs to the class of so-called inverse problems which are the most challenging class of estimation problems due to their ill-posedness and their typically high-dimensional parameter spaces. In particular, ECT aims at determining electrical properties (the permittivity) of heterogeneous material distributions in inaccessible objects given sparse measurements. In order to obtain robust estimates as well as quantitative statements on parameter variability, additional information in form of prior knowledge about the unknown quantities is required. Such prior information might include system dynamics, empirical and analytical measurement models, the measurement noise mode, and certain constraints.

This talk addresses different numerical sensor modeling techniques and appropriate estimation approaches of determining process parameters in the presence of uncertainties by example. Uncertainty in recovered parameters arises from measurement noise, measurement sensitivities, model inaccuracy, discretization error, and a-priori uncertainty.

In this context, the ECT parameter estimation problem is formulated in a Bayesian inferential framework, by specifying a physically motivated prior distribution, and characterizing the statistics of measurement noise, to give a posterior distribution conditioned on measured data. The ECT sensor is simulated numerically by means of the finite element and the boundary element method. Markov chain Monte Carlo (MCMC) sampling with Metropolis-Hastings dynamics and particle filtering, notably useful for non-stationary problems, are investigated in terms of efficient exploration of the posterior distribution.

A key difference between the proposed statistical (Bayesian) approach and classical deterministic methods (e.g. Newton-type regularized optimization techniques) is that whereas regularization gives point estimates, typically using a data-misfit criterion, Bayesian methods present averages over all solutions consistent with the data. This leads to a marked difference in robustness of properties calculated from solutions. The proposed approaches are discussed for a reference problem of recovering the unknown shape and position of a constant permittivity inclusion in an otherwise uniform background. Statistics calculated in the reference problem give accurate estimates of inclusion area, and other properties, when using measured data.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Numerical simulation for electrical tomography sensor systems and robust parameter estimation using stochastic methods

Smart Sensor Systems for Structural and Health Monitoring

Over the last decades monitoring of engineering structures has become more and more important. Besides traditional sensor systems, Smart Sensor Systems, which inmany cases are put into practice by embodying active materials into the structures to be monitored, have gained an ever increasing attention for Structural and Health Monitoring. The proper distribution of the active materials, which constitute the sensing authority, over the structure, is of fundamental importance in order to gain specific information concerning the state of the monitored structure. In particular, sensing mechanisms, which enable the direct measurement of strains (e.g. piezoelectric sensors) have proven to be suitable sensing authorities for distributed sensing.

Moreover, embodied smart sensor systems eliminate the need for additional external sensor systems and they may as well be used as actuator systems; this further enables passive/active control using embodied sensors and actuators. The first part of the present talk is focussed on the development of novel easy-to-use methods for computing the distribution of smart sensor systems to measure kinematically relevant structural entities (e.g. the relative displacement between two points or the slope of the displacement field of a structure). A simple solution for this Sensor Design Problem is presented and different types of practically important distributed smart sensor systems are discussed; e.g. modal sensors and nilpotent sensors. Based on these findings, practical implementations utilizing piezoelectric sensors are introduced and numerically and

experimentally verified. A specific problem, to which the design methods are applied, is discussed in detail in the second part of the talk – Structural Health Monitoring of frame structures using piezoelectric sensor networks. These networks are designed to be highly sensi tive to damage by using nilpotent sensor networks, which result into a trivial signal, if the structure is undamaged. For damaged frames this particular type of sensor network facilitates the detection, localisition and quantification of damage. Analytical, numerical and experimental results are presented for a three-storey frame structure.

In the last part of the talk extensions to using the smart piezoelectric sensor systems as actuators as well are introduced; in particular, methods such as Self-Sensing Actuators and passive Shunt Damping, for which no additional physical actuator system is needed. Practical problems concerned with active health monitoring of frame structures and with noise reduction for thin plates complete the present talk.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Smart Sensor Systems for Structural and Health Monitoring

Visual Programming and Visualization of Programming

Abstract:
Learning programming is a difficult task and many students fail to complete introductory computer science courses. The talk will describe our research into two approaches to improve learning of programming.
Scratch is a visual programming environment intended for young people. They construct programs by dragging-and-dropping blocks labeled with commands and operations; the programs control the animation of sprites which provides a motivating context. We found that even middle-school students (age group 12-14) are capable of developing non-trivial software and, furthermore, they find it easier to learn professional programming languages when they reach secondary school. However, Scratch can cause students to develop bad programming habits that may be difficult to overcome and teachers must ensure that this doesn’t happen.
The other approach is to visualize the execution of programs written as text in professional programming languages. The Jeliot program animation system automatically generates detailed animations of programs written in the Java. Jeliot significantly facilitates learning because it provides a graphic display of the dynamic aspects of program execution that are hidden within the computer. An investigation into the use of Jeliot by secondary-school teachers showed a wide range of engagement, from full integration into the teaching practice to rejection caused by psychological factors.

Short CV:
Mordechai (Moti) Ben-Ari is a full professor in the Department of Science Teaching of the Weizmann Institute of Science, where he heads the computer science education group. He is the author of numerous textbooks, including Principles of Concurrent and Distributed Computation, and Mathematical Logic for Computer Science. His group, in collaboration with the University of Eastern Finland, developed the Jeliot program animation system. In 2004, he received the ACM/SIGCSE Award for Outstanding Contributions to Computer Science Education, and in 2009 he was elected as a Distinguished Educator of the ACM.

 

 

Posted in TEWI-Kolloquium | Tagged , | Kommentare deaktiviert für Visual Programming and Visualization of Programming

Teaching Concurrency and Nondeterminism with Spin

Abstract:
Spin is a model checker that is widely used for verification of concurrent and distributed systems. The talk will present techniques and tools for teaching concurrency and nondeterminism using Spin. Spin can replace concurrency simulators and can also generate scenarios that demonstrate errors like race conditions and starvation. The implementation of nondeterministic algorithms and finite automata in Spin will be described, together with the use of search diversity to demonstrate random algorithms and parallelism. The tools to be presented are: jSpin, a development environment for Spin; VMC, a tool that generates a diagram of the state space of a model; VN for visualizing nondeterminism; Erigone, a reimplementation of Spin designed for pedagogical use.

Short-Bio:
Mordechai (Moti) Ben-Ari is a full professor in the Department of Science Teaching of the Weizmann Institute of Science, where he heads the computer science education group. He is the author of numerous textbooks, including Principles of Concurrent and Distributed Computation, and Mathematical Logic for Computer Science. His group, in collaboration with the University of Eastern Finland, developed the Jeliot program animation system. In 2004, he received the ACM/SIGCSE Award for Outstanding Contributions to Computer Science Education, and in 2009 he was elected as a Distinguished Educator of the ACM.

Posted in TEWI-Kolloquium | Tagged , | Kommentare deaktiviert für Teaching Concurrency and Nondeterminism with Spin

Rückblick: Algorithmen zum Verkleinern von digitalen Videos [Slides, Video]

Der Rückblick zum TEWI-Kolloquium von Prof. Wolfgang Effelsberg am 23.07.2012 beinhaltet die Videoaufzeichnung sowie die Folien:

Video:

[iframe height=“350″ src=“http://video.aau.at/video.php?video=ftf_effelsberg.mp4″]

Slides:

erfordert dabei ein kleines Videoformat. Aber ein Großteil der digitalen Videos wird nach wie vor für ein großes Ausgabeformat gedreht, zum Beispiel für den PC-Bildschirm oder ein für ein HD-Fernsehgerät. Wie also kann man im Nachhinein aus großformatigen Videos kleinformatige erzeugen?
Wir stellen im Vortrag zunächst die nahe liegenden Techniken Scaling und Cropping kurz vor und argumentieren, dass diese in der Regel zu unbefriedigenden Resultaten führen. Ein neuerer Algorithmus ist das Seam Carving, bei dem man senkrechte und waagrechte Trajektorien minimaler Energie durch das Bild bestimmt und diese einzeln entfernt. Dabei bleiben die vom Betrachter als wichtig angesehenen Teile des Bildes in der Regel erhalten. Wir erklären zunächst das Seam Carving für Standbilder und erweitern den Algorithmus dann für Videos. Abschließend gehen wir näher auf eine Optimierung ein, die gerade Linien durch ein Bild beim Seam Carving besser erhält als der Standard-Algorithmus.

Kurz-Bio: Wolfgang Effelsberg erhielt 1976 das Diplom in Elektrotechnik an der Technischen Universtität Darmstadt und promovierte dort 1981 im Fach Informatik. Von 1981-1984 arbeitete er als Assistant Professor an der University of Arizona in Tucson und als Post-Doctoral Fellow bei IBM Research in San Jose, Kalifornien. Von 1984 bis 1989 war er am Europäischen Zentrum für Netzwerkforschung der IBM in Heidelberg tätig. 1989 nahm er einem Ruf an die Universität Mannheim an, wo er seither die Arbeitsgebeite Rechnernetze, Multimediatechnik und E-Learning in Forschung und Lehre vertritt.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Rückblick: Algorithmen zum Verkleinern von digitalen Videos [Slides, Video]

Algorithmen zum Verkleinern von digitalen Videos

Abstract: Die wachsende Leistungsfähigkeit von Multimedia-Handys (Smart Phones) und die zunehmende Bandbreite im Mobilfunk machen die Übertragung und Darstellung von Videos auf Handys problemlos möglich. Der Formfaktor der mobilen Endgeräte erfordert dabei ein kleines Videoformat. Aber ein Großteil der digitalen Videos wird nach wie vor für ein großes Ausgabeformat gedreht, zum Beispiel für den PC-Bildschirm oder ein für ein HD-Fernsehgerät. Wie also kann man im Nachhinein aus großformatigen Videos kleinformatige erzeugen?
Wir stellen im Vortrag zunächst die nahe liegenden Techniken Scaling und Cropping kurz vor und argumentieren, dass diese in der Regel zu unbefriedigenden Resultaten führen. Ein neuerer Algorithmus ist das Seam Carving, bei dem man senkrechte und waagrechte Trajektorien minimaler Energie durch das Bild bestimmt und diese einzeln entfernt. Dabei bleiben die vom Betrachter als wichtig angesehenen Teile des Bildes in der Regel erhalten. Wir erklären zunächst das Seam Carving für Standbilder und erweitern den Algorithmus dann für Videos. Abschließend gehen wir näher auf eine Optimierung ein, die gerade Linien durch ein Bild beim Seam Carving besser erhält als der Standard-Algorithmus.

Kurz-Bio: Wolfgang Effelsberg erhielt 1976 das Diplom in Elektrotechnik an der Technischen Universtität Darmstadt und promovierte dort 1981 im Fach Informatik. Von 1981-1984 arbeitete er als Assistant Professor an der University of Arizona in Tucson und als Post-Doctoral Fellow bei IBM Research in San Jose, Kalifornien. Von 1984 bis 1989 war er am Europäischen Zentrum für Netzwerkforschung der IBM in Heidelberg tätig. 1989 nahm er einem Ruf an die Universität Mannheim an, wo er seither die Arbeitsgebeite Rechnernetze, Multimediatechnik und E-Learning in Forschung und Lehre vertritt.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Algorithmen zum Verkleinern von digitalen Videos

Rückblick: Smart Grids [Slides]

Der Rückblick zu den TEWI-Kolloquien von Dr. Martin Sachenbacher am 14.05.2012 und Jun.-Prof. Dr. Sebastian Lehnhoff am 09.05.2012 beinhaltet die Folien:

Slides

Slides

Slides

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Rückblick: Smart Grids [Slides]

The Potential of Neuro-Computing for Enabling „Real-Time“ Computational Engineering

Abstract: This lecture will address the following specific questions and issues:

  • What is computational engineering?
  • What does “real-time” mean, and under which specific (industrial/practical) circumstances is a real-time computational engineering needed? Some selected examples from traffic telematics and machine vision will be provided
  • How far do traditional and even some new high-performance computing paradigms fail to satisfy the hard requirements of real-time computational engineering?
  • What is neuro-computing? And what are the major related issues?
  • How far does neuro-computing offer a great potential to satisfy the hard requirements of real-time computational engineering?
  • What are synergetic ties with other computational intelligence instruments like genetic algorithms, particle swarm optimization, etc.?
  • Some illustrative neuro-computing examples involving cellular neural networks
  • Hardware and software related implementation issues. Which inspiration does the old “analog computing” paradigm offer?
  • OUTLOOK: Overview of some interesting case studies and other potential industrial, graph theory and computer engineering applications

Keywords: Neuro-computing, Realtime computational engineering, Cellular neural networks, High-performance computing paradigms, Complexity reduction

 

Posted in TEWI-Kolloquium | Tagged , , , , | Kommentare deaktiviert für The Potential of Neuro-Computing for Enabling „Real-Time“ Computational Engineering

Rückblick: Eine Formel verändert die Welt [Slides, PDF]

Der Rückblick zum TEWI-Kolloquium von Prof. Johannes Huber am 21.06.2012 beinhaltet die Folien sowie eine schriftliche Ausarbeitung:

Slides

PDF:

Abstract: Am Beispiel der Kapazitätsformel für den Additive White Gaussian Noise (AWGN–) Kanal wird gezeigt, welche grundsätzliche Bedeutung der Informationstheorie nach C.E. Shannon beim Übergang vom Industrie– zum Informationszeitalter in der zweiten Hälfte des 20. Jahrhunderts zukommt. Hierzu werden exemplarisch Konzepte zur Ableitung informationstheoretischer Theoreme behandelt. Aus der Kapazitätsformel werden einfache Beziehungen zum Zusammenhang zwischen Information und Energie sowie elementare Existenzschranken für analoge und digitale Informationsübertragungssysteme abgeleitet. Allgemeine Betrachtungen zur Bedeutung theoretischer Grundlagen für technische Entwicklungen und eine Würdigung des Widmungsträgers schließen den Beitrag ab. Die Ausführungen sind so gestaltet, dass sie für ein breites, nicht speziell mathematisch–naturwissenschaftlich gebildetes Publikum verständlich sein sollten, weshalb auch strenge mathematische Beweisführungen vermieden werden. Zweck dieses Beitrages ist es, Methoden und Denkrichtungen aufscheinen zu lassen, auf denen unsere moderne Informationstechnik beruht.

Kurzbio: Johannes Huber ist seit November 1991 Professor für Nachrichtentechnik und Leiter des Lehrstuhls für Informationsübertragung an der Friedrich-Alexander-Universität Erlangen-Nürnberg. In der Forschung ist Prof. Huber unter Anderem auf den Gebieten Informations- und Codierungstheorie, Modulationsverfahren, Entzerrungs- und Detektions-verfahren für die digitale Übertragung über dispersiv verzerrende Kanäle, MIMO-Übertragungsverfahren aktiv. Er hat zwei Monographien verfasst und ist Autor und Co-Autor von ca. 260 wissenschaftlichen Beiträgen für Fachzeitschriften und zu internationalen Konferenzen.

Publikationen, die Prof. Huber verfasst bzw. mit verfasst hat, wurden mit dem Preis der deutschen informationstechnischen Gesellschaft in den Jahren 1988, 2000 und 2006 ausgezeichnet. 2004 erhielt er den Innovationspreis der Vodafone-Stiftung für Mobilfunk. In den Jahren 2003 und 2010 wurde ihm der EEEfCOM Innovationspreis verliehen.

Prof. Huber ist Mitglied des Fachausschusses 5.1 „Informations- und Systemtheorie“ der deutschen Informationstechnischen Gesellschaft (ITG), Fellow of the IEEE, Corresponding Fellow of the Royal Society of Edinburgh und ordentliches Mitglied der Bayerischen Akademie der Wissenschaften.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Rückblick: Eine Formel verändert die Welt [Slides, PDF]
RSS
EMAIL