Pulp: An adaptive gossip-based dissemination protocol for multi-source message streams

Gossip-based protocols provide a simple, scalable, and robust way to disseminate messages in large-scale systems. In such protocols, messages are spread in an epidemic manner. Gossiping may take place between nodes using push, pull, or a combination. Push-based systems achieve reasonable latency and high resilience to failures but may impose an unnecessarily large redundancy and overhead on the system. At the other extreme, pull-based protocols impose a lower overhead on the network at the price of increased latencies. A few hybrid approaches have been proposed – typically pushing control messages and pulling data – to avoid the redundancy of high-volume content and single-source streams. Yet, to the best of our knowledge, no other system intermingles push and pull in a multiple-senders scenario, in such a way that data messages of one help in carrying control messages of the other and in adaptively adjusting its rate of operation, further reducing overall cost and improving both on delays and robustness. In this paper, we propose an efficient generic push-pull dissemination protocol, Pulp, which combines the best of both worlds. Pulp exploits the efficiency of push approaches, while limiting redundant messages and therefore imposing a low overhead, as pull protocols do. Pulp leverages the dissemination of multiple messages from diverse sources: by exploiting the push phase of messages to transmit information about other disseminations, Pulp enables an efficient pulling of other messages, which themselves help in turn with the dissemination of pending messages. We deployed Pulp on a cluster and on PlanetLab. Our results demonstrate that Pulp achieves an appealing trade-off between coverage, message redundancy, and propagation delay.

CV: Pascal Felber received his M.Sc. and Ph.D. degrees in Computer Science from the Swiss Federal Institute of Technology. From 1998 to 2002, he has worked at Oracle Corporation and Bell-Labs (Lucent Technologies) in the USA. From 2002 to 2004, he has been an Assistant Professor at Institut EURECOM in France. Since October 2004, he is a Professor of Computer Science at the University of Neuchâtel, Switzerland, working in the field of dependable and distributed systems. He has published over 80 research papers in various journals and conferences.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Pulp: An adaptive gossip-based dissemination protocol for multi-source message streams

Intelligente Energiesysteme

Das Energiesystem erfährt zur Zeit eine stetige Steigerung seiner Komplexität. Es sind vor allem neue Technologien, stochastische Energiequellen, die Informationstechnik und neu entstehende Märkte, die dazu entscheidend beitragen. Komplexität tritt letztendlich ein, wenn ein System aus Subsystemen besteht, die diesen Namen auch verdienen: sie beinhalten Regelkreise, interne Zustände, autonome Aktoren.
Eine Reihe an Forschungsprojekten und Demonstrationsprojekten widmen sich dieser Thematik. Dieser Vortrag wird sich einigen dieser Projekte widmen und vor allem aber auf ein Problem hinweisen: Es fehlt an stimmigen Methoden und Werkzeugen, um solche Systeme designmäßig und während des Betriebs wirklich in den Griff zu bekommen, d.h. zu optimieren und deren Grenzen zu erkennen.
Während es ausgereifte Methoden und Werkzeuge für Teilbereiche – etwa elektrische Maschinen oder Netze – gibt, ist die Beschreibung und Behandlung hybrider Systeme nicht zufriedenstellend gelöst. Die Kombination kontinuierlicher, stochastischer, diskreter und rollen-basierter Prozesse im Smart Grid ist schwer beschreibbar und numerisch fordernd.
Der Vortrag wird erste Erfahrungen auf diesem Gebiet sowie einen Ausblick auf die zukünftigen Forschungsfragen vermitteln.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Intelligente Energiesysteme

Social Software- and Knowledge Engineering

Abstrakt: Mit der ubiquitären Präsenz des World Wide Web und neuer web-basierter, kollaborativer Softwareanwendungen ergeben sich für das Software Engineering zumindest zwei neuartige, theoretisch bedeutsame Heraus-forderungen mit praktischen Implikationen:

(1) Zum einen entstanden durch diese Entwicklung neue Formen von Software, deren Eigenschaften und Gestaltung sich von traditioneller Software deutlich unterscheiden. Sogenannte soziale Software unterscheidet sich zum Beispiel von anderen Arten an Software (wie z.B. Software für Autos oder die Flughafensicherung) durch (i) den sozialen Zweck (ii) die Verwendung auf freiwilliger Basis und (iii) die beispiellose Integration von sozialen Daten über Benutzerverhalten, -ziele und -motivationen in die Struktur und Benutzerschnittstellen der Software. In sozialer Software wird die Interaktion zwischen einzelnen Benutzern und dem System typischerweise durch die Aggregation von Daten einer grossen Menge anderer Benutzer vermittelt und gestaltet. Ein Beispiel derartiger sozialer Softwareeigenschaften findet sich in der tag-basierten Navigation. In sozialer Software können somit traditionell kontrollierbare, nicht-funktionale Softwareeigenschaften (wie zum Beispiel die Navigierbarkeit) dynamisch, d.h. durch das soziale Verhalten ihrer Benutzer, beeinflusst werden. Dies stellt die Entwickler derartiger Software vor grosse Probleme und existierende Softwareentwicklungsmethoden und –verfahren vor neue Herausforderungen.

(2) Zum anderen bewirkt die Verfügbarkeit von sozialer Software, dass sich Softwareentwicklung heute in der Praxis zunehmend als eine verteilte und soziale Aktivität darstellt, bei der Benutzer, Softwareentwickler, Tester und andere Anspruchsgruppen gemeinsam Anforderungen abstimmen, Konflikte lösen, Software entwerfen und Code warten. Unser derzeitiges Verständnis über effektive Methoden und Werkzeuge zur Unterstützung derartiger sozialer Aspekte der Softwareentwicklung ist ungenügend, und eine tiefergehende Auseinandersetzung mit den sozialen Prozessen und Strukturen ist eine unabdingbare Voraussetzung für die Weiterentwicklung von Theorie und Praxis des Software Engineering.

Der Vortrag beleuchtet vergangene und aktuelle Arbeiten meiner Forschungsgruppe im Kontext dieser zwei Herausforderungen, und skizziert einen Forschungsplan für zukünftige Arbeiten.

 

 

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Social Software- and Knowledge Engineering

Rückblick: FASTEST: Test Case Generation from Z Specifications [Video, Slides]

Der Rückblick zum TEWI-Kolloquium von Prof. Maximiliano Cristiá, Universidad Nacional de Rosario (Argentina) am 30.03.2012 beinhaltet die Videoaufzeichnung sowie die Folien:

Video

[iframe height=“350″ src=“http://video.aau.at/video.php?video=ftf_cristia.mp4″]

Slides

Abstract

Fastest is a tool that assist software engineers in generating test cases from Z specifications. It provides tool support for a method of model-based testing know as the Test Template Framework. The tool reads a Z specification written in LaTeX markup and waits for commands from the user. Users can apply testing tactics to partition the input space of Z operations thus creating testing trees. Later they can prune these trees to eliminate unsatisfiable test specifications. In a third step, a satisfiability algorithm can be run to find a test case for each leaf in a testing tree. Finally, it is possible to refine these test cases into programs to test the implementation of the Z specification. In this talk I will show how Fastest works on some toy examples and our current research efforts.

Bio:

Maximiliano Cristiá is professor of Software Engineering at Universidad Nacional de Rosario (Argentina) and head of the Software Engineering Group at CIFASIS (International Franco-Argentine Center for Information Sciences and Systems). His research interests include formal methods, particularly model-based testing, software architecture and tool development for the Software Engineer.

 

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Rückblick: FASTEST: Test Case Generation from Z Specifications [Video, Slides]

A Conceptual-Modeling Approach to Data Extraction

Abstract: For more than a decade we have been studying ways that conceptual modeling can improve our ability to extract semantic data from unstructured and semi-structured information sources such as web pages and historical documents. We start with a data-extraction ontology that comprises a conceptual model together with data frames describing concepts of interest that may be found in an information source. Data-extraction ontologies provide significant advantages over traditional extraction techniques because they give relatively high precision and recall and are robust to changes in the information source structure. However, these benefits come at a price: extraction ontologies require significant expertise to construct, and they apply to a relatively narrow domain of interest. In this lecture I will review our past contributions with a special emphasis on the research techniques we have applied, and I will also describe current areas of research and directions for future experimentation.

CV: Dr. Stephen W. Liddle is academic director of the Kevin and Debra Rollins Center for Entrepreneurship and Technology at Brigham Young University and professor of Information Systems at the Marriott School of Management. Dr. Liddle teaches mobile app development and information systems analysis. Liddle has been a member of BYU’s business school faculty since 1995, after receiving his PhD in Computer Science from BYU. He has been active in the conceptual modeling community for two decades, and currently serves as treasurer of the steering committee for the ER Conference. Liddle’s research interests include conceptual modeling, software engineering environments and tools, data extraction, and e-business. He is particularly interested in mobile application development and applications of conceptual modeling, such as the use of ontologies in data extraction. His work has appeared in journals such as Data and Knowledge Engineering and the Annals of Operations Research, and in respected conferences such as the ER Conference and CIKM, among others. Besides authoring or co-authoring more than 50 refereed academic papers, Liddle is editor of numerous conference and workshop proceedings, and is co-author of the book E-Business: Principles and Strategies for Accountants. Liddle is a member of several advisory boards for tech startups in Utah, and has considerable experience in software development.

Posted in TEWI-Kolloquium | Tagged , , | Kommentare deaktiviert für A Conceptual-Modeling Approach to Data Extraction

Model-based Systems with Applications in Energy Informatics

Model-based reasoning focuses on formal theories and algorithmic techniques for system-wide diagnosis, planning, and optimization of technical systems.  Distinctive features include the use of compositional models to capture the behavior of components and their interaction, and a generic set of reasoning algorithms.  This talk highlights some of our research in the area of model-based systems, particularly to expand towards on-line estimation and control and hybrids of constraint-based and probabilistic models to capture software behavior and continuous dynamics, and presents some recent applications in the domain of energy informatics and sustainable mobility.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Model-based Systems with Applications in Energy Informatics

Self-Organizing Smart Microgrids

Transforming our energy system from hierarchically structured, fossil fuel resources to a distributed, smart sustainable system is one of the great challenges of our time. In this context researchers target their efforts towards modeling of distribution networks, identifying appropriate communication systems, handling configuration complexity, and algorithms for distributed smart micro-grid networks. The first part of the talk depicts how self-organizing configuration and communication mechanisms can contribute to this goal. The second part of the talk gives an introduction to the smart microgid lab, which provides an experimental environment where motivated students can learn and gain practical experience in the domain of smart grids. Finally, I will give an outlook to projects and collaborations in the smart grid area.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Self-Organizing Smart Microgrids

Netzorientiertes Lastmanagement in zukünftigen Smart Grids

Für eine stabile und sichere Stromversorgung müssen sich Einspeisung und Verbrauch im elektrischen Stromnetz, das heute noch über keine nennenswerten Speicherkapazitäten verfügt, stets im Gleichgewicht befinden. Die zunehmende Einspeisung durch regenerative Energiequellen ist aber nur schwer zu prognostizieren und in der Regel nicht planbar. Um den Ausgleich zwischen Verbrauch und fehlender Erzeugung aus Erneuerbaren herzustellen, muss daher vermehrt auf die am Netz vorhandenen konventionellen Kraftwerke zurückgegriffen werden, da nur sie in ihrer Einspeiseleistung beeinflussbar sind und damit netzstabilisierend eingesetzt werden können.

Parallel dazu müssen regionale Energieüberschüsse entgegen der üblichen Flussrichtung vom Erzeuger in Regionen mit einem Defizit an Erneuerbaren gebracht werden. Auf dem Weg dorthin müssen die Netze ausreichend dimensioniert sein. Auch hierbei spielen konventionelle Kraftwerke eine wichtige Rolle, um die Frequenz im Verbundnetz auch bei Versorgung durch dezentrale Energieerzeuger in jeder Sekunde aufrechtzuerhalten. Um dieser wachsenden Unsicherheit im Betrieb elektrischer, regenerativ geprägter Versorgungsnetze zu begegnen, wird versucht, einen Teil der elektrischen Geräte und Anlagen auf Kundenseite zu flexibilisieren und zur Unterstützung bei der Einhaltung des Gleichgewichtes zwischen Verbrauch und Erzeugung zu beeinflussen, um bspw. bevorzugt dann Strom zu konsumieren, wenn z.B. der Wind gerade heftiger weht.

Derartige intelligente Stromnetze, sog. „Smart Grids“, die das Flexibilisierungspotenzial dezentraler Verbraucher und Erzeuger für einen Ausgleich des Versorgungsgleichgewichts nutzen, müssen jedoch die Belastbarkeitsgrenzen der Netzinfrastruktur jederzeit mit berücksichtigen. Mit zunehmender Anzahl steuerbarer Anlagen, die zu diesem Zweck geregelt werden sollen, erhöht sich die Komplexität der zugrunde liegenden und bislang zentral organisierten Koordinationsaufgabe überproportional. Aus diesem Grund verfolgen zukünftige Smart Grid Konzepte dezentrale Lösungsansätze, die das komplexe Ausgleichsproblem in kleinere und damit leichter beherrschbarere Teilprobleme zerlegen. Derartige Ansätze sind maßgeblich informations- und kommunikationstechnisch geprägt. Stromnetz und Anlagen müssen intelligenter werden und sich kontinuierlich über ihre Bedürfnisse abstimmen, um der geänderten Versorgungsaufgabe gerecht zu werden und den Netzausbaubedarf zu verringern.

 

 

 

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Netzorientiertes Lastmanagement in zukünftigen Smart Grids

Methods and Systems for Enterprise Innovation in the Networked Economy: a Knowledge-centric Approach

Abstract:

ICT infrastructures and enterprise systems are today in a process of deep change, motivated by the transformation that are taking place in two key dimensions. One is the technology dimension, with the advent of Cloud Computing, Service Oriented Architectures (SOA) and SaaS (Software as a Service), Internet of Things and Smart Objects, Semantic Web and Linked Data, and finally the advent of Social Media in the enterprise world, just to name a few among the most relevant ones. Another is the socio-economic dimension, where the slowdown of western economies requires a change in the development models and business paradigms; in particular, enterprises are under pressure to achieve, at the same time, more efficiency and continuous innovation. Therefore, enterprise systems need to refocus, progressively shifting from the management of today resources and value production activities to the invention of future opportunities and new forms of value production. This is, in essence, the current scenario that next generation enterprise systems need to cope with. And the challenges require a new approach to the knowledge assets that is often referred to as the ‘oil of the third millennium’. Therefore, enterprise systems need to deeply change, in the way they are conceived and engineered, achieving a tight integration with semantic technologies and social media.

Bio:

Michele Missikoff, Doctor in Physics (University of Rome „La Sapienza“), worked until 1980 in industrial research labs of two Italian companies, leader in electronic equipment and software development, respectively. Then he started his research carrier, becoming Director of Research in 2001, at the National Research Council, Institute of Analysis of Systems and Informatics, where he coordinated the Database group until 1985, then the Knowledge Engineering group and, in 1999, he founded the LEKS, Lab for Enterprise Knowledge and Systems, that he currently leads as CNR Research Fellow.
He has been the proposer, coordinator and/or active participant in more than 30 national, European and international projects. Has being particular active in various groups, committees, and task forces, promoted by the European Commission, DG Information Society and Media. Currently, he is the coordinator of the FInES (Future Internet Enterprise Systems) Research Roadmap Task Force, launched by the EC FInES Cluster (Unit D4).
He has promoted, organised, and chaired various international conferences and workshops, among which CAiSE, CoopIS, ODBASE, EDBT (co-founder), VLDB (Industrial Co-chair). He has been editor of VLDB Journal, Journal of Applied Intelligence. He has a long teaching experience at University of Roma „La Sapienza“ and LUISS, with courses on Artificial Intelligence, Databases, Information Systems, Knowledge Management. He published more than 150 technical and scientific papers, many on international journals and conference proceedings, with the main focus on application of semantic technologies to e-Business and e-Government. His main research interests are: enterprise ontologies, methods for knowledge representation, ontology engineering, similarity reasoning, business process ontologies, methods and tools for business innovation; and applications in the area of e-tourism, e-government, e-business, and mobile social media.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Methods and Systems for Enterprise Innovation in the Networked Economy: a Knowledge-centric Approach

Comprehension-Techniken am Beispiel formaler Z-Spezifikationen

Abstract: Zuverlässigkeit und Stabilität spielen in den heutigen, Software-lastigen Systemen eine immer entscheidendere Rolle. Die Verwendung formaler Spezifikationen ist naheliegend, jedoch gilt es dabei auch Hindernisse zu überwinden. Einerseits sind nicht alle an einem Projekt Beteiligten mit der Notation vertraut und andererseits führt die mathematisch dichte Notation zu einer hohen Komplexität, welche große Spezifikationen schwer verständlich und damit auch schwer wartbar macht.

Der Vortrag ist in drei Teile gegliedert und geht dabei auf die oben genannten Hindernisse ein. Im ersten Teil geht es um die Transformation von Spezifikationen in alternative, graphische Darstellungsformen, im zweiten Teil um Techniken die die Komplexität verringern helfen und das Verstehen von Spezifikationen fördern. Der Vortrag schließt mit der Vorstellung von Metriken, welche den Entwicklern helfen die Qualität einer Spezifikation abzuschätzen und helfen der Alterung von Spezifikationen entgegenzuwirken.

Keywords: Formale Spezifikationen, Komplexität, Visualisierung, UML

CV: Andreas Bollin ist Assistenz-Professor am Institut für Informatik- Systeme (Abteilung Software Engineering and Soft Computing) der Alpen-Adria Universität Klagenfurt. Seine Forschungsschwerpunkte sind Software Comprehension und Reverse Engineering, Formale Methoden, Multimedia-Systeme und Informatik-Didaktik. Er ist Mitglied der IEEE Computer Society und ein Mitglied von ACM. Sie erreichen ihn unter andi@isys.uni-klu.ac.at.

Posted in TEWI-Kolloquium | Tagged , , , | Kommentare deaktiviert für Comprehension-Techniken am Beispiel formaler Z-Spezifikationen
RSS
EMAIL