Rückblick: Visual Programming and Visualization of Programming [Video]

Der Rückblick zum TEWI-Kolloquium von Mordechai Ben-Ari am 01.10.2012 beinhaltet die Videoaufzeichnung:

Video

[iframe height=“350″ src=“http://video.aau.at/video.php?video=ftf_ben-ari.mp4″]

Abstract: Learning programming is a difficult task and many students fail to complete introductory computer science courses. The talk will describe our research into two approaches to improve learning of programming. Scratch is a visual programming environment intended for young people. They construct programs by dragging-and-dropping blocks labeled with commands and operations; the programs control the animation of sprites which provides a motivating context. We found that even middle-school students (age group 12-14) are capable of developing non-trivial software and, furthermore, they find it easier to learn professional programming languages when they reach secondary school. However, Scratch can cause students to develop bad programming habits that may be difficult to overcome and teachers must ensure that this doesn’t happen.

The other approach is to visualize the execution of programs written as text in professional programming languages. The Jeliot program animation system automatically generates detailed animations of programs written in the Java. Jeliot significantly facilitates learning because it provides a graphic display of the dynamic aspects of program execution that are hidden within the computer. An investigation into the use of Jeliot by secondary-school teachers showed a wide range of engagement, from full integration into the teaching practice to rejection caused by psychological factors.

Short CV: Mordechai (Moti) Ben-Ari is a full professor in the Department of Science Teaching of the Weizmann Institute of Science, where he heads the computer science education group. He is the author of numerous textbooks, including Principles of Concurrent and Distributed Computation, and Mathematical Logic for Computer Science. His group, in collaboration with the University of Eastern Finland, developed the Jeliot program animation system. In 2004, he received the ACM/SIGCSE Award for Outstanding Contributions to Computer Science Education, and in 2009 he was elected as a Distinguished Educator of the ACM.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Rückblick: Visual Programming and Visualization of Programming [Video]

Rückblick: Does Neurodidactics Imply Revolution, Evolution, Enrichment, or Provocation of Established Pedagogical Theories? [Video, Pictures]

Der Rückblick zum TEWI-Kolloquium von Aadu Ott am 16.10.2012 beinhaltet die Videoaufzeichnung sowie die Folien:

Video

[iframe height=“350″ src=“http://video.aau.at/video.php?video=ftf_ott.mp4″]

Pictures

  

Abstract: This presentation will discuss questions like: “Why introduce neurodidactics?” “Why now?” “What will the consequences be?” A synthesis between pedagogy, psychology, powerful computers, molecular biology and neuroscience has resulted in development of different scanning technologies, which are based on modern physics. This has led to a paradigmatic change from external observations of human behaviour to internal studies of information processing, in vivo, in the human brain. “Will next generation of curricula for education have an underpinning in neurodidactics?” “Will neurodidactics change pedagogy from art to science?”

Short-Bio: Aadu Ott is professor emeritus in Science and Technology Education at the University of Göteborg in Sweden. He is dozent in physics, but has mainly been active in the field of education, including compulsory schools and teacher training. He has during 30 years cooperated with Deutsches Museum in München with in service training of teachers in the History of Technology. He has also done research on neurodidactics using fMRI equipment and has had contact with ZNL, TransferCenter für Neurowissenschaft und lernen in Ulm. The last two years he has worked with the National Agency for Higher Education within a reform program for teacher education. He is now active in a program at Chalmers University of Technology which aims at creating a new kind of courses for students in technology. These students will, after five years of studies, receive a combination exam, including civil engineering and a teacher diploma.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Rückblick: Does Neurodidactics Imply Revolution, Evolution, Enrichment, or Provocation of Established Pedagogical Theories? [Video, Pictures]

Theorie, Praxis und Perspektiven der operationsbasierten formalen Schaltungsverifikation

Formale Methoden wenden mathematische Arbeitsweisen – wie Modellbildung oder das Beweisen wesent-licher Eigenschaften solcher Modelle – auf den Entwurf technischer Systeme an. Das Teilgebiet der formalen Verifikation beschäftigt sich mit dem Beweisen von Eigenschaften wichtiger Modelle. Als besonders wichtig gelten Endliche Automaten, denn diese beschreiben das Verhalten von Software- oder Hardwareimplemen-tierungen diskreter Steuerungen und damit von Schlüsselfunktionalität fast aller technischen Systeme.

Einführend wird der Stand der Kunst des Model Checking erläutert. Technischer Kern des Vortrags ist ein wesentlich anwendungsspezifischeres Verfahren, das durch ein VHDL-Programm beschriebenes Verhalten einer digitalen Schaltung lückenlos und automatisch mit einem abstrakten Automaten, einem abstrakten VHDL, vergleicht. Abstraktes VHDL ist eine Feinspezifikation der Schaltung durch ihre Operationen. Operationen formalisieren i.A. kurze Schaltungsaktivitäten wie Lese- oder Schreibzugriffe, Instruktionen oder Arbitrierungs-zyklen. Es wird erläutert, wie abstraktes VHDL erstellt, bezüglich der Grobspezifikation verifiziert, und dann mit dem VHDL automatisch verglichen wird. Dieser Vergleich zeigt Fehler in der Implementierung der Operationen an sowie Diagnosen zu ihrer Behebung. Automatische Überprüfung eines Kriteriums zur vollständigen Erfassung der Schaltungsfunktionalität durch Operationen garantiert Korrektheit des Codes.  

Es folgt eine kurze Darstellung der Anwendungs- und Prozessseite des Themas: Die operationsbasierte formale Schaltungsverifikation wurde in der zentralen Siemensforschung vor fast 20 Jahren konzipiert, bei Siemens, Infineon und weiteren Chipherstellern erprobt und schließlich in dem Spin-Off OneSpin Solutions zur Produkt-reife geführt. Der Ansatz garantierte Korrektheit zahlreicher VHDL-Programme einer Größenordnung von 100000 LoC – ein prominentes Beispiel ist der in der Automobilelektronik weit verbreitete TriCore-Prozessor von Infineon. Obwohl die Verifikationsproduktivität des Ansatzes mit der der simulationsbasierten Verifikation vergleichbar ist und auch „Nichtformalisten“ die Technik erfolgreich erlernen können, hat sich der Ansatz noch nicht in der Breite durchgesetzt. Auch die Übertragbarkeit des Erfolgsrezepts der operationsbasierten Modellierung auf andere Anwendungsbereiche wie die Fertigungstechnik wurde bisher kaum untersucht.

Der Vortrag schließt mit der Analyse der Erfolgsfaktoren für den Breiteneinsatz der operationsbasierten Schal-tungsverifikation und schildert mögliche nächste Schritte. Vielversprechend erscheint eine weitere Nutzung von abstraktem VHDL für die funktionale Sicherheitsanalyse einer Schaltung. Während Verifikation Entwurfs-fehler aufspürt, beschäftigt sich die Sicherheitsanalyse mit zufälligen Fehlern, verursacht etwa durch Alterungs-prozesse oder durch Strahlungseinflüsse, und so möglichen schwerwiegenden Systemausfällen. Es wird skizziert, wie mithilfe des abstrakten VHDL eine Sicherheitsanalyse für Schaltungen konzipiert und so eine Brücke zwischen formaler Verifikation und funktionaler Sicherheitsanalyse geschlagen wurde.

Kurz-Bio: Wolfram Büttner promovierte 1978 in Mathematik an der Tulane University in New Orleans, habilitierte in diesem Fach an der TU Darmstadt und wechselte dann in die Informatik. Seit 1989 ist er Außerplanmäßiger Professor an der TU Kaiserslautern. Von 1984 bis 2002 arbeitete Dr. Büttner in den Corporate Technology Labs (CT) von Siemens in München – zuletzt als Abteilungsdirektor mit Verantwortung für die Themengebiete formale Methoden, diskrete und stochastische Optimierung sowie Lernende Systeme. Seit 2000 fokussierte Dr. Büttner seine Tätigkeit auf die formale Schaltungsverifikation und führte die Verifikationstechnologie von CT zur Produktreife und auf den canadian pharmacy no prescription Markt – erst bei Infineon und ab 2005 in zwei Start-Up’s.

 

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Theorie, Praxis und Perspektiven der operationsbasierten formalen Schaltungsverifikation

Latest Developments of Scalable Vector Graphics (SVG) 2, with a Focus on Streaming and Gradient Technologies

Abstract:
Web technologies are used more prominently in multimedia applications. HTML5 is the flagship of these technologies but other techologies such as the Scalable Vector Graphics (SVG) standard take a growing part. The SVG standard is about be released in its version 2, providing advanced graphical tools and more integration with HTML5, enabling richer multimedia applications. This talk will present the new features of the standard, as well as the research work being carried to further improve it. A particular focus will be put on the research work done in the areas of gradient technologies, such as Gradient Meshes and Diffusion Curves, and in the area of animations and streaming.
Biography:
Cyril Concolato is Associate Professor in the Multimedia Group at Telecom ParisTech, Paris, France, where he received his master and doctoral degree in Computer Science in 2000 and 2007, respectively. His interests lie in interactive multimedia applications, in particular for the mobile, television and web worlds. He has been involved several collaborative projects (including European projects) and has published more than 30 papers in this area. He is also an active participant to the standardization bodies of MPEG and W3C. Finally, he is one of the project leaders of the Open Source project GPAC.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Latest Developments of Scalable Vector Graphics (SVG) 2, with a Focus on Streaming and Gradient Technologies

Time-Frequency Logic For Signal Processing

:

In this talk he will first introduce Time-Frequency Logic (TFL), a new specication formalism for real-valued signals that combines temporal logic properties in the time domain with frequency-domain properties. He will then present a property checking framework for this formalism and demonstrate its ex- pressive power to the recognition of musical pieces. Like hybrid automata and their analysis techniques, the TFL formalism is a contribution to a unied systems theory for hybrid systems.
This is joint work with Alexandre Donze, Oded Maler, Dejan Nickovic, Ezio Bartocci and Scott Smolka.

Radu Grosu is a Professor and Head of the Dependable- Systems Group at the Faculty of Informatics of the Vienna University of Technology, and a Research Professor at the Computer Science Department of the State University of New York at Stony Brook. His research interests include modeling, analysis and control of cyber-physical and biological systems and his application focus includes green operating systems, mobile ad-hoc networks, automotive systems, the Mars rover, cardiac- cell networks and genetic regulatory networks. Grosu is the recipient of the National Science Foundation Career Award, the State University of New York Research Foundation Promising Inventor Award, the ACM Service Award, and a member of
the International Federation of Information Processing WG 2.2. Before receiving his appointment at the Vienna University of Technology, Grosu was an Associate Professor in the Computer Science Department of the State University of New York at Stony Brook, where he co-directed the Concurrent-Systems laboratory and co-founded the Systems-Biology laboratory. Grosu earned his Dr.rer.nat. in Computer Science from the Technical Univer- sity of Mu?nchen, and was a Research Associate in the Computer Science Department of the University of Pennsylvania.

Posted in TEWI-Kolloquium | Tagged , , , , | Kommentare deaktiviert für Time-Frequency Logic For Signal Processing

Didaktik der Informatik – zwischen Forschung und Praxis im Rück- und Ausblick

In jedem Unterrichtsfach kommt der Fachdidaktik eine Vermittlungsrolle zwischen der aktuellen Forschung und der Unterrichtspraxis zu. Für die Informatikdidaktik gilt das in besonderem Maße, weil die Etablierung des Faches vor kurzem erst begonnen hat und es daher kaum bewährte „best practice“ Ansätze gibt. Insbesondere sind didaktische Forschungsergebnisse ohne das Forschungsfeld der Unterrichtspraxis kaum in ausreichender Validität zu erzielen. Auch gewinnen diese Ergebnisse erst durch ihre Übertragung auf die Praxis ausreichende Relevanz. Umgekehrt sind die Lehrkräfte beim Aufbau des neuen Faches auf Ergebnisse der Forschung angewiesen. Dieser Vortrag präsentiert meine bisherigen Forschungsschwerpunkte aus dem Blickwinkel der Beziehung zur Praxis und gibt einen Ausblick auf geplante Aktivitäten bis 2017. Die wichtigsten Forschungsthemen sind dabei der Aufbau des Informatikunterrichtes auf internationaler Ebene, die Konstruktion, empirische Validierung und Messung von Kompetenzen und Kompetenzmodellen für Lehrkräfte einerseits sowie für Schülerinnen und Schüler andererseits, die Untersuchung von Wissensstrukturen der Informatik, die didaktische Rekonstruktion von Informatikunterricht sowie Lernprozesse zur Programmierung.

Posted in TEWI-Kolloquium | Tagged , | Kommentare deaktiviert für Didaktik der Informatik – zwischen Forschung und Praxis im Rück- und Ausblick

Von Abenteuer Informatik bis Computational Thinking: Die Vermittlung allgemeinbildender Kernkompetenzen der Informatik

Informatik allgemeinbildend unterrichten – das erfordert eine Konzentration auf entsprechende Kernkompetenzen des menschlichen Denkens wie die Fähigkeit zur Modellbildung und informatische Problemlösekompetenz. Zur Vermittlung ist es hier sinnvoll, zeitweise ganz bewusst auf abstrakte Technologie zu verzichten. Im deutschsprachigen Raum habe ich hierzu didaktische Konzepte unter dem Schlagwort „Abenteuer Informatik“ veröffentlicht, im angelsächsischen Bereich ist von Jeannette Wing mit „Computational Thinking“ ebenfalls ein Konzept erstellt worden, das in die Schulcurricula Einzug hält. Im Vortrag werde ich Gemeinsamkeiten und Unterschiede der Konzepte erläutern und in diesem Zusammenhang meinen bisherigen Forschungsschwerpunkt verdeutlichen.

Posted in TEWI-Kolloquium | Tagged , | Kommentare deaktiviert für Von Abenteuer Informatik bis Computational Thinking: Die Vermittlung allgemeinbildender Kernkompetenzen der Informatik

Metafora, eine Lernplattform zur Unterstützung des selbstregulierten Lernens in Gruppen für Mathematik und Naturwissenschaften – und Perspektiven für die Nutzung in der AAU School of Education

Momentan zeichnet sich im Bereich der Lehr-/Lernsysteme ein starker Trend hin zu Web-Anwendungen ab, der sich beispielsweise in der weiten Verbreitung von universitären und schulischen Lernplattformen widerspiegelt. Interaktives, synchrones Arbeiten und Lernen in Gruppen im Web stellen allerdings höhere Ansprüche sowohl an pädagogische Ansätze als auch deren technische Implementierung. Der Vortrag stellt das EU-geförderte Projekt Metafora vor, in dem wir einen Ansatz zur Unterstützung des kollaborativen und selbstorganisierten Planens von Lernaktivitäten entwickeln (learning to learn together = L2L2). Neben der kollaborativen Grundarchitektur präsentieren wir auch auf regelbasierten Ansätzen beruhende intelligente Unterstützungsmöglichkeiten, die im Projekt entwickelt werden. Der Vortrag geht abschließend auch auf die Potentiale des Einsatzes und der Weiterentwicklung des Systems im Rahmen der AAU School of Education ein.

Posted in TEWI-Kolloquium | Tagged , | Kommentare deaktiviert für Metafora, eine Lernplattform zur Unterstützung des selbstregulierten Lernens in Gruppen für Mathematik und Naturwissenschaften – und Perspektiven für die Nutzung in der AAU School of Education

Does Neurodidactics imply Revolution, Evolution, Enrichment, or Provocation of Established Pedagogical Theories?

Issues to be considered when teaching courses in Informatics

Abstract: This presentation will discuss questions like: „Why introduce neurodidactics?“ „Why now?“ „What will the consequences be?“ A synthesis between pedagogy, psychology, powerful computers, molecular biology and neuroscience has resulted in development of different scanning technologies, which are based on modern physics. This has led to a paradigmatic change from external observations of human behaviour to internal studies of information processing, in vivo, in the human brain. „Will next generation of curricula for education have an underpinning in neurodidactics?“ „Will neurodidactics change pedagogy from art to science?“

 Short-Bio: Aadu Ott is professor emeritus in Science and Technology Education at the University of Göteborg in Sweden. He is dozent in physics, but has mainly been active in the field of education, including compulsory schools and teacher training. He has during 30 years cooperated with Deutsches Museum in München with in service training of teachers in the History of Technology. He has also done research on neurodidactics using fMRI equipment and has had contact with ZNL, TransferCenter für Neurowissenschaft und lernen in Ulm. The last two years he has worked with the National Agency for Higher Education within a reform program for teacher education. He is now active in a program at Chalmers University of Technology which aims at creating a new kind of courses for students in technology. These students will, after five years of studies, receive a combination exam, including civil engineering and a teacher diploma.

Posted in TEWI-Kolloquium | Tagged , , | Kommentare deaktiviert für Does Neurodidactics imply Revolution, Evolution, Enrichment, or Provocation of Established Pedagogical Theories?

Characterization of ferromagnetic and piezoelectric transducer materials

Electromechanical sensors and actuators are important components appearing in all disciplines of engineering. Transducer is a commonly used generic term for those components. In this respect, two important classes of materials are discussed: firstly, ferroelectric and piezoelectric materials, and secondly, magnetic and magnetostrictive materials. In order to predict a transducer’s behavior, the utilized materials have to be characterized precisely. The two most decisive aspects in characterization of those materials are the physical models used to describe the material behavior as well as the measurement methods for the determination of the model parameters. Both aspects are closely linked and, therefore, have to be taken into account simultaneously.

This talk starts with an introduction of the material classes and their properties. The use of these materials for well known applications like piezoelectric stack actuators, ultrasonic transducers and electrical power transformers is presented. Furthermore, the talk highlights the most modern fields of applications like magnetostrictive thin film micro-actuators for micro electromechanical systems (MEMS) and piezoelectric smart materials. After this overview, the talk focuses on magnetic materials, especially on magnetic large signal hysteresis effects. The scalar Preisach model is discussed and compared to other approaches. The motivation for its vectorial extension is given. The methods and measurement setups for parameter identification are explained, with focus on the Vector Vibrating Sample Magnetometer. The talk closes with an outlook on future applications of large signal models in numerical simulation and control engineering.

Posted in TEWI-Kolloquium | Kommentare deaktiviert für Characterization of ferromagnetic and piezoelectric transducer materials
RSS
EMAIL