AdHoc MeldungenAffiliate & PublisherAdvertiser & MerchantAcademyAntwortenArtikelsucheAdventskalender SuperClix - das Partner-Programm-NetzwerkAffilitivProduktdatenPreisvergleich
Artikelsuche & Preisvergleich:


· 1 · ::::: · 11 ·· 12 ·· 13 ·· 14 ·· 15 ·· 16 ·· 17 · ::::: · 24 ·

SAMEM: A Methodology for the Elicitation and Specification of Requirements for Agile Model-driven Engineering of Large Software Solutions

für 39.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
This thesis presents a pragmatic methodology, Software Agile Modeling And Engineering Methodology (SAMEM), for the development of large software-based solutions. The methodology is founded on the techniques of visual communication through models (Model-driven Development), a systematic guided progression of the project from beginning to end, an agile project management approach emphasizing an iterative and incremental style, and focusing on the requirements specification of the project. The iterative & incremental approach is a risk mitigation technique to prevent the project from going off track via a short feedback loop. Projects have momentum that is a collection of the decisions and work accomplished. Small steps with verification that the work is correct and consistent with the project goals create a situation where potentially only a small investment is discarded. Small discards are easier to accept and can often be viewed as design explorations. The SAMEM applies the iterative & incremental approach at all levels across the complete project lifetime. Modeling or graphical representations of the majority of project artifacts is risk mitigation against creating the incorrect solution and building the solution incorrectly. It is well known that visual expression can communicate information more accurately in many situations versus text. The mitigation effects against creating the incorrect solution, at least from the perspective of the stakeholders, is through the improved and more effective communication provided by models or graphical representations. One contribution for graphical representation or modeling is the idea of a Solution Overview Drawing (SOD) that provides a single-page summary by integrating multiple model views of requirements or design ····· 10361108332

Das ist Information

für 38.00€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Der Begriff Information wurde 1940 von Norbert Wiener mit seiner Kybernetik eingeführt. Wesentlich für seine große Verbreitung war Shannons Informationstheorie, die wichtige Grundlagen der Nachrichten-, Rechen- und Speichertechnik bereitstellte. Heute ist Information ein nahezu universell angewendeter Begriff, der aber leider sehr oft nur unscharf und intuitiv benutzt wird.

Mit diesem Buch liegt wohl erstmalig eine exakte Begriffsdefinition vor. Sie geht weitgehend auf Wieners Einführung zurück. Information ist kein Objekt, sondern betrifft immer ein komplexes Geschehen, das aus drei Teilen besteht. Der stofflich-energetische Informationsträger wirkt auf ein spezifisches System ein und ruft in ihm und in dessen Umgebung eine spezielle Wirkung, das Informat hervor. Bei einer Musikaufzeichnung ist z. B. die verbogene Rille der Schallplatte der ursprüngliche Informationsträger, der über technische Schritte den Schall erzeugt, der schließlich auf Menschen einwirkt. Damit er die ursprünglich beabsichtigte Wirkung, das Informat hervorruft muss der Mensch (als angepasstes System) bereits über spezifische Musikerfahrungen verfügen.
Im Allgemeinen besitzt Information vielfältige Möglichkeiten und Varianten. Sie werden detailliert begründet und exakt behandelt. Dabei ist es notwendig, fünf Aspekte der Information zu unterscheiden. Grundlegend ist der dreistufige Fall aus Informationsträger, System und Informat, der wegen der wichtigen und spezifischen Wirkung (dem Informat) W-Information genannt wird. Vielfach, insbesondere bei Sprache und Schrift werden jedoch nicht die Originale als Informationsträger benutzt. Statt ihrer werden im Sinne der Semiotik auf sie verweisende Zeichen verwendet. Dann sind u. a. zusätzlich mittels Klassenbildung und Axiomatik sehr nützliche Komprimierungen als Vereinfachungen der Prozesse möglich. Deshalb wird dieser Aspekt als Z-Information bezeichnet. Ein dritter Aspekt betrifft die Nachrichtentechnik und deren Grenzen, wie sie von Shannon eingeführt und inzwischen enorm erweitert und ganz entscheidend für ihre Optimierung sind. Deshalb sind diese Inhalte unter S-Information erfasst und betreffen u. a. die Übertragung, Fehlerkorrektur, Komprimierung und Datensicherheit. Besonders wichtig für die Information sind die Möglichkeiten der Speicherung. Dafür ist eine umfangreiche Speichertheorie entstanden. Im gespeicherten Zustand liegt jedoch die Information nur potentiell vor. Erst durch die Wiedergabe muss aus dem Speicherzustand erneut ein Informationsträger erzeugt werden. Deshalb wurde hierfür der Begriff P-Information gewählt. Hierbei ist die von Shannon einführte Entropie wesentlich. Leider wird sie (selbst von Experten) recht oft mangelhaft bis falsch behandelt. Deshalb wird sie hier möglich anschaulich, aber dennoch mathematisch exakt erklärt. Die höchste Stufe der Information entsteht mittels der Nutzung der Rechentechnik. Sie ermöglicht völlig neue Anwendungen, die u. a. zu virtuellen Welten führen. Deshalb wurde hierfür die Bezeichnung V-Information gewählt.

Für alle Informationsarten werden die wichtigsten Beispiele eingeführt und ausführlich erklärt. So ist quasi ein Kompendium der Information mit genauer Erfassung ihrer Möglichkeiten und Grenzen bis hin zu den technischen Anwendungen entstanden. Da leider mit den vielen Möglichkeiten der Information auch ein umfangreicher Missbrauch entstanden ist und weiter entstehen wird, wurde ein Kapitel angefügt, das vor allem versucht, für die Zukunft einige Abgrenzungen und Maßnahmen aufzuzeigen, ····· 10361108257

Konzepte, Anwendungen und Entwicklungstendenzen von betrieblichen Umweltinformationssystemen (BUIS)

für 39.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Mit diesem Band wird der Workshop `6. BUIS-Tage` dokumentiert, der vom 24. bis zum 25. April 2014 an der Hochschule für Technik und Wirtschaft Berlin (HTW Berlin) stattfand. Dieser Workshop hatte zum Ziel, bestehende wie auch neuere Ansätze und aktuelle Entwicklungstendenzen auf dem Gebiet der betrieblichen Umweltinformationssysteme (BUIS) aufzuzeigen. Dabei wird hier unter einem betrieblichen Umweltinformationssystem allgemein jede Softwareanwendung verstanden, die für die Erfassung, Dokumentation und Bewertung betrieblicher Umweltschutzmaßnahmen sowie zur Generierung, Planung und Steuerung von Umweltschutzmaßnahmen genutzt wird und damit das Umweltmanagement in seinem Aufgaben zumindest für gewisse Teilaspekte unterstützt. Damit sollen BUIS die betrieblichen Bemühungen um Umweltschonung, Nachhaltigkeit und Material- und Energieeffizienz IT-gestützt begleiten. Die Spanne von Aufgaben und Ausprägungen von BUIS ist daher sehr weit und vielfältig, was sich auch in diesem Band gut ablesen lässt. So finden sich Beiträge zu bewährten BUIS-Konzepten, zu der Verwendung von MS Excel, zu Ansätzen zur Nachhaltigkeitsberichterstattung, zu Einsatzbeispielen in kleinen und mittleren Unternehmen, aber auch in Großunternehmen sowie zu Überlegungen zur Nutzung von bisher weniger in BUIS verwendeten Methoden aus der Informatik. Relativ neu hinzugekommen ist die Anwendung des `Mobile Computings` in Zusammenhang mit BUIS. ····· 10361108175

Model-based Engineering for Energy-efficient Operation of Factory Automation Systems within Non-productive Phases

für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
In the face of a future rise in energy prices, energy-efficient operation of industrial automation systems has strategic impact for manufacturing companies. The reduction of energy demand during non-productive phases helps to contribute to the overall energy efficiency of automated production systems. Up to now, there is no general scientific concept which addresses energy-efficient operation of factory automation systems within non-productive phases technically and economically on a multi-subsystem level. However, proposing detailed instructions and strategies for multiple interacting subsystems is crucial in order to realize energy savings technically. On this account, the proposed automaton-based system model enables the analytical description of structural and behavioral aspects of industrial automation systems. This kind of mathematical modeling serves as basis for identifying optimal strategies analytically relying on a structure-exploiting procedure which enables efficient strategy computation. Those strategies quantify the energy savings potentials and give support for technical realization. Since the computation of optimal strategies for industrial automation systems is complex, a novel approach is developed to calculate those strategies efficiently incorporating the problem structure provided by the model. Using models of real-world automation systems, the approach of this thesis is evaluated regarding further objectives. First, the feasibility of strategy execution is ensured which enables the evaluation of design decisions. Computed strategies are verified in the target system regarding correct execution. The prediction of energy demands by strategies is sensitive to model-to-system deviations, so that tests are applied to check the system model for accuracy of predictions. Economic considerations complete the assessment of the approach. Using the general concepts and methods of this thesis, the energy demand for industrial automation systems can be substantially reduced within non-productive phases. The chosen approach supports the model generation, the computation and evaluation of strategies, and the technical realization for industrial automation systems. ····· 10361108168

Information Theory

für 30.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
This book is a road movie: we use information as a vehicle to visit a lot of interesting places. 1. Information as a Measure for Localization According to Hartley, information is the precision to which an object is localized in some space. Linear economic growth is a system in which information is conserved. Chaotic systems loose information, and the mean loss is a measure for the `strength` of chaos. The distribution of points in some space leads to the de nition of fractal dimensions. The transition to quantum physics transforms bits into Weizsäcker urs, or q-bits. 2. Efficiency, Hierarchies, and Uncertainty Relations Efficiency is the gain of information with the growth of a system. In hierarchical modular systems information increases linearly with the size. We present the monetary systems as an example. - Shannon considers the distribution of events instead of objects. A generalization leads to the Fisher metric and the associated uncertainty relations in information theory. 3. Information, Justice, and Income Distribution A social interaction is called just if the ow of information is balanced. This is also the principle for `intuitionistic ethics`. The information contents of an amount of money is related to its logarithm. On this basis we develop a model of a just income distribution. It shows that a basic income can be achieved without limiting the ambition to earn more money. However, the basic income also for babies would drastically change the family structures. 4. Pragmatic Information and Entropy So far there is only limited connection to values. Therefore we de ne a `pragmatic information` via a vision or value operator acting on a space of constructs, ideas, etc. Pragmatic information is distributed over various instancies, it is subjective and objective at the same time, and it may be negative (`disinformation`). In a learning system, pragmatic information grows with time. Entropy is the information which we don`t have. The vision operator is mirrored to the Misra operator in the Brussels theory of entropy production. 5. Evolution and Bergsonian Time The creativity of evolution is due to selection. Its progress is shown as the growth of pragmatic information in time. In a sane system this growth is linear. We interprete pragmatic information as an indicator of Bergsonian time. We deduce an uncertainty relation between Kantian time and Bergsonian time. It entails that presence is the time span during which the change of information is limited. ····· 10361108167

Umweltinformatik

für 24.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Diese Festschrift soll das Lebenswerk von Prof. Dr.-Ing. Bernd Page, einem der Mitbegründer der Umweltinformatik in Deutschland, würdigen und reflektieren, indem sie wesentliche wissenschaftliche Methoden und Verfahren, aber auch wirtschaftlich relevante Aspekte aus der Arbeit von Bernd Page diskutiert und aufzeigt. Gleichzeitig gibt die Festschrift aber auch einen Einblick in die Historie und Aktivitäten einer langjährig aktiven Wissenschaftsdisziplin, die inzwischen im deutschsprachigen Raum auf eine rund 30jährige Vergangenheit zurück blicken kann. ····· 10361108155

Organizing centers in one-dimensional, piecewise-linear maps

für 35.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
The possible dynamics of one dimensional, piecewise-linear, discontinuous systems can be varied and very complex. Just a small variation in the parameters can lead to completely different bifurcations. This creates the problem of effectively investigating such a system. The solution that has been found in previous works is to investigate so-called organizing centers. An organizing center is a point with high codimension in the parameter space of a dynamical system. It has the property that a large number of bifurcation curves intersect there. Usually these bifurcation curves do not exist only near the organizing center, but cover a large part of the parameter space. This means that a large part of the parameter space contains the same bifurcations than the neighborhood of the organizing center. So, to understand this large part of the parameter space it is sufficient to investigate the neighborhood of the organizing center. The consequence of that is that the parameter space of a dynamical system can be investigated very effectively by first finding organizing centers in it and by then investigating the neighborhoods of these organizing centers. The result of such an investigation is one or several bifurcation scenarios, that the organizing center is said to `produce`. In the past this was done for several specific one dimensional, piecewise-linear, discontinuous systems with one point of discontinuity (two-partition systems). For each of these specific systems the organizing centers were identified and the bifurcation structures that they produce were investigated. In contrast to these previous works that investigated specific two-partition systems this work now presents a comprehensive overview over the organizing centers of piecewise-linear two-partition systems in general, thus presenting an overview over all asymptotic dynamics that are possible in these systems. Note that there is strong evidence that the results of this work also apply to systems with one point of discontinuity which are not piecewise-linear but piecewise-smooth. Two partition systems have in the general case four parameters: the offsets and the slopes. It is shown in this work that all organizing centers of these systems can be described by setting the slopes to fixed values and then describing the resulting offset plane. Furthermore, the possible slope combinations can be grouped into 16 different cases, so that the organizing centers that correspond to a specific case all produce similar bifurcation scenarios. These 16 cases can be reduced to 10 cases due to topological conjugacy. In addition to the description of organizing centers in piecewise-linear two-partition systems, this work also contains an investigation of organizing centers in one dimensional, piecewise-linear, discontinuous systems with two points of discontinuity (three-partition systems). This investigation is less comprehensive than the description of the dynamics of two-partition systems. The reason for that is that a full description of the dynamics of three-partition systems would be beyond the scope of this work. Instead, the investigation concentrates on a specific type of organizing center which produces a specific bifurcation scenario, the socalled nested period incrementing (NPI) scenario. The NPI scenario appears in piecewise-linear three-partition systems that contain a positive slope, a negative slope and a slope that is zero. Depending on the specific system it can appear in a fully and a partially developed form. The fully developed NPI scenario contains a specific set of periodic orbits. The partially developed NPI scenario only contains a subset of these periodic orbits. Both forms of the scenario are described in detail. ····· 10361108148

Integration und Analyse von Artefakten in der modellbasierten Entwicklung eingebetteter Software

für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Um heutigen Funktionalitäts- und Sicherheitsanforderungen an Automobile gerecht zu werden, ist eingebettete Software unerlässlich, da die rein elektronische Realisierung einerseits sehr komplex wäre und andererseits in einer hohen Anzahl elektrischer und elektronischer Komponenten münden würde. Dadurch würde das Automobil schwerer und folglich der Kraftstoffverbrauch höher. Für die Entwicklung eingebetteter Software hat sich in dieser Branche die modellbasierte Softwareentwicklung mit MATLAB/Simulink etabliert. Um dabei das Wiederverwendungspotenzial optimal auszuschöpfen, folgt man dabei dem Software-Produktlinienansatz. In der Entwicklung ergeben sich nun neue Herausforderungen im Bereich des Komplexitäts- und Evolutionsmanagements der Software. So sind Abhängigkeiten im Simulink- Modell oft nicht offensichtlich. Auch der Zusammenhang zwischen Artefakten des Entwicklungsprozesses, z. B. zwischen dem Simulink-Modell und dem Lastenheft, ist häufig unklar. Dies erschwert insbesondere die Einarbeitung späterer Änderungen. Diese Dissertation widmet sich derartigen Herausforderungen, indem zunächst ein allgemeines Lösungskonzept für die Artefaktintegration und -analyse erarbeitet wird, welches anschließend auf zwei Arten umgesetzt wird, die unterschiedlichen Paradigmen folgen. ····· 10361108119

Taking Mobile Multi-Object Tracking to the Next Level

für 35.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Recent years have seen considerable progress in automotive safety and autonomous navigation applications, fueled by the remarkable advance of individual Computer Vision components, such as object detection, tracking, stereo and visual odometry. The goal in such applications is to automatically infer semantic understanding from the environment, observed from a moving vehicle equipped with a camera system. The pedestrian detection and tracking components constitute an actively researched part in scene understanding, important for safe navigation, path planning, and collision avoidance. Classical tracking-by-detection approaches require a robust object detector that needs to be executed in every frame. However, the detector is typically the most computationally expensive component, especially if more than one object class needs to be detected. A first goal of this thesis was to develop a vision system based on stereo camera input that is able to detect and track multiple pedestrians in real-time. To this end, we propose a hybrid tracking system that combines a computationally cheap low-level tracker with a more complex high-level tracker. The low-level trackers are either based on level-set segmentation or stereo range data together with a point registration algorithm and are employed in order to follow individual pedestrians over time, starting from an initial object detection. In order to cope with drift and to bridge occlusions that cannot be resolved by low-level trackers, the resulting tracklet outputs are fed to a high-level multihypothesis tracker, which performs longer-term data association. With this integration we obtain a real-time tracking framework by reducing object detector applications to fewer frames or even to few small image regions when stereo data is available. Reduction of expensive detector evaluations is especially relevant for the deployment on mobile platforms, where real-time performance is crucial and computational resources are notoriously limited. To overcome another limitation of a classical tracking-by-detection pipeline, employment only for tracking of objects for which a pre-trained object classifier is available, we propose a tracking-before-detection system that is able to track known and unknown objects robustly, based purely on stereo information. With this approach we track all visible objects in the scene by first segmenting the point cloud into individual objects and associating them to trajectories based on a simple registration algorithm. The core of our approach is a compact 3D representation that allows us to robustly track a large variety of objects, while building up models of their 3D shape online. In addition to improving tracking performance, this representation allows us to detect anomalous shapes, such as carried items on a person`s body. Moreover, classical pedestrian tracking approaches ignore important aspects of human behavior, that should be considered for better scene understanding. Humans are not moving independently, but they closely interact with their surroundings, which includes not only other persons, but also further scene objects. Being able to track not only humans but also their objects, such as child strollers, suitcases, walking aids and bicycles, we propose a probabilistic approach for classifying person-object interactions, which associates objects simultaneously to persons and predicts their interaction type. In order to demonstrate the capabilities of proposed tracking algorithms, we evaluated them on several challenging video sequences, captured in busy and crowded shopping street environments. As our experiments prove we come closer to the goal of better scene understanding, being able to detect and track multiple objects in the scene in real time and to predict their possible interactions. ····· 10361108093

New Algorithms for Automated Processing of Electronmicroscopic Images

für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
To better understand macromolecular complexes and structures of proteins next to the functional analysis the three-dimensional (3D) structure of the molecules is of utmost importance. To accomplish this there are several methods known to date the three most widely used being X-ray crystallography, nuclear magnetic resonance spectroscopy and cryo-electron microscopy (CryoEM). The latter is the method of choice for large macromolecular complexes. Three dimensional structure determination based on micrographs recorded using state of the art electron microscopes requires the combination of different, sophisticated, computing time intensive algorithms. Due to improved camera systems and recording times the number of micrographs produced is steadily increasing. While this theoretically enables to push the resolution limits of obtained structures it also requires all involved methods and techniques to evolve and improve as the sheer mass of data can not be handled manually anymore. While the computational speed of all techniques limits the overall feasibility the quality of those algorithms has a major impact on the quality of reconstructed three dimensional volumes. In this work a novel reference free particle picking software is presented, that enables scientists to cope with the new challenges offered by the huge amount of data available. This algorithm automatically identifies particles in micrographs reliably and writes them to a single file on a hard drive. A single particle image processing framework is introduced that unifies the workflow of CryoEM and offers techniques and algorithms to calculate three dimensional structures from single particle images. As part of this imaging framework an algorithm was developed that automatically corrects single particle images for the contrast transfer function, that is induced due to spherical aberration of optical devices and defocussing the electron beam of the electron microscope to obtain better phase contrast during image acquisition. ····· 10361108004

Transaction Level Modeling and High Performance Simulation of Embedded Systems

für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Transaction level modeling (TLM) is a simulation centric, system level modeling paradigm for the design of complex embedded systems incorporating both hardware and software. Compared to register transfer level (RTL) and signal level models, transaction level models require far less modeling effort and their simulation is orders of magnitude faster. Various TLM abstraction levels and modeling styles enable trade off between the simulation speed and accuracy for different stages of the system design flow. These have made TLM an increasingly valuable tool in the design of embedded systems, and an active research area in the recent years. TLM has evolved without an abstract formal foundation, around languages such as SystemC, which have inherited most of their modeling constructs from lower abstraction levels such as the gate level and the RTL. The main focus of TLM has been on constructs for abstract modeling of communication, and the description of behavior has relied on existing, low level modeling constructs. Moreover, although the trend is changing, current TLM languages are bound to sequential simulation schemes. These simulation schemes neither take advantage of the increasingly available low cost parallel processing power, nor from the properties of TLM models. Additionally, the TLM community has acknowledged the need for models with dynamic accuracy, yet no constructs for systematic development of such models have been proposed. As its foundation, this dissertation proposes a metamodel with a set of high level modeling constructs for abstract representation and study of transaction level models and their simulation semantics. Three modeling styles are represented in terms of the proposed metamodel: the recently proposed loosely timed (LT) and approximately timed (AT) styles, and a novel accuracy adaptive (AA) modeling style for systematic construction of models with dynamic accuracy. Being implementation independent, and detached from any particular simulation algorithm, the metamodel allows different simulation schemes to be devised, used and compared. After a systematic study of existing sequential simulation schemes, it is shown how parallel discrete event simulation (PDES) can be applied to transaction level models. It is then shown that PDES can not always take advantage of the inherent parallelism in models. For such cases, simulation schemes are proposed which exploit the properties of the presented TLM modeling constructs to improve the performance of PDES. A proof of concept modeling and simulation library was implemented to evaluate the presented simulation schemes and modeling styles, using both application independent and application oriented models. At the modeling level, the experiments have confirmed the expressiveness of the proposed modeling constructs for the use cases presented in this dissertation. Additionally, they have shown both the advantages and limitations of sequential simulation techniques such as temporal decoupling. Finally, the results have confirmed that it is possible to significantly improve the simulation performance by taking advantage of the properties of transaction levels models. These would not have been possible without an abstract, implementation independent representation of transaction level models and high level modeling constructs, confirming the advantages of the proposed metamodel. ····· 10361107997

Ein modellbasiertes Sicherheitskonzept für die extrakorporale Lungenunterstützung

für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Die extrakorporale Lungenunterstützung (ECLA) als intensivmedizinische Behandlung des akuten progressiven Lungenversagens (ARDS) wird heutzutage nur als Ultima-Ratio- Therapie eingesetzt. Dies ist nicht zuletzt der Komplexität der Anwendung und den mit ihr verbundenen Risiken geschuldet. Zur Überwindung dieses Missstandes wurde das Projekt SmartECLA initiiert. Ziel war es, die Anwendung der ECLA durch konstruktive Verbesserungen, aber auch die Etablierung eines Regelungs- und Sicherheitskonzeptes für ein breiteres Anwendungsfeld zu öffnen. Die vorliegende Arbeit stellt ein Sicherheitskonzept für eine patientenorientiert geregelte ECLA vor. Das eingesetzte System wurde durch eine Fehlermöglichkeits- und -Einflussanalyse (FMEA) sowie eine Fehlerbaumanalyse (FTA) untersucht. Davon ausgehend wurden Modelle entwickelt, die helfen Fehlerereignisse zu erkennen und den Systemzustand abzuschätzen. Die erarbeiteten Modelle überwachen kontinuierliche Prozesse, wie die Abnutzung des eingesetzten Oxygenators oder die Rezirkulation innerhalb der Vena cava des Patienten durch die extrakorporale Zirkulation, aber auch diskrete Ereignisse wie das Ansaugen der Entnahmegefäßwand an die Kanüle oder Abweichungen der eingesetzten Blutpumpe von der zu erwartenden Charakteristik. Dadurch können Fehlerfälle gezielt erkannt werden. Die erarbeiteten Modelle adressieren methodisch die zuvor identifizierten möglichen Fehlerquellen, um so eine Gefährdung des Patienten, ausgehend von einer Fehlfunktion der eingesetzten Komponenten, zu unterbinden. Das Sicherheitskonzept wird auf einem Netzwerk aus dezentralen Sicherheitsknoten mithilfe einer eigens entwickelten Softwarearchitektur implementiert. Die Architektur ermöglicht eine effiziente Abschätzung - somit auch Planung - der zur Verfügung stehenden Ressourcen. Ein im Systemkonzept verankertes Datenmanagement ermöglicht dabei ausgehend von einem statischen Datenhaltungsmodul die Planung. Ausgehend von den durch die eingebetteten Anwendungen deklarierten Bedürfnissen werden nur die notwendigen Datenstrukturen bzw. Algorithmen in Code abgebildet. Neue Modelle und Anwendungen können durch variable Entwicklungspfade unter Verwendung der für sie effizientesten Werkzeuge und Umgebungen erstellt werden. Der entwickelte Systemaufbau fußt auf einer modularen, aber elektrisch robusten Hardwareplattform, die bedarfsorientiert an den jeweiligen Einsatzpunkt angepasst wer den kann. Auf diese Weise können Energieverbrauch, Kosten und Entwicklungsaufwand minimiert werden. Eine auf der entworfenen Hardwareplattform basierende Weiterent wicklung ist die geschaffene Konsole zur Steuerung der eingesetzten Diagonalblutpumpe mit integrierter Blutflussregelung. Die in dieser Arbeit vorgestellten Ergebnisse machen einen Teil der benötigten Innovationen aus, welche es ermöglichten, im Rahmen des Projektes SmartECLA einen Machbarkeitsnachweis für die sichere Durchführung einer automatisierten ECLA zu erbringen. ····· 10361107995

Virtuelle und Erweiterte Realität

für 35.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Dieser Tagungsband enthält die Beiträge zum 10. Workshop zum Thema Virtuelle und Erweiterte Realität der Fachgruppe VR/AR der Gesellschaft für Informatik e.V. Als etablierte Plattform für den Informations- und Ideenaustausch der deutschsprachigen VR/AR-Szene bietet der Workshop den idealen Rahmen aktuelle Ergebnisse und Vorhaben aus Forschung und Entwicklung im Kreise eines fachkundigen Publikums zur Diskussion zu stellen. In diesem Jahr wurden 22 Beiträge in den Kategorien Langbeitrag, Kurzbeitrag und Poster auf dem Workshop eingereicht. Das Programmkomitee hat hieraus 13 Lang- und 3 Kurzbeiträge zur Präsentation und Publikation in diesem Tagungsband ausgewählt. Das Programm wird durch Posterpräsentationen ergänzt. Die Keynote von Prof. Dr. Gregory F. Welch von der University of Central Florida (USA) sowie Besichtigungen ausgewählter Forschungseinrichtungen der Universität Würzburg runden den wissenschaftlichen Teil des Workshops ab. Die qualitativ hochwertigen Beiträge wurden durch Mitglieder des Programmkomitees ausgewählt und beinhalten unter anderem Arbeiten aus den Themenbereichen Interaktion im 3D-Raum, Avatare und Roboter, Systeme und Grafische Datenverarbeitung sowie Multimodalität. Gastgeber im Jahr 2013 ist die Julius-Maximilians-Universität Würzburg. An verschiedenen Instituten der Universität, insbesondere dem Institut für Informatik, dem Institut für Mensch-Computer-Medien sowie dem Institut für Psychologie, forschen zahlreiche Gruppen in den Bereichen Virtuelle Realität, Erweiterte Realität, Mensch-Computer-Interaktion, Medieninformatik, Immersive Medien, Künstliche Intelligenz und Computergrafik. Nachwuchs in diesen Bereichen wird in den Studiengängen Informatik (Bachelor und Master), Mensch-Computer-Systeme (Bachelor), Human-Computer Interaction (Master) und Medienkommunikation (Bachelor und Master) ausgebildet. ····· 10361107986

Symbolic Execution of Distributed Systems

für 35.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Automatism and high coverage are the core challenges in testing distributed systems in their early development phase. Ideally, the testing process should cope with a large input space, non-determinism, concurrency, and heterogeneous operating environments to effectively explore the behavior of unmodified software. In practice, however, missing tool support imposes significant manual effort to perform such integrated testing. Recent advances in symbolic execution have proposed a number of effective solutions to automatically achieve high code coverage and detect bugs in complex systems` software. Still, these approaches target at sequential programs and not their concurrent execution. Applying symbolic execution to distributed systems poses two core challenges: (1) scalability with network size and (2) state inter-dependencies resulting from communication involving symbolic data. This thesis presents symbolic distributed execution (SDE) -- a novel approach enabling symbolic execution of distributed systems. First, we generalize the problem space of SDE and enhance symbolic execution for distributed software analysis. Second, we significantly optimize the basic execution model of SDE by eliminating redundant execution paths. The key idea is to benefit from the nodes` local communication to minimize the number of states that represent a distributed execution. Third, we demonstrate the practical applicability and effectiveness of SDE with two integrated testing environments for real-world networked software. ····· 10361107966

Proceedings of the 4th RapidMiner Community Meeting and Conference (RCOMM 2013)

für 35.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Because of costs and scarcity, datasets are often highly imbalanced, with a large majority class and a far smaller minority class. Typical examples of imbalanced datasets are healthy versus diseased tissue measurements, lawful versus criminal banking transactions, and correctly priced versus mispriced financial instruments. Constructing classifiers from imbalanced data presents significant theoretical and practical challenges. Validation is also affected by imbalance, as a trivial classifier that ignores its input and always predicts the majority class will appear prescient. This presentation surveys class imbalance from a conceptual perspective, and empirically investigates several RapidMiner approaches to constructing classifiers from imbalanced data. Finally, the presentation describes a set of broadly applicable RapidMiner processes that detect, construct, and evaluate classifiers with imbalanced data. ····· 10361107959

The Algorithmic Beauty of Cities

für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Nearly everyone of us is surrounded by synthesized virtual environments every day, although it is not always obvious. For example, most graphics in any commercial seen on street posters, on web banners, or in short clips on television contain artificial content and special visual effects to make the communicated message impressive and memorable. In some cases, a certain degree of realism is requested for the virtual environment, especially, if it is mixed with real world content. Present rendering algorithms allow for the production of synthetical images that are hard to distinguish from pictures which were taken from the real world. Even with commodity hardware, high quality renderings can be finished in reasonable time. There are many applications in practice which benefit from virtual environments. For example, many film productions use digital copies of real world locations like famous cities to easily include artificial content (e.g. crowds of people), to allow for complex camera trajectories (e.g. falling from the sky to the street level), or to simulate large scale effects (e.g. a heavy destruction of the scene). This digest of new possibilities would be very expensive or even infeasible without using virtual scenes. One of the biggest bottlenecks in the production workflow of synthesized virtual environments is the content creation. The modeling of large scenes that provide a high amount of detail is a time consuming and sometimes tedious task. The problem is often compensated by just keeping a high number of artists busy, however, this solution is rather expensive and requires a lot of organizational overhead. Unfortunately, content creation is a creative task and thus, it can not be fully automatized, i.e. the visionary input of artists is still needed. This thesis is focused on the generation and rendering of cities including common entities like buildings, bridges, and plants. Instead of rationalizing the work of artists, we rather aim at the development of supportive tools that utilize the expressive power of procedural modeling techniques combined with easily operated user interfaces for the intuitive and efficient insertion of creative input. The novelties of this thesis are categorized into three parts. First, the fundamental formalisms of procedural modeling techniques are discussed and analyzed with respect to their application in virtual environments. We introduce an expressive but yet intuitive modeling language that allows for the combination of several modeling strategies. This enables the creation of hierarchical structures (e.g. buildings and plants) as well as of interconnected structures (e.g. bridges and power poles) within one unified description. In the second part, interactive extensions to the previously developed modeling language are presented such that the underlying formalism is not necessarily exposed to the user. Consequently, our approach does not only represent a supportive tool for artists, but even allows users without scripting or modeling experience to combine and manipulate procedurally generated content. In the last part, an efficient rendering pipeline for large scale procedural city models is introduced. Taking a coarse polygonal model of a city as input, high quality facades with real geometric detail are generated on-the-fly such that the massive amount of data never needs to be stored explicitly. ····· 10361107952

Formal Aspects of Computing

für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Derick Kourie is one of the founding fathers of Computer Science in the Republic of South Africa. On the occasion of his 65th birthday in the year 2013, to honour his scientific and academic contributions to research and higher education, this Festschrift book has been compiled. It contains ten chapters in four parts, namely Logic, Automata, Stringology, Programming, which cover many of Derrick Kourie`s own research interests in the area of Theoretical Informatics and Formal Aspects of Computing. All authors and coauthors of this Festschrift belong to Derrick Kourie`s long-term scientific cooperators and academic colleagues, and all of them are experts in their related fields. The contributions are written by L. Cleophas, J.W. Daykin, A. Deza, F. Franek, J. Geldenhuys, S. Gruner, J. Gutknecht, C. Iliopoulos, S. Objedkov, S. Pissis, W.F. Smyth, B. van der Merwe, L. van Zijl, and B.W. Watson. ····· 10361107932

Ray Tracing for Light and Radio Wave Simulations

für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Being able to simulate the propagation of light waves and radio waves is very important in many areas of research, industry as well as the public sector. Both the visible light and radio waves share properties that seem wave-like, such as a wavelength or frequency, but at the same time they also appear particle like. Both kinds of waves are made up from the same particles, photons. For both high frequency radiation and visible light, certain basic optical laws do apply that can be used in the modeling of a simulation. In this thesis, we concentrate on methods using geometrical optics to simulate the propagation of visible light and radio waves. We present two new propagation simulation algorithms based on the extension and adaptation of recent techniques for global illumination simulation. By combining and improving these highly efficient algorithms from the field of Computer Graphics, it is possible to build a fast and flexible utility to be used for wireless network simulation. Instead of the wave nature of EM radiation we rather use the particle nature of waves to compute a discrete sampling of the volumetric electromagnetic field by tracing either individual rays or whole beams of photons through the scene. The ray tracing process results in a data structure called the Photon Path Map. This is then used to estimate the field density at arbitrary points in space. The algorithm can be applied to three dimensional indoor as well as outdoor scenarios without changes. The beam tracing approach is more suitable for outdoor scenarios and produces results much faster, since we simplify it to a 2D setting. We also develop methods to adapt the simulation parameters to real measurements and compare the accuracy of the presented algorithms. Getting the model parameters right is important for the simulation results to have the desired accuracy. Other important parameters of the propagation simulations are the antenna patterns of the transmitting and receiving antennas in a wireless link. We show how this can be implemented in a ray-tracing framework using spherical harmonic basis functions. Having a method for predicting the illumination situation of a given 3D model, material parameters and some light sources is necessary for many applications. Games, movies, scientific visualizations, architectural planning, car design and many other areas need simulated global illumination solutions. Algorithms that solve such illumination problems tend to be computationally very expensive. Hence we will describe in this work how fast illumination updates can be computed for the simulation of diffuse, globally illuminated, animated scenes. The simulation of the radio wave propagation is not a work that is meant to be used on its own. In the chapter about network simulations, we describe a novel way to incorporate the Photon Path Map algorithm into a network simulator, without affecting the performance of the simulator too much. Precomputations and caching are used to keep the additional computational costs low. ····· 10361107761

Quadrilateral Surface Mesh Generation for Animation and Simulation

für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Besides triangle meshes, quadrilateral meshes are the most prominent discrete representation of surfaces embedded in 3D. Especially in sophisticated applications like for instance animation and simulation, they are often preferred due to their tensor-product nature, which induces several practical advantages. In contrast to their wide area of application, the available generation algorithms for high-quality quadrilateral meshes are still nonsatisfying compared to their triangle mesh counterparts. The main reason consists in the intrinsically more difficult topology, which requires global instead of local considerations. This thesis is devoted to novel algorithms that are specifically designed for the practical requirements in animation and simulation. First we will discuss important quality criteria, stemming from these applications. It turns out that, although the goal of both application areas is quite diverse, the quality criteria, which characterize a high-quality quad mesh, are identical. Apart from topological regularity, applications benefit from quadrilaterals with low distortion, well chosen curvature alignment to achieve good approximation and a coarse patch-structure in order to enable powerful mapping techniques as well as multi-level solver. Based on mixed-integer optimization and graph theory we propose carefully designed algorithms that are able to generate high-quality quadmeshes with the aforementioned properties in a fully automatic manner. Furthermore, the designer or engineer is still equipped with maximal control by the possibility of interactively influencing the automatic solution by means of additional high-level constraints. ····· 10361107732

Einsatz der Software UMBERTO in angewandter Forschung und Praxis

für 39.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Dieses Buch beschreibt ausgewählte Anwendungsbeispiele zu der Software UMBERTO, die im Zeitraum seit der Gründung des UMBERTO Competence Centers Berlin im Jahre 2006 bis Anfang 2012 durchgeführt worden sind. Es werden konkrete Bespiele der Anwendung der Software UMBERTO in der betrieblichen Praxis beschrieben und es wird hieran aufgezeigt, wie mit UMBERTO ein konkretes unternehmensrelevantes Problem bearbeitet werden kann und was für einen Nutzen das Unternehmen hieraus erzielt. Dieses Buch soll aber auch Einsteigern Anregungen geben und Mustervorlagen bieten, welche Problemstellungen wie mit UMBERTO gelöst werden könnten, z.B. die Betrachtung zeitlicher Aspekte als Stoffstrom in UMBERTO, die Erzeugung von aussagekräftigen Sankey-Diagrammen, die Nutzung von Skripten und die Entwicklung eigener Assistenten. Dabei soll den Anwendern auch ein wenig die `Angst` vor der Komplexität der Software genommen werden. Abgerundet wird dieses Buch durch eine Darstellung wichtiger technischer Aspekte, beispielsweise zum schnittstellenbasierten Datenaustauch mit anderen Programmen (SAP, GABI) oder Ansätze zur Steigerung der Gebrauchstauglichkeit (Usability) der Software. ····· 10361107718

BSOA 2012

für 29.00€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Serviceorientierte Architekturen und Lösungsansätze spielen bei der Gestaltung unternehmensweit verwendeter IT-Architekturen nach wie vor eine wichtige Rolle. Eine SOA sollte dabei weder als Produkt oder Lösung noch als Technologie verstanden werden. Im Kern geht es dem serviceorientierten Paradigma um die gezielte Restrukturierung bzw. geschäftsorientierte Ausrichtung gewachsener Anwendungslandschaften unter Verwendung interoperabel und lose gekoppelter Fachservices. In diesem Zusammenhang gilt es die dafür benötigten Ressourcen, Prozesse, Methoden und Technologien einer Bewertung zu unterziehen, wobei vielfältige Interessen bzw. Zielstellungen zu berücksichtigen sind. Die BSOA- Initiative widmet sich möglichen (aus Sicht der Wissenschaft) bzw. benötigten (aus Sicht der Industrie) Bewertungs- und Messansätzen. Der diesjährige Workshop greift sowohl konstruktive als auch analytische Bewertungsansätze im Kontext serviceorientierter Lösungen auf. Im zunehmenden Maße gilt es die Beziehungen zu neuen Trends wie z.B. die Anbindung mobiler Anwendungen an eine Unternehmens-IT, die Implikationen zum Cloud-Paradigma, Integrationsaspekte im Kontext von Big-Data-Applikationen oder auch Fragen eines des Geschäftsprozessmanagements zu bewerten. Die in diesem Zusammenhang benötigten Integrationslösungen profitieren zunehmend von den im Internet bzw. Intranet verfügbaren Serviceangeboten (z.B. Cloud-Services). Sollen diese mit bereits vorhandenen Services kombiniert bzw. orchestriert werden, bedarf es einer ausreichenden Interoperabilität (syntaktisch und semantisch) der involvierten Datenobjekte. Darüber hinaus müssen entsprechende Services grundsätzlich im Kontext der unterstützten Geschäftsprozesse verwendet werden können. ····· 10361107704

Transinstitutionelle Informationssystem-Architekturen in vernetzten kooperativen Versorgungsformen des Gesundheitswesens

für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Mit dem steigenden Bedarf an Kooperationen zwischen den Einrichtungen des Gesundheitswesens steigen auch die Bereitschaft und die Notwendigkeit, die Informationssystem-Architekturen dieser Einrichtungen untereinander zu vernetzen. Die Vernetzung kann dabei unter verschiedenen Blickwinkeln betrachtet werden. Organisatorische und ökonomische Faktoren sind hierbei genauso zu berücksichtigen, wie die fachlichen und technischen Aspekte. Die vorliegende Arbeit soll zur Beantwortung der Fragestellung beitragen, wie in Zukunft stabile und nachhaltige Informationssystem-Architekturen zwischen unterschiedlichen voneinander unabhängigen Institutionen des Gesundheitswesens aufgebaut werden können. Dazu wird hier die Entwicklung einer Methodik zur Systematisierung von Informationssystem-Architekturen vorgestellt und die Anwendung dieser Methodik in einer systematischen Literaturanalyse und in einem konkreten regionalen Vernetzungsprojekt aufgezeigt. Zunächst werden die existierenden Modelle zur Beschreibung und Systematisierung von Informationssystem-Architekturen analysiert. Dabei werden sowohl Beschreibungsmodelle ohne Bezug zum Gesundheitswesen als auch spezifische Modelle aus der Domäne des Gesundheitswesens betrachtet. Diese Ansätze werden analysiert und daraus die wichtigsten Architektur-Perspektiven identifiziert, die in die Konstruktion einer mehrachsigen Nomenklatur zur Beschreibung von Informationssystem-Architekturen einfließen. Das erstellte Ordnungssystem zur Beschreibung integrierter transinstitutioneller Informationssystem-Architekturen im Gesundheitswesen OrBit-ISA bietet mit fünf Achsen eine ganzheitliche Sichtweise auf die Architekturen im Gesundheitswesen und stellt eine Methodik zur Systematisierung dieser bereit. Die Anwendung der entwickelten Methodik erfolgt darauf aufbauend in einer Literaturstudie, in der zentralistische, föderalistische und asymmetrische Architektur-Typen mit ihren typischen Einflussfaktoren identifiziert werden. Es wird dabei ein Trend hin zu zunehmend modularen flexiblen Kommunikationsplattformen als Anwendungssystemen zur Vernetzung der Einrichtungen des Gesundheitswesens und einer zunehmenden Integration auf der Prozessebene mit offenen Architektur-Standards beobachtet. Im Rahmen des Projekts eHealth.Braunschweig wird anschließend schrittweise die Umsetzung einer konkreten regionalen Informationssystem-Architektur in Form von Vernetzung von zwei Kliniken sowie zahlreichen Arztpraxen und Pflegeeinrichtungen geplant und durchgeführt. Dabei wird durch die konzipierte Architektur die Unterstützung der Kommunikation bei Einweisung und Entlassung im Krankenhaus sowie der Bildkommunikation in der Traumaversorgung standardisiert auf der Basis von IHE-Profilen ermöglicht. Zur nachhaltigen Sicherung des Betriebs und der Weiterentwicklung der eHealth.Braunschweig Architektur wird eine neue Organisationsform etabliert und eine unabhängige Vertrauensinstanz, die Gesundheitsdatenbank für Niedersachsen UG(h), gegründet. Die Gesundheitsdatenbank übernimmt die Trägerschaft sowie die Verantwortung für den Betrieb, die Weiterentwicklung und die Evaluation der Architektur und der angebotenen Dienste. Damit werden die entwickelten Konzepte an einem praktischen Beispiel umgesetzt und die Möglichkeiten der Gestaltung einer transinstitutionellen Informationssystem-Architektur im regionalen Kontext aufgezeigt. ····· 10361107665

QoS-Aware Live IPTV Streaming Over Wireless Multi-hop Networks

für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
New generation which have grown up with Internet and interactive gaming, are no longer satisfied with traditional one-waybroadcasting of TV pro grams. The paradigm shift from push-based media broadcasting to pull-based media streaming has been started in recent years and will be accelerated in the next few years. Internet Protocol Television (IPTV) is a good example to illustrate this claim. IPTV describes a mechanism for transporting TV streams encapsulated in IP packets using networking protocols and tries to offer more interactivity and more control over the content. When offered via wireless technologies, IPTV can pave the way for quad-play in next generation networks. However, the stringent QoS requirements of IPTV streams are very hard to achieve in wireless networks. This is mainly related to the natural characteristics of wireless environments, such as frequent packet loss, vulnerability to physical factors and fluctuations in channel condition. The problem becomes even worse in multi-hop wireless networks. WiMAX as one of the 4G candidates has several outstanding features that make it an ideal candidate to deliver IPTV services to fixed and mobile subscribers. In this thesis, we investigate same of the challenges of IPTV transmission, mainly in wireless networks. The type of wireless networks which will be covered by this thesis is based on OFDMA-based WiMAX networks. In particular, we focus on the following aspects: the efficiency of multicasting, modeling the behavior of IPTV users, capacity evaluation and effects of overhead in WiMAX networks, and reducing channel switching delay. The objectives are related to each other and each objective is investigated in a dedicated chapter. ····· 10361107662

Static Analysis of Run-time Modes in Kahn Process Networks

für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Kahn Process Networks (KPNs) are used for modeling streaming-oriented applications with changing behavior. To meet the performance and energy constraints of embedded devices, such applications must be mapped to parallel architectures in an optimal way. Finding an optimal mapping to the constrained architecture presumes that the behavior of the KPN is statically known. Considering the run-time behavior of streaming-oriented applications, we can identify run-time modes in which the system offers a certain behavior. In this book we present a static analysis that identifies such run-time modes at compile-time. The result is a mode automaton describing the whole network behavior. Optimizing backends that map KPNs to parallel architectures can be guided by these analysis results. ····· 10361107641

· 1 · ::::: · 11 ·· 12 ·· 13 ·· 14 ·· 15 ·· 16 ·· 17 · ::::: · 24 ·