AdHoc MeldungenAffiliate & PublisherAdvertiser & MerchantAcademyAntwortenArtikelsucheAdventskalender SuperClix - das Partner-Programm-NetzwerkAffilitivProduktdatenPreisvergleich
Artikelsuche & Preisvergleich:


· 1 ·· 2 ·· 3 ·· 4 ·· 5 ·· 6 ·· 7 ·· 8 ·

Digitalisierung DrostenDoktorarbeit

····· lezzter Preis 29.80€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Die Digitalisierung beeinflusst und verändert heute bereits fast alle Bereiche unserer Gesellschaft, und dabei stehen wir erst am Anfang einer globalen Transformation, die sowohl Hoffnungen als auch Befürchtungen auslöst. Im Seminar zum Klagenfurter Interdisziplinären Kolleg wurden einige dieser Technologien, ihre Anwendungen und gesellschaftlichen Auswirkungen einer interdisziplinären Betrachtung unterzogen. Dabei ging es nicht um die Möglichkeiten der Technologien an sich, sondern gleichermaßen um die mit ihnen verbundenen Auswirkungen, die unsere Gesellschaft und das langfristige Zusammenleben der Menschen fundamental verändern. ····· 10361205403

Geschichte(n) der Medizin Band 3

····· lezzter Preis 38.00€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Nach dem großen Erfolg der beiden ersten Bände liegt jetzt der Abschluss der Trilogie vor. Renommierte Autorinnen und Autoren erzählen einmal mehr lebendige und mitreißende Geschichte(n) der Medizin über Krankheiten, Ärzte und Forscher.

Wie kam es beispielsweise zur Entdeckung der `Perkussion` Wer war Avicenna Warum wurde der Name Goldberg so berühmt Was haben Rembrandt und Schiller gemeinsam Welchen Einfluss nahm deutsche Medizin auf den Fernen Osten

Die populärwissenschaftlich aufbereitete Welt der Medizingeschichte(n) fasziniert nicht nur, sie sorgt auch immer wieder für überraschende Erkenntnisse und Aha-Erlebnisse. Das Buch richtet sich daher gleichermaßen an medizinische Laien wie Fachleute.

····· 10361196300

Animal Crossing, New Horizons - Das offizielle Begleitbuch

····· lezzter Preis 30.45€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· 10361194591

Verarbeitung von Ereignisströmen im Betriebssystemkern

····· lezzter Preis 25.65€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Die Beobachtung von Systemverhalten durch Aufzeichnung von auftretenden Ereignissen im System (event tracing) wird in unterschiedlichen Bereichen eingesetzt -beispielsweise zur Fehlersuche, zur Leistungsanalyse oder zur Überwachung von Dienstgüteeigenschaften. Herausforderungen ergeben sich dabei aus der großen Menge von aufzunehmenden Daten, einer unter Umständen starken Systembeeinflussung, der zeitlichen Lücke zwischen Analyse und möglicher Reaktion, sowie aus dem Detaillierungsgrad der aufgezeichneten Ereignisse. Die Verarbeitung von Ereignisströmen direkt im Betriebssystemkern stellt einen neuen Ansatz zur Systemanalyse dar. In dieser Arbeit wird eine im Betriebssystemkern integrierte Laufzeitumgebung zur Verarbeitung von Ereignisströmen vorgestellt. Diese erlaubt die Erkennung von Konstellationen mehrerer Ereignisse in unterschiedlichen Ausführungskontexten im systemweiten Ereignisstrom, die sofortige Verarbeitung und Analyse direkt während des Auftretens der Ereignisse und die Ausführung von Aktionen sofort nach der Erkennung bestimmter Ereigniskonstellationen. Mit Hilfe des beschriebenen Ansatzes kann die Menge der aufzuzeichnenden Daten reduziert werden, indem nur die Informationen aufgezeichnet werden, die tatsächlich für die Erkennung einer spezifischen Konstellation notwendig sind. Die Integration in den Betriebssystemkern ermöglicht die Analyse von nahezu beliebigen Anwendungen, die auf einem System mit einem solchen Kern ausgeführt werden. Die Laufzeitumgebung und die verwendete Instrumentierungsinfrastruktur sind als Prototyp für den Windows Betriebssystemkern implementiert worden. Weiterhin wird eine Spezifkationssprache zur Beschreibung von Ereigniskonstellationen dargestellt. Die Besonderheiten der Ereignisstromverarbeitung im Betriebssystemkern werden analysiert und berücksichtigt. Der in dieser Arbeit beschriebene Ansatz zur Verarbeitung von Ereignisströmen im Betriebs-systemkern ermöglicht beispielsweise die Implementierung eines Softwareprüfstands oder die Umsetzung von Konzepten des Autonomic Computing. ····· 10361192901

Graphbasierte Prozedurale Abstraktion

····· lezzter Preis 34.20€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· 10361192883

Prototyping Automotive Software und Services

····· lezzter Preis 49.40€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
In der Automobilbranche findet zur Zeit ein intensiver Wandlungsprozess statt, der aus dem ständigen Kostendruck, dem zunehmenden Wettbewerb und der Geschwindigkeit, mit der neue Technologien auf dem Markt gelangen, resultiert. Hersteller, die diesen Umbruch bestehen möchten, müssen einerseits versuchen, die Effizienz sämtlicher Unternehmensprozesse zu verbessern, andererseits aber auch ihre Effektivität steigern, indem sie kontinuierlich neuartige Technologien hinsichtlich ihres Potentials evaluieren und gegebenenfalls in die eigenen Produkte integrieren. Letzteres dient vor allem dazu, anstelle immer neuer Ausstattungsvarianten den Kunden neuartige mobile Dienste anbieten zu können und so den sich verändernden Erwartungen der Kunden gerecht zu werden, indem sie deren Bedürfnis nach Information und Komfort - dem sogenannten tertiären Aufgabenbereich des Fahrers - befriedigen. Bislang haben die potentiell am Erstellungsprozess solcher Nutzungsinnovationen beteiligten Partner nur wenige Erfahrungen in der Gestaltung derartiger Automotive Software und Services. Daher wird im Rahmen der vorliegenden Dissertation ein Vorgehensmodell sowie die dazu passende Werkzeugunterstützung vorgestellt, welche die systematische Erstellung neuartiger Dienste für die Nutzung im Automobil ermöglichen. Im Fokus stehen Funktionen, mit denen der Autofahrer direkt interagiert, vor allem in Form mobiler Dienste im tertiären Aufgabenbereich. Das vorgeschlagene Vorgehensmodell basiert auf den identifizierten organisatorischen und technischen Besonderheiten der Automobilindustrie sowie bestehenden Vorgehensmodellen in der Dienstleistungs- und Softwareentwicklung. Eine besondere Rolle spielen dabei im Automobil erlebbare Prototypen, die zur Erhebung und Abstimmung von Anforderungen eingesetzt werden, die Kommunikation zwischen verschiedenen Anspruchsgruppen unterstützen und die Möglichkeit bieten, Systemevaluationen durchzuführen. Als passendes Werkzeug zur Unterstützung der Entwicklung besteht ein weiterer Beitrag dieser Arbeit in einer modularen Prototypingplattform, die auf das Vorgehensmodell abgestimmt ist. Diese Plattform vereinfacht die Erstellung geeigneter Prototypen durch die Bereitstellung eines komponentenorientierten Frameworks und zahlreicher Basiskomponenten. Diese Komponenten ermöglichen den Zugriff auf verschiedene Schnittstellen zu Fahrzeug und Nutzer um so rasch qualitativ hochwertige Prototypen im späteren Nutzungskontext - dem Fahrzeug - für Evaluationen umsetzen zu können. Dabei ist die Architektur des Werkzeugs so gestaltet, dass auch noch nicht antizipierte Komponenten (z.B. neuartige Benutzer- oder Kommunikationsschnittstellen) hinzugefügt werden können und die Plattform damit auch in unterschiedlichen Zielumgebungen zum Einsatz kommen kann. Das vorgeschlagene Vorgehensmodell und das dazugehörige Werkzeuge ermöglicht die systematische Vorentwicklung komplexer mobiler Dienste - und erlaubt damit Automobilherstellern, deren Zulieferern und anderen Partnern die Durchführung von Innovationsprojekten in der nachgelagerten Wertschöpfung. Zusätzlich eröffnen sich Möglichkeiten für weiterführende Forschung in benachbarten Forschungsthemen, wie z.B. Open Innovation-Ansätzen zur Ideengenerierung und Kundenintegration, Communities für Kunden und neuartige Mensch- Maschine-Schnittstellen im Fahrzeug. In der Praxis erschließt vor allem die Prototypingplattform neue Einsatzgebiete: sie fand bereits Einzug in die Vorentwicklung als Visualisierungs- und Steuerungshilfe für technische Abläufe. ····· 10361192678

Modellgestützte Untersuchung konkurrierender Zugriffe bei leitungsvermittelnden Kommunikationssystemen

····· lezzter Preis 22.80€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Kommunikationssysteme mussen eine sehr hohe Verfügbarkeit haben. Fehler in der Software dieser Systeme konnen zum Ausfall des gesamten Telekommunikationsnetzes fuhren. Aus diesem Grund bedarf es einer hohen Qualitat beim Test derartiger Systeme. Der Ausgangspunkt dieser Arbeit waren Fehlerbeschreibungen aufgetretener Versagen der Fehlerklasse `konkurrierende Zugriffe` beim Test eines neu entwickelten 40 GBit Ubertragungssystems in der Industrie. Es wird untersucht, wie die Auftrittshaufigkeit solcher Versagen mittels Lasttests erhoht werden kann. Die hier vorgestellte neuartige Untersuchung basiert auf einem stochastischen Simulationsmodell. Die daraus gewonnenen Ergebnisse werden mit den in einem Wahrscheinlichkeitsmodell analytisch ermittelten Auftrittshaufigkeiten verglichen. Dabei ist eine der zentralen Fragestellungen die Abhangigkeit der Auftrittshaufigkeit von verschiedenen Parametern wie z.B. der Anzahl der geschalteten Verbindungen. Weitere neue Erkenntnisse zur Auftrittshaufigkeit in Abhangigkeit von Betriebssystemeigenschaften werden gewonnen. Potentielle Varianzmoglichkeiten bei der Durchfuhrung von Lasttests zur Steigerung der Auftrittshaufigkeit und deren Relevanz werden bestimmt. Mit dieser Arbeit steht erstmals eine Beschreibung einer systematischen Vorgehensweise bei der Durchfuhrung von Lasttests an Kommunikationssystemen in der Industrie zur Verfugung. Dadurch ist eine verbesserte Analyse dieser Art von Softwarefehlern moglich. Somit wird eine hohere Verfugbarkeit der Kommunikationssysteme im Betrieb beim Kunden erreicht. ····· 10361192659

Separation of educational and technical content in educational hypermedia

····· lezzter Preis 46.46€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
The creation and development of educational hypermedia by teachers and educational staff is often limited by their lack of computing skills, time and support from the educational institutions. Especially the lack of computing skills is a hinderance to most of today¿s educational experts. The problem is to find out how those educational experts could be supported by computer based tools which are tailored especially to their needs without having any technical limitations. In this study the separation of technical and educational content in educational hypermedia is examined as a solution to this problem. The main hypothesis of this study is that the separation of technical and educational content is possible if it is based on a fine-grained structure of different teaching and learning strategies and their conversion into an authoring tool. Such an authoring tool would make the creation of educational hypermedia very easy for teachers and therefore enable them to overcome the existing obstacles. The development of a new model, the creation of a new XML language and the implementation of a new authoring tool form the basis for a detailed investigation. The investigation was done by undertaking several research tasks like the evaluation of the XML language and the authoring tool by a group of educational experts of different knowledge domains, the practical usage of the authoring tool for the creation of real-life based educational material and the analysis of the gained research results. The analysis of the qualitative data showed that the separation of educational and technical content in educational hypermedia is possible and that it can be applied by educational experts with low computing skills as well as by technical experts with no educational background. Furthermore, the analysis allowed some additional insights into the creation of educational material by teachers and how it can be improved. The main conclusion of this study is that authoring tools in educational hypermedia should use the separation of educational and technical content based on different teaching and learning strategies which allows educational experts with low computing skills to create educational content for delivery via the World Wide Web. ····· 10361192657

Finding Optimal Solutions for Covering and Matching Problems

····· lezzter Preis 27.55€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· 10361192649

Attribute Grammar Based Genetic Programming

····· lezzter Preis 30.60€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Genetic programming is a well-known evolutionary optimization methodologycomplex structures (trees) using to solve various optimization problems. Theoptimal solutions are looked for by altering randomly the tree individuals. Theserandom changes can improve the quality of the represented solutions, but theycan also result in invalid individuals. These individuals must be detected andeither corrected or eliminated.In this thesis, we present how attribute grammars can be applied toattain these goals. Firstly, we employ the derivation trees of the grammaras individuals. Each derivation tree is enhanced with attributes that areevaluated simultaneously to the tree construction. Secondly, we introduce asmart random tree generator. A unique property of this random tree generator isthat it considers constraints¿specified via special attributes¿while generatingrandomly derivation trees. The trees created this way are valid with respect toboth the given constraints and the grammar rules. Thirdly, by combining therandom tree generator with tree operators, we ensure that no invalid individualsare created at all during the evolutionary search. In addition, we demonstratevarious ways how attributes can be used to bias beneficially the evolutionarysearch.Finally, we outline how this approach can be adapted to optimize filter descriptionsof finite impulse response filters. Concerning the enormous search spaceof this problem and the complexity of the solutions, it is highly advantageousthat by means of attributes we can ensure that only valid filter compositionsare accounted during the search. A further restriction of the generated filterdescriptions is realized by a unique design of the derivation trees. As a result,solely redundancy-free filter descriptions are considered during the optimization,making redundancy-reducing post-processings superfluous. ····· 10361192640

UWB-Radarsensor zur Unterscheidung zwischen menschlichem Gewebe und Werkstoffen

····· lezzter Preis 21.85€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
In unserem alltäglichen Leben sind wir vermehrt von Sensoren umgeben, die uns vor Unfällen schützen. Im Rahmen dieser Arbeit wird untersucht, ob eine Erkennung von menschlichem Gewebe auf Werkstoffen mit Ultrabreitbandsignalen möglich ist. Feldsimulationen für planare Werkstoffschichten mit Voxel-basierten Handmodellen und Messungen mit entwickelten Ultrabreitbandantennen im Frequenzbereich 2,0-8,5 GHz zeigen, dass eine Trennung durch Auswertung des Reflexionsfaktors durchgeführt werden kann. Zum Testen des Sensors findet eine erstellte Agarbasierte Modellhand Anwendung, welche breitbandig die dielektrischen Eigenschaften der menschlichen Hand sowie deren geometrische Form nachbildet. ····· 10361192596

Gestaltung avatarbasierter natürlichsprachlicher Hillfesystme für den Einsatz in Fahrzeugen

····· lezzter Preis 38.00€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Fahrer moderner Fahrzeuge benötigen den Zugriff auf Informationen über selten genutzte oder versteckte Funktionen. Ein innovativer Ansatz, diese Informationen auch während der Fahrt bereitzustellen, ist ein natürlichsprachliches, avatarbasiertes Hilfesystem im Fahrzeug. Zunächst wird eine Referenzarchitektur für Avatarsysteme entwickelt, die auf die Automotive Domäne angewandt wird. Die Implementierung der Software besteht aus verschiedenen Modulen, die Funktionen zur Sprachein- und -ausgabe, Reaktionsermittlung, 3D-Echtzeitberechnung und zur Reaktion auf Nachrichten der Bussysteme beinhaltet. Zur Entwicklung von Dialogen wird ein Authoring Tool entwickelt, das die grafische Modellierung ermöglicht. Dieses Werkzeug ist Bestandteil eines Vorgehensmodells in sieben Phasen, um strukturierte Informationen in Dialoge zu überführen. Das Avatarsystem und die multimedialen Inhalte werden schließlich im Fahrzeug mit 67 Probanden untersucht. Dr. Valentin Nicolescu studierte an der Universität Hohenheim Wirtschaftswissenschaften, wo er sein Studium mit seiner Diplomarbeit über Avatare im Internet abschloss. Von 2003 bis 2008 arbeitete er als wissenschaftlicher Angestellter am Lehrstuhl für Wirtschaftsinformatik an der Technischen Universität München. Dort befasste er sich als technischer Berater im SAP University Competence Center u.a. mit den Bereichen ABAP Entwicklung, SAP Process Integration und SAP NetWeaver Portal. Seit 2006 entwickelte er in einem Forschungsprojekt im INI.TUM Rahmenprogramm mit Audi den Prototyp eines Avatarsystems in einem Versuchsfahrzeug, der die Basis seiner Dissertation darstellte. Seit 2009 arbeitet er als IT Development Consultant bei der Webasto AG in Stockdorf. ····· 10361192529

Architektur Komponenten-basierter Systeme mit Loom

····· lezzter Preis 27.55€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Eine gute Modularisierung von Software ist die Grundvoraussetzung für eine verteilte Anwendungsentwicklung. Das wurde bereits von Parnas (1972) beschrieben. Bei einem Modul handelt es sich um eine abgeschlossene Funktionseinheit, die einen Dienst an das System liefert und bei Bedarf ausgetauscht werden kann. Wünschenswert ist es, wenn die Belange einer Software - also Dinge, die für die Entwicklung, den Betrieb oder anderweitig von Interesse für die Software sind - jeweils separat in einzelnen Modulen implementiert werden können. Gängige Formalismen unterstützen das nur beschränkt: Oft müssen Belange über mehrere Module verstreut implementiert werden oder ein Modul ist mit der Implementation mehrer Belange durchsetzt. In der Forschung wurde bereits nachgewiesen, dass das zu einer höheren Zahl von Programmierfehlern führt und die Softwarequalität verschlechtert.Mit der Aspektorientierten Programmierung (AOP) nach Kiczales (1997) wurde ein Weg gefunden, der dieses Problem löst: Belange, die mit objektorientierten Formalismen andere Module überschneiden, können mit sogenannten Aspekten separat implementiert werden. Das geht allerdings auf Kosten der Modularisierung - die eigentlich verbessert werden sollte, denn der Aspektprogrammierer greift bei dieser Technik tief in die Implementationsdetails anderer Module ein.Die Arbeit präsentiert mit dem vom Autor entwickelten LOOM-Programmierparadigma einen neuen Ansatz, mit dem das Problem der Streuung und Durchsetzung unter gleichzeitiger Beibehaltung der Modulgrenzen gelöst werden konnte. Die Interaktion zwischen Aspekten und anderen Modulen erfolgt bei LOOM stets über definierte Schnittstellen, die allen Beteiligten bekannt sind.Ein wesentliches Konzept in LOOM ist dabei die Annotationsrelation, die zwischen einem neuen Modultyp, den Aspekten, und anderen Modulen, wie Komponenten, Klassen und Methoden, hergestellt werden kann. Mit dem Konzept der Überdeckung lässt sich der Wirkungsbereich von Aspekten explizit festlegen. Konzepte wie die Joinpoint-Variablen und die Nachrichtenmanipulation ermöglichen es dem Aspektentwickler, gegen unbekannte Schnittstellen zu programmieren. Die neuen LOOM-Konzepte lassen sich alle auf einem bestehenden Industriestandard, der Common Language Infrastructure abbilden. Das bedeutet, dass Standardausführungs-umgebungen und Compiler weiterhin verwendet werden können. Die Umsetzung der Konzepte erfolgt durch die vom Autor entwickelten Werkzeuge Rapier-Loom.Net und Gripper-Loom.Net entweder zur Laufzeit der Anwendung oder als nachgelagerter Kompilierungsschritt.LOOM ist ein ganzheitliches Paradigma für die Entwicklung komponentenbasierender Softwaresysteme, das - angefangen beim Entwurf über die Programmierung, dem Erstellen und Testen, bis zum Betrieb - in jeder Phase des Softwareentwicklungsprozesses einen Beitrag zur Effizienz und Qualitätssteigerung liefert. Belegt wird das in dieser Arbeit mit vielen Anwendungsbeispielen, unter anderem mit einer Studie im industriellen Umfeld für eine Anwendung mit mehr als 20.000 Nutzern.Mit LOOM lassen sich auch bestehende Programmiersprachen um andere Programmierkonzepte wie das `Kontextorientierte Programmieren` oder `Design by Contract` erweitern. Die große Praxisrelevanz das LOOM-Paradigmas wird durch die große Zahl der Nutzer, auch aus dem Bereich der Wirtschaft belegt. ····· 10361192501

Knigge für Softwarearchitekten

····· lezzter Preis 24.90€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Aller guten Dinge sind drei! Gernot Starke und Peter Hruschka laden bereits zum dritten Mal zum Benimmkurs für Softwarearchitekten ein. Also heißt es: Ellenbogen vom Tisch und ran ans Programmieren. Anhand zahlreicher unterhaltsamer und praktischer Beispiele folgt man den beiden erfahrenen Softwareentwicklern auf dem Weg zur besseren Softwarearchitektur - wirkungsvoll, zeitlos und technologieneutral. Die Autoren zeigen auf, wie der Entwickler von heute tickt - sowohl im positiven als auch im negativen Sinne. Die Erfolgsmuster kann man für sich selbst und seine Arbeit übernehmen und aus den Anti-Pattern Anderer lernen, wie man es nicht machen sollte. Am Ende des Buchest kennt man auf jeden Fall alle Regeln der `Kunst` - und das nächste Projekt kann erfolgreich gestartet werden. ····· 10361177113

Das ESP8266-Projektbuch

····· lezzter Preis 24.90€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Mit integrierter WLAN-Schnittstelle und zugleich günstig in der Anschaffung bietet der Mikrocontroller ESP8266 eine Vielzahl von Anwendungsmöglichkeiten für das Internet der Dinge und die Heimautomation. Dieses Buch liefert einen praxisnahen Einstieg in die vielfältige Welt des ESP8266 und seine Entwicklungsumgebung, die auf der leicht bedienbaren Arduino IDE basiert.

Den Kern des Werkes bilden fünf Projekte mit unterschiedlichem Schwierigkeitsgrad, die auf verschiedene Weise zeigen, wie der ESP8266 für IoT- oder Smart-Home-Projekte eingesetzt werden kann. Basierend auf seiner langjährigen Erfahrung im Bereich der Elektronik erklärt der Autor, wie man eine eigene Wetterstation baut, die lästige Bewässerung des Gartens dem Controller überlässt, einen Briefkastensensor anbringt oder einfach eine schöne Beleuchtung mit Philips Hue steuert. Will man sich selbst oder seinen Kindern dann auch noch eine Freude machen, wird der automatisierte Adventskalender für eine wundervolle Festtagsstimmung sorgen.

Das Buch ist dabei leicht verständlich geschrieben und möchte Sie dazu anregen, die Projekte nicht einfach nur nachzubauen, sondern sie Ihren Bedürfnissen entsprechend anzupassen und zu erweitern. ····· 10361176659

Funktionale Langzeitarchivierung digitaler Objekte

····· lezzter Preis 38.00€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Diplom-Mathematiker Dirk von Suchodoletz, Jg. 72, beschäftigte sich im Jahre 1985 das erste Mal mit Computern. Nach dem ZX Spectrum folgte der Amiga 500 und Anfang der 90er Jahre der Einstieg in die PC-Welt. Zur Langzeitarchivierung digitaler Objekte kam er über die Emulation alter Computer-Spiele. So ließen sich frühere Klassiker nicht mehr trivial auf heutigen Plattformen wieder zum Leben erwecken. Das gilt natürlich auch für eine ganze Reihe weiterer Dokumente oder wissenschaftliche Daten. Als Assistent am Lehrstuhl für Kommunikationssysteme in der Informatik an der Universität Freiburg nahm er im Jahr 2004 die Promotion zum Thema digitale Langzeitarchivierung auf und schloss diese im Jahr 2008 ab. In dieser Zeit war er Mitglied der Nestor Media-AG und am EU-geförderten PLANETS-Project beteiligt. Die Ergebnisse der Arbeit stellte er auf diversen Konferenzen vor. Am 15.01.2010 hat die Vorgabekommission des Vereins zur Förderung der Informationswissenschaft (VFI) entschieden, in diesem Jahr Dr. Dirk von Suchodoletz für folgende Arbeit: Funktionale Langzeitarchivierung digitaler Objekte. Erfolgsbedingungen des Einstatzes von Emulationsstrategien, den zweiten Preis zu vergeben. Die Kommission begründet dies wie kurz wie folgt: Die Dissertation von Herrn von Suchodolenz stellt eine besonders gründliche und umfassende Analyse einer Strategie für die digitale Langzeitarchivierung dar. ····· 10361170071

Begriffserwerb aus großen Mengen von Beispielen

····· lezzter Preis 38.00€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Menschen verfügen über Begriffe, um die Welt zu erfassen und über sie zu kommunizieren. Die Begriffe sind aber (zumindest zum größten Teil) nicht angeboren, sondern durch den Umgang mit und die Kommunikation über Objekte der Umwelt erworben. Die Objekte stellen dabei Beispiele der Begriffe dar. Über besonders detaillierte Begriffe verfügen menschliche Experten, die diese Begriffe durch intensive Beschäftigung mit einem Gegenstandsbereich zu einer großen Menge von Beispielen erworben haben.Will man die menschliche Fähigkeit, Begriffe aus Beispielen zu erwerben, auf ein maschinelles System bertragen, stellen sich folgende Fragen: ····· 10361170021

Iterative Design Space Exploration and Robustness Optimization for Embedded Systems

····· lezzter Preis 30.40€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
An embedded system is a micro computer system that is embedded into another technical device that itself does not appear as a computer. Embedded systems can be found everywhere and are going to be even more pervasive in the near future. Examples are telecommunication devices, consumer electronics, automotive systems, building technology, etc. Embedded systems have a very high influence on the system industry. Nowadays, modern products cannot be realized in a competitive manner without embedded micro computer systems. In order to meet growing productivity demands and cost pressure, embedded systems need to be designed very efficiently. Obviously, due to the increasing complexity and distributed nature of modern systems this is by far no easy task. One key factor to increase the development process efficiency of complex distributed embedded systems is reuse. Concepts like the platform-based design style and standardization efforts on the software level (e.g. the AUTOSAR initiative in the automotive domain) allow to conceive whole product families and variants based on the same set of reusable components and sub-systems. However, while reuse helps to increase design efficiency at the functional level, it does not solve another key embedded systems challenge that arises with system complexity and sub-system integration: the control of non-functional properties, such as timing, power consumption, or dependability. The benefits of controlling non-functional properties early in the design flow are clear. First, it helps the designer to take the right design decisions before proceeding to implementation, and thus to decrease the design risk and costs. Second, it assists the designer in conceiving systems with performance head-room for future extensions, updates, and bug-fixes. Achieving this is not trivial, since system performance is fragile with respect to modifications to the specification. Even slight changes of properties, such as execution demands, communication volumes, data rates, etc., can have severe impact on system performance. As a consequence, it is desirable that the system exhibits some sort of ôrobustnessö towards changes. ····· 10361169978

Face Analysis under Near Infrared Illumination

····· lezzter Preis 21.85€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
This dissertation focuses on developing a facial analysis system under near infrared illumination (NIR). The use of near infrared imagery alleviates the difficulty of illuminationvariation for face recognition, and enables the system to work under changeableambient lighting conditions ····· 10361169942

Ausführung und Entwicklung adaptiver Komponentenbasierter Anwendungen

····· lezzter Preis 26.60€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Adaptive Anwendungen können sich auf Grund von Änderungen ihrer Umgebung anpassen, u.a. um von den Nutzern vorgegebene Anwendungseigenschaften zu gewährleisten, die durch die variierende Verfügbarkeit von Ressourcen unterliegender Infrastrukturen verletzt werden. Eine Lösungsstrategie für die Anpassung ist die Auswahl entsprechender Softwarekomponenten, die im Rahmen der Komponentenorientierung, einer Methode zur Konstruktion komplexer Software aus Einheiten unabhängiger Herstellung, Beschaffung und Deployment, in alternativen Varianten mit unterschiedlichen Eigenschaften vorliegen. Während die funktionalen Anforderungen einer Anwendung oft von mehreren gültigen Zusammenstellungen erfüllt werden können, variieren die resultierenden Anwendungseigenschaften in unterschiedlichen Umgebungssituationen. Die Ausführung der besten Alternative für eine Menge verfügbarer Ressourcen ist damit die Grundlage für die Gewährleistung gewünschter Anwendungseigenschaften. Bei Änderungen der Umgebung kann die Anpassung durch den Austausch mit einer besseren Alternative realisiert werden. Die Abstraktion der Softwarekomponente ist in der Java- und .NET-Komponentenplattform zunächst für den Zeitraum des Deployment definiert. Um die Austauschbarkeit von Komponenten auch während der Laufzeit zu ermöglichen, führt die vorliegende Arbeit das Konzept der Kapseln ein, die eine Menge von Objekten gleicher Deployment- Einheiten zusammenfassen. Während der Laufzeit wird eine komponentenbasierte Anwendung als gerichteter Graph verbundener Kapseln verstanden, die von vernetzten Rechnern ausgeführt werden. Veränderungen der Konfiguration der Kapseln einer Anwendung werden als dynamische Rekonfiguration bezeichnet, die für die Nutzung der Komponentenorientierung als Basis der Adaption in aktuelle Komponentenplattformen integriert werden muss und bildet den Schwerpunkt dieser Arbeit. Bei der dynamischen Rekonfiguration müssen Änderungsoperationen und Anwendungsaktivitäten synchronisiert werden. Hierfür stellt diese Arbeit einen neuen Algorithmus vor, der mit Hinblick auf die Komplexität der Zusatzkosten existierende Ansätze verbessert und dabei Anwendungen mit multiplen Threads und zyklischen Verbindungsstrukturen unterstützt. Für einen Spezialfall der dynamischen Rekonfiguration, der dynamischen Aktualisierung, die das Einspielen neuer Versionen von Softwarekomponenten während der Laufzeit ermöglicht, beschreibt die vorliegende Arbeit ein neues Verfahren für den notwendigen Zustandstransfer, das durch den Einsatz von identi-fizierten Basistechnologien ohne eine Manipulation der virtuellen Laufzeitumgebung auskommt. Das entwickelte Verfahren kann auch für das Einspielen fehlerbereinigter Softwareversionen ohne Neustart der Anwendung verwendet werden und ist dabei leicht in existierende Anwendungen integrierbar, was diese Arbeit im Rahmen komplexer Fallstudien nachweist. Ein weiterer wichtiger Beitrag der Arbeit ist der Einsatz der aspektorientierten Programmierung für die wiederverwendbare Generierung komplexer (re-)konfigurationsspezifischer Logik, welche die Entwicklung adaptiver komponentenbasierter Anwendungen vereinfacht. Die entwickelten Techniken wurden unter anderem im Distributed Control Lab, einer Infrastruktur zur entfernten Ausführung von Steuerungsexperimenten über das Internet, für den Schutz vor bösartiger Software verwendet. Dabei werden Steuerungen während ihrer Laufzeit überwacht und im Fehlerfall die Steuerungsanwendung dynamisch rekonfiguriert. ····· 10361169909

Dynamische Ressourcenverwaltung für dienstbasierte Software-Systeme

····· lezzter Preis 25.65€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Dienstorientierte Architekturen (SOA) sind das abstrakte Konzept eines verteilten Software-Systems, in dessen Zentrum das Anbieten, Suchen und Nutzen von Diensten über ein Netzwerk steht. Typischerweise werden für die Umsetzung XML-Technologien wie SOAP und WSDL sowie deren standardisierte Erweiterungen eingesetzt. Viele Forschungsarbeiten im Bereich der dienstorientierten Architekturen konzentrieren sich hauptsächlich auf den Aspekt der Dienstkomposition und der Dienstgüte. Sie setzen dabei implizit oder explizit eine idealisierte homogene Dienstlandschaft voraus, was im Gegensatz zu den heterogenen und zustandsbehafteten Realisierungen in der Praxis steht. Zudem stellt die Ausführungsumgebung für Dienstimplementierungen typischerweise kein eigenständiges Forschungsthema dar.Ein Beispiel für die Forschung zu dienstorientierten Architekturen ist das europäische Integrationsprojekt ``Adaptive Services Grid`` (ASG) mit 21 Partnern aus Industrie und Wissenschaft, welches von 2004-2007 eine Kompositions- und Ausführungsplattform für semantisch beschriebene Dienste entwickelte. Die vorliegende Arbeit erläutert das Konzept der Dienstinfrastruktur, welche im Rahmen von ASG entwickelt wurde. Diese dient als verteilte Ausführungsumgebung für heterogene zustandsbehaftete Dienstimplementierungen. Die Grundlage für das Konzept bildet ein neues Systemmodell, welches die Idee vereinheitlichter Schnittstellen für Dienstaufruf und -überwachung mit der dynamischen Nutzung der Ausführungsressourcen für replizierte Dienste verbindet.Auf Grundlage der Modellbeschreibung analysiert die Arbeit mögliche Platzierungsstrategien für physische Dienstexemplare, behandelt das Problem der Ausfallsicherheit für Dienstcontainer, führt ein neues Datenmodell zur Dienstüberwachung ein und diskutiert den Einfluss der Arbeit auf Standardisierungsaktivitäten im Open Grid Forum.Die Implementierungen des vorgestellten Systemmodells fanden erfolgreichen Eingang in zwei europäische Forschungsprojekte. Zudem werden die Ergebnisse dieser Arbeit im Rahmen von Industriekooperationen weiter verwendet. ····· 10361169868

Untersuchungen zur Zustandsbewertung von in Hochspannungskabeln eingesetzten Isolierungen aus vernetztem Polyethylen

····· lezzter Preis 26.60€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· ····· 10361169848

Spektrale Charakterisierung von Farbbildsensoren zur anwendungsspezifischen Kameraparametrierung

····· lezzter Preis 18.05€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
Die Bestimmung der spektralen Empfindlichkeit eines Farbbildaufnahmesystems, beispielsweise einer digitalen Kamera, ist eine wichtige Voraussetzung für die modellbasierte Anpassung der Farbkorrektur an die Beleuchtungsbedingungen in speziellen Anwendungen oder zur Generierung von Geräteprofilen für ein Farbmanagementsystem. In dieser Arbeit wurde erstmalig ein Verfahren zur indirekten Bestimmung der spektralen Empfindlichkeit entwickelt, in die Praxis umgesetzt und untersucht, welches auf einem geringen mittels Optimierungsmethoden selektierten Farbprobensatz basiert. Das indirekte Verfahren besitzt gegenüber einem direkten die Vorteile, dass die verwendeten breitbandigen Farbproben zu einer vergleichsweise höheren Strahlungsleistung am Bildsensor führen, dass diese Proben eher den im praktischen Einsatz auftretenden Bedingungen entsprechen und dass das Verfahren in der Umsetzung kostengünstiger ist. Ein wesentlicher Beitrag zur Verbesserung des indirekten Messverfahrens liegt in der neuen Methode zur automatischen Selektion der für das Verfahren am besten geeigneten Farbproben. Dieser als Lagrange-Multiplikator-Methode bezeichnete Ansatz zur Selektion basiert auf einer analytischen Untersuchung des quadratischen Optimierungsproblems und liefert einen optimalen Probensatz für die gewählte Messaufgabe. Die Ergebnisse des indirekten Verfahrens wurden denen eines direkten Verfahrens gegenübergestellt. Die beiden Ergebnisse weisen eine sehr hohe Ähnlichkeit auf und können im Rahmen der Messungenauigkeit als identisch betrachtet werden. Eine weitere Bestätigung der Ergebnisgüte wurde durch einen Vergleich basierend auf einem Testfarbprobensatz geliefert. Die gezeigten Resultate qualifizierten das entwickelte indirekte Messverfahren zum Einsatz in der täglichen Praxis. Dabei ließ sich der zusätzliche Vorteil eines geringen Kalibrieraufwands nachweisen. Als weiterer Kernpunkt wurden neue Methoden zur modellbasierten Optimierung von Farbkorrektur- Transformationen entwickelt und bisherigen Ansätzen aus der Literatur gegenübergestellt. Das angesetzte spektrale Modell erlaubt unter Nutzung der indirekt bestimmten Empfindlichkeiten eine hohe Flexibilität in der Berücksichtigung realer Lichtquellen, definierter Normlichtarten, Testkarten und vermessener realer und generierter virtueller Objektspektren zur optimalen Anpassung der Farbreproduktion an bestimmte Anwendungsbedingungen. Um neben der Farbtreue auch die Wirkung einer Transformation auf das Signal-Rausch-Verhältnis in den Bilddaten zu optimieren, wurde ein neuer Ansatz zur Integration einer empfindungsgemäßen Bewertung des Rauschens in die quadratische Optimierung präsentiert. Des Weiteren wurde eine neue als Triplematrix bezeichnete Methode zur optimalen Farbkorrektur für mehrere und variierende Aufnahmebeleuchtungen vorgestellt. Zur dynamischen Anpassung der Farbkorrektur, einem automatischen Weißabgleich, lässt sich die Triplematrix in direkter Verbindung mit verschiedenen veröffentlichten Farbkonstanzalgorithmen nutzen. Die praktische Anwendbarkeit der entwickelten Methoden wurde beispielsweise anhand eines Dermatoskopiesystems gezeigt. ····· 10361169823

A Hypercube-based Peer-to-Peer Data Store Resilient against Peer Population Fluctuation

····· lezzter Preis 34.20€ ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray
These days many people, when hearing the term Peer-to-Peer network (P2PN), think of unrestricted and potentially illegal ``file-sharing`` on the Internet. In traditional P2PN usually a limited number of peers make a set of files available. These files become inaccessible when those peers leave the network. Furthermore inevitable fluctuation of the peer population makes the attainment of a specific quality of service in terms of correct and complete file downloads hard or even impossible. In what follows the author also wants to foster the emerging conception that the concept of Peer-to-Peer networks has much more potential than simple file-sharing.In the focus of this dissertation are the problems caused and aggravated by peer population fluctuation. Starting from an analysis of the problems in 2nd generation P2PN, the author expounds his own definition and approach to a Peer-to-Peer data store (P2PD) that, in contrast to a pure P2PN, stores data items, once inserted, reliably with high probability. The P2PD of the author offers the following unique selling points in comparison with related P2PN:Instead of a single peer being responsible for availability, accessibility, and security of a set of data items, a group of peers is. The author calls such a group a ``replication group`` because all peers belonging to such a group store an identical copy of the group`s set of data items. Peer joins and leaves thus affect the availability of data items much less than they would in 2nd generation P2PN.In the author`s P2PD, virtual links enable communication and data transfer among peers in different replication groups. These links are designed to be redundant so that the P2PD remains connected and does not partition with high probability.The P2PD of the author supports three data consistency models in order to better serve applications from different domains with diverse requirements.Starting with the analysis of requirements from different application domains, the author set out to design and describe his P2PD with a reference model for P2PN followed by implementing his P2PD for simulation. To predict the theoretical lookup performance, given the size of and fluctuation rate in the P2PD, the author used probability theory to analyze the lookup operation. Two other theoretical models aim at analyzing and determining optimal points in time for executing maintenance operations that counter peer population fluctuation. With the first maintenance operation, coalesce, two replication groups can be merged to maintain data availability in case the peer population shrinks. With the opposite maintenance operation, split, a replication group can be divided into two sibling groups in the event that the peer population grows and economic maintenance of the original group becomes impossible.To validate the theoretical models, numerous simulation experiments were conducted. First of all, experiments served to verify the correctness of the P2PD simulation model implementation. In a second step, the author compared theoretical results predicting lookup reliability and performance under various conditions with those obtained from simulation runs. With an additional string of experiments the coalesce operation was validated and shown that fusions of any two sibling groups succeed with high probability provided the fluctuation rate does not exceed an upper bound. With the third string of experiments the theoretical model of the split operation was validated. Finally, the author compared the lookup performance and resilience against peer population fluctuation of some well-known 2nd generation P2PN with those of his own P2PD. ····· 10361169795

· 1 ·· 2 ·· 3 ·· 4 ·· 5 ·· 6 ·· 7 ·· 8 ·