für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Dexterous manipulation of large classes of objects demands large capacities from robotic systems. Most important are versatility, adaptability, and sensitivity. Robots comprised of two arms with two-jaw grippers as end-effectors have been used widely to solve various tasks. Recently, systems equipped with dexterous hands were developed, which exhibit a greater adaptability and promise a wider range of applications. The increased sensitivity of the dexterous hand together with its lower joint friction compared to arm joints is expected to enhance the overall functionality of the two-handed system. Previous works on the control of two-handed systems consisting of two arms equipped with dexterous hands was mostly restricted to the independent control of the arm and the hand subsystems. The coordination between fingers and arms has been barely studied. When studying the work related to the object level control of robotic hands it can be seen that several publications deal with the dynamics of hand object systems, but the practitioners typically use pure stiffness controllers ignoring all the dynamic effects. In order to further develop the field of dynamic dexterous manipulation in theory and practice, this thesis is concerned with concepts to model and control a robot consisting of an upper body with two arms equipped with dexterous hands. For such a two-handed robot, the equations of motion are derived and compliant grasping controllers for various tasks are proposed. In particular, the object level impedance control was studied in more detail and a novel controller - the static intrinsically passive controller (IPC) - was proposed. In the literature, a systematic comparison of such controllers, in particular with experimental validation is missing. In the experiments of this thesis it could be shown that dynamic effects indeed are not negligible. The developed object level impedance controller is used in the synthesis of an impedance controller for two-handed compliant manipulation, which includes the finger arm coordination. This is the first time that such an impedance control law was successfully implemented on a two-handed robotic system - the DLR robot Justin. In view of the development of the new DLR (integrated) Hand Arm System, the control of tendon driven systems with inherent mechanically varying, respectively nonlinear, stiffness was investigated. In the field of control of variable stiffness actuators many approaches have been proposed in the literature in the last decade. However, only a few research groups are working on the control design for tendon-driven robotic hands with variable stiffness. In this context, this thesis contributes to the derivation and analysis of a controller based on motor side measurements with feed forward terms. The stability proof of the closed loop system extends the seminal work of Tomei (Tomei, 1991) to the case of tendon controlled robots with variable joint stiffness. This thesis provides a large toolbox of high-level impedance behaviors for twohanded compliant manipulation. They range from reduced complexity (synergy) coordinates to the dexterous manipulation, which is the coordinated object level control using the fingertips of the hands combined with the control of the arms and the torso. These tools offer interfaces in generalized - mostly Cartesian - coordinates to specify the motion, the internal forces, and the closed loop behavior in terms of compliance and damping coefficients. The controllers devoted to the variable stiffness system allow in addition the adjustment of the mechanical joint stiffness, which can be advantageously used to optimize additional performance criteria demanded by a given task. This toolbox is highly relevant for the development of space robotics and service robotics applications. Furthermore, robots designed as production assistants can benefit from these developments. The presented controllers form a control framework applicable also to the commercially available DLR-HIT Hand II, which is supported by the EU Project ECHORD, the DLR Dexhand, and the DLR crawler. The synergy controller serves as a versatile testbed to study reduced complexity concepts within the EU FP7 project THE - The Hand Embodied. The concepts related to the two-arm controllers can be used on two KUKA robot arms. The proposed impedance behaviors are useful to synthesize whole-body controllers. ····· 10361107827
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray In den letzten Jahren ist die Nachfrage nach FVK stetig gestiegen, welche die wachsenden thermischen Anforderungen erfüllen oder gar wärmeübertragenden Eigenschaften besitzen. Nach dem Stand der aktuellen Forschung konnte diesem Wunsch nur unzureichend entsprochen werden. Dies liegt an den begrenzten Möglichkeiten, die Wärmeleitfähigkeit von polymeren Matrixsystemen zu erhöhen und Pech-basierte Kohlenstofffasern mit sehr hoher axialer Wärmeleitung und gleichzeitig extrem hohem E-Modul zu verarbeiten. Die Forschungsergebnisse zeigen, dass die Ummantelung von Pech-basierten Kohlenstofffasern mit thermoplastischen Polymeren die Knoten- sowie die Schlingenhöchstzugkraft in genormten Versuchen signifikant steigert. Das Friktionsspinnen ist für Fasern mit mittlerem bis hohem E-Modul geeignet. Für ultrahochmodulige Fasern ist die Beschichtung anzuwenden, welche die Kohlenstofffasern während des Prozesses weniger schädigt und damit bricht. Die Höchstzugkraft im Knotenzugversuch konnte für eine Mitsubishi K13D2U- Faser um den Faktor 175 gesteigert werden. Die Kombination der Mitsubishi K13D2U-Faser mit einer Glasfaser erzielt eine 280-fache Höchstzugkraft im Schlingenzugversuch. Der Festigkeitsanstieg ist so hoch, dass eine Verarbeitung mit industriellen Näh- und Tuftingverfahren möglich ist. Hierdurch können textile Strukturen gezielt in Dickenrichtung verstärkt und die Wärmeleitfähigkeit gesteigert werden. Eine niedrige Wärmeleitfähigkeit der polymeren Matrix bewirkt eine geringe Wärmeleitfähigkeit des FVK auch bei Einsatz von Pech-basierten Kohlenstofffasern. Die Additivierung der polymeren Matrix mit gemahlenen Pechbasierten Kohlenstofffasern steigert die Wärmeleitfähigkeit um mehr als das 30-fache. Mit steigendem Faseranteil erhöht sich die Viskosität der Matrix und lässt eine Harzinfusion aufgrund von Ausfilterungseffekten nicht mehr zu. Die Verarbeitung im Transferverfahren ermöglicht dennoch eine vollständige Tränkung von textilen Preforms. Die Versuchsergebnisse zeigen, dass die Out-ofplane- und die In-plane-Wärmeleitfähigkeit signifikant ansteigen, wenn die polymere Matrix mit gemahlenen Pech-basierten Kohlenstofffasern additiviert wird. In Out-of-plane-Richtung kann die Wärmeleitfähigkeit um das Vierfache gesteigert werden. In der In-plane-Richtung liegt die Steigerung in den Versuchsreihen beim bis zu Sechsfachen. Verschiedene Effekte konnten identifiziert werden, welche für die Wärmeleitung und/oder Verteilung der Wärme in FVK-Bauteilen verantwortlich sind. Diese Bauteile sind in der Lage, Wärme in der In-plane-Richtung, der Out-ofplane-Richtung oder deren Kombination zu übertragen. Wärme kann daneben gezielt in ein FVK eingeleitet oder von diesem abgegeben werden. In einem morphologischen Kasten sind alle Ergebnisse zu diesen Effekten als Teillösungen übersichtlich dargestellt. Für eine individuelle Anwendung kann die Teillösungen zu einer Gesamtlösung kombiniert werden. Als Hilfestellung sind für drei identifizierten Effekte Gesamtlösungen zusammengestellt, deren Herausforderungen aufgeführt sowie die Vorteile dieser Lösungen erläutert. Als Einzellösung für eine Wärmeübertragung in der Out-of-plane-Richtung eines FVK-Bauteils wurde eine CFK-Sandwich-Variante entwickelt, die eine Wärmeleitfähigkeit von 26 Wm-1K-1 und damit 37-fach mehr als ein Standard- CFK-Bauteil, erzielt. Damit stößt diese FVK-Lösung mit ihrem Ergebnis in den Bereich der metallischen Leiter vor. Diese Erfindung ist als Patentanmeldung beim Deutsche Patent- und Markenamt, München, eingereicht [GG12]. Die Vorhersage der Wärmeleitfähigkeit von FVK stellt derzeit noch eine hohe Hürde da. Eine Lösung zur Berechnung mittels einer Simulation wurde kurz aufgeführt. Dieses Hilfsmittel muss nachfolgend weiter verfeinert, vereinfacht und auf dreidimensionale Faserstrukturen erweitert werden. Die Thermographie bietet bereits heute eine schnelle und verhältnismäßig einfache Bestimmung der Wärmeleitfähigkeit von FVK-Bauteilen, verglichen mit stationären Messmethoden an kleinen Probekörpern. Diese Arbeit liefert für Wärmeübertragungsprobleme mit FVK einen zeit- und kostenreduzierten Lösungsweg mit Teil- oder Gesamtlösungen. Zahlreiche Einzel- sowie kombinierte Ergebnisse der durchgeführten FVK-Untersuchungen sind aufgeführt, um eigene und/oder erweiterte Untersuchungen anzuschließen zu können und eigene Schlussfolgerungen zu ziehen. Ob eine existierende Werkstofflösung, sei es eine metallische oder eine FVKbasierte, durch die in dieser Arbeit vorgestellten Materialkombinationen ergänzt oder ersetzt wird, entscheidet auch der Kunde. Den klar artikulierten Forderungen des Marktes stehen hohe Materialkosten für Pech-basierte Kohlenstofffasern gegenüber. Diese Arbeit ist in der Lage, die Materialkosten pro kg (Mehrkosten für Gewichtsreduktion) zu berechnen. Weitere Kalkulationen u. a. der Prozesskosten liefert dieser Forschungsbeitrag nicht. Anhand eines Werkstoffbeispieles wurde gezeigt, dass auf Basis dieser vereinfachten Kalkulation eine Wettbewerbsfähigkeit der vorgeschlagenen Werkstoffkombinationen für die Luft- und Raumfahrtbranche besteht. Der Kostendruck der Automobilbranche erfordert weitere Kostenreduktionen, z. B. durch Materialkombinationen mit günstigeren metallischen Fasern. Diese Untersuchungen müssen möglichste nahtlos an diese Arbeit angeschlossen werden. ····· 10361107822
für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Die vorliegende Arbeit beschreibt eine vollkommen neue Herstellungsmethode, um hohe Volumengehalte an Oxiden in einem metallischen Werkstoff einzubringen. Dabei wird die innere Oxidation als entscheidender Prozessschritt verwendet. Innere Oxidation ist die selektive Reaktion von Legierungsbestandteilen im Inneren eines Werkstücks mit einem Oxidationsmittel (z.B. Sauerstoff), das durch das Gefüge ins Materialinnere diffundiert. Dieser Vorgang findet bevorzugt bei hohen Temperaturen statt und ist in den meisten Fällen eine unerwünschte Erscheinung, da er mit einer Materialveränderung bzw. einer Materialschädigung einhergeht. Als mögliche Diffusionspfade stehen dem Sauerstoff nach bisheriger Ansicht die metallische Matrix und die Grenzflächen zwischen der Matrix und den Oxidpartikeln zur Verfügung. Eine Sauerstoffdiffusion durch die Oxide selbst wird stets vernachlässigt, wobei in der Literatur Oxide mit sehr guter Sauerstoffionenleitfähigkeit, wie beispielsweise yttriumstabilisiertes Zirkonoxid (YSZ), bekannt sind. In dieser Arbeit wird der Frage nachgegangen, ob es möglich ist, während der inneren Oxidation yttriumstabilisiertes Zirkonoxid zu erzeugen, und ob dies eine Auswirkung auf die Oxidationskinetik und Ausbildung der Oxidpartikel hat. Dazu wurden eine Vielzahl binärer und ternärer Legierungen auf Nickelbasis mit Yttrium und/oder Zirkonium hergestellt und deren Verhalten bei der inneren Oxidation untersucht. ····· 10361107802
für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Manufacturing is a dynamic activity faced with challenges from external and internal environment. These challenges have to be addressed to meet customers` needs such as high product quality, on time delivery and minimum cost. High product quality internally requires capable manufacturing process that exhibit less variation. This in turn requires likely failure modes that are not inherent to the process to be removed out. For a practical purpose, the likely process failure modes can be considered as finite and recurring. Using process failure modes and effects analysis (process FMEA), they can be predicted. During process planning stage, it is customary to associate machining operations with product characteristics such as manufacturing features. Doing so has the potential to reveal shared process characteristics among the manufacturing features and likely process failure modes affecting them. Such association, however, may not be easy particularly when the product variety increases. This problem is a big hindrance for FMEA implementation. This book describes a method to identify and reuse failure modes that affect many products at early process planning stage. It exclusively presents a new approach to process FMEA based on group technology (GT) concept-similar problem needs similar solution. To fully utilize the concept, process FMEA was first conducted for machining and process features, and then for manufacturing part families. The machining and process features FMEA indicates shared failure modes for manufacturing features. The manufacturing part family FMEA on the other hand shows products that share similar failure modes, and it serves as a platform to reuse existing process FMEA knowledge with less time and effort. ····· 10361107796
für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Unzulässige Schwingungen beeinträchtigen die Leistungsfähigkeit und Genauigkeit von Maschinen und Konstruktionen. Smarte Strukturen, d.h. mechanische Strukturen mit Aktuatoren und Sensoren, ermöglichen eine höhere Leistungsfähigkeit jenseits der Grenzen der rein passiven Struktur. Performante piezoelastische Strukturen bedingen eine geeignete Berücksichtigung der Themen Modellierung, Design und Regelung. Die mathematische Modellierung eines piezoelastischen Kontinuums erfolgt mit Hilfe des Lagrange Formalismus. Die Herleitung des mathematischen Modells im Rahmen der linearen und nichtlinearen Piezoelastizitätstheorie bedient sich hierbei der Sprache der Differentialgeometrie. Die geometrische Struktur wird im linearen und nichtlinearen Szenario aufgebaut und die betreffenden mathematischen Objekte der Kontinuumsmechanik entsprechend definiert. Die gespeicherte Energie eines piezoelastischen Körpers ist ein zentraler Baustein bei der Herleitung der zugrunde liegenden Bewegungsgleichungen und begründet die Optimalität im Rahmen des Aktuatordesigns. Eigenschaften und Charakteristika dieser Funktion werden im linearen und nichtlinearen Fall besprochen. Durch die Wahl eines geeigneten Koordinatenwechsels ermöglicht der Lagrange Formalismus eine besonders elegante Reduktion der beschreibenden Differentialgleichungen. Die Kirchhoff Platte dient hierbei als Beispiel und wird folgend für das optimale Aktuatordesign und die Regelung exemplarisch verwendet. Das Problem der perfekten Störunterdrückung im infinitdimensionalen Fall wird basierend auf dem Bi-Komplex der Variationsrechnung analysiert. Beliebig geformte Aktuatoren und Sensoren sind jedoch in vielen Fällen nicht zulässig. Im linearen Fall wird für das optimale Aktuatordesign das natürliche Produkt zwischen Spannungs- und Verzerrungstensor verwendet, während im nichtlinearen Fall die gespeicherte Energie der piezoelastischen Struktur als Abstandsmaß zum Einsatz kommt. Das optimale Sensordesign wird durch den Begriff der Kollokation von Aktuator/Sensorpaarungen unter Verwendung der Hamilton`schen Beschreibung von piezoelastischen Strukturen motiviert. Im gleichen Zusammenhang wird das Self-Sensing Konzept eines piezoelektrischen Aktuators eingeführt. Die geregelte Störunterdrückung verwendet kollokierte Aktuator/Sensorpaarungen. Die Darstellung einer piezoelastischen Struktur in Form eines infinit dimensionalen `Port Controlled Hamiltonian System with Dissipation` (PCHD) gemeinsam mit einer speziellen, kollokierten Eingangs- /Ausgangspaarung vereinfacht den Regelungsentwurf sowie die Führung der zugehörigen Stabilitätsbeweise. Die Implementierung von Regelungen basierend auf Damping Injection und Internal Model Control mit einem Self-Sensing Aktuator wird vorgestellt. Im Falle einer unbekannten Störfrequenz wird ein adaptives Regelgesetz vorgeschlagen. Die Qualität der implementierten Regelungen wird im Bereich einer dominanten Eigenfrequenz einer realen Plattenstruktur mit einem Self-Sensing Aktuator analysiert. ····· 10361107794
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Das Gehör ist mehr als jedes andere Sinnesorgan für die menschliche Sprache und ihre Entwicklung verantwortlich und stellt auf kleinstem Raum ein anatomisch und physiologisch einzigartiges Gebilde dar. Es beeindruckt vor allem durch seinen großen Dynamikbereich. Während im Bereich der Hörschwelle der eben hörbare Schalldruck etwa 20 µPa beträgt, können die Drücke und Amplituden bis zur Schmerzgrenze noch etwa zweimillionenfach gesteigert werden. Derartige physiologische Schalldrücke sind jedoch immer noch verschwindend klein gegenüber den ebenfalls auf das Ohr einwirkenden statischen Luftdruckschwankungen, wie sie beispielsweise beim Treppensteigen, Zug- bzw. Autofahren, Fliegen oder beim Naseputzen vorkommen. Zwar führen diese zu einer veränderten Wahrnehmung, jedoch nicht zu einer Schädigung des Ohrs. Diese Fähigkeit, trotz großer statischer Druckschwankungen in der Umgebung, gleichzeitig winzige physiologische Schalldrücke wahrnehmen zu können, ist hauptsächlich in den nichtlinearen, viskoelastischen Eigenschaften der Gelenke und Bänder des Mittelohrs sowie des Trommelfells begründet. Das Ziel dieser Arbeit ist es, dieses nichtlineare Verhalten des Mittelohrs bei großen Belastungen und großen Verschiebungen durch nichtlineare, räumliche Ersatzmodelle auf mechanischer Basis abzubilden. Zur Charakterisierung der nichtlinearen Eigenschaften der Gerhöknöchelchenkette werden statische und dynamische Messungen an humanen Felsenbeinen durchgeführt. Ein besonderes Augenmerk ist auf die Charakterisierung der nichtlinearen, viskoelastischen Eigenschaften des Ringbands, des Trommelfells, der Trommelfellsehne und der beiden Mittelohrgelenke gerichtet. Im Blick auf die klinische Praxis wird zum einen anhand von Messergebnissen das Schädigungsrisiko bei einer Stapeschirurgie diskutiert sowie die Auswirkungen von Vorspannungen im Mittelohrapparat am Beispiel des aktiven Implantats Carina untersucht. ····· 10361107762
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Sensoren sind Messfühler und wandeln nichtelektrische Größen in elektrisch auswertbare Größen um [Czi08]. In den letzten Jahren hat die Entwicklung der Signalprozessoren zu einer steigenden Leistungsfähigkeit und Kompaktheit der Sensoren geführt [Mey07]. Ein Nutzer dieser Entwicklung ist unter anderem die Luftfahrtindustrie. Das Structural Health Monitoring (SHM) basiert auf der Integration und Vernetzung von Sensoren innerhalb der Bauteilstruktur. Es dient zur Überwachung des Zustands von Leichtbauteilen. Mit geeigneten Sensoren könnten von außen nicht sicht- oder detektierbare Schäden ermittelt werden. Somit könnte von der aktuell zeitbasierten Inspektion von beispielsweise Flugzeugen zu einer bedarfsorientierten Inspektion gewechselt werden [Mey07]. Des Weiteren ist denkbar, Materialüberschuss an den Bauteilen zu minimieren, da Sensoren die kritischen Stellen möglicherweise kontinuierlich überwachen könnten. Somit ermöglicht der Einsatz von SHM zugleich eine Reduktion der Wartungskosten und des Gewichtes [HBL+07]. `Monitoring` ist die englische Bezeichnung für eine kontinuierliche Überwachung. Im Bereich der Medizintechnik existiert ein zum SHM analoges Konzept: das Patienten-Monitoring. Zur Gewährleistung einer besseren Medikation und medizinischen Versorgung werden Patientendaten vom Pflegepersonal regelmäßig erhoben [Kum10]. Das direkte und vor allem kontinuierliche Abgreifen von Daten mittels Sensoren entlastet das Personal und verbessert die Zustandsüberwachung des Patienten. Für das SHM werden strukturkonforme, integrierbare und beim Patienten- Monitoring minimal invasive Sensoren benötigt. Sensorfasern wären vor allem für technische Textilien, die Integration in Faserverbundwerkstoffe sowie Smart Textiles interessant [GV07]. Sie könnten sowohl in biegeschlaffen Textilien als auch in faserverstärkten Kunststoffen (FVK) eingesetzt werden. Ausgehend von diesem Bedarf ergibt sich die Frage, ob und wie Fasern bzw. Filamente sensorisch nutzbar gemacht werden können. Ein vielversprechendes Beispiel dafür ist das in der vorliegenden Arbeit untersuchte Polymer Polyvinylidenfluorid (PVDF). Neben der hohen chemischen Stabilität, die sich auf den Fluoranteil des Materials zurückführen lässt, zeigen sich mögliche ferro-, pyro- und piezoelektrische Eigenschaften [Nal95, WHG88, BMC71, NW71]. Wegen der Analogie zur piezoelektrisch nutzbaren Sensorfolie aus PVDF [LM06] und wegen der Tatsache, dass dieses Polymer auch zu Fasern verarbeitet werden kann, wird PVDF als aussichtsreicher Werkstoff für die Herstellung von Sensorfasern betrachtet [SWS+10, WSS10, LH10, LH11]. Die potentiellen piezoelektrischen Eigenschaften des Polymers treten jedoch nur unter bestimmten Herstellungsbedingungen [Nal95, SWS+10] auf und können unter bestimmten Voraussetzungen nutzbar gemacht werden. Hieraus leitet sich die Aufgabenstellung der vorliegenden Arbeit ab, die notwendigen Kenntnisse über Prozesse und resultierenden Effekte von piezoelektrisch wirksamen Sensorfasern, basierend auf PVDF, zu erarbeiten. In Abb. 1.1 sind einige mögliche zukünftige Anwendungen gezeigt. ····· 10361107755
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Bulk metallic glasses (BMGs) are typically formed from the rapid quenching of multicomponent metallic melts. Good BMG-forming systems are associated with a large atomic size mismatch and deep eutectic formation between the constituent elements. As such, these densely packed BMG-forming liquids can be characterized through sluggish kinetics, which impedes the nucleation and growth of crystals, as well as a low driving force for crystallization that is present in the undercooled liquid. In this work, the equilibrium thermodynamic and kinetic properties of certain BMG-forming liquids are analyzed at temperatures near the melting point and in the deeply supercooled state near the glass transition. This includes determination of the viscosity and thermodynamic functions of the liquid. The non-equilibrium properties of the glassy state are also studied, looking at the phenomenology of structural relaxation as it relates to viscosity, enthalpy and free volume. A look at viscous flow in terms of configurational entropy and various models of the free volume is given. Finally, the molten viscous behavior of various BMG-forming alloys is investigated at temperatures above the melting point. The kinetics in the melt at high temperatures reveals a distinctively more fragile liquid state than at low temperatures near the glass transition. This behavior is revealed to be the result of a fragile-to-strong transition in the undercooled liquid, possibly due to polyamorphism. ····· 10361107735
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Der farbgetreuen Reproduktion von Objekten kommt im alltäglichen Leben zwar eine kleine, aber dennoch wichtige Bedeutung zu. Hohe Anforderungen an die Farbnachstellung reichen vom Zahnersatz bis hin zur Lackierung von Autoteilen. Für die Druckindustrie hat die farbgenaue Reproduktion eine zentrale Stellung, da sie die gesamte Reproduktionskette von der Farbaufnahme über die Farbtransformation bis hin zur Ausgabe am Bildschirm bzw. im Druck maßgeblich beeinflusst. Obwohl die Farbe im weitesten Sinne gut beherrschbar geworden ist, führen sichtbare Farbabweichungen zwischen der originalen Vorlage und der Nachstellung nicht selten zu unakzeptablen Farbabweichungen. Die vorliegende Arbeit adressiert wesentliche Ursachen für typische Farbabweichungen indem sie Beiträge zur qualitativen und quantitativen Bewertung und Verbesserung von Methoden und Verfahren zum ICC-Farbmanagement liefert, welches heute allgemein in der Farbreproduktionstechnik angewendet wird. Besonderer Schwerpunkt liegt in der Berücksichtigung praktischer Aspekte für die unmittelbare Umsetzung in der grafischen Industrie. Hierzu gehört zunächst die Frage der Quantifizierung eines Farbabstandes. Zu Beginn einer Reproduktionskette ist die Charakterisierung der technischen Farbbildaufnahme mit Kameras in Bezug auf die Farbeigenschaften wesentlich. Es folgen daraus die Transformation der Farbinformation für Druckprozesse und ihre qualitative Bewertung und schließlich die Wiedergabe der Farbbildinformation auf Bildschirmen, die heute auch für eine qualitative visuelle Farbbeurteilung eingesetzt wird (so genannter Softproofing). Hinsichtlich der Bewertung von Farbabständen wurde ein farbpsychologisches Experiment entwickelt und durchgeführt. Der erarbeitete Datensatz beschreibt den wahrgenommenen Farbabstand von 488 Farbpaaren, erstmalig für die konkreten Betrachtungsbedingungen der grafischen Industrie. Mit diesen Daten wurden existierende Farbabstandsformeln auf ihre empfindungsgemäße Bewertung von Farbabständen hin untersucht. Die CIEDE2000-Farbabstandsformel schnitt am besten ab und kann für den praktischen Einsatz in der Druckindustrie empfohlen werden. Die testtafelbasierte Kameracharakterisierung, d. h. die Verwendung einer physischen Vorlage mit repräsentativen Farbfeldern, ist nach wie vor Stand der Technik bei der ICC-basierten Bildaufnahme. Vor dem Hintergrund einer experimentellen Überprüfung der Aufnahmegenauigkeit durch die zusätzliche Verwendung vorlagenspezifischer Testtafeln wurde ein Satz von 35 Testtafeln mit über 2000 Farbfeldern zusammengestellt. Hierzu gehören repräsentative Skalen- und Sonderfarben konventioneller und digitaler Druckprozesse sowie nicht drucktechnisch erzeugte Testvorlagen wie z. B. Leder, Textilien (Polyester, Polyamid, Polyacryl, Naturfaser, Baumwolle und Leinen), Kunststoffe, Hölzer, Furniere, Imitate, Esswaren oder Kosmetika. Es konnte praktisch gezeigt werden, dass für diesen besonders umfangreichen und repräsentativen Farbprobensatz die metamere Charakterisierung von Kamerasystemen auf Basis mehrdimensionaler polynomialer Regression eine deutliche Verbesserung gegenüber der bisherigen ICC-basierten Profilierung mit standardmäßigen Testtafeln bringt. Für die Evaluierung der Farbtransformation wurden neue Bewertungsmethoden erarbeitet, welche den Erhalt des Kontrasts bei der Datenaufbereitung sowie die Vereinheitlichung von unterschiedlichen Separationen ermöglichen. Erstere basiert auf der Analyse der Farbverschiebung von auf einer Kugel angeordneten Farbfeldern. Das in dieser Arbeit entwickelte Gütemaß Kt analysiert die Transformationsergebnisse hinsichtlich der Kugelformerhaltung und des Modulationserhalts und erreichte somit eine hohe Korrelation mit visuellen Testergebnissen. Die zweite Methode bewertet so genannte `CMYK-CMYK`-DeviceLink-Transformationen auf ihren Grad der Separationsvereinheitlichung. Die hierzu entwickelte Methode vergleicht metamere Grundfarbenmischungen vor und nach der Transformation und berechnet daraus ein Gütemaß SV Mittel, welches vorhandene Prüfregime um die neue Eigenschaft der Separationsvereinheitlichung ergänzt. Die heute allgemein benutzten Bildschirme auf Basis der LCD-Technik liefern eine Blickwinkelabhängigkeit der Farbwiedergabe. Über allgemein übliche Bewertungskriterien hinaus wurde daher eine ansteuerungsabhängige Auswertung der Blickwinkelabhängigkeit entwickelt. Zur Bewertung wurde eine Prüfgröße Gamma definiert. Sie berücksichtigt die Änderung des winkelabhängigen Gradationsverhaltens, was nun eine klare Abgrenzung zu Maßen der Flächenhomogenität ermöglicht. Die entwickelten Methoden ergänzen die vorhandenen Verfahren zur Qualitätsbewertung in wesentlichen und sehr kritischen Eigenschaften im Hinblick auf Reproduktionsfehler. Sie stellen damit einen Beitrag für ein deutlich verbessertes Qualitätsmanagement in der Farbreproduktion dar. ····· 10361107728
für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Since its initiation in the late 1980s, the lattice-Boltzmann method (LBM) has emerged as an eminent tool for numerical investigations of fluid flows involving complex physics and highly intricate geometries. Compared to conventional approaches, which utilize a discretization of the Navier-Stokes equations, the LB method offers a simple algorithmic structure, very good parallel scale-up, and an efficient boundary treatment for fixed walls. However, the method is still subject to ongoing research and development concerning its complex stability behavior and the use of non-uniform meshes. The purpose of this work is to explore possible improvements and new applications for LBM by developing a highly productive parallel LB flow solver based on hierarchically refined Cartesian meshes. The numerical method and the developed techniques for local grid refinement, solution-adaptation, and large-eddy simulations (LES) are described in detail. To validate the implemented methods, two-dimensional and threedimensional laminar and turbulent flows over blunt bodies at Reynolds numbers up to ReD = 3700 are simulated and adaptive mesh refinement is successfully applied in simulations of steady and unsteady cylinder flow. The results evidence a very good agreement with reference values from the literature regarding the velocity field, the wall-pressure distribution, and the coefficients for drag, lift and vortex-shedding frequency. Additionally, the LBM is successfully applied for a direct numerical simulation (DNS) and a LES study of a temporally evolving shear layer. It is shown that the LES approach delivers reliable results for turbulent flows proving the applicability of LBM for practical engineering applications. In an additional investigation, the classical Bhatnagar-Gross-Krook (BGK) collision operator is compared to moment-based methods in studies of laminar and turbulent wall-bounded flows with respect to stability and accuracy. All methods are found to deliver consistent results, whereas the LBGK method shows a higher susceptibility to pressure oscillations. In the last part of this work, the developed methods are applied for simulations of the flow in a realistic model of the human lung. Time-resolved simulations of oscillating lung flow are compared with experimental data from particle-image velocimetry (PIV) measurements and evidence a good agreement of the overall flow structure. In a next step, the unsteady three-dimensional flow field is analyzed in detail by which fundamental insight to highly intricate respiratory flow mechanisms is gained. From the findings of this thesis, it is concluded that the LBM in combination with local grid refinement yields accurate results in multiple flow regimes and dramatically improves the computational efficiency. The presented techniques form the basis of a highly flexible LB framework and contribute to extending the field of applications of LBM towards complex engineering flow fields. ····· 10361107727
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Hydrogen assisted delayed fracture is a non-negligible obstacle for fully application of the excellent formability of the TRIP or TWIP-aided austenitic steels. The current work compared delayed fracture behaviour in Meta-stable Austenitic Stainless Steels (MASS) and High Manganese Steels (HMS) by carrying out quasi-static tensile test, slow strain rate test and deep drawing test. In-depth investigation of the response of mechanical properties at different hydrogen levels elucidated the influences of hydrogen content, austenite stability, chemical composition and lattice defects on delayed fracture behaviour. Materials with lower austenite stability generally show higher susceptibility to delayed fracture. Austenite in MASS can be stabilized by alloying with Mn and N. Deformation twinning in HMS can be postponed by alloying with Al. Besides of austenitic stability, materials with non-beneficial hydrogen traps, such as coarse inclusions and rigid secondary phase, are quite susceptible to delayed fracture. Elaborate mechanical testing at different strain rates, forming temperatures and stress states also revealed the influences of the mentioned process parameters on fracture strength and strain after hydrogen degradation. Hydrogen-dislocation interaction is mostly enhanced at low strain rate and high tri-axial stressed condition. Furthermore, the damage mechanisms in the investigated materials were explored by observing the fracture surfaces and crack propagation under Scanning Electron Microscopy and Electron BackScatter Diffraction system. ····· 10361107713
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray The role of poly-alcohol solvent as well as the reaction with different precursors (e.g. Fe(II)-oxalate, Fe(III)-nitrate) during the polyol process has been investigated. The reaction mechanisms of a low temperature wet chemical route for the synthesis of LiFePO4 and LiTi2(PO4)3 were investigated. The influence of precursors on the reaction mechanism of the synthesized materials in diethylene glycol solvent was studied by in-situ FT-IR gas analysis during the synthesis. In-situ FT-IR gas analysis is used for the first time in this type of research work. Whether the Poly-alcohol solvent acts as a dissolving medium and/or reducing agent depends on an intermediate amino ether compound. It was assumed that cyclic ether 1,4-Dioxane, dehydration product of DEG at boiling point temperature, along with the absence of oxidation by-products of DEG supports the stability of F e2+ and T i4+ under the polyol synthesis conditions. Where as with Fe(III) nitrate salts, it was observed that DEG acts as a reducing agent. The reaction products of DEG and NO - 3 -ions support the reduction of F e3+ to F e2+ during the synthesis of LiFePO4. Experimental parameters such as reaction temperature and time were established to control the morphology of materials used as a cathode material and solid electrolyte. The effects of different types of morphology on the electrochemical performance of LiFePO4 were studied. Furthermore, the effect of the concentrations of Li +, Fe2+ and P O 3- 4 ionic moieties on the morphology of LiFePO4 were studied and supported through SEM investigations. In polyol process, dissolution of the salts in DEG solvent is not sufficient for formation of LiFePO4 but only after thermal decomposition of salts in DEG and removal of the volatile products, e.g. CO2, CO, NH3, the formation of LiFePO4 and LiTi2(PO4)3 can start. Neither reduction into metallic iron nor oxidation into F e 3+ complexes (e.g. Fe-hydroxide) was observed during the synthesis of LiFePO4. ····· 10361107701
für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Biologisch abbaubare Materialien auf Basis nachwachsender Rohstoffe besitzen ein großes Potential für verschiedenste Anwendungen, da sie fossile Rohstoffe schonen und Entsorgungsprobleme beheben. Kommerziell werden bereits einige Polymere beispielsweise als Tragetaschen oder Verpackungen verwendet. Polymilchsäure, die auf Basis von Stärke bzw. Zucker gewonnen wird, nimmt dabei eine Vorrangstellung ein.Bei der Stärkeherstellung fallen mehrere Tausend Tonnen Proteine im Jahr als Nebenprodukte an, die bisher überwiegend als Futtermittel vermarktet wurden. Ziel dieser Arbeit war es, diese Pflanzenproteine hinsichtlich ihrer Eignung zur Herstellung von Proteinfilmen zu bewerten. Die Proteinfilme wurden dabei mittels mikrobieller Transglutaminase (MTG) quervernetzt und bezüglich einer Anwendung in der Landwirtschaft als beispielsweise Mulchfilme mit praxisnahen Untersuchungen charakterisiert. Proteine aus Erbse und Kartoffel ließen sich durch ein Gießverfahren zu Filmen verarbeiten und waren mittels MTG quervernetzbar. Aufgrund geringer Löslichkeit in 20 mM Tris/HCl- Puffer pH 7 war eine Filmbildung mit Proteinen aus Mais, Weizen, Raps sowie Roggen nicht möglich. Die tierischen Proteine Na-Caseinat und Gelatine dienten als Vergleichsmaterialien. Eine enzymatische Quervernetzung mittels MTG führte zur Erhöhung der Filmtransparenz. Neben den Zugeigenschaften wurden erstmalig von den Proteinfilmen die Widerstände gegen ein Weiterreißen und Durchstoßen gemessen. Die Zugeigenschaften der besten Filme aus pflanzlichen Proteinen waren zum Teil vergleichbar mit den Werten tierischer Proteine und kommerzieller Filmen. Die Weiterreißeigenschaften lagen 80-95 % unter denen von kommerziellen Filmen. Durch Einsatz von Polyethylenglykol (MW 300 g/mol) als Weichmacher und einer enzymatischen Quervernetzung mittels MTG erfolgte eine erste Optimierung. Zudem wurde festgestellt, dass die Filmherstellung mit ausschließlich löslichen Proteinen eine positive Auswirkung auf die mechanischen Eigenschaften hatte. Proteinfilme besaßen hingegen im Vergleich zu kommerziellen Kunststoffen einen höheren Widerstand gegen biaxiale Durchstoßbeanspruchung. Durch die enzymatische Quervernetzung konnte die Wasserlöslichkeit der Proteinfilme erheblich reduziert werden. Wie mit einem erstmalig durchgeführten Bewitterungstest im Gewächshaus mit Beregnung gezeigt werden konnte, wurde die Beständigkeit der Filme gegen Beschädigung durch Regen von null auf vier Tage erhöht. Dabei wurde allerdings ein Herauslösen des Weichmachers Glycerin beobachtet, das zu einer Versprödung der Filme führte. Zur Erhöhung der Hydrophobizität konnte erfolgreich eine Beschichtung mit Bienenwachs angewendet werden. Aufgrund der enzymatischen Quervernetzung erfolgte ebenfalls eine Verzögerung der Abbaubarkeit im Boden von null auf vier Tage. Im Falle von Gelatine-Filmen konnte sie sogar auf mehr als sieben Tage verlängert werden. Bei der Untersuchung der Pflanzenverträglichkeit von Proteinfilmen konnte ein Düngeeffekt beobachtet werden - Mais und Tagetes zeigten eine Erhöhung der Frischmasse nach vier Wochen Kultivierung auf Proteinfilmen. Die Pflanzen konnten vermutlich den beim Abbau von Protein freiwerdenden Stickstoff zum Wachstum nutzen. Schlussfolgernd kann gesagt werden, dass tierische sowie pflanzliche Proteine prinzipiell für eine Filmherstellung geeignet sind. Die enzymatische Quervernetzung mittels MTG ist dabei aufgrund der überwiegend positiven Einflüsse auf die Eigenschaften von Proteinfilmen eine geeignete Methode zur Optimierung der Filmeigenschaften. Zudem eignen sich die Proteinfilme beispielsweise als Düngefilme, dessen relativ schneller Abbau (Tage-Wochen) Düngemittel freisetzt. Neben dem proteingebundenen Stickstoff können zusätzlich in die Filme eingebrachte Düngemittel (z.B. Harnstoff) verwendet werden. Für die spezielle Anwendung als Mulchfilm besteht hinsichtlich der mechanischen Stabilität sowie der Witterungsbeständigkeit Optimierungsbedarf. Das eingesetzte Erbsenprotein ist aufgrund seiner hohen Löslichkeit im Vergleich zu anderen pflanzlichen Proteinen und seiner guten filmbildenden Eigenschaften besonders interessant zur Herstellung biologisch abbaubarer Filme. Bei einer anfallenden Jahresmenge von mindestens 6000 Tonnen Erbsenprotein könnten 40 km² Film hergestellt werden. Trotz vieler erzielter positiver Ergebnisse müssen die Eigenschaften von Proteinfilmen bezüglich ihrer späteren Anwendung beispielsweise in der Landwirtschaft weiter optimiert werden. ····· 10361107698
für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray In this thesis, the approach is to increase the amount of austenite during low-temperature austenite reversion heat treatment. The heat treatment starts with a complete austenitization and carbides solution treatment. Water quenching to room temperature is followed after this solution treatment. During a subsequent heat treatment in the range of 300°C-500°C, austenite reversion takes place on the basis of partial partitioning according to local equilibrium, segregation and kinetic freezing of carbon among different phases. This austenite reversion treatment was applied in two kinds of martensitic stainless steels: Fe-13Cr-0.4C (X44Cr13, 1.4034, AISI 420) and Fe-13Cr-0.2C (X21Cr13, 1.4021, AISI 420) (wt.%). In the high carbon steel (Fe-13Cr-0.4C), austenite reversion heat treatment at 400°C gives the material a significant increase in ductility without drastically strength decrease (e.g. heat treated at 400 °C for 30 min results in a UTS of 1.75 GPa with an elongation of 23%). Concerning the whole austenite reversion treatment, carbon concentration and its distribution are the key factors. During quenching, in the vicinity of martensite-austenite interfaces, carbon segregates from the supersaturated martensite to both, the hetero-interfaces and to homophase grain boundaries. During austenite reversion tempering, carbon continuously diffuse to martensite-austenite interfaces, driving the carbon-enriched areas towards austenite reversion. It is worthy to point out that the fast nanoscale austenite reversion is attributed to an effect that is referred to as kinetic freezing of carbon. This means that the carbon is fast inside the martensite when leaving it but slow (and, hence, frozen) when entering the austenite. Carbon becomes trapped and highly enriched at the martensite-austenite interfaces owing to its low mobility within the austenite during low-temperature partitioning. This provides a much higher local driving force for austenite reversion. This means that the formation of nanoscaled reverted austenite depends mainly on the local but not on the global chemical potential of carbon at internal interfaces. Carbon inside martensite, far away from any interfaces, tends to form M3C carbides. The austenite reversion process, nano-carbide precipitation, and carbon segregation have been characterized by X-ray diffraction (XRD), electron back-scatter diffraction (EBSD), transmission electron microscopy (TEM) and atom probe tomography (APT) in order to develop the structureproperty relationships that control the material`s strength and ductility. 3D reconstructions of samples at different stages during austenite reversion treatment were established base on the APT results especially at the interfaces. In the low carbon steel (Fe-13Cr-0.2C), austenite reversion in the investigated temperature range (300°C-500°C) is difficult to proceed due to the lack of carbon content. Simple tempering of the quenched martensite is the main process of this steel when heat-treated at 400°C. ····· 10361107689
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray The first part of the study was dedicated to investigate the recrystallization behavior of the samples subjected to high levels of strain via high pressure torsion. The deformed structure revealed the simple shear texture components of the FCC materials. The strongest texture components with increasing the strain level kept the same character from strain levels of about 9. The grain size decreased at the first increasing levels of the strain and then reached the saturation in refinement of the microstructure. The microstructure evolution of the heat-treated samples showed that there were some grains, growing discontinuously during heat treatment of the samples. Due to the high fraction of high angle grain boundaries, it was expected that the material shows homogenous changes of microstructure during heat treating, which was not the case. Accordingly the stored energy evolution depicted that the stored energy decreases during annealing processes. The texture results demonstrated the dominance of the B component and B components in the annealed state. The stored energy of each texture component existing in the deformed microstructure was approximated using the kernel average misorientation, however there was no correlation between the stored energy of the texture components and their appearance during heat treatment. A correlation between the grain size and the stored energy was observed. During annealing of the samples the larger grains yielded the smallest stored energy. This could be explained by the fact that grains reducing their stored energy grow in the deformed microstructure and develop a bimodal structure. The driving force for formation of these grains was obtained most probably from the stored energy of the dislocations. This can be an indication of primary recrystallization. But the preferable domination of specific texture components was not related to their stored energy but is probably caused by the character of grain boundaries. Since the driving force for the discontinuous grain growth and primary recrystallization is in the same order of magnitude, it can be concluded that both processes are active during heat treatment of the strongly strained samples. ····· 10361107669
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Hoher, intrakranieller Druck, insbesondere ein Hydrozephalus, wird seit Mitte des letzten Jahrhunderts mit implantierten Überdruckventilen therapiert. Sogenannte Shunt-Implantate stoßen in vielen Fällen an Ihre Grenzen, was zu Komplikationen und Folgeoperationen führen kann. Bei Shunt-Implantaten sind die Ergebnisse der zur Verfügung stehenden klinischen Untersuchungsmethoden nicht immer eindeutig genug, um sichere Diagnosen und Therapieentscheidungen zu treffen. Zur Diagnose-Hilfe und als Beitrag zur Entwicklung eines zukünftigen elektronischen Drainage-Implantats wurde im Rahmen dieser Arbeit ein Implantat entwickelt und in-vivo erprobt, das kontinuierlich seine Lage, Beschleunigung und die intrakranielle Druckänderung misst und sendet. Ein externer Monitor empfängt die gefunkten Messdaten in Echtzeit, analysiert und speichert sie. Algorithmen zur Analyse der Messdaten wurden entwickelt und genutzt, um den Informationsgehalt der gemessenen Daten komprimiert abzubilden. Damit das entwickelte Implantat in-vivo getestet werden konnte, wurde in der Hydrozephalus-Forschung erstmals ein Schwein im Tiermodell eingesetzt. Mit den Implantaten in Tieren wurde gleichzeitig die Lage, die Beschleunigung und der intrakranielle Druckverlauf kontinuierlich über den Tagesablauf gemessen. In den Versuchen hat sich bestätigt, dass die charakteristischen Parameter des intrakraniellen Raums von Schweinen und Menschen ähnlich sind, was die Aussagekraft der Ergebnisse stärkt. In dieser Arbeit wurden Indikatoren aus dem dynamischen Druckverhalten abgeleitet, welche ohne Kenntnis des mittleren ICP auf zu hohen Hirndruck hinweisen und medizinischen Handlungsbedarf anzeigen. Ein konkret definierter, intrakranieller Druck im physiologischen Bereich war bisher das Therapieziel der Behandlung von Patienten mit pathologisch erhöhtem, intrakraniellen Druck. Diese Sollgröße kann in Zukunft dynamisch gestaltet und die Unterbindung von hohen Amplituden der Hirndruck-Wellen als Soll-Zustand definiert werden. Das im Rahmen dieser Arbeit etablierte Tiermodell erlaubt es, solche innovativen, risikoreichen Therapieveränderungen zu evaluieren, ohne Menschenleben oder Gesundheit zu gefährden. Ein wesentliches Ergebnis dieser Arbeit sind Erkenntnisse über die Auswertbarkeit implantierter, intrakranieller Messungen. Für eine kontinuierliche, geregelte Liquordrainage mit einem Implantat lassen sich folgende Aussagen ableiten: Messungen, welche nicht aus Ruhephasen stammen, sind kaum für die implantierte Regelung geeignet und zu ca. 50% des Messzeitraums kann eine Drainage nach heutigem Kenntnisstand nicht auf der Basis solcher Sensordaten geregelt werden. Die Ergebnisse der Arbeit liefern einen grundlegenden Beitrag zum innovativen Therapiekonzept der geregelten Liquordrainage, wobei das implantierte Sensorsystem einen wesentlichen Baustein darstellt. ····· 10361107666
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray The focus of this thesis is to find concepts for the accurate measurement of magnetic fields used in automotive applications. This means all three degrees of freedom of magnetic fields have to be measured at different positions in space. The fields, typically used in automotive applications, have amplitudes in the range of 10 µT - 200mT, and the volume, where the field has to be measured, has a size of a few cubic centimeters. Moreover, the magnetic fields may be strongly inhomogeneous with a gradient in the range of 1% per 10 µm. In this thesis, two different measurement concepts are presented. First, the design and realization of a measurement station is shown which allows for scanning the geometry and the magnetic field of an arbitrary field source. This setup is denoted as `magnetic and coordinate measuring machine` (MCMM), and consists of an optical probe and a magnetic sensor which both are connected to moving axes. For accurate measurements, the MCMM has to be calibrated. Therefore, optical and magnetic calibration methods are discussed, and an extensive estimation of accuracy is performed. Finally, the functionality of the measurement station is demonstrated with two measurement examples. Second, the design and the realization of a monitoring sensor are depicted. This sensor consists of three one dimensional Hall sensors attached to a framework which provides reamed holes for an accurate positioning. In addition, three air coils are integrated into the framework so that a self-test and self-calibration is possible in the application. The complete monitoring sensor is designed for a wide temperature range so that it can be applied to the test environment of automotive magnetic sensors. Furthermore, a measurement setup, consisting of 12 air coils, is presented which allows one to analyze important geometrical parameters of the monitoring sensor. ····· 10361107659
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray In processing as well as in manufacturing plants, a large part of the automation software consists of logic control functions which supervise and coordinate local controllers, establish sequential procedures, and enable improved production flexibility. Dependability in the sense of reliability, availability, maintainability and safety of an automation system is a decisive factor for the economic success, operability and product quality of industrial production processes. The design of logic controllers (LC) does in common practice not follow a systematic design process based on precisely defined formats - rather informal requirements are translated manually into commonly used programming languages (IEC 61131-3), The disadvantages of this procedure are that specific design decisions are only insufficiently documented, the design process is inherently error-prone, the correlation between a requirement and the respective piece of logic control code is often not made explicit, the validation of the design is difficult, and subsequent modifications are time consuming and costly. In this work, a methodology for logic controller design as Sequential Function Chan (SFC) is presented starting from natural-language requirements which are often incomplete and ambiguous. The two-part design format is used for a stepwise iterative design process to specify the LC hierarchically. The design decisions are documented in the process preserving a link between the design decision and the respective requirement. The design process is a refinement scheme which develops step-by-step the formal specifications from the informal requirements. The control code as SFC is generated algorithmically from the specifications. In this work, a methodology for logic controller design as Sequential Function Chan (SFC) is presented starting from natural-language requirements which are often incomplete and ambiguous. The two-part design format is used for a stepwise iterative design process to specify the LC hierarchically. The design decisions are documented in the process preserving a link between the design decision and the respective requirement. The design process is a refinement scheme which develops step-by-step the formal specifications from the informal requirements. The control code as SFC is generated algorithmically from the specifications. ····· 10361107654
für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Die numerische Simulation von Zahnkontakten ist ein wichtiges Hilfsmittel im Auslegungs- und Entwurfsprozess von Systemen, die Zahnräder beinhalten, wobei für die Auslegung von Verzahnungen vor allem die im Betrieb auftretenden Kontaktkräfte von Interesse sind. Der klassische Ansatz zur Simulation von Zahnkräften ist die Verwendung starrer Zahnradmodelle, welche die Elastizität der Zahnradpaarung in einer skalaren Steifigkeit berücksichtigen, was einer quasistatischen Betrachtung des Zahnkontakts entspricht. Diese Modelle eignen sich daher besonders für die Simulation quasistatischer, also lang anhaltender und abwälzender Kontakte, bei denen die Dynamik eine untergeordnete Rolle spielt. Unter hochdynamischen Belastungen oder bei elastischen Radkörpern sind diese Starrkörpermodelle jedoch oft nicht ausreichend genau. Ein technisches Beispiel für ein solches System sind Rädertriebe, bei denen Zwischenräder häufig sehr dünn und damit sehr elastisch ausgeführt werden. Zudem wird in Rädertrieben oft ein Bewegungszustand beobachtet, der Zahnhämmern genannt wird und durch stoßartige Kontakte charakterisiert ist. In dieser Arbeit durchgeführte Untersuchungen zeigen deutlich, dass die klassischen Starrkörpermodelle unter solchen Bedingungen die Kontaktkräfte erheblich überschätzen. Es zeigt sich, dass die Ursachen dafür in der stark vereinfachten Beschreibung der Elastizität der Räder liegt, und dass daher für eine präzise Simulation der auftretenden Kontaktkräfte eine vollelastische Beschreibung notwendig ist. Um die mit Finite Elemente Modellen verbundenen sehr großen Rechenzeiten zu vermeiden und trotzdem eine vollelastische Beschreibung beizubehalten, wird ein bezüglich eines bewegten Referenzsystems beschriebenes und modal reduziertes Modell zusammen mit einer auf Zahnkontakte optimierten Kontakterkennung entwickelt. Mit diesem Modell ist es möglich, Kontaktkräfte in ähnlicher Qualität wie mit sehr detaillierten Finite Elemente Modellen zu berechnen, jedoch mit erheblich kleineren Rechenzeiten. Damit wird es möglich, viele Kontakte und ganze Umdrehungen mit akzeptabler Rechenzeit in sehr hoher Genauigkeit zu berechnen. Die Beschreibung ist sehr allgemein und berücksichtigt den wechselnden Eingriff verschiedener Zahnpaare und die Kontaktkraftverteilung auf der Flanke entsprechend der aktuellen Kontaktsituation. Diese Beschreibung erlaubt daher die Untersuchung allgemeiner Kontakte von beliebigen Stirnrädern, also insbesondere Zahnkontakte bei nichtfluchtenden Achsen, Schrägverzahnungen und neben stoßartigen Kontakten auch Abwälzsimulationen. Aufgrund dieser auch industriell nützlichen Eigenschaften des entwickelten elastischen Zahnradkontaktmodells wurde dieses in Form eines Kraftelements an das kommerzielle Mehrkörperprogramm Simpack angekoppelt, um die Simulation von elastisch modellierten Zahnrädern auch in komplexen Gesamtmodellen zu ermöglichen. Um das entwickelte vollelastische Zahnradmodell zu validieren, wurden grundlegende experimentelle Stoßuntersuchungen an Zahnrädern mit einfachen Stoßkörpern durchgeführt. Die Vergleiche zwischen Messung und Simulation zeigen ausnahmslos sehr gute Übereinstimmungen. Damit ist für diese grundlegenden Stoßuntersuchungen das modal reduzierte Modell validiert. ····· 10361107648
für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Mit der vorliegenden Dissertation wird die Entwicklung von vollständig keramischen, nanopartikelbasierten Beschichtungssystemen dokumentiert, die auf einem niedriglegierten Stahlsubstrat applizierbar sind, auf diesen eine gute Haftung zeigen und das Substrat in einem Temperaturbereich von 600°C bis 800°C effektiv vor Oxidation schützen. Es wurde die Phasengenese, die Gefügestruktur, das Korrosionsverhalten sowie die Schweiß- und die Presshärteigenschaften untersucht. Werden die Proben bei einer Temperatur über 800°C in einer Sauerstoffatmosphäre ausgelagert, dann steigen die Zunderkonstanten der lithiumhaltigen Beschichtungen aufgrund der Phasenumwandlung der Spodumen-Phase an. Der Sauerstoff gelangt über physikalische Defekte nach der Phasenumwandlung leichter an die Substratoberfläche, um diese zu oxidieren. Lithiumhaltige Schichtsysteme, die eine kristalline Struktur haben, weisen dabei bessere Oxidationsstabilitäten auf als das amorphe kaliumhaltige System. Die elektrochemischen Versuche deuten darauf hin, dass die Zunderschicht die kathodische Teilreaktion begünstigt, wodurch das Ruhepotential ansteigt. Die entwickelten Beschichtungen können mittels Laserstrahlund Widerstandspunktschweißen gefügt werden. Es bilden sich weder intermetallische Phasen noch sind keramische Restpartikel in der Schweißnaht nachweisbar, die die mechanischen Eigenschaften beeinflussen. Beim Presshärten zeigen die entwickelten keramischen Schichten eine gute Temperaturwechselbeständigkeit. Nach der Umformung ist nur lokal freie Substratoberfläche zu erkennen. Der Großteil der keramischen Beschichtung ist nach dem Presshärten intakt und schützt das Substrat vor der Oxidation. ····· 10361107642
für 39.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Die Hydro- und Oleophobie sind Eigenschaften, die in der Textiltechnik von besonderem Interesse sind. Während es einige technische Lösungen zur Erzeugung des wasserabweisenden Effekts gibt, kann nur unter Verwendung von sogenannten Fluorcarbonen (FC) auch gleichzeitig eine Abweisung von Ölen erzielt werden. Bei vorangegangenen Arbeiten im wehrwissenschaftlichen Institut für Werk- und Betriebsstoffe stellte sich heraus, dass die Wasserabweisung bei mit Fluorcarbon ausgerüsteten Textilien bereits nach der ersten Wäsche stark abnimmt und durch nachfolgende Wärmebehandlungen nicht wiederhergestellt werden kann. Allerdings ist die Oleophobie weiterhin vorhanden. Das Ziel der Masterarbeit ist es, die Ursache für den Hydrophobieverlust zu identifizieren, um so die Wahl der Gegenmaßnahmen zu erleichtern. Dazu werden mit Hilfe von oberflächensensitiven und chemischen Analysen, sowie gängigen Textilprüfungen und betrachtenden Verfahren, wie der Rasterelektronenmikroskopie, Untersuchungen angestellt. Die Resultate lassen darauf schließen, dass im Laufe einer Wäsche kein umfangreicher Abrieb der FC-Ausrüstung stattfindet. Jedoch führt die beim Waschen auftretende mechanische Belastung des Textils zur Fibrillierung der Cellulose-Fasern und somit zum Freilegen von hydrophilen Arealen. Durch die Aufschlagsenergie eines Regentropfens kann das Wasser die beschädigten Bereiche benetzen und so auch mit den inneren, unausgerüsteten Fasern in Kontakt kommen, was das Durchnässen des Gewebes beschleunigt. Bei Wassertropfen, die mit wenig Energie auf das Textil treffen, ist jedoch wegen der noch oberflächenwirksamen Fluorcarbone weiterhin ein hydrophober Effekt zu beobachten. Dadurch lässt sich auch das Weiterbestehen der Oleophobie nach der Wäsche erklären, da bei der Oleophobie-Prüfung ausschließlich das Verhalten von aufliegenden Öltropfen beurteilt wird. Die Untersuchung des Einflusses von Auflagerungen oder Resttensiden, die sich auf dem Textil befinden können, führt zu der Annahme, dass ihr Vorhandensein nicht gänzlich ausgeschlossen werden kann, aber eine maßgebliche Beteiligung am Hydrophobieverlust nicht stattfindet. ····· 10361107639
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Diese Arbeit beschreibt einerseits neuere Entwicklungen hinsichtlich des Einsatzes von Containern in der Schüttgutlogistik. Andererseits wird ein neuer Ansatz für die Planung von Transportketten unter Einbezug von Kennlinien entwickelt. Ausgehend von den grundlegenden Aspekten der Schüttgutlogistik werden die Planung von Transportketten und der Einsatz von Kennlinien in der Logistikplanung erörtert. In diesem Zusammenhang erfolgt die Charakterisierung von Transportketten und Einflussgrößen der Transportkettenbildung. Insbesondere vor dem Hintergrund sich wandelnder Transportketten durch die Nutzung von Relationen im kombinierten Verkehr wird die Systematik klassischer und containerbasierten Transportketten dargestellt. In der Planung müssen Transportkettenalternativen bewertet werden. Hierzu bedarf es geeigneter Planwerte und logistischer Kenngrößen. Zu den logistischen Kenngrößen zählen bspw. Kennzahlen und Kennlinien. Deren Systematisierung dient als Basis für die Entwicklung der kennlininengestützten Planungsmethodik für die Auswahl von Transportketten. Mit Hilfe eines konzeptionellen Ansatzes der Planungsmethodik wird die Allgemeingültigkeit aufgezeigt und mit der Erläuterung der Implementierung in die Geschäftsprozesse des Unternehmens überführt. Durch die exemplarische Anwendung der Planungsmethodik in einem praxisorientierten Planungsansatzes wird die Methodik verifiziert. Im Planungsansatz werden mit Hilfe eines zweistufigen, logistischen Optimierungsmodells aus zuvor definierten Szenarien Kennlinien erstellt und die Ergebnisse interpretiert. Abschließend werden die Grenzen der Methodik erörtert und ein Fazit gezogen. ····· 10361107621
für 14.90€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Alle diejenigen, die sich die Grundlagen des Technischen Zeichnens auf Basis des Buches: Technisches Zeichnen, Vorlesung und Übungen (ISBN 978-3-8322-8044-4), aneignen, aber nicht zu meiner Vorlesung kommen können oder möchten, erhalten mit dieser Publikation die Möglichkeit, sich selbständig mit den Inhalten zu befassen und bekommen hiermit die Möglichkeit zur Kontrolle ihrer Bemühungen. Arbeiten Sie bitte als Erstes die Übungen im o.a. Büchlein durch und schauen Sie dann erst zur Selbstkontrolle in die Lösungsvorschläge! Zum Erlernen des Technischen Zeichnens macht es überhaupt keinen Sinn, sich lediglich das Lösungsbuch anzuschauen! Es lebt vom selber tun - es gibt keinesfalls eine Alternative dazu, das eigene räumliche Vorstellungsvermögen zu trainieren! Das kann Ihnen kein Computer dieser Welt abnehmen! Dies kann nur in Ihrem Kopf geschehen. Neben den Lösungsvorschlägen zum kompletten praktischen Übungsteil finden Sie hier auch die Lösungen zu den in der Vorlesung ausgeteilten Seiten und den besprochenen Aufgaben im Vorlesungsteil! ····· 10361107610
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Druckluft ist ein einfach handhabbarer Energieträger, der in der Industrie eine breite Anwendung findet. Druckerei- und Lackierbetriebe sowie Industriezweige mit einem hohen Automatisierungsgrad setzen komprimierte Luft als Arbeits-, Aktivluft und Prozessluft ein. Im Zuge steigender Energiepreise und zunehmendem Umweltbewusstsein wird die Effizienz der Wirkungskette Druckluft seit mehreren Jahren kritisch diskutiert. Die Vorteile der Druckluft wie hohe bauraumbezogene Leistungsdichte sowie Umweltfreundlichkeit und freie Verfügbarkeit des Energieträgers rücken bei Aussagen wie `6% Wirkungsgrad`` und `50% Leckageverluste`` in den Hintergrund. Es ist unbestritten, dass viele Druckluftanlagen energieunwirtschaftlich arbeiten. Dies liegt jedoch oftmals an einem fehlenden Verständnis und dem falschen Umgang mit dem eingesetzten Energieträger. Die vorliegende Arbeit entstand im Rahmen des öffentlich geförderten Projektes EnEffAH, das sich intensiv mit den Vor- und Nachteilen des Energieträgers auseinandersetzt. Grundlage für eine aussagekräftige Bewertung der Energieeffizienz einer Druckluftanlage ist das Vorhandensein eines gültigen Bewertungsansatzes. Mit Hilfe des thermodynamischen Konzeptes der Exergie wird ein neuartiges Verfahren vorgestellt. Die graphisch als Flussdiagramm darstellbaren Wirkungsgradangaben werden mit bisherigen Aussagen über sogenannte Energieflussdiagramme verglichen und bewertet. Wird im Gegensatz zur thermodynamischen Energie die Exergie als Effizienzmaß verwendet, ist es möglich neben Durchfluss- und Temperaturänderungen auch Druckänderungen zu berücksichtigen. Dieser zusätzliche Freiheitsgrad in der Berechnung führt zu einer eindeutigen Trennung der einzelnen Verlustquellen voneinander. Die graphische Darstellung der Exergieströme hilft dem Anwender, auf einfachem Weg einen Überblick über die Effizienz seiner Druckluftanlage zu gewinnen. Der Hauptteil der Arbeit fokussiert sich auf die Entwicklung von Analyse- und Optimierungsverfahren für die Teilgebiete Drucklufterzeugung und -verteilung. Modellbasierte Verfahren bieten den Vorteil, dass durch die Herleitung von dynamischen und statischen Modellen ein tieferes Verständnis für die Abläufe in Prozessen gewonnen werden kann. Im Rahmen der vorliegenden Arbeit wird das Verhalten einer Kompressorstation simulativ am Rechner nachgebildet. Dazu wird das dynamische Modell eines Schraubenkompressors hergeleitet und validiert. Über einen gemischt-ganzzahligen Optimierungsansatz sowie eine Metaheuristik werden zwei Algorithmen entwickelt, die eine optimale Betriebsstrategie einer idealisierten Kompressorstation simulieren. Über einen einfach nachvollziehbaren Auslegungsalgorithmus wird der Einfluss der Kompressorwahl auf den Betriebsablauf der Kompressorstation deutlich gemacht. Effizienzeinbußen treten heutzutage hauptsächlich an der Erzeugungseinheit auf. Die Überprüfung der Effektivität einer Kompressorstation durch die vorgestellten Optimierungswerkzeuge kann bei neu geplanten Anlagen oder zur Erneuerung bestehender Anlagen verwendet werden. Bei der Installation von Rohrleitungen treten Dimensionierungsprobleme auf, die sich häufig in unverhältnismäßig hohen Druckabfällen und Versorgungsengpässen ausdrücken. Im Verlauf der Arbeit werden Modellierungsansätze auf verschiedenen Abstraktionsebenen für Schlauch-/Rohrleitungen und Druckluftnetze erarbeitet. Insbesondere wird zum einen ein dynamisches Modell für lange Leitungen vorgestellt, zum anderen wird ein Auslegungsalgorithmus für Rohrleitungsinstallationen in Druckluftnetzen implementiert. Lange Schlauch-/Rohrleitungen sind durch ihr charakteristisches dynamisches Verhalten immer noch eine Herausforderung für existierende Simulationsumgebungen. Für die Bestimmung der optimalen Rohrleitungsinstallation einer Anlage wird ein abstrahierender Modellierungsansatz für ein Gesamtnetz vorgestellt. Die Validierung der hergeleiteten Netzmodelle erfolgt durch die Implementierung einer modellbasierten Leckagedetektion. Gleichzeitig wird deutlich gemacht, wo die Herausforderungen einer modell- und druckbasierten Leckagedetektion liegen. Ein genetischer Algorithmus wird verwendet, um die optimale Struktur und Dimensionierung der Rohrinstallation einer Anlagenhalle hinsichtlich des Druckabfalls und der Installationskosten zu bestimmen. Dabei können zum einen die Rohrleitungsdurchmesser alleine optimiert werden, zum anderen die Durchmesser gekoppelt mit der Topologie. Der vorgestellte Ansatz basiert auf der Annahme, dass das Netz als Verteilungsnetz (im Vergleich zu Speichernetzen) ausgelegt wird und die Lage der Verbraucher bekannt ist. Daraufhin stellt sich die Frage nach einer möglichen Platzierung von dezentralen Zwischenspeichern. Über das systemtheoretische Konzept der Sensitivitätsanalyse wird die Robustheit des Netzes analysiert. Mit Hilfe eines geeigneten Optimierungsverfahrens werden Zwischenspeicher so platziert, dass der Einfluss von Verbraucherschwankungen auf das gesamte Netz gedämpft wird. Im Rahmen dieser Arbeit werden unterschiedliche Teilgebiete der Wirkungskette Druckluft betrachtet. Für jedes Teilgebiet werden Modellierungs- oder Optimierungsansätze entwickelt, die bestehende Simulationsumgebungen erweitern oder neuartige Analysewerkzeuge zur Verfügung stellen. Es wird aufgezeigt, dass die Erfassung der exakten dynamischen Vorgänge in Druckluftnetzen herausfordernd ist. Mit geeignet abstrahierten Modellen können jedoch wesentliche Zusammenhänge greifbar gemacht werden, die zu einem effizienteren Umgang mit dem Energieträger Druckluft beitragen. ····· 10361107604· 1 · ::::: · 5 ·· 6 ·· 7 ·· 8 ·· 9 ·· 10 ·· 11 · ::::: · 17 ·