für 14.90€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Alle diejenigen, die sich die Grundlagen des Technischen Zeichnens auf Basis des Buches: Technisches Zeichnen, Vorlesung und Übungen (ISBN 978-3-8322-8044-4), aneignen, aber nicht zu meiner Vorlesung kommen können oder möchten, erhalten mit dieser Publikation die Möglichkeit, sich selbständig mit den Inhalten zu befassen und bekommen hiermit die Möglichkeit zur Kontrolle ihrer Bemühungen. Arbeiten Sie bitte als Erstes die Übungen im o.a. Büchlein durch und schauen Sie dann erst zur Selbstkontrolle in die Lösungsvorschläge! Zum Erlernen des Technischen Zeichnens macht es überhaupt keinen Sinn, sich lediglich das Lösungsbuch anzuschauen! Es lebt vom selber tun - es gibt keinesfalls eine Alternative dazu, das eigene räumliche Vorstellungsvermögen zu trainieren! Das kann Ihnen kein Computer dieser Welt abnehmen! Dies kann nur in Ihrem Kopf geschehen. Neben den Lösungsvorschlägen zum kompletten praktischen Übungsteil finden Sie hier auch die Lösungen zu den in der Vorlesung ausgeteilten Seiten und den besprochenen Aufgaben im Vorlesungsteil! ····· 10361107610
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Druckluft ist ein einfach handhabbarer Energieträger, der in der Industrie eine breite Anwendung findet. Druckerei- und Lackierbetriebe sowie Industriezweige mit einem hohen Automatisierungsgrad setzen komprimierte Luft als Arbeits-, Aktivluft und Prozessluft ein. Im Zuge steigender Energiepreise und zunehmendem Umweltbewusstsein wird die Effizienz der Wirkungskette Druckluft seit mehreren Jahren kritisch diskutiert. Die Vorteile der Druckluft wie hohe bauraumbezogene Leistungsdichte sowie Umweltfreundlichkeit und freie Verfügbarkeit des Energieträgers rücken bei Aussagen wie `6% Wirkungsgrad`` und `50% Leckageverluste`` in den Hintergrund. Es ist unbestritten, dass viele Druckluftanlagen energieunwirtschaftlich arbeiten. Dies liegt jedoch oftmals an einem fehlenden Verständnis und dem falschen Umgang mit dem eingesetzten Energieträger. Die vorliegende Arbeit entstand im Rahmen des öffentlich geförderten Projektes EnEffAH, das sich intensiv mit den Vor- und Nachteilen des Energieträgers auseinandersetzt. Grundlage für eine aussagekräftige Bewertung der Energieeffizienz einer Druckluftanlage ist das Vorhandensein eines gültigen Bewertungsansatzes. Mit Hilfe des thermodynamischen Konzeptes der Exergie wird ein neuartiges Verfahren vorgestellt. Die graphisch als Flussdiagramm darstellbaren Wirkungsgradangaben werden mit bisherigen Aussagen über sogenannte Energieflussdiagramme verglichen und bewertet. Wird im Gegensatz zur thermodynamischen Energie die Exergie als Effizienzmaß verwendet, ist es möglich neben Durchfluss- und Temperaturänderungen auch Druckänderungen zu berücksichtigen. Dieser zusätzliche Freiheitsgrad in der Berechnung führt zu einer eindeutigen Trennung der einzelnen Verlustquellen voneinander. Die graphische Darstellung der Exergieströme hilft dem Anwender, auf einfachem Weg einen Überblick über die Effizienz seiner Druckluftanlage zu gewinnen. Der Hauptteil der Arbeit fokussiert sich auf die Entwicklung von Analyse- und Optimierungsverfahren für die Teilgebiete Drucklufterzeugung und -verteilung. Modellbasierte Verfahren bieten den Vorteil, dass durch die Herleitung von dynamischen und statischen Modellen ein tieferes Verständnis für die Abläufe in Prozessen gewonnen werden kann. Im Rahmen der vorliegenden Arbeit wird das Verhalten einer Kompressorstation simulativ am Rechner nachgebildet. Dazu wird das dynamische Modell eines Schraubenkompressors hergeleitet und validiert. Über einen gemischt-ganzzahligen Optimierungsansatz sowie eine Metaheuristik werden zwei Algorithmen entwickelt, die eine optimale Betriebsstrategie einer idealisierten Kompressorstation simulieren. Über einen einfach nachvollziehbaren Auslegungsalgorithmus wird der Einfluss der Kompressorwahl auf den Betriebsablauf der Kompressorstation deutlich gemacht. Effizienzeinbußen treten heutzutage hauptsächlich an der Erzeugungseinheit auf. Die Überprüfung der Effektivität einer Kompressorstation durch die vorgestellten Optimierungswerkzeuge kann bei neu geplanten Anlagen oder zur Erneuerung bestehender Anlagen verwendet werden. Bei der Installation von Rohrleitungen treten Dimensionierungsprobleme auf, die sich häufig in unverhältnismäßig hohen Druckabfällen und Versorgungsengpässen ausdrücken. Im Verlauf der Arbeit werden Modellierungsansätze auf verschiedenen Abstraktionsebenen für Schlauch-/Rohrleitungen und Druckluftnetze erarbeitet. Insbesondere wird zum einen ein dynamisches Modell für lange Leitungen vorgestellt, zum anderen wird ein Auslegungsalgorithmus für Rohrleitungsinstallationen in Druckluftnetzen implementiert. Lange Schlauch-/Rohrleitungen sind durch ihr charakteristisches dynamisches Verhalten immer noch eine Herausforderung für existierende Simulationsumgebungen. Für die Bestimmung der optimalen Rohrleitungsinstallation einer Anlage wird ein abstrahierender Modellierungsansatz für ein Gesamtnetz vorgestellt. Die Validierung der hergeleiteten Netzmodelle erfolgt durch die Implementierung einer modellbasierten Leckagedetektion. Gleichzeitig wird deutlich gemacht, wo die Herausforderungen einer modell- und druckbasierten Leckagedetektion liegen. Ein genetischer Algorithmus wird verwendet, um die optimale Struktur und Dimensionierung der Rohrinstallation einer Anlagenhalle hinsichtlich des Druckabfalls und der Installationskosten zu bestimmen. Dabei können zum einen die Rohrleitungsdurchmesser alleine optimiert werden, zum anderen die Durchmesser gekoppelt mit der Topologie. Der vorgestellte Ansatz basiert auf der Annahme, dass das Netz als Verteilungsnetz (im Vergleich zu Speichernetzen) ausgelegt wird und die Lage der Verbraucher bekannt ist. Daraufhin stellt sich die Frage nach einer möglichen Platzierung von dezentralen Zwischenspeichern. Über das systemtheoretische Konzept der Sensitivitätsanalyse wird die Robustheit des Netzes analysiert. Mit Hilfe eines geeigneten Optimierungsverfahrens werden Zwischenspeicher so platziert, dass der Einfluss von Verbraucherschwankungen auf das gesamte Netz gedämpft wird. Im Rahmen dieser Arbeit werden unterschiedliche Teilgebiete der Wirkungskette Druckluft betrachtet. Für jedes Teilgebiet werden Modellierungs- oder Optimierungsansätze entwickelt, die bestehende Simulationsumgebungen erweitern oder neuartige Analysewerkzeuge zur Verfügung stellen. Es wird aufgezeigt, dass die Erfassung der exakten dynamischen Vorgänge in Druckluftnetzen herausfordernd ist. Mit geeignet abstrahierten Modellen können jedoch wesentliche Zusammenhänge greifbar gemacht werden, die zu einem effizienteren Umgang mit dem Energieträger Druckluft beitragen. ····· 10361107604
für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Inhalt der vorliegenden Arbeit ist die numerische Berechnung des Transportverhaltens starrer, beliebig geformter Partikel in strömenden Gasen oder Flüssigkeiten. Die Besonderheit ist, dass die Partikel räumlich diskretisiert werden und somit explizit Größe und Form des Partikels dargestellt und werden. Dadurch kann der Transport sphärischer und nicht sphärischer Partikel realistisch abgebildet werden. Die Darstellung des Partikeltransports erfolgt in zwei Schritten. Zunächst wird der Strömungszustand der kontinuierlichen Phase berechnet. Daran anschließend erfolgt das Lösen der translatorischen und rotatorischen Bewegungsgleichungen für die Partikel. Die Berechnung des Strömungsfelds erfolgt mit dem kommerziellen Strömungslöser FLUENTTM, die Darstellung des Transportverhaltens sphärischer und nicht sphärischer Partikel und Partikelkollektive erfolgt mit Hilfe implementierter benutzerdefinierter Unterprogramme. Diese Unterprogramme berechnen die Translations- und Rotationsbewegung starrer Partikel durch Lösen des 2. Newtonschen Gesetzes und des Eulerschen Drehimpulssatzes. In benutzerdefinierten Unterprogrammen (UDF) wird die Strömungswiderstandskraft fundamental durch Integration der an den diskreten Oberflächenelementen der diskretisierten Partikel wirkenden Druckkräfte und viskosen Kräfte berechnet. Das translatorische und rotatorische Bewegungsverhalten wird dann für jedes Partikel im Strömungsgebiet auf Basis der ermittelten angreifenden Kräfte und Momente abgeleitet. Auf die Implementierung empirischer und halbempirischer Gesetzmäßigkeiten zur Berechnung der Strömungswiderstandskraft wird vollständig verzichtet. Aufgrund der Bewegung der Partikel werden Moving-Mesh Algorithmen benötigt, um die Positionen und Orientierungen der Partikel im Rechengebiet zu berücksichtigen. Diese Algorithmen werden durch benutzerdefinierte Unterprogramme optimiert, um bei der dynamischen Gitteradaption eine hohe Qualität der Rechenzellen zu gewährleisten. Eigene experimentelle Untersuchungen sowie Experimente aus der Literatur wurden zur Validierung der entwickelten Simulationsmethode ebenso herangezogen wie numerische Ergebnisse aus der Literatur. Dabei zeigt sich, dass die Simulationsergebnisse sowohl in 2-dimensionalen als auch in 3-dimensionalen Strömungsfeldern sehr gut mit den Vergleichsdaten übereinstimmen. Die Anwendung des entwickelten Simulationsmodells auf konkrete technische Anwendungen aus dem industriellen Umfeld zeigt auf, dass keine Beschränkung der Simulationsmethode auf akademische Spezialfälle vorhanden ist. Die technischen Anwendungen umfassen Betrachtungen zum Bewegungsverhalten von Schwebekörpern in Volumenstrommessgeräten, die Darstellung der Partikelbewegung bei hoch instationären Bedingungen in Hochdrucksystemen mit komplexer Geometrie und die Berechnung des Transportverhaltens von pneumatisch geförderten Tabletten unterschiedlicher Formund Größe. ····· 10361107592
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray In the last decade a paradigm shift has taken place in biochemical research: while traditionally biochemical processes have often been studied on a qualitative level, more and more research now focuses on quantitative time-resolved aspects of biochemical processes. However, on a quantitative dynamic level the complexity of these processes increases significantly and the need of mathematical models arises. Once a model is fitted to experimental data it can be used to simulate and study the dynamic behavior of a given process. Furthermore, a fitted model allows it to test new experiments and hypothesis in silico before time and cost intensive real experiments need to be conducted. The interplay between biochemical experimentation and mathematical modeling - known as systems biology - is an integral part of this thesis. Identifying a predictive model starts with the formulation of an initial model, which combines a priori knowledge with new to be tested hypotheses. The initial model is refined in an iterative process of performing quantitative experiments, estimating unknown model parameters, model validation and hypothesis testing. When constructing a model, it is tempting to incorporate all known interactions between biochemical species, which results in models with a large number of unknown parameters, which subsequently have to be estimated from experimental data. However, parameter estimation can only provide valid results, if the complexity of the model and the amount and quality of data are in balance with one another. If this is the case the model is said to be identifiable for the given data. In Chapter 2 of this thesis we describe a new automatic approach to test the identifiability of model parameters. We compare our new method - the eigenvalue method - to three well established methods for identifiability testing. For three published models of signaling cascades our eigenvalue methods outperforms the other methods in terms of efficiency and effectiveness. Furthermore, we find that even when assuming abundant and noise-free measurement data, the three models are not identifiable. If a model turns out to be unidentifiable, two steps can be taken. Either additional experiments need to be conducted to increase the information content of the data, or the model has to be simplified. In Chapter 3 we follow the latter path and describe an iterative approach that combines multi-start parameter estimation, identifiability testing, sampling-based variance analysis and goodness-of-fit testing into a work flow for model simplification. We demonstrate the effectiveness of this work flow by simplifying a published model of a signaling cascade under the assumption of realistic measurements until a good fitting model with identifiable and barely varying parameters results. Finally, in Chapter 3 we demonstrate the power of a data-driven model-based approach for process identification by discriminating between different hypotheses on the function of SHP2 in the early phase of JAK-STAT signaling. Furthermore, we identify key processes that are essential for the dynamics of early pathway activation. In addition to the techniques presented in Chapters 1 and 2 we apply a brute-force method for optimal experimental design to propose new informative experiments. Using an initial and the optimal designed data, we iteratively refine our model until an identifiable and predictive model of early JAK-STAT signaling results that adequately describes the data. ····· 10361107565
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray In dieser Dissertation wurden drei verschiedene Projekte (`bistabiles Mikroventil auf Silizium-Basis`, `Lab-on-a-Chip für die Point-of-Care-Diagnostik` und `Viruspartikel- Sensor`) bearbeitet und in deren Rahmen mehrere verschiedene Bauelemente entwickelt. Allen gemeinsam ist sowohl ihre Zuordnung zur Mikrofluidik als auch ihr Einsatzfeld, das sich im Bereich der Medizintechnik und Biotechnologie befindet. Das bistabile 2/2-Wege-Mikroventil wurde mit einem Formgedächtnis-Legierungs-Aktor realisiert und ist für den Einsatz in einer implantierbaren Medikamentenpumpe ausgelegt. Durch die Eigenschaft, dass beide Schaltzustände des Ventils (offen und geschlossen) jeweils energielos gehalten werden können und nur für den Umschaltvorgang Energie benötigt wird, ist es sehr sparsam. Dies ist gerade im Implantat-Bereich von großer Bedeutung, da dort Energie nur in sehr begrenztem Umfang zur Verfügung steht. Die Detektionsmethoden des hier beschriebenen Lab-on-a-Chip und des Viruspartikel- Sensors basieren auf der Quarzmikrowaagen-Technologie. Diese massensensitive Nachweismethode kommt ohne kostspielige Marker aus, da der nachzuweisende Stoff direkt über Frequenzänderung detektiert wird, die durch die Anbindung an einen Quarzresonator ausgelöst wird. Hierfür wurde jeweils eine geeignete Anbindungsmethode des Zielmoleküls an den Quarzresonator gefunden und dieser in ein entsprechend den Anforderungen ausgelegtes mikrofluidisches System eingebettet. Für das Lab-on-a-Chip wurden zusätzlich zur Quarzmikrowaage, eine Affinitätschromatographie-Kammer und eine Blutzellen-Abtrennung auf Polydimethylsiloxan-Basis entwickelt, optimiert und eingebunden. Diese Komponenten sind notwendig um eine Detektion von C- reaktivem Protein (CRP) aus Blutplasma zu ermöglichen. Die Blutzellen-Abtrennung übernimmt den Schutz des Systems vor Verunreinigung durch Blutzellen, welche Messfehler und Verstopfungen auslösen können. Die Affinitätschromatographie-Kammer bindet das CRP und ermöglicht es so die Probe von anderen Proteinen, die die Messung auf dem Sensor stören könnten, zu befreien. Durch eine Ablösung des CRP aus der Kammer in einem kleinen Volumen kann die Konzentration erhöht und somit das Detektionsminimum des Sensors verbessert werden. ····· 10361107562
für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray In der Automobil-, Energie- und Industrietechnik gibt es eine ganze Reihe von Anwendungen für Mikrosysteme in heißen und aggressiven Umgebungen, die erhöhte Anforderungen an die verwendbaren Konzepte und Materialien stellen. Siliziumcarbid (SiC) ist als alternative Materialbasis im Vergleich zu Silizium thermisch, elektrisch sowie mechanisch stabiler und zeichnet sich zudem durch eine hohe Medienbeständigkeit aus. Der erste Teil dieser Arbeit umfasst die Entwicklung von polykristallinem SiC als Materialsystem zur Anwendung in oberflächenmikromechanischen Sensoren und den zugehörigen Fertigungstechnologien. Zum einen wurden Verfahren zur Herstellung von leitfähigen polykristallinen SiC-Dünnschichten aus der Gasphase untersucht und evaluiert. Zum anderen wurde ein fluorbasiertes, plasmaunterstütztes Trockenätzverfahren zur Strukturierung von SiC entwickelt, das auf zyklisch alternierenden Prozessgasen basiert und die Erzeugung tiefer Gräben mit steilen Kanten erlaubt. Zur Herstellung von freistehenden SiC-Strukturen diente eine neue hochselektive Opferschichttechnologie, die auf einer vergrabenen Schicht aus Silizium- Germanium basiert. Darüber hinaus erfolgte die Untersuchung unterschiedlicher Metallisierungen zur temperaturstabilen ohmschen Kontaktierung. Im zweiten Teil wurde ein Konzept für einen robusten Drucksensor entwickelt und mittels einer FEM-Simulation ausgelegt. Die Fertigung des Drucksensors erfolgte mit den im ersten Teil dieser Arbeit beschriebenen Technologien. ····· 10361107542
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray In January 2001, Chambishi Metals commissioned a 40MW DC arc furnace using selective carbothermic reduction for processing reverberatory furnace slag stockpile of 20 million tons containing 0.34 to 4.5 % cobalt, and an average of 1.1 % copper. Cobalt occurs as fayalite whereas copper occurs as oxide and sulphide. An atomizer unit to atomize furnace product, molten Co/Cu/Fe alloy, and a pressure oxidation leach process to leach cobalt and copper and separate iron as goethite was also commissioned. Cobalt and copper containing solution is processed in the refinery for production of metals. The commissioning and ramp up period was much longer than projected due to premature failure of the hearth and other operational problems associated with the feed system, cooling system and power control. Furnace availability was low and affected the throughput and metal production. This had put tremendous pressure on the company due to poor cash flow and non repayment of the capital resulting in sale of 100 % of its share in July 2003. A systematical analysis initiated then, to de-bottleneck the furnace operation, was successful, resulting in attainment of design throughputs. The Plant Historian Database (PHD) was used for the analysis. Commercial application of the DC arc furnace on smelting of copper smelter slag was unique and therefore required extensive literature search to broaden the knowledge of the theory and the practice. The thesis shows improvements and modifications carried out on feed system to create charge bank, selection of flux to modify the slag chemistry, modification of alloy chemistry, re-configuration of the power control system and increased atomization capacity. Following the implementation of these, the furnace performance attained design levels. ····· 10361107541
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Die vorliegende Forschung war Teil eines gemeinsamen Projekts in Zusammenarbeit mit drei europäischen Partnern aus Deutschland, Portugal und England und wurde von der Europäischen Kommission finanziert. Hauptziel des Projekts war die Entwicklung eines SLIMs (SLider with an Integrated Mikroactuator) für Anwendungen in zukünftigen Festplattenspeichern. Der MEMS Aktuator, dessen Größe der eines herkömmlichen Piko-Sliders von 1240 µm x 990 µm x 300 µm (Länge, Breite, Dicke) entspricht, setzt sich aus einer elektromagnetischen, einer mikromechanischen Komponente sowie einem Distanzelement und einem Chiplet mit S/L-Element zusammen. Schwerpunkte der vorliegenden Dissertation sind die Entwicklung der mikromechanischen Komponente und der Aufbau der Aktuatorkomponenten. Die mikromechanische Komponente hat die Gestalt eines Feder/Masse-Systems, das aus zwei Mikroblattfedern und einer am freien Ende der Blattfedern befindlichen Plattform gebildet wird. Basierend auf den FEM-Analysen wurden zwei Designvarianten mit unterschiedlichen Blattfederdimensionen von 500 µm x 100 µm bzw. 500 µm x 150 µm und einer Dicke von 5 µm realisiert. Die Federkonstante beträgt 4,56 µN/µm bzw. 6,53 µN/µm für eine Federbreite von 100 µm bzw. 150 µm. Die 1. Resonanzfrequenz liegt bei 1,26 kHz bzw. 1,50 kHz, die 2. Resonanzfrequenz bei 6,01 kHz bzw. 6,85 kHz. Die Realisierung der mikromechanischen Komponente stellt sich als eine technologische Herausforderung dar, weil ihre Dicke auf 100 µm festgelegt ist und vertikale Bondpads erforderlich sind, um die Kontaktierung des Chiplets zu ermöglichen. Zusätzlich zum ursprünglichen Design wurden zwei Redesigns vorgenommen, die sich der Prozessoptimierung und der Realisierung einer mikromechanischen Komponente mit einer ersten Resonanzfrequenz von größer 5 kHz widmet. Letzterer wurde sowohl durch eine größere Dicke der Mikroblattfedern (10 µm) als auch durch eine Reduzierung der Plattformmasse um 50 % erreicht. Das dynamische Verhalten der mikromechanischen Komponente wurde mittels LDV- Messungen charakterisiert. Unter Berücksichtigung der Fertigungstoleranzen lieferten die Messund Simulationenergebnisse eine gute Übereinstimmung. Der Luftspalt von 28 ± 2 µm zwischen den elektromagnetischen und den mikromechanischen Komponenten wird durch die Dicke des Si-Distanzelements definiert. Dieser Luftspalt ist extrem wichtig für die Funktion des MEMS Aktuators. Der Aufbau der Aktuatorkomponenten erfolgte mittels Niedertemperatur-Bondprozess durch Kleben auf einem Streifenniveau. Die entwickelte mikromechanische Komponente und die angewandte Aufbautechnik erfüllen schließlich alle Anforderungen, die von Projektpartnern gestellt sind. ····· 10361107530
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray This thesis is concerned with the model-based feedforward control design for systems governed by quasilinear parabolic partial differential equations in one- and two-dimensional spatial domains. The main focus is on the realization of setpoint transitions along predefined reference trajectories. The approach is based on the semi-discretization of the partial differential equation using suitable finite difference schemes. In the case of boundary control it is shown that the resulting system of ordinary differential equations is differentially flat for general nonlinearities. This system-theoretic property allows for the parametrization of the state and control input in terms of a so-called flat output and its time derivatives, which constitutes a systematic approach to the trajectory planning and feedforward control design for the considered transition problems. The particular appeal of this approach relies in its comparatively low computational demands especially for systems exhibiting significant nonlinear effects. The contributions of this thesis are two-fold. At first, it is shown by analytic considerations that the flatness-based parametrization of the semi-discretized approximation for vanishing discretization mesh widths approaches the flatness-based parametrization of the original infinite-dimensional system given in terms of an infinite series. Conditions for the convergence of this series are explicitly derived for some system classes. Second, tailored numerical methods are presented, which on the one hand provide an empirical test for the convergence of the parametrizations and which on the other hand extend the applicability of trajectory planning and feedforward control based on finite difference semi-discretization to a broader class of systems. Notably, the construction of admissible profiles is considered. Especially in two-dimensional spatial domains, where the reference trajectories have to be consistent with the boundary conditions, this a crucial task for the trajectory planning and feedforward control design. Both an optimization-based approach and an approach motivated by the regularization of inverse problems are presented and perform well also in cases where no analytical solutions are available. Furthermore, grid adaptation methods are introduced to make use of non-equidistant grids for state and control input parametrization, which can significantly reduce the necessary computational cost. Finally, both the problem of state reconstruction and tracking error stabilization are addressed. Integrating the flatness-based trajectory planning and feedforward control design, model-predictive tracking control and suitable state estimation within a two-degrees-of-freedom control scheme allows for the compensation of disturbances and modelling uncertainties as well as for the control of unstable PDEs. ····· 10361107529
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Gegenstand dieser Arbeit ist die Analyse und Synthese nichtlinearer Regelungen mit Hilfe der Sum-of-Squares-Programmierung (kurz: SOS-Programmierung). Die Letztere erlaubt einen Optimierungsansatz, der eine Lyapunov-Funktion und beim Reglerentwurf auch ein nichtlineares Stellgesetz unter der Maxime einer möglichst großen Abschätzung des Einzugsbereichs einer asymptotisch stabilen Ruhelage systematisch ermittelt. Ein Problem bei den bisherigen Ansätzen mit dieser Methodik war, dass lediglich Systembeschreibungen gestattet waren, deren nichtlineare Ausdrücke aus polynomialen Funktionen bestehen. In der vorliegenden Arbeit wird die Anwendbarkeit der SOS- Programmierung auf die allgemeinere nichtlineare Systemklasse erweitert, deren Zustandsraumdarstellung mit Hilfe von Funktionen mit hinreichender Differenzierbarkeit angegeben werden kann. Dies wird über eine polynomiale Approximation der nichtpolynomialen Systembeschreibung erreicht. Durch die Einführung eines Approximationsfehlers und die geschickte Integration einer Zusatzbedingung im Rahmen der SOS- Programmierung ist sichergestellt, dass die auf Basis der polynomialen Näherung bestimmte Abschätzung des Einzugsbereichs auch für das Originalsystem gültig bleibt. Um praxisnahen Randbedingungen gerecht zu werden, wird die Berücksichtung von Stellsignal- und Zustandsbeschränkungen, die jedes reale System aufweist, mit in die Analyse- und Syntheseverfahren integriert. Damit bietet sich der Vorteil, dass eine aufwändige simulative Untersuchung zur Einhaltung der Begrenzungen entfallen kann. Des Weiteren wird im Hinblick auf eine praktische Umsetzung der Regelung der Entwurf von Ausgangsrückführungen näher betrachtet. Um die Erhöhung der Systemordnung durch einen Beobachter zu vermeiden, welche die Berechnung einer gültigen Lyapunov- Funktion für das Gesamtsystem erheblich erschwert, wird die direkte Bestimmung einer statischen bzw. dynamischen Ausgangsrückführung mit Hilfe der SOS-Programmierung vorgeschlagen. Durch die Wahl einer freien Struktur verbleiben der Optimierung auf diese Weise mehr Freiheitsgrade als bei beobachterbasierten Ansätzen. Begleitend zu der Einführung der Analyse- und Syntheseansätze wird ein akademisches Beispiel zur Verdeutlichung der Methodik eingesetzt. Abschließend erfolgt der Reglerentwurf für das aus der Literatur bekannte Modell eines Rührkesselreaktors. Darüber hinaus wird zur Demonstration der praktischen Umsetzbarkeit der präsentierten Verfahren eine dynamische Ausgangsrückführung für das Laborexperiment Inverses Pendel vorgestellt. ····· 10361107523
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Im Mittelpunkt der Arbeit steht die Entwicklung eines Vorgehensmodells zur systematischen in-vitro-Bewertung der Biokompatibilität textiler Implantate. Die in-vitro- Biokompatibilitätsbewertung textiler Implantate dient nicht nur der Designvalidierung innerhalb eines Entwicklungsprozesses, sondern stellt vielmehr einen notwendigen Baustein innerhalb des komplexen Bewertungsverfahrens zur Inverkehrbringung von Medizinprodukten dar. Das entwickelte Vorgehensmodell dient als Werkzeug zur Gestaltung und Auslegung textiler Implantate auf Basis einer systematischen Bewertungsmethodik. Durch Eingliederung des Vorgehensmodells in die regulatorischen Anforderungen der Biokompatibilitätsbewertung von Medizinprodukten wird ein Hilfsmittel zur Biokompatibilitätsbewertung textiler Implantate mit dem Ziel der Inverkehrbringung geschaffen. Das erarbeitete Vorgehensmodell wird beispielhaft anhand der Entwicklung zweier Textilimplantate für den kardiovaskulären Bereich sowie für den gastrointestinalen Bereich angewendet und diskutiert. Das entwickelte Vorgehensmodell wird beispielhaft zur Auslegung und Bewertung einer kleinlumigen textilen Seidengefäßprothese sowie einer Textilverbundstruktur zum Einsatz als Dünndarmtransplantat angewendet. Zusammenfassend stellen sich die in-vitro-Biokompatibilitätsuntersuchungen der entwickelten kleinlumigen Seidengefäßprothese als positiv dar. Eine mit Gelatine beschichtete textile Seidengefäßprothese liegt in allen mit Hilfe der Bewertungsmethodik definierten Anforderungen im Ergebnisbereich des heutigen Standards für den synthetischen kleinlumigen Gefäßersatz, der PTFE-Prothese. Die Möglichkeit der Bioaktivierung der Seidenfibroinfasern und damit einer lokalen Gewebereparatur in-situ stellen den entscheidenden Vorteil gegenüber etablierten Methoden dar. Eine systematische Ermittlung von Anforderungen eines textilen Verbundimplantates für einen Dünndarmersatz wurde vorgenommen. Die Beurteilung der Biokompatibilität der verschiedenen hergestellten Textilkonstruktionen wurde mit Hilfe des entwickelten Vorgehensmodells zur in-vitro-Bewertung textiler Implantate durchgeführt. Aus verschiedenen Textilkonstruktionen konnte eine Gewirkstruktur identifiziert werden, die alle geforderten Anforderungen hinsichtlich mechanischer, struktureller und chemischer Kompatibilität erfüllt. ····· 10361107503
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Bei Patienten mit akutem Lungenversagen (Acute Respiratory Distress Syndrome, ARDS) ist der Paradigmenwechsel zu lungenprotektiveren Beatmungsformen in der letzten Dekade zunehmend fortgeschritten. Durch Reduktion der Überdehnung des Lungengewebes und des tidalen Wechsels zwischen Rekrutierung und Derekrutierung konnte nachweislich eine verringerte Letalität erreicht werden, doch bleibt diese weiterhin erschreckend hoch. Der Einsatz geringerer Tidalvolumina von höchstens 6-8 ml pro kg Körpergewicht ist mittlerweile intensivmedizinischer Standard, die Höhe des einzustellenden positiv end-exspiratorischen Drucks (PEEP) sowie der Nutzen von Rekrutierungsmanövern wird hingegen weiterhin kontrovers diskutiert. Komplexe, da individuell anzupassende Beatmungsmethoden wie beispielsweise das Open-Lung-Konzept®, welches die Hysterese in der Druck-Volumen-Beziehung der Lunge ausnutzt, um die Lunge vollständig zu öffnen und offen zu halten, konnten sich klinisch bisher nicht durchsetzen. Gründe hierfür sind sicherlich der erhöhte Zeitaufwand bei der Anwendung, das aufgrund der Komplexität notwendige Expertenwissen, die Unsicherheit bezüglich der hämodynamischen Auswirkungen sowie die mangelnde Sensorik in Bezug auf die dynamischen und zeitvarianten Vorgänge im Inneren der Lunge. Aus diesem Grund ist es Ziel dieser Arbeit, die medizinisch-technischen Voraussetzungen zu schaffen, um mittels einer automatisierten Anwendung medizinischen Expertenwissens, eine individuell angepasste, die Lunge optimal schonende Beatmung bei hinreichendem Gasaustausch zu gewährleisten. Dies geschieht auf Basis eines neu entwickelten Beatmungssystems namens VentiLab, welches in bisher nicht vorhandener Art und Weise ein Beatmungsgerät als Aktor mit dem bildgebenden Verfahren der Elektrischen Impedanztomographie (EIT) und einer Vielzahl wichtiger intensivmedizinischer Monitoring-Systeme als Sensoren in einem physiologischen Ersatzregelkreis verbindet, in dem der Patient als Regelstrecke Teil des Regelkreises wird. EIT-Geräte sind in der Lage, in Echtzeit Bilder der Leitfähigkeitsänderungen in einem von Elektroden aufgespannten Körperquerschnitt zu erzeugen. Die Leitfähigkeitsverteilung im Thorax wird durch Ventilation und Perfusion der Lunge beeinflusst und kann demzufolge genutzt werden, den Gasaustausch zu charakterisieren. Neben der Nutzung zweier für Forschungszwecke erhältlicher EIT-Geräte wird eine neu entwickelte eigene EIT-Hardware vorgestellt, die zukünftig eine vollständige Integration in das Gesamtkonzept ermöglicht. Mittels Verfahren aus der digitalen Signalverarbeitung werden Parameter aus den EIT-Bilddaten gewonnen, welche die Ventilationsverteilung, die Lungenöffnungshomogenität und den Lungenkollaps quantifizieren. In Kombination mit den synchron aufgezeichneten physiologischen Messgrößen werden auf der Grundidee des Open-Lung-Konzepts® basierende Mamdani-Fuzzy-Regelkreise entworfen, deren Fokus auf der hämodynamischen Verträglichkeit, der Nicht-Invasivität und der Robustheit und damit Patientensicherheit liegt. Um gegebenenfalls eine Unabhängigkeit von der EIT zu gewährleisten, wird ebenfalls eine prädiktive Festwertregelung zur Regelung der Sauerstoffkonzentration im Blut eingeführt. Zur EIT-gestützten, bettseitig verfügbaren Bestimmung der regionalen Perfusionsverteilung in der Lunge kommt ein neuartiges, an Thermodilutionsmessungen angelehntes Verfahren mit entsprechender Modellbildung zur Anwendung. Auf diese Weise können weltweit erstmalig regionale Ventilations-Perfusions-Verteilungen in der Lunge auf Basis der EIT-Messungen erzeugt werden. Des Weiteren gelingt durch einen musterfunktionsbasierten Modellansatz die Echtzeit-Trennung von Ventilations- und Perfusionsanteilen in der Herzregion, der den Weg für zukünftige Herzschlagvolumenmessungen mittels EIT ebnet. In tierexperimentellen Versuchen werden alle Regler erfolgreich getestet und erlauben die vollständig automatisierte Öffnung und protektive Beatmung von Lavage-induzierten ARDS-Lungen. Die Ergebnisse der Ventilations- und Perfusionsmessungen werden anhand von Computer-Tomographie- und Einzelphotonen-Emissions-Tomographie-Referenzmessungen verifiziert. ····· 10361107495
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Um hohe Umsätze in Abgaskatalysatoren und somit niedrige Schadstoffemissionen von Fahrzeugen oder Stationärmotoren erreichen zu können, ist die genaue Regelung des Betriebszustands ein entscheidender Beitrag. Die aktuell eingesetzten Messmethoden basieren immer auf der Analyse des Gasstroms ein- und ausgangsseitig des Katalysators und auf entsprechenden Berechnungsmodellen für die Kalkulation des Katalysatorzustands. In dieser Arbeit wird eine direkte Katalysatorzustandsdiagnose vorgestellt, die die Zustandsabhängigkeit der elektrischen Eigenschaften des katalytisch aktiven Materials ausnutzt. Dabei kann direkt die Beladung von Speicherkatalysatoren wie die Sauerstoffbeladung bei Drei-Wege-Katalysatoren gemessen werden. Basierend auf diesem Messeffekt wird ein neuartiges In-situ-Messverfahren für Katalysatoren vorgestellt. Dieses hochfrequenzbasierte Messprinzip erlaubt die direkte und kontaktlose Katalysatorzustandsdiagnose im Fahrbetrieb. Die Eigenschaften des Messsystems werden ausführlich an Drei-Wege-Katalysatoren untersucht, wobei hier neben Labormessungen vor allem auch die Eignung für den Einsatz im realen Abgas gezeigt werden. Darüber hinaus zeigt sich auch das Potential für die Übertragung des Messprinzips auf weitere Abgasnachbehandlungssysteme wie SCR-Katalysatoren oder Dieselpartikelfilter. ····· 10361107494
für 39.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Das vorliegende Buch enthält wesentliche Grundlagen der experimentellen Modalanalyse und stellt darauf aufbauend einige Verfahren und Geräte zur Lösung von mechanischen Schwingungsproblemstellungen vor. Die mathematisch beschriebenen Algorithmen kann der interessierte Leser mit Hilfe der enthaltenen Flussdiagramme ohne großen Aufwand in ein Computerprogramm umwandeln. Die Verfahren experimenteller Modalanalyse werden erstmals am Beispiel unterschiedlich komplexer Strukturen in praktischen Versuchen direkt miteinander verglichen, um die Leistungsfähigkeit der einzelnen Algorithmen aufzuzeigen. Die messtechnische Nachbearbeitung der aufgezeichneten Messsignale sowohl im Zeit- als auch Frequenzbereich ist dabei von großer Bedeutung. Der mögliche Messaufbau mit Erläuterung der einzelnen Komponenten und der Umgang mit notwendigen Messgeräten sind ebenfalls Bestandteil dieses Buches. ····· 10361107492
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Eine Aufgabe der Gesellschaft für Qualitätswissenschaft ist die Pflege des wissenschaftlichen Erfahrungsaustausches zwischen Personen und Institutionen auf dem Gebiet des Qualitätsmanagements. Dazu findet alljährlich und speziell in diesem Jahr vom 28. bis zum 29. Februar 2012 die Jahrestagung der Gesellschaft für Qualitätswissenschaft e.V. an der Brandenburgischen Technischen Universität in Cottbus statt. Durch wirtschaftliche Krisen der letzten Jahre geprägt wurden viele Unternehmen gezwungen, eigene Prozesse zu überdenken und neu zu strukturieren, um weiter im Wettbewerb bestehen zu können. Ansätze des Qualitätsmanagements lieferten dabei wichtige Beiträge. Nicht nur im Kernbereich des Qualitätsmanagements, der Sicherung einer hohen Fertigungsqualität, führten neue Erkenntnisse zu schlankeren und effizienteren Prozessen. Auch auf den Gebieten der Produktwahrnehmung durch den Kunden, dem Einsatz in der Landwirtschaft oder der Nutzung von Felddaten zur Qualitätsverbesserung wurden wichtige Erkenntnisse erschlossen, die nicht nur einen wissenschaftlichen Mehrwert generierten sondern auch Eingang in die industrielle Nutzung fanden. Vorträge von Forschungseinrichtungen sowie von industrieller Seite geben bei der diesjährigen GQW Jahrestagung (2012) einen Einblick auf die Vielfältigkeit und die damit verbundenen Potenziale des Qualitätsmanagements. Dieser Tagungsband umfasst insgesamt vier Themenblöcke. Zunächst wird die Sicherung der Qualität in der Fertigung betrachtet. Beispielsweise werden in diesem Komplex auch Prüfstrategien in der Ernährungswirtschaft behandelt. Der folgende Block beschäftigt sich mit der Erschließung von Felddaten für das Qualitätsmanagement, um danach neue Ansätze in der Produktentwicklung zu thematisieren. Hier ordnet sich die Behandlung subjektiver Faktoren in Dienstleistungsprozessen ein. Abschließend werden Konzepte diskutiert, die das Anwendungsgebiet des Qualitätsmanagements erweitern z.B. auch in Bezug auf das Energiemanagement. Diese unterschiedlichen Anwendungen des Qualitätsmanagements zeigen die Vielfalt des Qualitätsbegriffs und weitere Entwicklungstendenzen im Qualitätsmanagement. ····· 10361107475
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Optische 2D-Bildverarbeitssysteme sind heutzutage in den verschiedensten Industriezweigen etabliert. Allerdings liefern 2D-Kameras lediglich eine flache Abbildung der Szene. Auf der anderen Seite erzeugen die ebenfalls etablierten klassischen Abstandssensoren (z.B. Triangulatoren) keine räumlich und zugleich zeitlich zusammenhangenden Tiefenbilder. Während die letztgenannte Anforderung von optischen 3D-Kameras, die auf dem Phasenlaufzeitverfahren basieren, erfüllt wird, ist deren räumliche Auflosung gegenüber 2D-Sensoren um ein bis zwei Größenordnungen geringer und Farbinformationen sind nicht verfügbar. Die Fusion von 2D- und 3D-Sensoren hat sich jedoch in der jüngsten Vergangenheit als vielversprechend erwiesen, um die Vorteile beider Sensorarten zu vereinen. Im Allgemeinen wird dazu ein binokularer Aufbau mit zwei disjunkten Kameras verwendet. Daraus ergeben sich Parallaxeneffekte und die zeitliche Synchronisierung ist ungenau. Aus diesen Gründen wird in dieser Arbeit eine monokulare 2D/3D-Kamerasystemplattform mit einem Strahlteiler vorgestellt und systematisch untersucht. Diese Art von Aufbau schafft auf der einen Seite neue Möglichkeiten im Bereich dynamischer Anwendungen und Multi-Beleuchtungsszenarien und auf der anderen Seite werden einige Untersuchungen hinsichtlich systematischer Einflusse auf die Tiefenmessung wesentlich vereinfacht oder überhaupt erst ermöglicht. In dieser Arbeit wird zunächst der optische Aufbau insbesondere in Hinblick auf die Filtercharakteristika untersucht, woraus sich ein C-Mount-Aufbau mit Bauernfeind-Prisma als Optimum ergibt. Im nächsten Schritt werden die systematischen Messabweichungen untersucht, wobei das hier hergeleitete Modell so ausgelegt ist, dass es für Multi-Beleuchtungsszenarien ebenfalls verwendet werden kann. Eine nähere Untersuchung der räumlichen Registrierung zeigt, dass diese unabhängig von der Tiefe ist, was den Rechenaufwand und die Fehleranfälligkeit gegenüber binokularen Aufbauten signifikant reduziert. In Kombination mit der präzisen zeitlichen Synchronisierung auf Phasenbildebene ergibt dies Vorteile in dynamischen Umgebungen so können die durch Bewegungen zwischen den Phasenbildern induzierten Bewegungsartefakte durch die Verwendung der zusätzlichen 2D-Daten erkannt und teilweise eliminiert werden. Durch den Austausch des 2D- durch einen weiteren 3D-Sensor ergibt sich eine monokulare 3D/3D-Kamera, die Bewegungsartefakte prinzipbedingt umgeht. Überschreitungen des dem Phasenlaufzeitverfahren inhärenten Eindeutigkeitsbereichs können mit Hilfe der hochaufgelösten Intensitätsbilder besser aufgelöst werden. Schließlich werden Möglichkeiten gezeigt, für bestimmte Anwendungsszenarien mit mehreren Laufzeitkameras bzw. mehreren modulierten Beleuchtungen bei Beachten einiger Restriktionen Reichweiten oder Sichtfelds-optimierte Ergebnisse zu erhalten. ····· 10361107470
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray The present work is an attempt to improve the characterization and quantification of the performance of dielectric barrier discharge (DBD) plasma actuators for aerodynamic flow-control applications. Existing measurement and evaluation strategies, together with additional new approaches have been applied and are discussed extensively. Novel scaling numbers are introduced that yield universal and partly non-dimensional key quantities for an improved evaluation of the electrical discharge characteristics and of the environmental influences about the behavior of plasma actuators. The existing strategies to quantify the momentum transfer from the plasma to the surrounding air are reviewed and have been applied to achieve a comprehensive and comparative analysis of the respective differences based on experimentally obtained data. Direct and implicit as well as differential and integral force estimation approaches are discussed. To counteract influences of the environment on the discharge and thus assuring constant plasma-actuator performance, a closed-loop control circuit of the electrical setup is introduced and successfully demonstrated in a proof-of-concept experiment. ····· 10361107463
für 45.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray In der vorliegenden Arbeit wurde der Einfluss der Martensitbildung auf die mechanischen Eigenschaften von ein und mehrphasigen gegossenen und warm gewalzten Cr-Mn-Ni Stählen untersucht. Es wurden 15 verschiedene Legierungen mit variierenden Gehalten an Chrom, Mangan und Nickel erschmolzen und deren Guss- bzw. Walzzustände hinsichtlich der Gefügeausprägung und der mechanischen Eigenschaften verglichen. Es kamen folgende Untersuchungsmethoden zur Anwendung: quasistatische Zug- und Druckversuche bei Raumtemperatur, Zugversuche zwischen -196°C und 250°C, Metallografie, magnetische Waage, Röntgenstrukturanalyse, Mikrosondenuntersuchungen und Dilatometrie. Durch das Hinzulegieren von Chrom, Mangan und Nickel wird die Austenitstabilität der untersuchten Legierungen beeinflusst. Die Austenitstabilität hat einen dominierenden Einfluss auf die Gefügeausbildung, den TRIP/TWIP-Effekt und die Eigenschaftsentwicklung der untersuchten Stähle. Die gebildeten Martensitanteile und die mechanischen Eigenschaften von gegossenen Stählen und warm gewalzten Stählen mit annähernd gleicher chemischer Zusammensetzung unterscheiden sich nicht wesentlich. ····· 10361107462
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Das Marktumfeld für die pharmazeutische Industrie hat sich in den letzen Jahren deutlich verändert und steht unter einem anhaltend starken wirtschaftlichen Druck. Die Rückgewinnung von Wertstoffen stellt für bestehende Prozesse und Produkte eine ökologische und ökonomische Herausforderung dar, da die Ressourcen knapper und zukünftig teurer werden. Aufreinigungsprozesse bieten hohes Potential zur Umweltentlastung, da durch innovative Verschaltungskonzepte, Integration von Recyclingstrategien und Stoffstromrückführung eine umwelt- und ressourcenschonende Produktaufarbeitung erreicht werden kann. In dieser Arbeit wird eine Methode zur Integration von Recyclingstrategien für unterschiedliche pharmazeutische Biotechnologieprozesse entwickelt und dargestellt. Zur prädiktiven Anlagenauslegung sowie Skalierbarkeit in den industriellen Maßstab, werden physiko-chemische Modelle mit experimenteller Modellparameterbestimmung verwendet. Nach detaillierter Auslegung der Grundoperationen wird eine Machbarkeitsstudie durchgeführt, um die Recyclinganlage experimentell im Kleinstmaßstab zu überprüfen. Nach erfolgreicher experimenteller Machbarkeitsstudie erfolgt eine Verfahrensoptimierung bezüglich der Verschaltung von Prozessabwasserströmen mit definiertem Verunreinigungsspektrum. Daraus ergibt sich eine Funktion von Betriebsparametern, im Rahmen der technischen Anwendbarkeit/Umsetzbarkeit, bezogen auf die daraus resultierende Wirtschaftlichkeit. Für verschiedene Stoffstromverschaltungen werden mit Hilfe von Short-Cut Simulationen die resultierenden Aufreinigungsergebnisse der Recyclinganlage geprüft. Aus der Verschaltung von verschiedenen Prozessströmen wird ein optimales Verunreinigungsspektrum bezüglich technischer Umsetzbarkeit, optimaler Anlagenbetrieb sowie technische Anlagenauslastung erstellt. Die Darstellung der Ergebnisse wird mit wirtschaftlichen Kennzahlen bewertet. Die Machbarkeit zur Aufbereitung von Abwasserströmen ist mit Hilfe des vorgestellten Recyclingkonzeptes valide gegeben. Die an dem Beispiel erarbeitete methodische Entwicklung wird auf weitere Anwendungsbeispiele übertragen und deren Potential diskutiert. ····· 10361107446
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Das Projekt setzte sich zum Ziel, die neuen Möglichkeiten des schussgewichtsoptimierten 2K-Mikrospritzgießens (Qualität, Flexibilität und Kostenoptimierung) unter Einbeziehung von Inline-Mess- und Prüfverfahren mit den Nachfolgeschritten von Montage, Handhabung und Logistik auf dem Gebiet der Fertigung optischer Mikrosysteme zu kombinieren. Konkret bedeutete dies, basierend auf dem neuen Maschinenkonzept einer Zweikomponenten-Mikrospritzgießanlage, eine flexible kompakte beispielhafte Fertigungskette zur Herstellung zuverlässiger Mikrooptiksysteme aufzubauen. Diese Prozesskette beinhaltet neben dem 2K-Mikrospritzgießen die Nachfolgeschritte Handhaben, Prüfen, Angusstrennen und Montieren. Eine prozessübergreifende Handhabungstechnik mit modularen Transfer- und Greiferlösungen verbindet und automatisiert die einzelnen Prozessschritte. Zu den Zielen gehörte auch die verfahrens- und kunststoffgerechte Auslegung der Zweikomponenten-Mikrooptikformteile. Das Verbundvorhaben lieferte vielfältige Ergebnisse: Eine neuartige, flexible und universelle Produktionsanlage für die Fertigung zukunftsträchtiger Produkte, innovative Einzelmodule, neue und verbesserte Produktionsmethoden sowie neuartige mikrooptische Produkte. ····· 10361107437
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Das Einsatzgebiet für Faser-Kunststoff-Verbunde (FKV) wird zunehmend auf sicherheitsrelevante Strukturbauteile erweitert. Hierdurch werden neue Anforderungen an die Genauigkeit der Eingangsgrößen des Material- und Versagensmodells gestellt. Zur Beschreibung des Materialverhaltens einer transversal isotropen UD-Schicht aus FKV werden Grundelastizitätsgrößen und Basisfestigkeiten benötigt, welche meist in genormten Prüfverfahren bestimmt werden. Ein Vergleich der, in den unterschiedlichen Prüfverfahren, experimentell ermittelten Spannungs-Verzerrungs-Verhalten untereinander und mit dem wahren Werkstoffverhalten steht bislang aus. Die vorliegende Arbeit untersucht die gängigsten Prüfverfahren numerisch und experimentell auf ihre Eignung zur Ermittlung der wahren Spannungs-Verzerrungs-Verhalten. Die numerische Untersuchung wird mithilfe des Finite-Elemente-Programms Abaqus durchgeführt. Zur Implementierung des nichtlinearen, orthotropen Materialverhaltens der UD-Schicht, wird die Subroutine User Material (UMAT) mit dem nichtlinearen Materialmodell von Puck programmiert. Dieses Materialmodell berücksichtigt erstmals die charakteristische s2-t21-Interaktion der Faser-Kunststoff-Verbunde. Die experimentelle Untersuchung der Prüfverfahren betrachtet darüber hinaus detailliert den physikalischen Größeneffekt und die Abhängigkeit der nichtlinearen Spannungs- Verzerrungsverhalten vom relativen Faservolumenanteil. Die Querzugbeanspruchung einer UD-Schicht wird mittels Finite-Elemente-Rechnungen an statistisch verteilten Faserpackungen untersucht. Dieses Vorgehen ermöglicht einen detaillierten Einblick in die Lastleitungsmechanismen von Faser zu Faser bei einer Querzugbeanspruchung. Es wird deutlich, dass das einfache Modell der Reihenschaltung von Federn nur bedingt gültig ist. Aus den FE-Rechnungen statistisch verteilter Faserpackungen werden Regressionsgleichungen mit einem weiten Definitionsbereich für den Querund Schubmodul erstellt. Des Weiteren wird eine mathematische Korrektur vorgestellt, die eine Glühverlustbestimmung zur Ermittlung des relativen Faservolumenanteils an Kohlenstofffaser-Kunststoff-Verbunden ermöglicht. Die Genauigkeit dieses Verfahrens ist mit der Genauigkeit der chemischen Lösungsextraktion vergleichbar. ····· 10361107432
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Die kommerziell erfolgreichsten Formgedächtnislegierungen (FGL) sind aus NiTi-Basis Legierungen, aufgrund ihrer guten Eigenschaften. Es gibt jedoch Forschungsbedarf im Bereich der funktionellen Ermüdung, da die Ursachen der funktionellen Ermüdung noch nicht vollkommen geklärt und verstanden sind. Diese Arbeit soll einen Beitrag zum besseren Verständnis zwischen der funktionellen Ermüdung und den mikrostrukturellen Veränderungen in NiTi-Einkristallen leisten. Ein Schwerpunkt der Arbeit liegt in der Erforschung des Zusammenhangs zwischen der funktionellen Ermüdung und der Versetzungsplastizität in NiTi-Basis Legierungen. Zusätzlich wurden Druckkriechversuche durchgeführt, um den Einfluss der Druckspannung auf die Mikrostruktur und die Ni4Ti3- Ausscheidungen der NiTi-Einkristalle untersuchen zu können. ····· 10361107426
für 49.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray Single grain separation for contact-free detection of externally identifiable and measurable separation parameters is defined as sensor-based sorting. This technology revolutionised the design of dry separation processes in the field of waste treatment as well as in mineral processing methods. These techniques allow the design of recovery processes with increased sorting efficiency. This leads to increased resource efficiency and therefore to a higher grade of sustainability. The bi-annual conference `Sensor-based Sorting` held in Aachen arrests interest for this technology. This could easily be proven with the steadily growing number of conference participants. Researchers, appliers and plant operators are attracted by the chance to get latest information about new developments, ideas and tendencies considering sensor-based sorting. This monograph contains an excerpt of the presentations that were held at the conference during the years 2008 to 2010. ····· 10361107411
für 48.80€ kaufen ···· Rheinberg-Buch.de - Bücher, eBooks, DVD & Blu-ray The mathematical models of particulate processes include a population balance equation (PBE) to describe the evolution of the particle size distribution (PSD) complemented with balance equations for the states of the continuous phase. In this work on particulate processes three main topics are addressed: the numerical solution of a one dimensional PBE, time optimal control of a particulate system in a semi-batch reactor, and the solution of inverse problems to extract the kernels of the PBE from available data. The objective of the research in the field of the numerical solution of the PBE reported in this thesis is to determine the most appropriate numerical method among several high resolution methods in terms of computation time and accuracy. Additionally the potential advantage of grid adaptation to improve the performance of the most promising numerical methods is studied. Because of the dependency of the properties of a particulate system on the PSD, control of the PSD is of extreme interest. The control concept studied here is direct optimizing control. The objective of the control problem is the time optimal production of a product with a target PSD in a semi-batch reactor. Since usually not all states are measurable, incorporating an extended Kalman filter in the control loop for state estimation is considered. The last part of the thesis presents the application of techniques to extract kernels from available data. The novel approach presented for the solution of inverse problems can be used for extracting a general growth kernel from PSD measurements. It is also shown that the approach can be used for describing pure aggregation processes. Throughout this thesis emulsion polymerization processes are selected as an example to illustrate the concepts investigated and developed in this work. The obtained conclusions and results however, can be extrapolated straightforwardly to other particulate processes. ····· 10361107399· 1 · ::::: · 6 ·· 7 ·· 8 ·· 9 ·· 10 ·· 11 ·· 12 · ::::: · 17 ·