Dissertationen/Habilitationen
Dauerhafte URI für die Sammlung
Suchen
Auflistung Dissertationen/Habilitationen nach Auflistung nach DDC "ddc:004"
Gerade angezeigt 1 - 12 von 12
Treffer pro Seite
Sortieroptionen
Item Application of machine learning for the prediction of stable isotopes of water concentrations in streams and groundwater(2021-09-03) Sahraei, Amirhossein; Breuer, Lutz; Siemens, JanThis dissertation introduces the application of machine learning to isotope hydrology. The recent development of laser spectroscopy has made it feasible to measure stable isotopes of water in high temporal resolutions up to sub-hourly scales. High-resolution data provides the opportunity to identify the fine-scale, short-term transport and mixing processes that are not detectable at coarser resolutions. Despite such advantages, routine and long-term sampling of streams and groundwater sources at high temporal resolution is still far from being widespread. Novel approaches that are able to predict and interpolate infrequently measured data at multiple sources would be a major breakthrough. This dissertation focuses on the application of machine learning and hyperparameter optimization to efficiently predict high-resolution isotope concentrations of multiple stream and groundwater sources in the Schwingbach Environmental Observatory (SEO), Germany. In a first step, an automated mobile laboratory was utilized to automatically sample and analyse stable isotopes and water quality for multiple water sources at 20 min intervals in situ. Prompt responses of isotope concentrations to precipitation revealed that shallow subsurface flow pathways rapidly delivered water to the stream. A Spearman rank analysis indicated that precipitation is a main driver of event and pre-event water contribution. In a second step, Artificial Neural Network (ANN) and Support Vector Machine (SVM) were optimized to predict maximum event water fractions in streamflow on independent precipitation events using only precipitation, soil moisture and air temperature as input features. The optimized SVM outperformed that of ANN with an RMSE of 9.43%, MAE of 7.89%, R2 of 0.83, and NSE of 0.78. A systematic hyperparameter optimization approach showed that an adequate number of hidden nodes and a suitable activation function enhanced the ANN performance, whereas the performance of SVM was directly related to the selection of the kernel function. Finally, a Long Short-Term Memory (LSTM) deep learning model was optimized using a Bayesian optimization algorithm to predict high-resolution time series of isotope concentrations in multiple stream and groundwater sources using a set of explanatory data that are more straightforward and less expensive to measure compared to the stable isotopes. The LSTM could successfully predict isotope concentrations of stream and groundwater sources using only short-term sequence (6 h) of measured water temperature, pH and electrical conductivity with an RMSE of 0.7‰, MAE of 0.4‰, R2 of 0.90, and NSE of 0.70. In conclusion, machine learning methods are promising tools for the prediction of variables that are difficult, expensive or cumbersome to measure.Item Die Berechnungsstärke von Forgetting-Automaten(2008) Glöckler, JensDie sogenannten Forgetting-Automaten wurdeneingeführt, um bestimmte Methoden aus derLinguistik zu modellieren. Formal werden sie alsAutomaten definiert, die eine oder mehrere derOperationen MVL und MVR (Bewegung des Kopfes nachlinks bzw. rechts), DLL und DLR (Löschen desaktuellen Feldes und anschließende Bewegung nachlinks bzw. rechts) sowie ERL und ERR (Ausradierendes aktuellen Feldes mit einem Leerzeichen undanschließende Bewegung nach links bzw. rechts)ausführen können. Da jede (nichtleere) Kombinationdieser sechs Operationen untersucht werden kann,sind insgesamt 63 verschiedene Automatenmodelle zubetrachten. Wir untersuchen die Berechnungsstärke sowohl imnichtdeterministischen als auch imdeterministischen Fall; dabei vergleichen wir dieverschiedenen Modelle untereinander und mitwohlbekannten Automaten- und Grammatikmodellen ausder Literatur. Weiterhin werden der unäre Fall unddie Abschlusseigenschaften der entstehendenSprachfamilien untersucht.Item Beschreibungskomplexität von Restart-Automaten(2007) Reimann, JensDas Modell der Restart-Automaten gibt es seit etwa 15 Jahren. Durch die Ausstattung mit verschiedenen Berechnungsressourcen und die Auferlegung von Einschränkungen an die Arbeitsweise entstand mit der Zeit ein unfangreiches System von Automatentypen mit stark unterschiedlicher generativer Mächtigkeit. Ziel dieser Arbeit ist es, Restart-Automaten in ihrer Effizienz bei der Beschreibung von Sprachen mit der von konventionellen Automatenmodellen und Grammatiken, sowie untereinander, zu vergleichen. Die Schwerpunkte liegen zum einen auf dem Vergleich von Beschreibern regulärer Sprachen (Zustandskomplexität) und zum anderen auf dem Nachweis nichtrekursiver trade-offs (in Bezug auf die Beschreibungskomplexität) zwischen den mächtigeren Sprachklassen. Im Rahmen des ersten Schwerpunkts werden die Systeme NFA, DFA, AFA (nichtdeterministische, deterministische und alternierende endliche Automaten) mit den beiden Restart-Automaten-Typen R(1) und det-RR(1) verglichen, die ebenfalls Akzeptoren für reguläre Sprachen sind (der Nachweis dieser Eigenschaft von det-RR(1)-Automaten ist ebenfalls Bestandteil dieser Arbeit). Für die Untersuchungen im Rahmen des zweiten Schwerpunkts werden zusätzlich einige Nachweise bezüglich der (Nicht-)Erkennung von valid-computations Sprachen, sowie einiger nicht-semi-entscheidbarer Eigenschaften geführt.Item Biologically inspired computer models of the microscopic and macroscopic structure of the brain based on wiring optimisation(2022) Groden, Moritz; Heiliger, Christian; Jedlička, PeterLike all natural systems, the mammalian brain and its neurons are governed by the fundamental principles of physics. Simplified computer simulations based on such principles help us see through the high complexity of especially the human brain and ultimately figure out how it works. In the scope of this thesis, two biologically realistic models were created focusing on, firstly the macroscopic and secondly the microscopic structure of the brain. The key component to both of these morphological simulations is the principle of wiring optimisation. First, combining dimensionality reduction methods and biologically inspired modelling based on optimal wiring, this thesis develops a method to simulate how the gyrification pattern of the mammalian brain emerges, differs from species to species, and changes due to pathological changes in neuron connectivity. The gyrification model is based on two biology-driven key principles: First, neuron placement follows wiring optimisation requirements and second, local connectivity between neurons is strong while long range connectivity is sparse as observed in the mammalian cortex. Many studies from the past saw the formation of gyri and sulci as the result of the surface of the cortex trying to expand in the limited cavity of the skull. The simulation described here shows that even without the constraint of the skull, gyrification still emerges when applying a biological neural connectivity distribution in addition to wiring optimisation. The first model provides new insights into the macroscopic structure of the brain but lacks microscopic detail. The second model is also based on optimal wiring but focused on reproducing the anatomical neuronal structure at the level of single cells. It provides a new algorithm and a tool to repair and preserve the microscopic structure of neuron morphology reconstructions. This is especially relevant for human neurons since here, data is extremely hard to come by, and the data that is available mostly originates from patients with diseases like severe epilepsy. Since the reconstruction process is a delicate procedure, the anatomical structure of reconstructed neurons is oftentimes severed by dendrites accidentally being cut. The recovered anatomy of neuronal dendrites is, however, pivotal to study the functionality of human and nonhuman neurons, which is further illustrated by analysing passive electrophysiological differences between human and mouse neurons. In summary, the thesis shows that optimal wiring is a useful guiding principle to simulate and better understand macroscopic and microscopic anatomical structure of the brain at the level of cortical folding as well as individual dendritic trees of nerve cells.Item Engineering complex mathematical models in systems biology with Modelica using the example of the human cardiovascular system(2022) Schölzel, Christopher; Dominik, Andreas; Goesmann, Alexander; Müller, ChristophBiological systems are complex and full of interconnected feedback loops, which require going beyond reductionist endeavors to map the genome, transcriptome, and proteome and consider the whole system instead. This is the goal of systems biology, and it often involves the integration of multiple descriptions of biological systems at different scales of time and space. Since predictions about such complex systems are hard to make, mathematical simulations are used to quantitatively assess the phenomena under study. However, most mathematical models of biological systems are unfit for the sort of hierarchical composition required for this task both due to their structure and due to the programming or modeling language used. In engineering, systems of much larger size and similar complexity have been successfully modeled using the language Modelica, which is largely unknown in systems biology. This dissertation therefore asks if Modelica can be used to tackle the challenges of multi-scale modeling in systems biology. In place of the vast amount of biological models available, the dissertation focuses on models of the cardiovascular system, since this is an active and relevant field of research that showcases a lot of the typical complexity of biological systems. To assess the benefits of Modelica for systems biology, I first establish a set of requirements for modeling languages in systems biology in general by examining the properties of a subsystem in detail. I assess whether Modelica fulfills these requirements using models of the human baroreflex, the Hodgkin-Huxley model of the squid giant axon, and a one-dimensional model of the human atrioventricular node. As there are other languages that aim to solve similar issues, I then contrast their abilities with those of Modelica. This bridges to a broader investigation of the benefit of software engineering techniques in general, such as object orientation, structured documentation, or unit testing. Finally, I discuss and provide some improvements for the usability of Modelica in a biological context. The results of this dissertation indicate that Modeling languages used for systems biology should be modular, declarative, human-readable, open, graphical, and hybrid. From all investigated language candidates, Modelica fulfills these requirements to the fullest extent. Using other languages is possible, but brings drawbacks either in modularity, openness, or the graphical representation of models. However, SBML and CellML, which are recommended standard languages in systems biology, have the clear benefit of including domain-specific features such as semantic annotation using ontologies, and they also benefit from a high acceptance and interoperability with other tools in the community. Regardless of the concrete language, software engineering techniques should be applied to mathematical modeling similar to other pieces of software. Among other benefits, this could actually guarantee that the methods of a simulation study are reproducible. In the case of Modelica, this means that the language has to fit better into a typical software engineering workflow, which can be achieved by separate tools for code editing, vector graphics editing, and structured documentation, which are provided as part of this dissertation. At the bottom line, Modelica is not the perfect solution to every problem of systems biology, but at the very least it is a great source of inspiration that should either be used as the basis of or be partly incorporated into future languages.Item Formalsprachliche Aspekte von XML(2008) Wendlandt, MatthiasDie Dissertation befasst sich mit XML artigen Grammatiken. Dabei werden Abschlusseigenschaften, Entscheidbarkeitsfragen und die Einordnung in die Chomsky Hierarchie von den XML Grammatiken, den einfachen balanacierten Grammatiken, den konkurrenzverhindernden balancierten Grammatiken, den RegDyck Grammatiken und den balancierten Grammatiken untersucht.Item Generalisierte Berechnungen in iterativen Arrays(1999) Klein, AndreasIn der Arbeit beschränke ich mich auf Spracherkennung. Diese Einschränkung ist nicht wesentlich, da sich viele Algorithmen für Spracherkennung in numerische Algorithmen umwandeln lassen. In den Definitionen 2.11, 2.14 und 2.16 wird das Modell des iterativen Arrays mit beschränkten Nichtdeterminismus eingeführt. Eingeschränkter Nichtdeterminismus wurde bisher noch nie bei iterativen Arrays untersucht. Da nur Spracherkennung betrachtet wird, haben die iterativen Arrays kein Ausgabeband, sondern eine in akzeptierende und nichtakzeptierende Zustände aufgeteilte Endzustandsmenge. Zeitbeschränkung und Beschränkung des Nichtdeterminismus werden so definiert, daß die entsprechende Schranke für alle Wahlmöglichkeiten erfüllt sein muß. Dies garantiert, daß die untersuchten Sprachklasse für alle Funktionen t,f 'vernünftig' (d.h. berechenbar) ist. Dies ist bei den bisherigen Modellen mit eingeschränktem Nichtdeterminismus für Turing-Maschinen nicht der Fall (siehe Bemerkung 2.17 und Anhang B). In Abschnitt 3.3 wird ein Beschleunigungslemma für die Zeit und ein Reduktionslemma für die Anzahl der nichtdeterministischen Schritte bewiesen. Das Beschleunigungslemma für die Zeit benutzt bekannte Methoden von deterministischen iterativen Arrays. Das Reduktionslemma für die Anzahl der nichtdeterministischen Schritte benutzt dagegen neue Methoden. Die in Abschnitt 3.4 eingeführten Äquivalenzklassen sind eine Verallgemeinerung des entsprechenden Konzepts von Cole 1966. Daß die Verallgemeinerung ganz entscheidend ist, sieht man am besten an Satz 5.9, in dem Lemma 3.16 benutzt wird, um eine neue Aussage für deterministische iterative Arrays zu beweisen. In Kapitel 6 werden alternierende iterative Arrays als Verallgemeinerung der nichtdeterministischen iterativen Arrays eingeführt. Es wird gezeigt, daß sich die meisten Aussagen (Abschlußeigenschaften, Hierarchiesätze, usw.) über nichtdeterministische iterative Arrays auf alternierende iterative Arrays übertragen lassen. Ein zentraler Punkt ist dabei Lemma 6.6, in dem eine Normalform für alternierende iterative Arrays hergeleitet wird. (Mir ist keine entsprechende Aussage für andere Maschinenmodelle bekannt.) Mit diesem Lemma lassen sich die Ergebnisse aus Kapitel 3 auf alternierende iterative Arrays übertragen (Lemma 6.7 bis 6.11). Allerdings sind die Beweise technisch aufwendiger. Da die meisten Beweise aus den Kapiteln 4 und 5 nur die Hilfmittel aus Kapitel 3 benutzen, übertragen sich nun die Ergebnisse auf alternierende iterative Arrays.Item Konzeptionierung und Entwicklung eines Metadatenrepositoriums zur Exploration des klinischen Datenbestandes in Forschung und Routine(2023) Eberhardt, Florian; Sohrabi, Keywan; Bartkuhn, MarekDie Medizininformatik-Initiative in Deutschland verdeutlicht den Bedarf an offenen und standardisierten Datenstrukturen sowie die Zusammenführung von Datenbereichen aus der medizinischen Forschung und der klinischen Routine. Im Zuge dessen sollen Datenintegrationszentren (DIZ) gegründet werden, welche diese Aufgabe an den jeweiligen Standorten übernehmen. Eine Grundlage des Projektes sind Metadaten, die für einheitliche und standardisierte Analysen und Machbarkeitsabfragen genutzt werden können. Hierbei gilt es jedoch rechtliche und organisatorische Grundsätze zu beachten und für den Standort zu etablieren. Darüber hinaus wird ein Metadaten-Repositorium benötigt, welches die Grundlage für Machbarkeitsabfragen und -Analysen bildet. Für die Implementierung des Metadaten-Repositoriums wurde ein Python-Backend mit dem Flask-Framework entwickelt, das auf einer PostgreSQL-Datenbank aufsetzt. Das Frontend wird durch Vue.js mit dem Material Design Framework Vuetify dargestellt. Darüber hinaus nutzt das entwickelte System das Metadaten-Repository Samply.MDR und wurde containerbasiert nach Richtlinien des BSI-IT-Grundschutzes aufgebaut. Zum Aufbau des DIZ und als Basis für das Repositorium wurden für den Standort Gießen drei verschiedene rechtlich-organisatorische Ordnungen entwickelt. Das daraus implementierte erweiterte Metadaten-Repository (eMDR) bietet die Möglichkeit erste Machbarkeitsabfragen mit Visualisierung, auf Basis eines definierten Kerndatensatzes, durchzuführen. Darüber hinaus erfolgt eine Authentifizierung über eine zentrale Keycloak-Instanz sowie eine containerbasierte Bereitstellung der Komponenten. Das System ist technisch und organisatorisch in alle Arbeitsabläufe des DIZ integriert und erfüllt die Anforderungen des BSI-IT-Grundschutzes. Zudem ist das System, durch eine Synchronisationsfunktion, in allen infrastrukturell getrennten Systembereichen installiert. Die etablierten Strukturen bieten eine ideale Grundlage für die weitere Forschung am Standort Gießen im Rahmen des DIZ und fungieren, insbesondere aus Sicht aus eMDR, als Bindeglied, in der Rolle eines Informationsgebers, in der inhomogenen Systemlandschaft. In Zukunft muss das System Benchmarking-Verfahren und Usability-Studien bestehen, um auf Basis der Ergebnisse erweitert und angepasst zu werden.Item Measuring defects in finite automata(2015) Meckel, KatjaThis dissertation is about defective finite automata. Several possible defects are introduced. In connection with defective automata, their usability is of interest. The original and the defective automaton can be compared to each other by different measures. When determinizing and minimizing the defective device, its size can be measured by the well known state complexity. It can be expressed depending on the number of states of the original automaton. The defective device can also be modified to accept only subsets of the accepted and rejected languages that are themselves accepted by finite automata. A new measure is introduced to compare the language of the original automaton to the one accepted by the defective one: the parameterized prefix distance. This measure is an extension of the prefix distance between words. It is shown that there only exist pairs of languages having a constant, degree k polynomial, and exponential distance. Moreover, for every constant and every polynomial, languages over a binary alphabet are constructed that have exactly that distance. From the density and census functions of regular languages the orders of possible distances between languages are derived and are shown to be decidable. The same is shown for the parameterized suffix distance. As a conclusion, a comparison between the investigated measures is given.Item On the Color Vision of Deep Neural Networks: parallels with Humans(2022) Flachot, Alban; Gegenfurtner, Karl R.; Fleming, Roland W.Seeing in color is a primordial aspect of our visual experience. Despite its importance, it is still misunderstood what exact purpose our color vision serves. A common belief is that object recognition, crucial to our survival, is a core driving force in the development of our visual system, and our color perception by extension. And indeed, color is known for improving our ability to recognize objects. In this thesis, I explored the limits to which Deep Neural Networks, optimized for object recognition or color constancy, can explain and help us understand our color vision. Using advanced feature visualization, stimuli generation and representational analysis methods, I carefully examined the color vision of these trained models, also comparing their artificial responses to biological visual systems. I find that both artificial and biological systems exhibit some striking differences, but these are outweighed by the sheer number of similarities. These similarities include (1) large computing power for the processing of color, (2) single and double opponent units in their early processing stages, (3) more sensitivity to variations in hue than saturation, and (4) color representations that follow similar perceptual dimensions. Despite their limitations, Deep Neural Networks can thus astonishingly explain many color properties of our visual system. This thesis hence provides evidence that our color vision is largely shaped for and motivated by a feedforward recognition of natural objects and their surface colors.Item Segmentierung und Optimierung von Algorithmen zu Problemen aus der Zahlentheorie(1999) Richstein, JörgDie vorliegende Arbeit beschäftigt sich mit der Entwicklung und Optimierung verteilter Algorithmen zu Problemen aus der Zahlentheorie. Speziell werden vierProbleme behandelt. Zur Vorbereitung auf die Bewertung der jeweils vorzustellenden Algorithmen wird in Kapitel 1 zunächst ein neues Berechnungsmodellentwickelt, das bestehende Modelle um in der Praxis relevante Eigenschaften erweitert und die formale Grundlage sämtlicher Verfahren darstellt. Berücksichtigtwerden dabei sowohl Unterschiede in den Komplexitäten verschiedener Operationen als auch Kosten für Speicherzugriffe. Beides hat in der Praxisentscheidenden Einfluß auf die Gesamtkomplexität der Implementierungen von Algorithmen. Der Grundaufbau des Modells wird zunächst formal definiert, denInstruktionen der Modellmaschine dann Kosten zugeordnet. Es folgt die Einführung einer Sprache zur Algorithmenbeschreibung. Diese wird schließlich zum Zwecke der Analyse der folgenden Verfahren durch Angabeeines übersetzers in Modellmaschinen-Instruktionen auf das Berechnungsmodell zurückgeführt. Sämtliche vorzustellenden Algorithmen werden anhand derBeschreibungssprache erläutert und mit dem vorher geschaffenen Komplexitätsmaß bewertet. Diese Vorgehensweise läßt eine wesentlich realistischereBewertung der Komplexitäten zu als es in herkömmlichen Modellen möglich gewesen wäre. Eine 'Tauglichkeitsuntersuchung' des entstandenenKomplexitätsmaßes für Programme über dieser Sprache wird im Zusammenhang des nachfolgenden Kapitels durchgeführt. Kapitel 2 beschäftigt sich mit Primzahl-Sieben, also Algorithmen zur Trennung zerlegbarer Zahlen von Primzahlen eines gegebenen Intervalls. Die Basis stelltdabei das über 2000 Jahre alte Sieb des Eratosthenes dar. Zunächst werden daran einige einfache Verbesserungen vorgenommen. An der Analyse der darausresultierenden Verfahren zeigt sich, daß selbst feine Unterschiede durch das Komplexitätsmaß der Beschreibungssprache erfaßt werden können. In einemnächsten Schritt findet dann zur Vorbereitung auf eine spätere Verteilung die Segmentierung des Basissiebes statt. Der Begriff der Segmentierung, der imBereich der Primzahlsiebe eine gewisse Tradition hat, wird in dieser Arbeit übernommen. Er ist zum einen als theoretische Vorstufe zu einer praktischenVerteilung zu verstehen und soll zum anderen vom Begriff der Partitionierung abgrenzen, unter der man häufig eine disjunkte Zerlegung versteht, die hier nichtimmer gemeint sein muß. Ausgehend von einer ersten segmentierten Version werden schrittweise Verbesserungen entwickelt, die schließlich in einem hochoptimierten Verfahren münden.Es wird gezeigt, daß dieses trotz seiner asymptotisch schlechteren Laufzeit unter realistischen Bedingungen andere Algorithmen übertrifft. Eine Implementierungdes resultierenden Primzahlsiebes wird beschrieben. Dabei wurde auf möglichst weitreichende Parametrisierbarkeit geachtet, die sich in späteren Anwendungenzum Teil erheblich auswirkt. In Kapitel 3 wird eine (Teil-) Verifikation der inzwischen über 250 Jahre alten Goldbachschen Vermutung vorgenommen. Dabei handelt es sich um die Frage,ob sich jede gerade Zahl größer oder gleich 4 als Summe zweier Primzahlen darstellen läßt. Trotz der Einfachheit ihrer Formulierung zählt man einen möglichenBeweis der Goldbachschen Vermutung zu den schwierigsten Problemen der gesamten Mathematik überhaupt. Es werden zunächst zwei Methoden zur Verifikation beschrieben sowie deren Vor- und Nachteile aufgezeigt. Aus diesen Überlegungen folgt die Auswahl einesder beiden Verfahren. Laufzeitkritische Punkte konnten durch mehrere Optimierungen entscheidend verbessert werden. Der resultierende Algorithmus wurdeimplementiert und schließlich verteilt. Das Ergebnis der Rechnung - die Verifikation bis 4x1014 - stellt eine Ausdehnung des bisher bestätigten Bereichs auf dasVierfache dar. Eine Erweiterung des Goldbachschen Problems ist die Frage nach der Anzahl der Zerlegungen gerader Zahlen als Summe zweier Primzahlen. Das Problem derBestimmung dieser Anzahl läßt sich durch einen sequentiellen Algorithmus eigentlich sehr einfach lösen. Allerdings stößt das Verfahren in der Praxis schnell anseine Grenzen, die vor allem aus dem Mangel an zur Verfügung stehendem Hauptspeicher resultieren. Es wird zunächst gezeigt, daß durch eine Segmentierungdes Basisverfahrens ein Minimum an Speicher genügt. Allerdings führt die beschriebene Vorgehensweise zunächst zu einer deutlichen Erhöhung derZeitkomplexität, die jedoch praktisch durch die sich automatisch ergebende Verteilbarkeit aufgefangen werden kann. Das Ergebnis der verteilten Berechnung -der Bestimmung der Anzahlen der Partitionen aller geraden Zahlen bis 5x108 - wird schließlich verschiedenen historischen Vermutungen über das Wachstumder Anzahl der Partitionen gegenübergestellt. Kapitel 5 stellt ein Verfahren zur verteilten Suche nach modulo p verschwindenden Fermat-Quotienten zur Basis a für prime a und p vor. Die dazu äquivalenteFrage der Lösbarkeit der Kongruenz ap-1 = 1 mod p2 wurde erstmals vor etwa 170 Jahren von N. Abel aufgeworfen. Sie steht in engem Zusammenhang mitdem (inzwischen von A. Wiles bewiesenen) letzten Satz von Fermat . Über die Lösungen der Kongruenz oder ihrer Struktur ist relativ wenig bekannt. Es wirdzunächst ein einfacher Algorithmus beschrieben, der jedoch in der Praxis entscheidende Nachteile aufweist. Selbst nach der Ersetzung einiger problematischerStellen verbleiben praktische Schwierigkeiten, die nur durch eine recht komplizierte, aber letztendlich erfolgreiche Vorgehensweise behoben werden können. Das resultierende und schließlich implementierte und verteilte Verfahren zeigt eine praktische Schranke für eine im Berechnungsmodell getroffene Idealisierungauf, die trotz der relativ umständlichen Methode nicht durchbrochen werden mußte. Die getroffene Idealisierung erfährt damit eine weitere Rechtfertigung.Durch eine maschinennahe Implementierung und Verteilung konnten bisherige Berechnungen zum Problem der Fermat-Quotienten um das etwa zwölffacheerweitert werden. Die für alle primen a<1000 und p<1011 durchgeführte Rechnung lieferte acht neue Lösungen, darunter eine, die die erste Lösung zur Basisa=929 darstellt. Abschließend wird eine Softwareimplementierung zur Steuerung verteilter Rechnungen vorgestellt. Dabei werden sowohl vernetzte Systeme mit oder ohnegemeinsamem Speicher unterstützt als auch einzelne Rechner eingebunden, die nur teilweise netzverbunden sind oder auch völlig getrennt arbeiten. Durch dierelativ schlanke Struktur und einfache Konfigurierbarkeit ist es prinzipiell möglich, weltweite Rechnerressourcen in eine verteilte Rechnung einzubinden.Netzkommunikationen werden dabei weitestgehend vermieden, um eine Abhängigkeit von zentralen Servern zu vermeiden. Sämtliche Rechnungen wurdenunter Verwendung dieser Software auf relativ kleinen Rechnern an unterschiedlichen Standorten durchgeführt.Item Semantische Standardisierung einer intersektoralen Kommunikation zur Datenintegration vom Rettungsdienst in die Klinik(2022) Edeler, Birte; Mann, Valesco; Schneider, HenningBei zunehmender Akquirierung von digitalen Dokumentationssystemen (NIS: NotfallInformations Management Systemen) wächst die Bedeutung einer digitalen Datenübertragung und Integration vom Rettungsdienst in die Klinik. Für dieses ist neben technischen Voraussetzungen auch eine semantische und syntaktische Standardisierung essentiell. Im Rahmen des DIRK-Projekt (DatenIntegration vom Rettungsdienst in die Klinik) wurde ein generischer semantischer Standard mit Hilfe von frei-zugänglichen internationalen Klassifikationssystemen erschaffen. Hierfür wurden zunächst der minimale Notfalldatensatz 3 (MIND 3) und das DIVI Notarztprotokoll Version 5.1 auf Abbildbarkeit durch die internationalen Standards Health Level 7 (HL7), Internationale statistische Klassifikation der Krankheiten und verwandter Gesundheitsprobleme (ICD 10) Version 10 -German modification (Deutsche Ausgabe), Anatomisch- therapeutisch chemisches-Klassifikationssystem (ATC) und Logical Observation Identifiers Names and Codes (LOINC) geprüft. 39 % konnten abgebildet werden. Für nicht-abbildbare Parameter erfolgte ein Beantragungsprozess neuer LOINC-Kodes beim Regenstrief Institut in Indianapolis, um die Nutzung proprietärer Kodes zu vermeiden. Hierfür wurden die Kodes übersetzt, erklärt und dem 6-achsigen LOINC-System zugeordnet. Die Arbeit beschreibt den komplexen Beantragungsprozess von neuen LOINC-Kodes, die Schwierigkeiten bei der Abbildung, aber auch die Eignung der Klassifikationen für notfallmedizinische Daten. Insgesamt konnten 67 % der Daten exakt in semantischen Standards abgebildet und Lösungsvorschläge für viele weitere Parameter gefunden werden, so dass über 88 % der Parameter semantisch dargestellt werden können. Mit zunehmenden Übersetzungen von LOINC-Kodes beim Deutsches Institut für Medizinische Dokumentation und Information (DIMDI), der Zulassung von Systematized Nomenclature of Medicine Clinical Terms (SNOMED CT) in Deutschland und dem Wachsen der vorhandenen internationalen Klassifikationssysteme, kann dieser erschaffene Standard in Zukunft verfeinert und verbessert werden und langfristig eine bessere Verfügbarkeit und Qualität von Daten für die Patientenversorgung, Qualitätsmanagement und Versorgungsforschung zur Verfügung gestellt werden.