Projekte

Aktuelle Projekte

Tracing Uncertainty in Human-Machine Interaction for Object Classification in Industry 4.0
Laufzeit: 01.10.2023 bis 30.09.2025

Consider the task of malformed object classification in an industrial setting, where the term ‘malformed’ encompasses objects that are afflicted with geometric deviations, corroded or broken. Recognizing whether such an object can be repaired, taken apart so that its components can be used otherwise, or dispatched for recycling, is a difficult classification task. Despite the progress of artificial intelligence for the classification of objects based on images, the classification of malformed objects still demands human involvement, because each such object is unique. Ideally, the intelligent machine should demand expert support only when it is uncertain about the class. But what if the human is also uncertain?

In this project we investigate methods for recognizing human uncertainty in an unobtrusive manner and active feature acquisition algorithms for reducing machine uncertainty. We also intend to build reference datasets where human uncertainty is controlled and measured. Our cooperation has been triggered through the networking activities of CHIM (https://forschungsnetzwerk-chim.de/).

Projekt im Forschungsportal ansehen

Abgeschlossene Projekte

Annotator-Machine-Interaction
Laufzeit: 01.01.2015 bis 31.12.2023

This internal project involves experiments that investigate annotator behaviour for difficult tasks. Since 2019, the OVGU team designs experiments in the KMD Experiment Lab to study annotator confidence and its association to annotation quality for labeling tasks. This expertise will be used in the ITN to assist in the process of identifying outliers in the data.

In the following we briefly present two current experiments:
We conduct annotation experiments on health data from a population-based study in cooperation with the University Medicine Greifswald. The triplet annotation task is to decide whether an individual was more similar to a healthy one or to one with a given disorder. We use hepatic steatosis as example disorder, and described the individuals with 10 pre-selected characteristics related to this disorder. We record task duration, electro-dermal activity as stress indicator, and uncertainty as stated by the experiment participants (n = 29 non-experts and three experts) for 30 triplets. We built an Artificial Similarity-Based Annotator (ASBA) and compar its correctness and uncertainty to that of the experiment participants.

More information can be found under publications.

This first experiment formed the basis for further ongoing experiments on the influence of configurations on annotator performance.

Technologies plays an important role for the annotation quality of labeling tasks. Therefore we work at the moment on a Systematic Review on Virtual Reality for Medical Annotation Tasks. Our work investigates benefits offered by VR towards better experience and towards better understanding of annotators.

Projekt im Forschungsportal ansehen

UNITI - Unification of Treatments and Interventions for Tinnitus Patients
Laufzeit: 01.01.2020 bis 30.09.2023

WE STAND UNIT(I)ED AGAINST TINNITUS!

Tinnitus ist die Wahrnehmung eines Phantom-Geräusches und die Reaktion der Betroffenen darauf. Obwohl viele Fortschritte erzielt wurden, bleibt Tinnitus ein wissenschaftliches und klinisches Rätsel mit hoher Prävalenz und hoher wirtschaftlicher Belastung. Er betrifft mehr als 10% der Allgemeinbevölkerung. Ca. 1% der Bevölkerung betrachtet Tinnitus als ihr wichtigstes Gesundheitsproblem. Eine große Vielfalt von Patientencharakteristika - einschließlich Genotypisierung, Ätiologie und Phänotypisierung - wird kaum verstanden, da integrierte Systemansätze noch fehlen. Obwohl die genetischen Ursachen von Tinnitus jahrzehntelang vernachlässigt wurden, haben jüngste Ergebnisse der genetischen Analyse in bestimmten Untergruppen (Geschlecht und Phänotyp) gezeigt, dass der bilaterale Tinnitus bei Männern eine Heritabilität von 0,68 erreicht hat. Über die Behandlung von Tinnitus gibt es derzeit keinen Konsens. Das übergeordnete Ziel von UNITI ist es, ein prädiktives Berechnungsmodell auf der Grundlage vorhandener und longitudinaler Daten zu liefern, das versucht, die Frage zu beantworten, welcher Behandlungsansatz für einen bestimmten Patienten auf der Grundlage bestimmter Parameter optimal ist. Klinische, epidemiologische, medizinische, genetische und audiologische Daten werden aus bestehenden Datenbanken analysiert. Es werden prädiktive Faktoren für verschiedene Patientengruppen extrahiert und ihre prognostische Relevanz in einer Randomized Controlled Trial (RCT) getestet, in der verschiedene Patientengruppen eine Kombination von Therapien durchlaufen, die auf das auditorische und zentrale Nervensystem abzielen.
Die AG von Prof. Spiliopoulou wird an Methoden des maschinellen Lernens arbeiten, für die Vorhersage des Erfolgs von Behandlungsverfahren, für die Analyse der Patient*innen- Compliance und für die Untersuchung der Wechselwirkungen von Compliance und Behandlungserfolg, sowie an die Ableitung von Phenotypen für Kliniken, die unterschiedliche Fragebögen und Behandlungen nutzen, aber trotzdem eine Vergleichbarkeit ihrer Vorgänge und ihrer Behandlungsvorgänge anstreben.
Das Projekt wird gefördert durch das EU-Rahmenprogramm für Forschung und Innovation Horizont 2020 (Grant Agreement Nr. 848261).

Projekt im Forschungsportal ansehen

Entity-Centric Learning on Streams
Laufzeit: 16.03.2017 bis 15.03.2023

This internal project emanated from the project OSCAR+, funded by the German Research Foundation on entity-centric learning over streams. As part of the ongoing activities, the OVGU team investigates efficient management of entities and active, cost-sensitive acquisition of features that contribute to model learning and adaption.

Projekt im Forschungsportal ansehen

Mining für die Analyse von klinischen Daten zu Tinnitus
Laufzeit: 08.08.2018 bis 31.12.2022

Tinnitus ist eine höchst bedeutsame - oft unterschätzte - gesundheitsökonomische Einflussgröße, sowie ein globales Gesundheitsproblem, das die Lebensqualität von Millionen Menschen erheblich beeinträchtigt. Befunde weisen auf subgruppen-spezifische Unterschiede in Bezug auf Prävention, Assessment, Management und Behandlung von Tinnitus hin. Derzeit gibt es keine Therapie-Art, die als Gold-Standard für alle PatientInnen effektiv ist. Weiterhin liegen keine systematischen Untersuchungen zum Einfluss von Geschlecht auf chronischen Tinnitus vor.

In diesem Projekt entwickeln wir in Zusammenarbeit mit dem Tinnituszentrum der Charité-Universitätsmedizin Berlin Data-Mining-Verfahren, um wesentliche Subgruppen und deren Bestimmungsfaktoren in Bezug auf den Schweregrad von Tinnitus, dessen Komorbiditäten und Therapieeffekte zu identifizieren. Dazu nutzen wir einen hochdimensionalen Datensatz mit umfangreichen Angaben von PatientInnen mit chronischem Tinnitus zu Tinnitusbelastung, somatischen Problemen, psychologischen Komorbiditäten, psychosozialen Risikofaktoren, gesundheitsbezogener Lebensqualität und verschiedenen Soziodemografika.

Das Hauptziel des Projekts ist, subgruppen-spezifische Behandlungshypothesen und -modelle abzuleiten, die anschließend in klinischen Settings umgesetzt, empirisch überprüft und schließlich disseminiert werden können.

Projekt im Forschungsportal ansehen

Entwicklung eines Test zur Diagnostik von Immunkompetenz bei SeniorInnen mit Hilfe von Data-mining Methoden (ImmunLearning)
Laufzeit: 01.03.2018 bis 30.09.2022

Während das Altern ein unabwendbarer Prozess aller Menschen ist, gibt es in der Geschwindigkeit der damit einhergehenden funktionellen Veränderungen enorme Unterschiede. Auch das Immunsystem ist dem Alterungsprozess unterworfen. Die Evolution hat das Immunsystem generiert, um eine schnelle und spezifische Abwehr von Pathogenen abzusichern. Mit dem Alter sinkt diese Schlagkraft und insbesondere der Verlauf einer Infektion ist dramatischer bei vielen Senioren, oft mit tödlichem Ausgang. Beispiele sind die Infektion durch Staphylococcus aureus oder die Lungenentzündung - eine häufige und oft tödliche Folge von kurzzeitiger Bettlägerigkeit. Auslöser sind in den meisten Fällen Bakterien, oft Pneumokokken, können aber auch Infektionen durch Viren, Pilze oder Parasiten sein. Ein Testsystem zur Einschätzung der Immunkompetenz gegen bestimmte Pathogene könnte frühzeitig Risikopersonen identifizieren. Als Konsequenz könnten z. B. Medikamente umgestellt werden, bei medizinischen Eingriffen oder Therapien von chronischen Entzündungen oder bei Anwendung der immunbasierten Krebstherapie könnte die Therapie angepasst werden, von Implantaten könnte ganz abgesehen werden. Die angepasste Therapie könnte lebensrettend sein und Autonomie im Alter absichern.

In diesem Vorhaben analysieren wir die Daten von Testpersonen mit hoher versus niedriger Immunkompetenz mit Methoden des maschinellen Lernens und identifizieren Muster zu identifizieren, die für Senior*innen mit hoher bzw. niedriger Immunkompetenz charakteristisch sind. Zudem untersuchen wir Ansätze zur Messung von Zytokinwerten mit Hilfe von low-end Smartphone Tehnologien.

Projekt im Forschungsportal ansehen

QUALIMAN: Qualitätssicherung Master DKE, DigiEng..
Laufzeit: 15.05.2018 bis 31.12.2021

Qualiman ist eine Reihe von fakultätsinternen Projekten zu Qualitätsmanagement der internationalen Studiengänge der FIN. Im Projekt werden Kriterien zum Studiumserfolg bestimmt, entsprechende Daten erfasst und analysiert, Einflussfaktoren identifiziert, Handlungsempfehlungen abgeleitet, realisiert und weiterbewertet.

Projekt im Forschungsportal ansehen

ESIT: European School for Interdisciplinary Tinnitus Research
Laufzeit: 01.04.2017 bis 31.03.2021

Together with University Medicine Regensburg, University Ulm and Donau University Krems (Austria), we study the disease profiles and evolution of patients with the chronical, presently incurable disease tinnitus. The KMD group develops methods for the analysis of patients undergoing ambulatory hospital treatment, methods to understand the Ecological Momentary Assessments of patients interacting with the mobile app Track Your Tinnitus, and methods to understand discusions on treatments in the social platform TinnitusTalk (in cooperation with the platform owner TinnitusHub). Starting in summer 2017, we are involved in the ESIT Network of Excellence. More about ESIT at: http://esit.tinnitusresearch.net/

Projekt im Forschungsportal ansehen

CHRODIS PLUS Joint Action
Laufzeit: 01.09.2017 bis 31.08.2020

Together with University Ulm, Center of Research and Technology Hellas (Greece), Univeristy Medicine Regensburg and Donau University Krems (Austria), we work on platforms for patient empowerment. In the EU JOINT ACTION CHRODIS+, launched in September 2017, we work in Task 7.3 on pilots for the implementation of mHealth tools for fostering quality of care of patients with chronic diseases. More about CHRODIS+ at: http://chrodis.eu/

Projekt im Forschungsportal ansehen

Stream Mining Methods for Prediction on Trajectories of Medical Data
Laufzeit: 01.03.2017 bis 29.02.2020

In medical research, especially in longitudinal epidemiological studies and when monitoring patients with chronic diseases, participants repeatedly undergo a large set of examinations. The data recorded on one participant over time can be modelled as a multivariate time series or as a high-dimensional trajectory, where the dimensions are the variables to be recorded according to the examinations' protocol. Prediction of future recordings and of the labels of given variables (outcomes) is essential for winning insights from medical data. However, research on prediction in time series and in trajectories has not paid yet enough attention to some challenges that emerge when collecting epidemiological data over time: (i) the examination protocol may change from one time point to the next one, so that the set of dimensions changes; (ii) some examinations are not performed on all participants, e.g. because they depend on sex. This means that the data may be systematically incomplete. Moreover, participation is voluntary, which means that participants of an epidemiological study may exit it, while participants of a patient monitoring programme may respond irregularly: this leads to trajectories of different lengths, implying that a lot of data is available for some participants, and only few data for others. The goal of this work is to extend stream mining methods towards new solutions for the robust prediction of a patient's trajectory development which overcome the aforementioned challenges in order to facilitate diagnosis and treatment. Special focus will be placed on the prediction of the development of hepatic steatosis (fatty liver) which is reversible and the prediction of goitre which is not reversible using data from the Study of Health in Pomerania (SHIP).

Projekt im Forschungsportal ansehen

Medical Mining for Epidemiology and Clinical Research
Laufzeit: 01.01.2018 bis 31.12.2019

Medical mining is a broad research area, where mining methods are applied to solve problems of diagnostics and treatment, as well as for the understanding of disease progression. Medical mining encompasses learning on hospital records (for decision support in diagnosis and treatment), and learning on epidemiological data:

Data Mining in Epidemiological Studies:
We cooperate with the Institute of Community Medicine, University Medicine Greifswald, on the identification of risk factors and predictive factors for hepatic steatosis. In this cooperation, we study longitudinal data from the cohorts SHIP and SHIP-TREND (Study of Health in Pomerania). We develop methods for learning on high-dimensional, timestamped, multi-relational data. We address challenges of object dissimilarity, data skew and of missing information (due to changes in the recording protocol).
Within the Faculty of Computer Science, we work together with the Visualization Lab (Bernhard Preim) on medical mining and visual analytics for the analysis of the population studies' data of Univ Greifswald. Our joint emphasis is on building easily interpretable patterns.

Data Mining in Diabetology Research:
Together with the Diabetology clinic of the University of Magdeburg, we work on the analysis of plantar pressure and temperature patterns for patients with diabetic foot syndrome and we investigate the potential of intelligent wearables.

Cooperation with VisLab:
We cooperate with the Visualization Lab of the Faculty of Computer Science on the rupture status classification of intracranial aneurysms, using angiographic images. We develop methods for an automated rupture status assessment from feature extraction, to classification with subsequent feature ranking & inspection in order to identify the most important morphological and hemodynamic features.

Projekt im Forschungsportal ansehen

Medical Mining with Supervised and Semisupervised Methods
Laufzeit: 01.12.2013 bis 30.11.2019

Classification models are widely used in a plethora of different applications to automatically assign objects into one of several pre-defined categories. In the context of Medical Mining, objects can be patients or study participants and the target outcome may be a disease or disorder under study. Here, the objects are often represented by multi-dimensional feature vectors and classification models are induced by learning associations between features and the medical outcome from a set of objects where the outcome is known. However, in real-world medical domains the objects can be complex and change over time, being described by various differently scaled features and background data containing additional information. To produce quality classification models here, relevant dimensions w.r.t. the class variable must be identified by utilizing methods that cater to the requirements of such objects while considering available background knowledge.
In our work we use labeled data, constraints on object similarity and historical records of patients / study participants to identify relevant explicit and implicit dimensions relevant to medical outcomes. We argue that current methods are not adequate in all regards for this task, inducing the need for new approaches:
 
Evolving objects are observed multiple times during their evolution. Traditional algorithms that identify relevant dimensions by using labeled training data cannot be applied. We therefore extend classical feature selection methods to handle evolving objects.
 
Sole consideration of labeled data to find relevant dimensions is not always practical. Such data may not exist or only in small quantities and considering additional background information regarding the objects under study may improve findings. We therefore develop methods that use constraints on the similarity of objects to substitute the need for labeled training data and find object-group specific relevant dimensions.
 
The evolution of objects described by their multiple observations can implicitly contain dimensions relevant to the classification task at hand. Omitting this dimensions can severely impede resultant classification model quality. We therefore develop strategies to derive dimensions from an object's evolution and develop a method to detect and codify relevant evolution patterns.

Projekt im Forschungsportal ansehen

OSCAR: Ensemble-Methoden und Methoden des aktiven Lernens für die Klassifikation von Meinungsströmen
Laufzeit: 01.02.2017 bis 31.10.2019

With the rise of WEB 2.0, many people use social media to post opinions on almost any subject - events, products, topics. Opinion mining is used to draw conclusions on the attitude of people towards each subject; Such insights are essential for product design and advertisement, for event planning, political campaigns etc. As opinions accumulate, however, changes occur and invalidate the models from which these conclusions are drawn. Changes concern the general sentiment towards and subject to specific facets of this subject, as well as the words used to express sentiment. Subjects so change over time. In OSCAR, we seek to develop our opinion.
The first part of OSCAR is on streaming mining methods to deal with vocabulary changes. In text mining, the vocabulary words constitute the feature space. A change in the feature space means that the model has been updated. It is impractical to do such an update whenever a new word appears or a word gets out of use. In OSCAR, we rather want to accumulate information on the usage and sentiment of each word to highlight the long-term interplay between word polarity and document polarity. On this basis, we design methods that assess the importance of a word for model adaptation, update the vocabulary by using only words that remain important for some time, and adapt models gradually.
Second, we reduce the need for labeled documents. In stream classification, it is available at any time to label the arriving data instances. This assumption is in active learning, where only a few instances are chosen for labeling. Active learning methods assume a fixed feature space. In OSCAR, we want to develop active stream learning methods that learn and adapt polarity models to evolving feature space.
Third, we work on dealing with different types of change simultaneously. To this purpose, we use ensembles. We dedicate some ensemble members to the identification of topic trends, others to changes in the vocabulary and others to temporal changes, including periodical ones. We investigate ways of coordinating the ensemble members to ensure a smooth adaption of the final ensemble model at any time. The output of OSCAR will be a complete framework, encompassing active ensemble learning methods that deal with different forms of change and learn with limited expert involvement. The framework will also encompass coordinating components that weigh the contribution of individual models to the final one, and regulate the exchange of information between ensemble members and active learners.
We test OSCAR on real data, mainly from Twitter: we study how vocabulary changes and topics emerge and fade in streams of tweets for specific subject areas, and how they influence the learned model.

Projekt im Forschungsportal ansehen

Dynamic Recommender Systems
Laufzeit: 01.04.2013 bis 01.04.2018

***Deutsch***

Recommender Systems (Empfehlungsmaschinen) gewinnen in letzter Zeit an Popularität. Viele Unternehmen haben das Potential der Recommender Systems erkannt und setzten sie erfolgreich ein. Die markantesten Beispiele umfassen Amazon, Netflix, YouTube, etc. Das Ziel des Projektes ist es, Recommenders zu entwickeln, die in der Lage sind aus schnellen und dynamischen Strömungsdaten die Nutzerpräferenzen zu lernen und so maßgeschneiderte, persönliche Empfehlungen zu erstellen. Die Herausforderung ist dabei das sich ständig verändernde Umfeld und die Erfassung der kontinuierlichen Evolution der Nutzer und des Umfeldes.
Einige der erfolgreichsten Methoden zur Erstellung personalisierter Empfehlungen basieren auf der Matrix-Faktorisierung. Diese Methoden, die besonders durch die sogenannte Netflix Competition bekannt wurden, zeigen eine hohe Treffsicherheit auch bei geringen Datenmengen. Allerdings arbeiten diese Methoden meistens auf statischen Daten, was in vielen reellen Anwendungsszenarien ein Ausschlusskriterium ist. Eine Teilaufgabe in diesem Projekt ist es, die Matrix-Faktorisierungsmethoden auf inkrementelle Arbeitsweise umzustellen, so dass sie auch mit Datenströmen umgehen können. Die Herausforderungen bestehen in hohen Effizienzanforderungen und sich zur Laufzeit verändernden Dimensionen der Datenräume. Des Weiteren sind Nutzerpräferenzen nicht statisch, sondern sie verändern sich über die Zeit. Deswegen besteht eine weitere Herausforderung darin, Algorithmen adaptiv zu machen, sodass sie sich an Veränderungen anpassen können. Dazu werden sogenannte Vergessensstrategien entwickelt, die veraltete Information finden und aus Präferenzmodellen entfernen.

***English***

Recommender Systems gain popularity in recent days. Numerous companies recognized the potential of recommender systems and use them with success. The most remarkable examples are Amazon, Netflix, Youtube, etc. The goal of this project is the development of recommender systems that are able to learn user preferences from fast and dynamic data streams. The main challenges are constant changes of the environment and capturing of users' evolving preferences.
The most successful methods in recommender systems are based on matrix factorization. Those methods reveal high accuracy also on sparse data. However, the most of them work on static datasets, which makes them inapplicable in real world scenarios. One of the goals of the project is to make those methods incremental and adaptive to changes over time. To achieve adaptation to changes we develop, so called, forgetting strategies that select outdated information and remove it from preference models. Further challenges are high efficiency requirements and constantly changing data space.

Projekt im Forschungsportal ansehen

Medical Mining
Laufzeit: 01.01.2013 bis 01.01.2018

Medical Mining ist ein Forschungsgebiet, in dem Lernalgorithmen zur Unterstützung der Diagnose, Prävention und Therapie von Erkrankungen angewendet werden. Zu Medical Mining gehören u.a. Lernaufgaben zur Erkennung von Risikofaktoren und Schutzfaktoren, zur Identifizierung und Charakterisierung von Subpopulationen mit erhöhter Prävalenz einer Erkrankung oder Erfolgswahrscheinlichkeit einer Therapie.

Die Gruppe Knowledge Management & Discovery (KMD) befasst sich mit dem Monitoring und der Charakterisierung von Subpopulationen, die über die Zeit Änderungen bei der Prävalenz einer Erkrankung ausgesetzt sind. Zu den Herausforderungen gehört die Analyse von hochdimensionierten Räumen mit sehr wenigen Instanzen und die systematische Abwesenheit von Werten für manche Variablen zu manchen Zeitpunkten.
 
In Kooperation mit dem Institut für Community Medicine, Ernst-Moritz-Arndt Universität Greifswald, analysieren wir Daten zur Erkrankung Hepatis Steatosis und zu Schilddrüsenerkrankungen, und fokussieren auf die Entdeckung von Subpopulationen, die sich über die Zeit unterschiedlich (in Bezug auf die Erkrankung) entwickeln.
 
Im Rahmen der Kooperation "Data Mining and Stream Mining for Epidemiological Studies on the Human Brain" (StreaMED)" mit dem Zentrum für biomedizinische Technologie (CTB) der Universtiät Polytecnica de Madrid, arbeiten wir daran, Veränderungen der kognitiven Leistungsfähigkeit nach einer traumatischen Gehirnverletzung zu modellieren.
 
In unserer Kooperation mit der Visualisierungs-Arbeitsgruppe der FIN, arbeiten wir an Clustering-vor-Klassifikation zur Separierung zwischen gutartigen und bösartigen Brust-Tumoren auf DCE-MR Bildern. Der Fokus liegt hierbei auf der Identifikation von Eigenschaften welche eine Tumorregion beschreiben und zur Separierung beitragen.
 
In Kooperation mit der Diabetologie des Universitätsklinikums Magdeburg und mit ifak GmbH untersuchen wir das Druckverhalten von erkrankten Personen mit Diabetikerfuss. Ziel ist, Druckprofile für unterschiedliche Gruppen von erkrankten Personen abzuleiten, und erhöhten Druck an manchen Fussregionen mit Hilfe einer intelligenten Schuhsohle zu erkennen.

In Kooperation mit der Universität Ulm und dem Universitätsklinikum Regensburg untersuchen wir die Entwicklung von Tinnitus-PatientInnen und leiten Evolutionsmuster in Bezug auf diese chronische, noch unheilbare Krankheit. Ziel ist, PatientInnen in ihrem Alltag durch Hilfe- und Selbsthilfe-Maßnahmen zu unterstützen.

Projekt im Forschungsportal ansehen

Drift Mining
Laufzeit: 01.10.2011 bis 30.09.2016

Im klassischen Data Mining werden historische Daten untersucht, um Wissen über die Verteilung und Beziehung zwischen Variablen zu gewinnen.Eine als Concept Drift bekannte Herausforderung sind Veränderung in den Verteilungen und Beziehungen der Daten über die Zeit. Eine vielfach angewendete Strategie besteht in derwiederholten Anwendung von Mining Verfahren auf immer neueren Daten.Dieser Ansatz erfordert jedoch die Verfügbarkeit einer ausreichenden Anzahl von aktuellen Daten um ein Modell neu zu lernen oder zumindest anzupassen.
Speziell in einigen Anwendungsgebieten des überwachten Lernens, wenn Prognosen über Ereignisse in weiter Zukunft getroffen werden sollen, wie beispielsweisein der Kreditrisikoschätzung für Kredite mit langer Laufzeit, stehen jedochnur Daten zu den erklärenden Variablen zur Verfügung, nicht jedoch zu den abhängigen Variablen.
Ziel dieses Projektes ist es, diese fehlenden Daten durch Wissen über diegenaue Art von Veränderungen in den Verteilungen und Beziehungen der Variablenzu kompensieren. Hierfür werden Modelle über die Zusammenhänge von Verteilungsveränderungen (Drift)in den Variablen über die Zeit formuliert und an historischen Daten geprüft.Für dieses Drift Mining werden lediglich Daten benötigt, deren Veränderungsmuster dem aktueller Daten entsprechen,die Aktualität ihrer tatsächlichen Verteilung ist hingegen nicht kritisch.Somit können für diese Aufgabe historische Daten verwenden werden, welche für klassische Modelle,welche die Verteilung und Beziehung der Variablen direkt schätzen, nicht mehr verwendet werden können.Ein Nebenprodukt dieser Forschung ist die Entwicklung von Methoden zum besseren Verständnis von Veränderungen in den Verteilungen von Daten. 
Teilaufgaben im Rahmen des Projektes sind:A. Methoden zur Analyse von Drift auf einfachen und multiplen DatenströmenB. Adaptive Klassifikationsstrategien für den Umgang mit Verification Latency in sich verändernden DatenströmenC. Active Learning Strategien für sich verändernde Datenströme

Projekt im Forschungsportal ansehen

Probabilistic Active Learning
Laufzeit: 01.07.2015 bis 30.09.2016

In Zeiten des Big Data stehen Datenanalysten vor der Herausforderung die schnell wachsenden Datenmengen zu verarbeiten. In den meisten Fällen sind die aufgenommenen Daten nicht direkt verwertbar, da sie durch interessante Zielgrößen (Label) ergänzt werden müssen. Diese Annotation der Daten ist meistens sehr zeit- und kostenaufwendig, da Experten oder sehr rechenintensive Algorithmen benötigt werden.

Methoden des aktiven Lernen versuchen solche ungelabelten (ohne Zielattribut) Datensätze in möglichst effektiver Art und Weise annotieren zu lassen, sodass Klassifikationsalgorithmen anhand dieser Annotationen Modelle über die Struktur der Datensätze lernen können. In diesem Projekt werden neue, probabilistische Methoden entwickelt, um den Annotationsprozess zu optimieren und bewerten zu können. Im Fokus steht dabei die Formalisierung des Problems als Optimierungsaufgabe von verschiedenen Kosten, sodass ein automatisierter Prozess stattfinden kann.

Projekt im Forschungsportal ansehen

IMPRINT: Inkrementelles Data Mining für multi-relationale Objekte
Laufzeit: 15.06.2011 bis 31.12.2014

*** IMPRINT DEUTSCH ***

Data Mining Methoden für Datenströme basieren auf der Annahme, dass jede Dateninstanz nur einmal bearbeitet wird. Zum Beispiel liest ein Verfahren, das Netzangriffe- zu erkennen lernt, jede Dateninstanz nur einmal und passt das abgeleitete Modell neuen Arten von Angriffen an. Bei vielen Anwendungen sind die Daten jedoch nicht einfache Dateninstanzen, sondern komplexe, verschachtelte Objekte, deren Bestandteile Ströme von Dateninstanzen sind. Die Information zu einem Kunden besteht zum Beispiel aus Stammdaten, die sich im Laufe der Zeit ändern können, und aus Transaktionen wie Käufe, Retouren oder Produktrezensionen. Wenn ein Unternehmen eine Kundensegmentierung durchführen und diese Segmente aktuell halten will, benötigt es Lernverfahren, die die Modelle aus den Stammdaten und den Transaktionen ableiten und kontinuierlich aktualisieren.
Im Vorhaben IMPRINT unterscheiden wir zwischen permanenten Objekten, die selbst Dateninstanzen beinhalten, und den Dateninstanzen selber; letztere reichern in Form eines Datenstroms die permanenten Objekte über die Zeit an. Die Herausforderungen beim adaptiven Lernen auf permanenten Objekten umfassen die Analyse von Objekten, die durch das Hinzufügen von Dateninstanzen unterschiedlich schnell wachsen, den Vergleich von Objekten unterschiedlicher Größe und Alters- und den Bedarf nach effizienter Hauptspeicherverwaltung. Im Projekt IMPRINT werden wir adaptive Lernverfahren konzipieren, entwickeln und evaluieren, die diesen Anforderungen Genüge tun.
*** IMRPINT ENGLISCH ***
Conventional stream mining methods assume that each data instance is seen only once and is forgotten after being processed. Consider for example a classifier that distinguishes between normal network accesses and attacks. This classifier reads each data instance (access operation) once and must adapt to new types of attack. However, the data to be analyzed in many business applications are not simple instances, but complex, nested objects that contain streams of data instances. Customer data are such an example: they encompass some stationary information, as well as transactions like purchases, service requests, product reviews etc. To learn and maintain customer segments, a company needs learning methods that derive and adapt models upon the complex objects and the streams feeding them.
In IMPRINT we distinguish between perennial objects, which contain data instances, and the stream of data instances themselves. The challenges of mining perennial objects are manifold. They include learning upon objects that grow as new transactions arrive, the comparison of objects that differ in size and age, and their efficient maintenance. In IMPRINT, we will design, develop and evaluate adaptive learning methods that deal with the above challenges.

The published articles thus far are:

Zaigham Faraz Siddiqui, Eleftherios Tiakas, Panagiotis Symeonidis, Myra Spiliopoulou, and Yannis Manolopoulos. Learning Relational User Profiles and Recommending Items as Their Preferences Change. International Journal on Artificial Intelligence Tools, (24)02:31 pages, 2015.

Max Zimmermann and Eirini Ntoutsi and Myra Spiliopoulou. A Semi-supervised Self-Adaptive Classifier over Opinionated Streams, in 'Proceedings of the 2014 IEEE 14th International Conference on Data Mining Workshops (to appear 2014)' , IEEE Computer Society, Washington, DC, USA.

Zaigham Faraz Siddiqui, Eleftherios Tiakas, Panagiotis Symeonidis, Myra Spiliopoulou, and Yannis Manolopoulos. xStreams: Recommending Items to Users with Time-evolving Preferences. 4th International Conference on Web Intelligence, Mining and SemanticsWIMS 14, Thessaloniki, Greece., 2014.

Zaigham Faraz Siddiqui, Georg Krempl, Myra Spiliopoulou, Jose M. Pena, Nuria Paul, and Fernando Maestu. Are Some Brain Injury Patients Improving More Than Others?. The 2014 International Conference on Brain Informatics and Health BIH'14, Warsaw, Poland., 2014.

Max Zimmermann and Eirini Ntoutsi and Myra Spiliopoulou. Discovering and Monitoring Product Features and the Opinions on them with OPINSTREAM. In Neurocomput. , accepted 4/2014, to appear 2014 , 2014

T. Hielscher, M. Spiliopoulou, H. Völzke, and J.-P. Kühn. Using participant similarity for the classification of epidemiological data on hepatic steatosis. In Proc. of the 27th IEEE Int. Symposium on Computer-Based Medical Systems (CBMS 14), Mount Sinai, NY, 2014. IEEE.  
U. Niemann, H. Völzke, Kühn, and M. Spiliopoulou. Learning and inspecting classifica- tion rules from longitudinal epidemiological data to identify predictive features on hepatic steatosis. Journal of Expert Systems with Applications (ESWA), 2013. accepted 02/2014.

M. Zimmermann, E. Ntoutsi, and M. Spiliopoulou. Adaptive semi supervised opinion clas- sifier with forgetting mechanism. In Proc. of the 29th Annual ACM Symposium on Applied Computing (SAC 14). ACM, 2014.

M. Zimmermann, E. Ntoutsi, and M. Spiliopoulou. Extracting opinionated (sub)features from a stream of product reviews. In Proceedings of the 16th Int. Conf. on Discovery Science (DS 2013), volume 8140 of Lecture Notes in Computer Science, pages 340 355, Singapore, Oct. 2013. Springer.

S. Glaßer, U. Niemann, B. Preim, and M. Spiliopoulou. Can we Distinguish Between Benign and Malignant Breast Tumors in DCE-MRI by Studying a Tumor s Most Suspect Region Only? In Proc. of the 26th IEEE International Symposium on Computer-Based Medical Systems (CBMS 2013), Porto, Portugal, June 2013.

S. Glaßer; Niemann, Uli; Preim, Uta; Preim, Bernhard; Spiliopoulou, Myra. Classification of benign and malignant DCE-MRI breast tumors by analyzing the most suspect region
 
P. Matuszyk and M. Spiliopoulou. Framework for storing and processing relational entities in stream mining. In Proc. of the Pacific-Asia Conference on Knowledge Discovery and 16Data Mining (PAKDD 2013), Lecture Notes in Computer Science, pages 497 508, Gold Coast, Australia, April 2013. Springer Berlin Heidelberg.

Z. Siddiqui, M. Oliveira, J. Gama, and M. Spiliopoulou. Where are we going? predicting the evolution of individuals. In Proc. of the IDA 2012 Conference on Intelligent Data Analysis, volume LNCS 7619, pages 357 368, Helsinki, Finland, Oct. 2012. Springer.

J. Gama, M. Spiliopoulou, and G. Krempl. Advanced topics on data stream mining: Ii. min- ing multiple streams. Tutorial at the 23rd Europ. Conf. on Machine Learning and 16th Europ. Conf. on Principles and Practice of Knowledge Discovery in Databases (ECML PKDD 12), Sept. 2012.

M. Zimmermann, I. Ntoutsi, Z. Siddiqui, M. Spiliopoulou, and H.-P. Kriegel. Discovering global and local bursts in a stream of news. In Proc. of the SAC 2012 Symposium on Applied Computing, Trento, Italy, March 2012.

Master and bachelor theses and student projects within IMPRINT:

D. Kottke. Budget Optimization for Active Learning in Data Streams. Master thesis, University, Magdeburg 2014.

Y. Xu and M. Hewelt and F. Brög and M. Schlolaut and R. Pleshkanovska. Efficient Unsupervised Discovery of Word Categories. Softwareproject, University, Magdeburg 2014.

T. Böttcher and J. Krüger. Generating a Stream of Re-Appearing Entities and Summarizing Information on these. Bachelor thesis, University, Magdeburg, 2014.

U. Niemann. The Potential of Clustering for Subpopulation Discovery in Epidemiological Datasets. Maste thesis, University, Magdeburg, 2014.

T. Hielscher. Adaptives lernen eines domänenspezifischen lexikons für die Berechnung von Wortpolaritäten. Master thesis, University, Magdeburg, 2014.

A. Kusz. Sentiment-analyse von kundenbewertungen mithilfe von feature-extraktion und zusammenfassung der meinungen zu diesen features. Master thesis, University, Magdeburg, 2013.

U. Niemann and R. Pannicke. Feature-based visual sentiment analysis of text document streams. Teamproject, University, Magdeburg, 2013.

J. Düwel. Dynamische attributräume in der opinon stream klassifikation. Bachelor thesis, University, Magdeburg, 2013.

M. Filax, H. Rothe, J. Polifka, R. Zoun, and S. W. Hart. Job crawler. Teamproject, University, Magdeburg, 2013.

X. Sadovskaya, O. Shamin, and T. Zinke. Learning a domain specific polarity lexicon. Teamproject, University, Magdeburg, 2013.

T. Wu. Implementation of evolutionary model using a mixture of markov chains. Teamproject, Otto-von-Guericke-University Magdeburg, Faculty of Computer Science, Nov. 2013.

M. Tödten. Erkennung von Kombinationnen von Risikofaktoren für fettleber mit Data-Mining-Verfahren. Master thesis, University, Magdeburg, 2012

P. Matuszyk. Framework zur Speicherung und Bearbeitung relationaler Entitäten in einem Datenstrom. Masters thesis, Otto-von-Guericke University of Magdeburg, 2012.

S. Böhlert, A. Kusz, and F. Warschewske. Web crawling of amazon product reviews. Teamproject, University, Magdeburg, 2012.

U. Niemann. Erkennung von verschieden durchbluteten Tumorregionen anhand von dichtebasierten Clustering-Algorithmen in kontrastmittelverstärkten Perfusions-MRT-Aufnahmen der Brust. University, Magdeburg 2012.

M. Tödten. Clustering of Opinionated Documents. Individual-project, University, Magdeburg, 2012.

Projekt im Forschungsportal ansehen

Tracking people's perception of products over time with Opinion Stream Mining
Laufzeit: 01.10.2011 bis 15.06.2014

Durch die Entwicklung des WEB 2.0 hat der Internet-Nutzer zunehmend damit begonnen, sich selbst  
auszudrücken indem sie/er die Webseiten mit eigenem Inhalt füllt. Demzufolge ist die Menge, des vom
Internetnutzer geschriebenen Inhaltes, während der letzten Jahre exponentiell gestiegen.  
Indem der Internetnutzer nun sehen kann, was andere Nutzer über Produkte, Ereignisse oder auch Dienstleistungen denken,
ergibt sich eine neue Form des Entscheidungsprozesses, d.h. die Erfahrungen vieler Nutzer, beeinflussen den
Internetnutzer bei der Wahl einer Entscheidung.

Die Meinungen von Leuten über Produkte zu verstehen wird zu einer wesentlichen Informationsquelle
für den Kunden als auch für den Verkäufer. Dem Kunden dient dies, seinen Entscheidungsprozess zu verstärken. Während der
Verkäufer Informationen über den eventuellen Anpassungsbedarf eines Produktes erhält.
Ein potentieller Kunde könnte z.B. an einem Produkt interessiert sein, allerdings ist er nicht vollends überzeugt.
Die Wahrnehmung anderer Käufer dieses Produktes, könnte ihn in seiner Kaufentscheidung stärken: eine dominierende
positive Impression des Produktes durch andere Käufer, dürfte ihn zum Kauf des Produktes überzeugen, wobei ihn eine
anhaltende negative Wahrnehmung vom Kauf abhält.

Die Meinungen von Leuten über die Zeit zu betrachten ist darüber hinaus auch für die Verkäufer von Produkten wichtig.
Dadurch werden abgeleitet, (a) gezielte Informationen über die Meinungen von Käufern bzgl. Produkte, d.h. keine
persönlichen Informationen von einzelnen Käufern werden extrahiert und (b) ein Bewertungswert für Produkte welches
mit der Anzahl der Käufe akkumuliert werden kann und somit ein durchdachtes Beurteilungssystem bereit stellt.  
Das System hilft, die Einstellung der Käufer bzg. der Produkte zugänglich zu machen; was möglicherweise auch hilft, um
die Wahrnehmung von Kunden zu interpretieren und dementsprechend die Produkte anzupassen.

Projekt im Forschungsportal ansehen

Inkrementelles Multirelationales Lernen
Laufzeit: 01.07.2008 bis 31.03.2013

Unternehmen verwenden Data Mining Methoden, u.a. um das Kaufverhalten ihrer Kunden zu analysieren und daraus Kundenprofile und Zu/Abneigungen für Produkte abzuleiten. Primär werden sogenannte Transaktionsdaten analysiert, also die Käufe, die jeder Kunde tätigt. Für Data Mining ist das eine inzwischen klassische Aufgabe, die mit gängigen Methoden bewältigt werden kann. Die Information, die für die Ableitung von zuverlässigen Kundenprofilen benötigt ist, beschränkt sich jedoch nicht auf Transaktionsdaten. Die Eigenschaften der Produkte und der Produktkategorien sollen mit einbezogen werden, ebenso wie die demographischen Eigenschaften der Kunden. Die Berücksichtigung dieser Informationen, die in mehreren Tabellen (sogenannten Relationen) einer Datenbank vorliegen, führt zu einer komplexeren Aufgabenstellung im Gebiet des multirelationalen Lernens. Die Transaktionsdaten sind jedoch nicht statisch. Vielmehr formen sie einen Strom, der in die Datenbank eines Unternehmens einfliesst und nur temporär für Data Mining zur Verfügung steht. Es ist weder praktisch noch sinnvoll, alle derart akkummulierte Daten bei der Datenanalyse zu berücksichtigen. Unpraktisch ist dies wegen des unbegrenzten Speicherbedarfs und des erhöhten Analyseaufwands. Nicht sinnvoll ist dies, weil veraltete Daten, z.B. über nicht mehr angebotene Produkte, die Ergebnisse der Datenanalyse verzerren können. Zudem soll die Einführung von neuen Produkten und Marketing-Maßnahmen zur Anpassung der Modelle führen. Während gängige Methoden für die Analyse von Stromdaten einer Tabelle existieren, ist die Analyse von multirelationalen Datenströmen ein neues Forschungsgebiet. In diesem Projekt werden Methoden für die Analyse von multirelationalen Datenströmen konzipiert und entworfen, inklusive Methoden, welche die zu analysierenden Daten mit minimalen Informationsverlust bereitstellen.

Projekt im Forschungsportal ansehen

Recommendation Engines for the Web 2.0
Laufzeit: 01.01.2011 bis 31.12.2012

Ziel von diesem Kooperationsprojekt ist die Konzipierung von robusten Empfehlungsmaschinen für das Web 2.0. Die Kooperation dient dem Zusammenführen von Forschung zu zwei komplementeren Forschungssträhnen - (1) Empfehlungsmaschinen und (2) Data Mining auf multi-relationale Datenströme. Nutzerpräferenzen ändern sich mit der Zeit. Soziale Plattformen ändern sich ebenfalls durch neue Teilnehmer, durch die Eintragung von neuen Ressourcen, durch neue Meinungen und Tags zu existierenden Ressourcen. Modeladaption ist deshalb unabdingbar für die Bereitstellung von sinnvollen Empfehlungen. Die griechische Arbeitsgruppe (Aristotle Univ. Thessaloniki - AUTH) bringt zur Kooperation ihre Methoden für Empfehlungsmaschinen in online sozialen Netzen. Die Arbeitsgruppe KMD bringt ihre Data-Stream-Mining-Methoden für Texte und für multi-relationale Entitäten. In der Kooperation wird die Koppelung von adaptiven Lernmethoden auf multi-relationale Datenströme mit online Empfehlungsmaschinen untersucht.

Projekt im Forschungsportal ansehen

Data Mining auf medizinischen Protokolldaten
Laufzeit: 01.10.2010 bis 30.08.2012

Erruieren von Analysemöglichkeiten der Narkose und Intensivmedizinprotokolle mittels Data Mining Techniken.
Durch die Protokollpflichten in Krankenhäusern über die Operationsabläufe mittels Narkoseprotokollen entsetht im Krankenhaus eine große Sammlung dieser Protokolle.
Ziel der Studie ist es, heraus zufinden, in  wie weit sich diese Daten mittels Data Mining Techniken analysieren lassen und ökonomisch sinnvolle Aussagen dabei entstehen können.

Projekt im Forschungsportal ansehen

Data Mining Methoden zur Unterstuetzung der OP-Planung
Laufzeit: 01.01.2011 bis 30.08.2012

Krankenhäuser stehen heutzutage unter einem hohen ökonomischen Druck. Über 60% der Patienten eines Krankenhauses werden im OP-Bereich behandelt, deswegen ist dieser Bereich besonders ressourcenintensiv. Die Verbesserung der Planung in diesem Bereich kann für Krankenhäuser sowohl monetäre, als auch nicht-monetäre Vorteile bringen. Diese können sich unter Anderem aus der Reduzierung der Personal-Leerzeiten, oder aus der Vermeidung der ungeplanten Überstunden ergeben.
In der vorliegenden Arbeit verwenden wir Data-Mining-Methoden, um die Dauer einer zukünftigen Operation vorherzusagen. Dazu wurden anonymisierte Daten aus Narkoseprotokollen aus dem Universitätsklinikum in Magdeburg A. ö. R. verwendet. Die Vorhersage basiert auf Patientendaten wie z.B. auf dem Alter, Gewicht und der Erkrankung des Patienten und auf den Daten über das Krankenhauspersonal. Das entwickelte Modell ist zwar für ein bestimmtes Krankenhaus spezifisch, aber die allgemeine Vorgehensweise ist generisch und lässt sich somit auf andere Krankenhäuser übertragen. Unser Ansatz umfasst unter Anderem die Diskretisierung der Operationsdauer, die als das Zielattribut verwendet wird, und anschließend die Klassifikation der Operationsdaten unter Nutzung von mehreren Data-Mining-Algorithmen. Das beste Modell wird im Laufe einer Evaluierungsphase mit einer von uns entwickelten Methode gewählt. Um die Verwendung des Modells für die Nutzer aus dem Universitätsklinikum zu ermöglichen, wurde eine Software entwickelt, die das Modell implementiert.
Die auf diese Weise entwickelte Prognose der Operationsdauer kann die Operationsplanung in einem Krankenhaus wesentlich vereinfachen und verbessern. Dadurch lassen sich die Wartezeiten sowohl für Patienten, als auch für das Krankenhauspersonal verringern, woraus die Kostenersparnisse und die Erhöhung der Patientenzufriedenheit resultieren.

Projekt im Forschungsportal ansehen

Wissensentdeckung auf multidimensionalen Datenbeständen
Laufzeit: 01.07.2008 bis 30.06.2011

Unternehmen verwenden Data Mining Methoden, u.a. um das Kaufverhalten ihrer Kunden zu analysieren und daraus Kundenprofile und Zu/Abneigungen für Produkte abzuleiten. Für die Analyse der sogenannten Transaktionsdaten (Käufe) sind traditionelle Data Mining Verfahren ausreichend. Allerdings sollen für die Gewinnung einer tieferen Einsicht in das Kundenverhalten nicht nur die Käufe berücksichtigt werden, sondern auch Informationen zu der gesamten Beziehung zwischen Kunden und Unternehmen sowie zum Produktportfolio und zu den wechselseitigen Beziehungen zwischen Produkten. Für die Darstellung und Analyse solcher komplexen Daten ist die traditionelle Matrix-Repräsentation der Daten nicht mehr ausreichend. In den letzten Jahren werden Tensoren (das sind multidimensionale Matrizen) als vielversprechende Darstellung komplexer Daten untersucht. Data Mining auf Tensoren umfasst viele Herausforderungen. In diesem Vorhaben wird zum einen die Semantik von Modellen untersucht, welche mit Data Mining Verfahren auf Tensoren abgeleitet werden. Zum anderen wird das Verhalten von Tensoren über die Zeit untersucht, also auf dynamischen, komplexen Daten, die als Ströme vorliegen und nie vollständig für die Analyse gespeichert werden können.

Projekt im Forschungsportal ansehen

Pattern Evolution in Text Mining
Laufzeit: 01.03.2006 bis 14.02.2011

Die Wissensentdeckung aus Daten mit Hilfe von Data-Mining Verfahren hat in den letzten Jahren ein enormes Wachstum erfahren. Während Institutionen, insbesondere Unternehmen, aus den Daten Kundenprofile, Kundenpräferenzen und Markttendenzen ableiten, werden sie zunehmend vor die Frage gestellt, wie abgeleitete Muster anhand von neuen Beobachtungen angepasst werden sollen. Dieselbe Frage stellt sich für unternehmensinternes Wissen, das in Dokumenten, darunter Projekt- und Erfahrungsberichte, gespeichert wurde und die Kompetenzen des Unternehmens widerspiegelt. Ziel von diesem Projekt ist die Beobachtung von Änderungen in aus Daten und Texten abgeleiteten Mustern entlang der Zeitaxis, wobei der Schwerpunkt auf Muster als Clustering-Ergebnisse liegt und somit auf das Mutieren und das Absterben der einzelnen Clusters.

Projekt im Forschungsportal ansehen

KO-RFID: Effiziente Kollaboration in RFID-gestützten Logistiknetzen
Laufzeit: 01.10.2006 bis 30.09.2009

Die Technologie RFID (Radio Frequency Identification) ermöglicht das berührungslose Identifizieren von Objekten, Waren und Gütern mittels Funkwellen ohne Sichtkontakt. Der Einsatz von RFID beispielsweise entlang einer Lieferkette bringt neue Möglichkeiten: Neben dem Potential für das Erkennen und Vermeiden von Engpässen ergeben sich auch Chancen für unternehmensübergreifende Kooperationen. Voraussetzung einer solchen Kooperation ist das Vertrauen zwischen den Unternehmen und die Vertraulichkeit der unternehmensinternen Daten. Darüber hinaus ist eine gerechte Aufteilung von Kosten, Nutzen und Risiken auf die beteiligten Partner entscheidend.Die Arbeitsgruppe Knowledge Management & Discovery/Wissensmanagement und Wissensentdeckung der Fakultät für Informatik an der Otto-von-Guericke-Universität Magdeburg forscht unter der Leitung von Prof. Myra Spiliopoulou zu dieser herausfordernden Thematik. Die Arbeitsgruppe untersucht, welche Faktoren die Teilnahme an einer RFID-basierten Lieferkette beeinflussen und welche Data-Mining-Methoden notwendig sind, um durch eine gemeinsame Datenanalyse Engpässe und Planungspotential zu identifizieren, ohne zugleich vertrauliche, unternehmensinterne Daten preiszugeben. In den kommenden drei Jahren beschäftigen sich an der Fakultät für Informatik der Magdeburger Universität die drei neuen Mitarbeiter Florian Kähne, Stiefen Schilz und Nico Schlitter mit der Lösung dieser Aufgaben.Diese Arbeit ist Bestandteil des vom Bundesministerium für Wirtschaft und Technologie geförderten Verbundprojektes Ko-RFID im Rahmen des Programms next generation media. Im Ko-RFID-Projekt wird unter Leitung der GERRY WEBER International AG das Thema der effizienten Zusammenarbeit in RFID-gestützten Logistiknetzen untersucht und neue Konzepte und Vorgänge zum vertrauensbasierten ökonomischen Handel erarbeitet. Weiterhin sind die Automobil-Industrie durch die DaimlerChrysler AG und die Küchenherstellerbranche durch die Wellmann AG im Projekt vertreten. Die IT-Herausforderungen werden von SAP Research untersucht. Die Humboldt-Universität zu Berlin geht Fragen des Vertrauens bei der Kooperation nach, während sich die Technische Universität Berlin mit der Optimierung der Lieferketten durch ein RFID-basiertes Logistik-Event-Tracking-System befasst. Der Internetauftritt des Projekts Ko-RFID ist unter http://ko-rfid.hu-berlin.de/ zu erreichen.

Projekt im Forschungsportal ansehen

Wissensteilung in Organisationen durch Online Communities
Laufzeit: 01.01.2005 bis 31.05.2009

Das Management der Ressource Wissen erfährt eine zunehmende Bedeutung in Organisationen. Da Online Communities eine wertvolle Plattform für den Austausch von Wissen darstellen, ist deren Förderung von strategischer Bedeutung für Organisationen. Hierfür müssen zunächst geeignete organisationale als auch technologische Maßnahmen ermittelt werden, die den Austausch in Online Communities fördern. Um Organisationen in diesem Bestreben zu unterstützen, ist es notwendig, Werkzeuge zu entwickeln, die eine Beobachtung von Community-Entwicklungen ermöglichen und die Ursachen für wünschenswerte und unerwünschte Entwicklungen ermitteln können.Bisher beschränkte sich die Analyse der Gruppenstrukturen auf die Beobachtung der Interaktionen zu einem bestimmten Zeitpunkt. Die Interaktionen in einer Community ändern sich aber im Laufe der Zeit durch interne und externe Faktoren, so dass es aufschlussreicher ist, Communities als temporale Objekte zu betrachten und ihre zeitliche Entwicklung zu beobachten. Hierdurch sollen die Charakteristika der Umgebung ermittelt werden, die für eine positive Community-Entwicklung förderlich sind.Das Hauptziel des Forschungsvorhabens ist die Analyse der Veränderungen von Community-Strukturen um Gestaltungsrichtlinien für geeignete organisationale und technologische Infrastrukturen zu entwickeln. Durch diese soll eine Unterstützung von Communities zur Verbesserung der Wissensteilung erreicht werden.

Projekt im Forschungsportal ansehen

PARMENIDES "Ontology-driven temporal text mining on organisational data for extracting temporal valid knowledge"
Laufzeit: 01.08.2002 bis 30.04.2005

Parmenides wird durch das 5. Forschungsrahmenprogramm der EU/ Priorität 2 - Technologien für die Informationsgesellschaft gefördert. Gegenstand des Projekts ist (1) die semi-automatische Erstellung und Erweiterung domänenspezifischer Ontologien, (2) die Entdeckung und Extraktion von Ereignissen in Texten (3) die Überführung extrahierten Annotationen und Ereignisse in ein Data Warehouse und (4) die Entdeckung temporaler Ereignisse und Zusammenhänge. Von der Magdeburger Arbeitsgruppe werden hierzu vorwiegend (temporale) Text-Mining-Methoden sowie semi-automatische Ansätze für die Ontologie-Erweiterung untersucht.

Projekt im Forschungsportal ansehen

DIAsDEM-2 "Integration von Altlastdaten und semistrukturierten Dokumenten mit Data-Mining Verfahren"
Laufzeit: 01.02.2003 bis 15.11.2004

Der größte Anteil von Informationen einer Organisation liegt in textueller Form vor. Für die Gewinnung sinnvoller Einsichten aus diesen Texten ist es notwendig, deren Inhalte sowohl miteinander als auch mit Datenbankdaten zu verknüpfen und einen einheitlichen Anfragemodus über den Gesamtbestand zu schaffen.DIAsDEM-2 konzipiert eine Methodik, die Schemata über Textarchive ableitet, sie mit strukturierten Datensammlungen in einem Hyper-Archiv integriert und eine datenbankorientierte Anfragesprache zur Informationsgewinnung bereitstellt.Basierend auf den bisherige Ergebnissen des Forschungsprojekts DIAsDEM, das flache XML Dokumenttypdefinitionen für unstrukturierte Texte ableitet, werden Verfahren zur vollständigen Ableitung von Schemata über Textarchive untersucht. Die so strukturierten Textbestände werden mit Datensammlungen in einem Hyper-Archiv zusammengeführt, das alle Komponenten der Anwendungsobjekte (z.B. Projekte, Personen, Unternehmen) integriert.

Projekt im Forschungsportal ansehen

Letzte Änderung: 08.06.2023 - Ansprechpartner: Webmaster