Forschungsfelder mit Zukunft

Eigene Forschung ist ein wesentliches Standbein unseres Erfolgs. Sie steht in besonderem Maße für die Qualität der Lehre an der Wilhelm Büchner Graduate School. Denn für ein inhaltliches Top-Niveau müssen wir unserem Selbstverständnis nach an der wissenschaftlichen Entwicklung aktiv beteiligt sein. Unseren Studierenden eröffnen wir so neueste Innovationen und wissenschaftliche Ergebnisse.

Bildung und Wissensmanagement

Im Fokus stehen die Inhaltselemente moderner Studienmodelle und deren Evaluation sowie die Untersuchung des Einsatzes neuer medialer Vermittlungsformen und didaktischer Szenarien: z B. duale Formen des Studiums und virtuelle Lernumgebungen. Ein weiteres Forschungsfeld: Die didaktische Einbindung der Elemente des Web 2.0 und von Social Software in virtuelle Lehr-/Lernprozesse.

Innovations- und Technologiemanagement

In der angewandten Forschung arbeiten wir schwerpunktmäßig an didaktischen Konzepten im Kontext von Innovationsprozessen und technischen Neuerungen: kooperatives Innovationsmanagement, Innovationsnetzwerke sowie Produktentwicklung, Produktlebenszyklus, Prozessoptimierung und Qualitätsmanagement.

Erneuerbare Energien

Wir begleiten die Entwicklung in diesem Bereich durch die Einrichtung von neuen Studiengängen im Kontext Energietechnik und -management. Die bisherigen Erfahrungen durch Abschlussarbeiten werden stetig ausgebaut – unter anderem in Kooperation mit dem Industriepartner IBM im Zusammenhang mit Forschungsprojekten zur Effizienzsteigerung von Photovoltaikmodulen.

Angewandte Informatik und Smart Grids

Intelligente Energienetze, sogenannte Smart Grids, bilden die Grundlage für eine umweltfreundliche Energieversorgung. Zur Ermöglichung einer effizienten Nutzung regenerativer und traditioneller Energiequellen sind intelligente Softwarelösungen notwendig. Zusammen mit Prof. Dr.-Ing. habil. Bernd Steinbach von der TU Bergakademie Freiberg führen wir hierzu eine Forschungsarbeit durch. Diese und weitere Themen der angewandten Informatik sind domänenübergreifende Forschungsschwerpunkte.

Die Wissensdatenbank.

Hier werden interne Forschungsarbeiten sowie Projekt-, Abschluss- und Doktorarbeiten erfasst und Ihnen für Ihre wissenschaftliche Arbeit zur Verfügung gestellt.

Hier haben wir Ihnen eine Auswahl der Arbeiten zusammengestellt.

Fachbereich Informatik

Forschungsbereich: Angewandte Informatik/Prozessinformatik

Konzeption und Umsetzung eines softwarebasierenden Mess- und Analysesystems für die Echtzeitbetrachtung eines Embedded Systems

Diese Arbeit befasst sich mit der Konzeption und Umsetzung eines Mess- und Analysesystems, welches die Echtzeitbetrachtung eines Embedded Systems ermöglicht. Ziel ist die Entwicklung eines Prototyps der einen detaillierten Einblick in das Laufzeitverhalten der Antriebssysteme eines Unternehmens ermöglicht. Auf Basis der gewonnenen Informationen soll zukünftig die Optimierung der auf dem Antrieb eingesetzten Software erfolgen.

Konzeption einer Smartphone-Applikation mit Server-Backend zu besseren Erkennung von versteckten Ingredienzien in Lebensmitteln

Diese Arbeit beschäftigt sich mit der Konzeption einer Smartphone Anwendung auf Basis der Android Plattform. Die Anwendung soll die Ingredienzien eines Lebensmittelprodukts im Supermarkt erkennen und vor unerwünschten Zutaten warnen. Mit Hilfe eines Fotos der Zutatenliste und dem Barcode des Produkts werden die Daten mittels eines Abgleichs mit einer Referenzdatenbank geprüft. Im Rahmen eines klar strukturierten Software-Engineering-Prozesses werden Technologien wie z.B. Texterkennung (OCR), Webservices (REST, SOAP) und Barcode-Scanning eingesetzt.

Applikationsvirtualisierung als Ergänzung oder Alternative bestehender automatisierter Softwareverteilungs- und -installationsverfahren

Sicherheitslücken und neue Produktfunktionen stellen die Hauptgründe für eine kontinuierliche Aktualisierung von Applikationen dar. Das Konzept der Applikationsvirtualisierung verspricht die daraus entstehenden Aufwände zu minimieren. Da die Technologie virtualisierter Applikationen jedoch eines der neueren Virtualisierungsverfahren darstellt, liegen aktuell noch keine exakten Aussagen darüber vor, welche Anwendungsbereiche für den Einsatz von Applikationsvirtualisierung geeignet sind. Zunächst werden durch einen Vergleich der Applikationsvirtualisierung und Softwareverteilung die allgemeinen Stärken und Schwächen der jeweiligen Technologie analysiert und dargestellt. Basierend auf diesen Erkenntnissen werden die Einsatzgebiete abgeleitet. Der Vergleich der beiden Bereitstellungsverfahren aus der Prozess- und Kostenperspektive sowie unter sicherheitstechnischen Aspekten, verdeutlicht die Vorteile der Applikationsvirtualisierung.

Entwicklung eines Vorgehensmodells zur Einführung von Scrum in Großunternehmen

Scrum („Gedränge“) ist ein Framework, das derzeit vor allem in der Entwicklung von Software angewendet wird. Aktuell existiert kein integratives Vorgehensmodell, welches eine Einführung von Scrum in Großunternehmen beschreibt und zeitgleich einen organisatorischen Wandel angemessen berücksichtigt, so dass hier Nachholbedarf besteht. Auf Basis des Änderungsmanagement-Modells „Eight-Stage Process“ von John P. Kotter und des „Enterprise Transition Process“ von Ken Schwaber wird ein integratives Vorgehensmodell entworfen, um das Risiko eines Scheiterns zu minimieren. Dazu werden die zu durchlaufenden Schritte sowie die möglichen Handlungsalternativen für Großunternehmen im Detail aufgezeigt. Darüber hinaus wird beschrieben, wie mit Widerständen konstruktiv umgegangen werden kann.

Standardisierung durch modellgetriebene Softwareentwicklung am Beispiel einer domänenspezifischen Sprache (DSL) zur Realisierung einer JEE Referenzarchitektur

Bei der modellgetriebenen Softwareentwicklung (MDSD) erfolgt die Transformation von zuvor spezifizierten textuellen oder graphischen Modellen in ausführbare Software. Ziel dieser Arbeit ist die Veranschaulichung der Vorgehensweise bei der Erstellung einer konkreten technischen DSL für die modellhafte Abbildung einer JEE Referenzarchitektur. Neben den praktischen Inhalten werden die theoretischen Konzepte der MDSD erläutert und veranschaulicht. Zum Abschluss erfolgen eine kritische Betrachtung der MDSD und ihrer Anwendbarkeit in der Praxis sowie eine Gegenüberstellung von Vor- und Nachteilen.

Entwicklung eines Java-basierten Zoom-Werkzeugs für Web-Anwendungen im Bereich Kunsthandel und Museen

Zoom-Viewing ist an das Angebot visueller Inhalte gebunden; diese spielen sowohl bei Applikationen als auch im WWW eine immer größere Rolle. Für den Bereich Kunsthandel und Museen ist die Bedeutung visueller Inhalte ein entscheidender Teil der Marketing-Strategie und daneben von fachlicher Bedeutung (Objektschutz, Informationsgewinn). Im Rahmen dieser Arbeit wurde eine Software entwickelt, die die von im Web verfügbaren Zoom-Werkzeugen vereinigt, aber als Java-basierte Software browserunabhängig sowohl lokal als auch im Netzwerk eingesetzt werden kann. Durch die ausführliche Dokumentation und die Technologie der objektorientierten Programmierung eignet sich die Software für Modifikation und Weiterentwicklung.

Objekterkennung in digitalen Bildern

Ziel der vorliegenden Arbeit war es, eine Objekterkennung auf Basis von Konturen von Objekten mit Hilfe der allgemeinen Hough-Transformation zu realisieren. Die Umsetzung erfolgte mit Eclipse in Java als Plugin für das Bildbearbeitungsprogramm ImageJ. Das Resultat ist ein ImageJ-Plugin, das eine voll funktionsfähige, rotations- und skalierungsinvariante sowie parallelisierte Objekterkennung für beliebige Konturen beherrscht. Eine Verwendung in der industriellen Bildverarbeitung bzw. Objekterkennung ist auch denkbar, da die Objekterkennung sehr robust und flexibel einstellbar ist. Ein weiterer Vorteil in einem solchen Szenario ist die Präzision der realisierten Lösung und die Erkennung mehrerer Objekte in einem Bild.

Forschungsbereich: Bildung und Wissensmanagement

Fallstudie über die Entwicklung einer DSL zur dynamischen Informationsfusion innerhalb eines existierenden integrierten Marktdateninformationssystems

Die Arbeit beschreibt die Entwicklung einer domänenspezifischen Sprache (DSL) zur dynamischen Informationsfusion innerhalb eines integrierten Marktdateninformationssystems, zur Kapselung von Know-how, z. B. in Form von Best-Practices und zur Reduzierung des Codeumfangs des betroffenen Systemsbereiches. Nachdem die Grundlagen zu den Themen Integriertes Informationssystem, Informationsfusion und domänenspezifischen Sprachen gelegt wurden, wird die Entwicklung der DSL anhand eines an die Bedürfnisse der DSL-Entwicklung angepassten Phasen-Modells durchgeführt. Die erfolgreiche Umsetzung der Anforderungen wird anhand von Beispielen erläutert. Die Reduzierung des Codeumfangs wird durch Vorher-Nachher-Vergleich des entsprechenden Quellcodes bewiesen.

Konzeptionierung und Implementierung einer Visualisierungslösung von Geolocation-Daten unter Verwendung der Google Maps Internet-API

Anwender von Webseiten haben hohe Ansprüche in Bezug auf Usabilty und Integration der ihnen vertrauten Dienste wie Google, Facebook und Twitter. Darunter sind auch Onlinekartendienste, die es ermöglichen, Daten grafisch zu visualisieren. Sie liefern insbesondere in Form von Mash-ups durch Kombination mit Informationen aus anderen Quellen einen erheblichen Mehrwert. Für Social Networks sind solche interaktiven Features notwendig um eine attraktive Plattform zu schaffen. Diese Arbeit widmet sich der Implementierung eines solchen Mash-up aus Geolokationsdaten und der API des Internetkartendienstes Google Maps. Das Ergebnis ist eine funktionsfähige auf ein Unternehmen spezifisch zugeschnittene Kartenlösung, welche die Vorteile der Verwendung von APIs verdeutlicht.

KPI-Validierung eines Customer-Experience-Management-Systems (CEM) durch die Simulation der Kommunikation von Mobilfunk-Netzschnittstellen

Customer-Experience-Management-Systeme ermöglichen Telekommunikationsanbietern, das subjektive Erlebnis ihrer Kunden bei der Nutzung der von ihnen angebotenen Dienste, nachvollziehbar zu machen. Aus diesem Grund befinden sich CEM-Systeme stark auf dem Vormarsch. Die Datenqualität und -quantität spielt bei solchen Systemen eine entscheidende Rolle. Für die Erhebung der CEM-Daten sind eine Vielzahl von Komponenten von der Probe bis zum Reporting involviert. Hier werden viele Fehler vermutet, die den Nutzen des CEM-Systems stark einschränken. Die vorliegende Arbeit beschäftigt sich daher mit den Möglichkeiten, die Daten eines CEM-Systems durch die Simulation einer Mobilfunkschnittstelle auf Key Performance Indicator (KPI)-Ebene zu validieren. Mit dem entwickelten Testgenerator für die Gn-Schnittstelle konnte die Überprüfung der an der Datenerhebung beteiligten Komponenten erreicht werden. Alle paketvermittelten Dienste in einem Mobilfunknetz passieren diese Schnittstelle zu ihrem Ziel. Im Zuge der Datenvalidierung wurden mehrere Fehler entdeckt und deren Ursachen eingegrenzt. Durch den Einsatz des Gn-Simulators wurde so eine signifikante Verbesserung der Datenqualität des CEM-Systems erreicht.

Semantic Web am Beispiel eines Forschungsportals

In dieser Arbeit wird ein Forschungsportal unter Benutzung von Techniken des Semantic Web erstellt. Hierzu wird eine vollautomatische Erstellung von XML-basierten Ontologien und Wissensbasen durch Extraktion der benötigten Informationen aus PDF-Dateien entwickelt. Diese generierten Sätze werden mit Hilfe eines Part-of-Speech-Traggers in ihre Bestandteile zerlegt und in eine beliebig parametrierbare Ontologie eingepflegt. Die semantische Suche innerhalb der Wissensbasen erfolgt mittels einer auf Java Beans basierenden Webseite und der Datenbankabfragesprache SPARQL.

Beratung online – Einsatz neuer Medien im Bereich soziale Arbeit

Die neuen Medien üben einerseits eine große Faszination aus, andererseits erfahren sie Skepsis und Ablehnung. Viele scheinen die technischen Neuerungen der Kommunikation wie selbstverständlich und meist unkritisch zu nutzen. Mit einer empirischen Untersuchung wird der Frage nachgegangen, ob Beratungsangebote durch ihre ständig erreichbaren Onlinedienste zu zukünftigen Formen der sozialen Unterstützung werden. Mit dieser Arbeit wird die allgemeine Kommunikationskultur in Unternehmen und Gesellschaft kritisch hinterfragt.

Benchmarking im Bereich des Risikomanagements von Projekten

In dieser Arbeit wurde der operative Einsatz von Risikomanagementmethoden in Abhängigkeit von der Größe und Komplexität der durchgeführten Projekte empirisch untersucht. Die Erfahrung und das Scheitern großer Projekte in jüngster Zeit zeigen, dass das Risikomanagement nicht in jedem Fall mit der notwendigen Nachhaltigkeit umgesetzt wird. Aus der Untersuchung werden grundsätzliche Empfehlungen für die Etablierung des Risikomanagements in Projekten entwickelt.

Fachbereich Wirtschaftsingenieurwesen, Technologiemanagement

Forschungsbereich: Wissensmanagement und Bildung

Semantic Web und Wissensmanagement – Konzeption, Architektur und Implementierung einer semantischen webbasierten Wiki-Software in einem IT- und Telekommunikations-unternehmen

Die Arbeit thematisiert die Bedeutung der Ressource Wissen als Wettbewerbsfaktor. Dazu werden aktuelle Trends der Wissensgesellschaft und der damit verbundenen technologischen Entwicklungen des Semantic Web (Web 3.0) erläutert. Die Wissensanalyse erfolgt dann anhand einer Geschäftsprozessbetrachtung, der eine Systemauswahl, implementierung und -bewertung folgen.

Serviceorientierte Architektur (SOA) und Wissensmanagement

Wissensmanagement und E-Learning wachsen immer mehr zusammen. Im Wissensmanagement ist dabei ein vermehrter Einsatz semantischer Technologien zu beobachten. Die Arbeit greift diesen Aspekt auf und spezialisiert ihn für den Einsatz semantischer Technologien in Lernsystemen.

Social Semantic Learning Desktop – Referenzmodell für ein virtuelles semantisches Learning Framework auf Desktop-Basis

Durch die Entwicklung im Bereich Semantic Web und Social Software ergeben sich neue Fragen im Hinblick auf einen Einsatz diesbezüglicher Anwendungssysteme in der institutionalisierten Lehre. Ergebnis dieser Arbeit ist eine Referenzarchitektur eines Social Semantic Learning Desktop (SSLD). Mit drei typischen Anwendungsszenarien erfolgt außerdem eine Validierung des Modells und der Nachweis einer Nutzbarkeit über die Auswertung einer Ergebnismatrix.

Semantic Web und virtuelle Lernumgebungen

Ausgehend von einem Meta-Modell des Wissensmanagements in virtuellen Lernum-gebungen beschreibt die Arbeit ein Konzept für den Einsatz von semantischen Technologien in der virtuellen Lehre mit einer Erläuterung und Diskussion der für die Realisierung erforderlichen Konzept- und Architekturelemente.

Fachbereich Maschinenbau, Mechatronik, Elektro- und Informationstechnik

Forschungsbereich: Smart Grids

Tendenzen der Vernetzung im Heimbereich

Die Arbeit untersucht Perspektiven der Vernetzung im häuslichen Umfeld, stellt aktuelle Lösungen vor und leitet Empfehlungen für die Installation von Heimnetzwerken ab. Die Ergebnisse können u. a. als Basis zur Konzeption energieeffizienter „smarter“ Häuser im Sinne des notwendigen Datenverkehrs genutzt werden.

Die Entwicklungsmöglichkeiten virtueller Kraftwerke am deutschen Energiemarkt

Die Arbeit untersucht Potenziale, Chancen und Risiken virtueller Kraftwerke in Deutschland. Ausgehend von einer Situationsanalyse des Energiemarkts werden Umsetzungsvarianten und deren Elemente diskutiert.

Konzept zur zukünftigen Nutzung der Medienverbrauchsdaten im Forschungszentrum Jülich für einen energieeffizienten Campus

In dieser Arbeit werden Möglichkeiten zur Nutzung von Verbrauchsdaten für Medien – wie z. B. Wasser, Strom und Wärme – zur Realisierung eines energieeffizienten Campus aufgezeigt. Unter anderem wird eine Methodenentwicklung zur energetischen Gebäude- und Ausstattungsbewertung beschrieben.

Verteilte Software zur Homogenisierung regenerativer Energiequellen

Der Anteil von alternativen Formen der Energieerzeugung steigt innerhalb Deutschlands ständig. Photovoltaik, Windenergie und andere Techniken können aber die momentan in Deutschland existierende Kraftwerkslandschaft nicht ohne weiteres ersetzen, denn die Charakteristik ihrer Leistungserzeugung ist inhomogen. In dieser Arbeit wird zur Homogenisierung regenerativer Energiequellen die Entwicklung der notwendigen verteilten Steuerungssoftware betrachtet, welche die Logik zur flexiblen Anpassung des Netzes an Lastgang und Energieerzeugungssituation enthält. Das hier geplante Modell ist idealerweise derart flexibel, dass auch mobile Knoten mit eingebracht werden können.

Erneuerbare Energien

Recherche, Gegenüberstellung und Vergleich der verschiedenen Technologien von Hybrid- und Elektrofahrzeugen

Elektromobilität gepaart mit regenerativer Energieerzeugung verspricht deutliche Einsparungen an CO2-Emissionen und hohe Energieeffizienz. Die Arbeit beleuchtet Elektro- und Hybridantriebe vor technologischem, ökonomischem und ökologischem Hintergrund.

nach oben