top of page
Berlin XR Lab

Im Bereich der Virtuellen Realität (Virtual Reality, VR) und der Erweiterten Realität (Augmented Reality, AR), welche unter dem Oberbegriff Extended Reality (XR) zusammengefasst werden können, existieren im Berliner Raum vielfältige Infrastrukturen, die für herausragende wissenschaftliche Arbeiten genutzt werden. Diese umfassen sowohl Systeme zur Generierung von Extended Reality im visuellen, auditiven und haptischen Bereich, als auch Systeme zur Messung von Nutzer*innenzuständen, Ansätze zu Interaktionen mit solchen Realitäten, Tools zur Gestaltung von audiovisuellen Inhalten, sowie Verfahren zur standardisierten Evaluierung von XR. Bislang sind diese Ressourcen sowie die Expertise zu ihrer Nutzung auf viele Wissenschaftler*innen in verschiedenen Institutionen und Fakultäten verteilt.

​

Ziel des Berlin XR Lab ist es, existierende Ressourcen im Bereich der Extended Reality virtuell zu vernetzten und sie sichtbar und auffindbar zu machen.

 

Bedingt durch die Natur der Infrastruktur (Großgeräte und räumlich fest installierte Infrastrukturen kombiniert mit mobilem Rendering, Sensorik und Aktuatorik) erscheint ein virtuelles Labor geeignet, um dieses Ziel bestmöglich zu erreichen. Partner*innen des Berlin XR Lab sind zum einen Institutionen der Berlin University Alliance (BUA), zum anderen weitere wissenschaftliche Institutionen (Hochschulen, Max-Planck-Institute) im Berliner Raum. Das Berlin XR Lab ist somit eine geteilte Ressource der BUA und darüber hinaus, und wird von der BUA als „BUA-adopted Initiative“ anerkannt. Die am Berlin XR Lab beteiligten Wissenschaftler*innen bilden eine Community, die Aktivitäten zum wissenschaftlichen Austausch sowie zur Definition neuer Projekte auf allen Ebenen (Studentische Abschlussarbeiten, drittmittelgeförderte Projekte) initiiert.

BerlinXRLAB

RINGVORLESUNG

18.10.2022

How to Create XR User Experiences?

QUALITY AND USABILITY LAB - TECHNISCHE UNIVERSITÄT BERLIN

Prof. Dr.-Ing. Sebastian Möller, Tanja Kojic, Dr.-Ing. Stefan Hillmann

Ort: Campus Charlottenburg, Ernst-Reuter-Platz 7, 10587 Berlin (TEL 20. Stock, Auditorium)

Zeit: Dienstag, 18:00 - 20:00 Uhr

The Quality and Usability Lab of TU Berlin analyses human interaction with technology in order to design optimum user experiences. Whereas we focused on 3D audio presentation techniques in the past, most of our current work addresses implications of interactive visual XR technology. In particular, we are interested in analyzing influencing factors on UX in XR, social aspects, as well as methods for measuring UX. The tour will show our lab spaces on the 15th floor of the TEL building of TU Berlin, and will highlight current research work.

25.10.2022

Real Brains in Virtual Worlds.

BERLIN MOBILE BRAIN / BODY IMAGING LAB - TECHNISCHE UNIVERSITÄT BERLIN

Prof. Dr. Klaus Gramann

Ort: Campus Charlottenburg (Straße des 17. Juni 135, Hauptgebäude der TU Berlin, Raum H2053)

Zeit: Dienstag, 18:00 - 20:00 Uhr

The talk will provide an overview of the theoretical and practical basis of Mobile Brain/Body Imaging (MoBI) that uses mobile brain imaging modalities in combination with motion capture and other physiological recordings to investigate human brain activity in actively behaving participants. I will present experimental protocols using mobile multimodal data recordings combined with virtual reality to investigate the impact of movement on human brain activity. The results of a series of experiments reveal that the active behavior of human participants is fundamental for a better understanding of human brain function in real and virtual environents and showcases the importance of VR for designing new experimental protocols to investigate the human brain.

01.11.2022

Interdisciplinary XR Design Science Research.

REALITAETENLABOR - TECHNISCHE UNIVERSITÄT BERLIN

Jakob Korbel, Prof. Dr. Rüdiger Zarnekow

Ort: Campus Charlottenburg, Straße des 17. Juni 135, 10623 Berlin (Raum: H6126)

Zeit: Dienstag, 18:00 - 20:00 Uhr

The REALITAETENLABOR offers a space for interdisciplinary and application-oriented augmented (AR) and virtual reality (VR) developments with a focus on eBusiness applications as well as interdisciplinary projects in cooperation with institutions and researchers from diverse disciplines. In the talk, we will illustrate how interdisciplinary XR (AR+VR) research can be accomplished based on the Design Science Research (DSR) paradigm on the example of VR applications for virtual exposure therapies and virtual archaeological deposits. After the presentation, you have the opportunity to experience the applications in the REALITAETENLABOR on the sixth floor of the TU Berlin main building.

08.11.2022

Virtual Cycling Environment

TECHNISCHE UNIVERSITÄT BERLIN

Lukas Stratmann, Prof. Dr. Falko Dressler

Ort: Campus Charlottenburg, Einsteinufer 25, 10587 Berlin (Raum: HFT-TA 340)

Zeit: Dienstag, 18:00 - 20:00 Uhr

Assistance systems for bicycles based on vehicle-to-vehicle or vehicle-to-everything (V2X) communication have the potential to prevent accidents and increase the perceived safety when cycling. To develop and test such systems efficiently and in a safe environment, we use an interactive cycling simulator called Virtual Cycling Environment (VCE). We give an insight into V2X communication, how it could be used in a bicycle context, how our VCE works and what experience we have gained with the simulation environment.

WINTER

BREAK

Winter Break.

Merry Christmas

and a

Happy New Year

2023

Enjoy the holidays!

10.01.2023

 Immersive Technologies for Culture and Arts

 Future Realities Lab (HTW Berlin) & Im/material Theatre Spaces (digital.DTHG) 

digital.DTHG / HOCHSCHULE FÜR TECHNIK UND WIRTSCHAFT BERLIN

Franziska Ritter, Pablo Dornhege

Ort: Hochschule für Technik und Wirtschaft Berlin
Gebäude B, Halle 1
Wilhelminenhofstraße 75A, 12459 Berlin
https://goo.gl/maps/9DL8VQaxA7tSc5Df8

Zeit: Dienstag, 18:00 - 20:00 Uhr

Prof. Pablo Dornhege and Franziska Ritter present their research project "Im/material Theatre Spaces". Here, over the past 3 years, application-oriented research has been conducted into the potential of digital technologies such as virtual and augmented reality for the theater and event industry - whether as a tool for creative processes, as a knowledge space or as a place for new theatrical forms of performance. Around the topics of theater technology, architecture and stage space, we provide insights into prototypical showcases and present approaches for further research projects and cooperation opportunities. In addition, the newly founded Future Realities Lab at the Communication Design study program of HTW Berlin will be presented. In the future, topics related to virtual and hybrid-real cultural and knowledge spaces will be researched here.

17.01.2023

Virtual Humans for XR Applications.

FRAUNHOFER HEINRICH-HERTZ INSTITUT / HUMBOLDT UNIVERSITÄT ZU BERLIN

Prof. Dr. Peter Eisert

Ort: Fraunhofer Heinrich Hertz Institut (HHI), Salzufer 16, 4. Etage (Seminarraum 4-13)

Zeit: Dienstag, 18:00 - 20:00 Uhr

Die fotorealistische Modellierung und Darstellung von Menschen ist für Virtual Reality (VR)-Umgebungen äußerst wichtig, da der menschliche Körper und das Gesicht sehr komplex sind und eine große Formvariabilität aufweisen, vor allem aber auch, weil Menschen sehr empfindlich darauf reagieren, Menschen zu betrachten. Außerdem spielt in VR-Umgebungen die Interaktivität eine wichtige Rolle. Mit reinen Computergrafikmodellen lassen sich zwar sehr realistische Menschenmodelle erstellen, doch ist es extrem rechenintensiv, mit diesen Modellen echten Fotorealismus zu erreichen. Daher wurden in den letzten Jahren mehr und mehr hybride Methoden vorgeschlagen. In diesem Vortrag geht es um die Erstellung hochwertiger animierbarer volumetrischer Videoinhalte von menschlichen Darbietungen. Jüngste Fortschritte im Bereich des Lernens menschlicher Bewegungen und des Aussehens, neuronales Rendering und implizites Funktionsrendering (z. B. NeRF) ermöglichen die Erstellung realistischer Darstellungen virtueller Menschen. Wir kombinieren diese Ansätze mit klassischen Modellen, um eine vollständige Kontrolle über die Körper- und Gesichtsanimation zu erhalten. Es werden verschiedene Konzepte vorgestellt, die von animierbaren volumetrischen Videos bis hin zu rein datengesteuerten Darstellungen reichen und die realistische Animation von virtuellen Menschen für verschiedene Anwendungen zum Ziel haben.

24.01.2023

XR in Medicine.

CHARITÉ - UNIVERSITÄTSMEDIZIN BERLIN

Prof. Dr. Moritz Queisner, Prof. Dr. Igor Sauer

Ort: Exzellenzcluster Matters of Activity, Zentrallabor

Sophienstrasse 22a, 10178 Berlin, 2. Hinterhof, 2.OG

Zeit: Dienstag, 18:00 - 20:00 Uhr

Tragen Chirurg*innen bald Datenbrillen im Operationssaal? Wie verändern die neuen Raumtechnologien der extended reality (XR) die auf Schnitten basierende medizinische Bildgebung? Wie lassen sich medizinische Arbeitsprozess digital anleiten und trainieren? Die Digitalisierung der Medizin ist die zentrale Herausforderung des Gesundheitssystems im laufenden Jahrzehnt. Im Bereich digitaler Bildgebungtechnologien erforscht die Charité – Universitätsmedizin Berlin neue Möglichkeiten der Diagnose und Therapie und untersucht die damit verbundenen Herausforderungen in Bezug auf die Wahrnehmung, Interpretation und Gestaltung von Bildern. Anhand konkreter Fallbeispiele gibt der Vortrag einen Einblick in die aktuelle Forschung und diskutiert grundlegende Prinzipien von XR im Hinblick darauf, was Nutzer*innen und Entwickler*innen medizinischer XR-Anwendungen heute wissen müssen.

31.01.2023

Are you immersed?

IMMERSIVE REALITY LAB - HOCHSCHULE HAMM-LIPPSTADT

Prof. Dr. Jan-Niklas Voigt-Antons

Ort: Campus Charlottenburg, Ernst-Reuter-Platz 7, 2. Stock (Raum TEL 209)

Zeit: Dienstag, 18:00 - 19:00 Uhr

Which system features contribute to user immersion? Does the system user feel immersed? Considering these questions when evaluating and developing extended reality systems is crucial. This talk discusses how we can evaluate extended reality technologies, which are often wrongly put on the same level and measured the same way. The focus is to create and establish evaluation tools for each technology and for the specific variables to be measured. In the Immersive Reality Lab, we evaluate and develop immersive technologies. Examples include gaming, mobile applications for iOS and Android, and healthcare technology. Currently, two projects demonstrate the wide range of applications for immersive media at the Immersive Reality Lab. The DIDYMOS-XR project uses artificial intelligence to create digital twins that update in real-time. The project MIA-PROM aims to make questionnaires' automatic administration more engaging and trustworthy using 3-D characters.

31.01.2023

Light, Color & Extended Reality for Critically Ill Patients

TECHNOLOGY AND INNOVATION MANAGEMENT - TECHNISCHE UNIVERSITÄT BERLIN

Prof. Dr. med. Alawi Lütz (& Prof. Dr. Søren Salomo)

Ort: Campus Charlottenburg, Ernst-Reuter-Platz 7, 2. Stock (Raum TEL 209)

Zeit: Dienstag, 19:00 - 20:00 Uhr

Delirium is the most frequent syndrome of acute brain dysfunction among patients treated in the intensive care unit (ICU). Up to 80% of patients are affected. More importantly, one-third of these patients suffer from persistent cognitive disabilities, which is also a substantial economic healthcare issue. As pharmacological approaches have failed to show benefits for patient outcomes, non-pharmacological strategies have come into focus. Emerging evidence is reshaping critical care medicine from paralyzed sedated patients to awake, non-sedated patients. Within an interdisciplinary project funded by the Federal Ministry of Economics, our research group at Charité developed a new and highly customizable light ceiling that allows individualized circadian lighting and parameterized visuals to be deployed at the patient's bedside. Parts of it have recently become the status of a medical device. As the first preliminary results are auspicious, we are now extending the development of therapies and exploring options, including XR technology. Beyond offering insights into these applications and ongoing research, our presentation offers opportunities for other research areas to engage and explore the potential of such technology in clinical care. Currently, we are establishing a laboratory that allows for different experiments outside clinical practice. For more information on this project visit https://cociwg.org & https://www.tu.berlin/tim/forschung/projekte

07.02.2023

Human-Robot Interaction, VR Research and Haptic Interfaces

BERLIN UNIVERSITY OF APPLIED SCIENCES AND TECHNOLOGY

Prof. Dr. Ivo Boblan, Prof. Dr. Kristian Hildebrand, Prof. Dr. Katrin Wolf

Ort: Berliner Hochschule für Technik, Haus Bauwesen (Raum D317)

Luxemburger Str. 10, 13353 Berlin

Zeit: Dienstag, 18:00 - 20:00 Uhr

Das Human.VR.Lab erforscht die Schnittmenge von Mensch-Computer- und Mensch-Roboter-Interaktion durch verschiedene interdisziplinäre Themen. Dazu gehören die Untersuchung der gestenbasierten Interaktion mit humanoiden Robotern, die Bewegungsanalyse und Posenschätzung des Menschen, die Entwicklung von interaktionsbasierten Gehtechniken für virtuelle Umgebungen, die Untersuchung neuer haptischer Schnittstellen und die Zusammenarbeit mit der Charite bei innovativen virtuellen Therapieanwendungen. // The Human.VR.Lab explores the intersection of human-computer and human-robot interaction through various interdisciplinary topics. These include the study of gesture-based interaction with humanoid robots, human motion analysis and pose estimation, the development of interaction-based walking techniques for virtual environments, the examination of new haptic interfaces, and the collaboration with the Charite on innovative virtual therapy applications.

14.02.2023

Computational Design augmented by Virtual Reality.

FG AUDIOKOMMUNIKATION - TECHNISCHE UNIVERSITÄT BERLIN

Prof. Dr. Stefan Weinzierl

Ort: Berlin Open Lab - Mixed Reality Design Lab (Einsteinufer 43, ggf. beim Pförtner fragen)

Zeit: Dienstag, 18:00 - 20:00 Uhr

The Mixed Reality Design Lab of TU and UdK Berlin works on computer-aided design methods in the field of architecture, building physics, acoustics as well as in the field of art and design, and on the direct transfer of these designs into a sensory experience with techniques of virtual and augmented reality. The talk will give an insight into the computational framework that has been developed. Afterwards, some virtual environments from ongoing research projects will be shown.

Ringvorlesung
InstitutionPerson

INSTITUTIONEN UND PERSONEN DER BUA PARTNER

CHARITÉ - UNIVERSITÄTSMEDIZIN BERLIN

Berliner Simulations- und Trainingszentrum (BeST)

Image Guidance Lab (IGL)

Beteiligte Wissenschaftler*innen:

Prof. Dr. Thomas Picht | Dr. Torsten Schröder | PD Dr. Güliz Acker

XR Forschungsgebiete:

Interdisziplinäre Entwicklung von VR-Lehrvideos | Entwicklung neuer Darstellungskonzepte für multimodale Gehirnbildgebungen | Entwicklung AI und XR gestützter Lehrkonzepte.

Website:

BIH Brain Simulation Section

Beteiligte Wissenschaftler*innen:

Prof. Dr. Petra Ritter | ca. 40-köpfiges Team der Sektion Gehirnsimulation

XR Forschungsgebiete:

Komplexe Gehirnsimulationen und 3D Visualisierungen.

Website:

Experimentelle Chirurgie

XR-Lab

Beteiligte Wissenschaftler*innen:

Prof. Dr. Igor Sauer | Dr. Moritz Queisner | Christopher Remde | Christoph Rüger

Entwicklung und Evaluation von XR-Anwendungen für Training & Ausbildung, intraoperative Bildgebung, chirurgische Planung und 4D Simulation biomedizinischer Forschungsdaten.

XR Forschungsgebiete:

Website:

FREIE UNIVERSITÄT BERLIN

Institut für Publizistik- und Kommunikationswissenschaft

Prof. Dr. Margreth Lünenborg | Dr. Saskia Sell | Ana Makhashvili

Beteiligte Wissenschaftler*innen:

XR Forschungsgebiete:

Journalismusforschung | Emotions- und Affektforschung | Forschung zu immersiven Formen des Erzählens / Berichtens und deren Bedeutung für die Herstellung von Öffentlichkeit.

Website:

HUMBOLDT UNIVERSITÄT ZU BERLIN

FG Visual Computing und Fraunhofer HHI

Beteiligte Wissenschaftler*innen:

Prof. Dr. Peter Eisert | Anna Hilsmann | Wieland Morgenstern | Wolfgang Paier

Generierung und Visualisierung von AR und VR Inhalten | Erfassung, Modellierung & Rendering realistischer menschlicher Repräsentationen | interaktive & kollaborative virtuelle Umgebungen |  Registrierung virtueller & realer Szenenelemente | semantische 3D Erfassung von Szenen | Streaming von AR/VR Inhalten.

XR Forschungsgebiete:

Website:

TECHNISCHE UNIVERSITÄT BERLIN

FG Biopsychologie und Neuroergonomie

Berlin Mobile Brain / Body Imaging Lab

Prof. Dr. Klaus Gramann | Benjamin Paulisch | Marius Klug| Lukas Gehrke

Beteiligte Wissenschaftler*innen:

XR Forschungsgebiete:

Neuroergonomie | Embodied Cognitive Neuroscience | Real World Brain Imaging | Mobile Brain / Body Imaging | Spatial Cognition | Neuroarchitecture | Neurourbanism.

Website:

FG Industrielle Informationstechnik

Prof. Dr. Rainer Stark | Nedim Kovacevic

Beteiligte Wissenschaftler*innen:

XR Forschungsgebiete:

Einsatz von AR/VR-Technologien in der Industrie mit dem Ziel Produkte, Industrieprozesse und Arbeitsweisen von Ingenieuren/-innen zu verbessern.

Websites:

FG Informations- und Kommunikationsmanagement

REALITAETENLABOR

Prof. Dr. Rüdiger Zarnekow | Jakob J. Korbel | Marc Riar | Kooperationspartner*innen an FU und HU Berlin

Beteiligte Wissenschaftler*innen:

XR Forschungsgebiete:

Interdisziplinäre und anwendungsorientierte Forschung und Entwicklung zum Einsatz von XR Technologien im Bereich eBusiness, eHealth und eCulture | Virtuelle Güter, Assets, Märkte und Geschäftsmodelle.

Website:

Institut für Kunstgeschichte und digital.DTHG

Franziska Ritter | Pablo Dornhege

Beteiligte Wissenschaftler*innen:

AR und VR im Bereich Theater / Museum und Theaterarchitektur, Theatertechnik und Bühnenbild.

XR Forschungsgebiete:

Websites:

FG Lichttechnik

Beteiligte Wissenschaftler*innen:

Prof. Dr. Stephan Völker | Martine Knoop | Marina Leontopoulos | Silke Leontopoulos

Visualisierung und Wahrnehmung von Lichtszenen in Virtual Reality (insbesondere Tageslicht im Innen- und urbanen Raum sowie nächtliche Beleuchtung) | Untersuchung von Leuchtdichte-Adaptation mit VR-HMDS, Validierung der Lichtsimulation in Game Engines | Photometrische und colormetrische Kalibrierung von VR-HMDs

XR Forschungsgebiete:

Website:

​Lichttechnik

Institut für Mathematik
3D-Labor

Prof. Dr. Hartmut Schwandt | Milan Mehner | Ben Jastram | Joachim Weinhold | Samuel Jerichow

Beteiligte Wissenschaftler*innen:

Unterstützung der wissenschaftlichen Arbeit und Vermittlung für verschiedene Themenfelder, bisher insbesondere der Mathematischem Visualisierung und zukünftig für Anwendungen innerhalb der Projekte des Interdisziplinären Zentrums für Modellierung und Simulation sowie der Zentraleinrichtung 3D-Technologien.

XR Forschungsgebiete:

​3D Labor

Website:

FG Quality and Usability

Prof. Dr.-Ing. Sebastian Möller | Dr.-Ing. Stefan Hillmann | Tanja Kojic

Beteiligte Wissenschaftler*innen:

Qualität und Gebrauchstauglichkeit virtueller und erweiterter Umgebungen | Physiologische Messtechnik zur Bestimmung von Nutzer*innenzuständen sowie von Qualität und Nutzungserleben.

XR Forschungsgebiete:

Website:

FG Telecommunication Networks

Beteiligte Wissenschaftler*innen:

Prof. Dr. Falko Dressler | Lukas Stratmann

XR Forschungsgebiete:

Intelligente Transportsysteme | Vulnerable Road Users | Sicherheitssysteme für Radfahrer und Fußgänger; Fahrzeugkommunikation.

Website:

TECHNISCHE UNIVERSITÄT BERLIN / UNIVERSITÄT DER KÜNSTE

Berlin Open Lab / Mixed Reality Design Lab

Beteiligte Wissenschaftler*innen:

Prof. Dr.Stefan Weinzierl | Prof. Dr. Christoph Gengnagel | Prof. Dr. Christoph Nytsch-Geusen | Martine Knoop | Saqib Aziz

XR Forschungsgebiete:

Numerische Simulation bauphysikalischer Systeme (Akustik, Struktur, Energie, Licht) | Virtual Reality Displays für Schall, Licht, Wärme, Struktur | Augmented Reality zum Entwurf von Räumen.

Website:

WEITERE INSTITUTIONEN UND PERSONEN

BERLINER HOCHSCHULE FÜR TECHNIK

Human-VR-Lab

Beteiligte Wissenschaftler*innen:

XR Forschungsgebiete:

Prof. Dr. Kristian Hildebrand | Prod. Dr. Ivo Boblan | Thereza Schmelter | Arnold Schwarz | Manuel Weiß

Intelligente Interaktive Systeme | Bewegung und Navigation in virtuellen und erweiterten Umgebungen |  Virtuelle Therapien | Interaktion und Robotik.

Website:

HOCHSCHULE HAMM-LIPPSTADT

Immersive Reality Lab

Beteiligte Wissenschaftler*innen:

XR Forschungsgebiete:

Prof. Dr. Jan-Niklas Voigt-Antons

Entwicklung und Evaluierung von immersiven Medien | Fokusbereiche: Anwendungen im Bereiche Gaming und Medizin | Multimodale Messtechnik zur Bestimmung von Nutzer*innenzuständen.

Website:

HOCHSCHULE FÜR TECHNIK UND WIRTSCHAFT

FG Informations- und Kommunikationsanwendungen

Prof. Dr. Jürgen Sieck | Elisabeth Thielen | Maja Stark | Julien Letellier

Beteiligte Wissenschaftler*innen:

XR Forschungsgebiete:

Interdisziplinäre Entwicklung mobiler Anwendungen mit Fokus auf Extended Reality (AR, MR, VR) und Einsatz in Kunst und Kultur.

Website:

MAX-PLANCK-INSTITUT

MPI für Kognitions- und Neurowissenschaften Leipzig (Standort Berlin)

Beteiligte Wissenschaftler*innen:

Dr. Michael Gaebler | Felix Klotzsche | Antonin Fourcade

XR Forschungsgebiete:

Affektive und kognitive Neurowissenschaft | Messungen der Physiologie, des Verhaltens und des Empfindens in immersiver VR | Entwicklung und Testung klinischer VR Anwendungen | Kombination psychologischer und physiologischer Messmethoden mit immersiver VR

Website:

Förderung

FUNDING

Das Berlin XR Lab ist eine Initiative der Berlin University Alliance (BUA) und wird von dieser als „BUA-adopted Initiative“ anerkannt. Es erhält allerdings derzeit keine über die Grundressourcen der beteiligten Institutionen hinausgehende Förderung. Die BUA hat es sich zum Ziel gesetzt, durch geteilte Nutzung von Infrastrukturen den gemeinsamen Berliner Forschungsraum zu stärken, fachlich-wissenschaftliche Communities um gemeinsame Infrastrukturen zu bilden, und somit neue wissenschaftliche Projekte zu fördern.

BUA
bottom of page