<div dir="ltr">[ We apologize if you receive multiple copies of this Call For Papers.]<br><br>===================================================<br>The Fourth Workshop on Multiple Input Modalities and Sensations for VR/AR Interactions (MIMSVAI 2024)/ Call For Papers<br>October 5th or 6th, 2024 - Melbourne, Australia<br><a href="https://mimsvai.github.io/" target="_blank">https://mimsvai.github.io/</a><br>===================================================<br><br>Call For Papers: The Fourth Workshop on Multiple Input Modalities and Sensations for VR/AR Interactions (MIMSVAI) 2024, in conjunction with UbiComp/ISWC 2024<br><br>Workshop website: <a href="https://mimsvai.github.io/" target="_blank">https://mimsvai.github.io/</a><br>Facebook page: <a href="https://www.facebook.com/mimsvai" target="_blank">https://www.facebook.com/mimsvai</a><br>Twitter: <a href="https://twitter.com/mimsvai" target="_blank">https://twitter.com/mimsvai</a><br><br># Description<br>A surge in the popularity of VR/AR technology has given rise to a plethora of applications to captivate new users; however, further advances in VR/AR realism will require the integration of novel input modalities and multiple realistic sensations. This workshop will provide a platform to facilitate collaborations among researchers in UbiComp and VR/AR fields in exploring novel approaches to making this vision a reality.<br><br>#Submission Guidelines<br><br>Please submit your paper electronically through the Online Submission System (PCS): <a href="https://new.precisionconference.com/" target="_blank">https://new.precisionconference.com/</a> . All papers need to be anonymized. Please submit papers with a maximum length of 5 pages (4-page + 1 references) in ACM sigconf template with 2 columns. ACM Template can be found here: <a href="https://www.acm.org/publications/proceedings-template" target="_blank">https://www.acm.org/publications/proceedings-template</a>. Please contact us (<a href="mailto:ubicomp.mimsvai@gmail.com" target="_blank">ubicomp.mimsvai@gmail.com</a>) if you have any problems when preparing your submissions.<br><br>At least one author of each accepted paper needs to register for the conference and the workshop itself. During the workshop, each paper will be presented briefly by one of the authors. The accepted papers will be published in the UbiComp/ISWC Adjunct Proceedings, which will be included in the ACM Digital Library as part of the UbiComp conference supplemental proceedings.<br><br># Best Paper Award<br>The Best Paper Award is given to the best paper presented at the MIMSVAI 2024 workshop, to acknowledge and encourage excellence in research. The awardee will be presented with a certificate at the workshop.<br><br># List of Topics<br>Papers may include some of the topics, but are not limited to:<br>- 2D/3D and volumetric display and projection technology<br>- Immersive analytics and visualization<br>- Modeling and simulation<br>- Multimodal capturing and reconstruction<br>- Scene description and management issues<br>- Storytelling<br>- Tracking and sensing<br>- Audio interfaces, sound rendering, spatialized audio, auditory perception and psychoacoustics<br>- Embodied agents, virtual humans and (self-) avatars<br>- Haptic and tactile interfaces, wearable haptics, passive haptics, pseudo haptics, other touch-based UI<br>- Mediated and diminished reality<br>- Multimodal input and output<br>- Multisensory rendering, registration, and synchronization<br>- Perception and cognition<br>- Presence, body ownership, and agency<br>- Teleoperation and telepresence<br>- 3D user interaction<br>- 3D UI metaphors<br>- Collaborative interactions<br>- Ethical issues<br>- Human factors and ergonomics<br>- Input devices<br>- Locomotion and navigation<br>- Multimodal/cross-modal interaction and perception<br>- Non-fatiguing 3D UIs<br>- Non-visual interfaces (such as olfactory)<br>- Touch, tangible and gesture interfaces<br>- Usage research, evaluation methods and empirical studies<br>- Domain-specific VR/AR/MR/XR applications.<br>- Design process, platform/tools, or libraries used to incorporate input modalities or sensations for VR/AR interactions or studying their use<div>- The use of AI and Large Language Models in VR/AR/MR/XR applications<br><br># Important Dates<br>- Paper submission: June 7 (AoE), 2024<br>- Paper notification: June 28 (AoE), 2024<br>- Camera-ready: July 26 (AoE), 2024<br>- Workshop: October 5th/6th (TBD), 2024<br><br># Organizing Committee<br>- Chuang-Wen You, National Tsing Hua University<br>- Yi-Chao Chen, Shanghai Jiao Tong University<br>- Liwei Chan, National Yang Ming Chiao Tung University<br>- Min-Chun Hu, National Tsing Hua University<div>- Wei Sun, Samsung Research America</div><div>- Tse-Yu Pan, National Taiwan University of Science and Technology<br>- Pan Hao, Microsoft Research Asia<br>- Yongzhao Zhang, University of Electronic Science and Technology of China<br><br># Contact<br>All questions about submissions should be emailed to <<a href="mailto:ubicomp.mimsvai@gmail.com" target="_blank">ubicomp.mimsvai@gmail.com</a>><br></div><div><br></div></div></div>