“运动—声音—视觉”一体化:基于Max/MSP的智能交互表演系统构建
Keywords:
人工智能;人机交互;可穿戴传感器Abstract
在人工智能技术与数字艺术深度融合的当下,音乐领域正经历从创作逻辑到表演形式的全面变革,观众对音乐表演的可视化、互动性需求日益凸显。本研究围绕 “交互技术如何赋能音乐表演” 这一核心问题,以Max/MSP交互式视觉编程软件为核心载体,结合可穿戴传感器与多媒体设备,构建“运动—音乐—视觉”三位一体的多媒体交互视听表演体系,探索人机交互模式下音乐创作与表演的创新路径。 研究通过音乐素材生成、交互逻辑设计、多媒体同步调试及现场表演实施的完整流程,验证该技术方案的可行性与创新性。结果表明,该交互表演系统实现了运动数据与音乐参数、视觉元素的实时联动,将音乐表演从“纯听觉艺术”升级为“视听交互艺术”,既拓展了创作者的艺术表达边界,又降低了受众的音乐理解门槛,提升了艺术传播效果。未来可进一步推动人工智能与音乐表演的深度融合。