最近,兩項由西交利物浦大學聯合國內外高校合作開展的研究成果,獲得了第43屆人機交互國際大會的高度認可。其中一項圍繞復雜運動軌跡的可視化問題,提出了創新性的解決方案,并斬獲大會“最佳論文獎”;另一項探索多模態AI音樂創作的研究,也成功入選會議論文集。
從公交路線中獲得靈感,準確捕捉候鳥遷徙軌跡
想象你在天空中看著成群結隊的候鳥遷徙,它們從遙遠的北方飛向溫暖的南方。對于生物學家來說,僅僅知道這些鳥從哪里出發、最終飛到哪里,還遠遠不夠。他們還需要搞清楚:這些鳥在中途停了幾次?停留在哪里?是否因為天氣突變或人類活動而改變了路線?這些細節隱藏著生態環境的信息,也關乎生物保護。
問題在于,這些遷徙路線就像一團纏繞的毛線球——密密麻麻的飛行軌跡疊在一起,不僅難以辨認出每條線的走向,還很容易看不清其中關鍵的“停靠點”。對此,西浦智能工程學院教師俞凌云和她的合作者們提出了一種全新的軌跡動畫方法“RouteFlow”。這個方法,形象地說,就像是用算法“給毛線團梳頭發”——不僅梳順了錯綜復雜的路線,還把重要的細節點高亮標注出來。
這個系統的靈感,來自日常生活中的公交系統:想象公交車在城市中穿行,它們雖然路線各異,但很多線路會重合、交匯。城市交通規劃人員通常會用“線路優化”和“站點分布”來解決線路重疊混亂的問題。研究人員正是借用了這一思路,巧妙地將動畫中物體的移動路徑和停靠點轉化為可以優化的“序列”,從而實現軌跡的清晰展示。
他們提出了兩個核心算法:“層次化邊捆綁”算法:它就像整理線纜的束線帶,把相似的軌跡“捆”在一起,便于觀察整體趨勢;“增量圓堆積”算法:則像是在地圖上合理擺放圖標的小助手,避免軌跡中的停留點彼此遮擋,方便查看局部細節。
實驗結果表明,RouteFlow不僅能準確捕捉運動趨勢,還能有效呈現熱點區域。這個方法已經在鳥類遷徙、船舶航線等多個領域得到應用,為科學研究提供了更精準、直觀的工具。
用哼唱、圖像甚至貓叫聲和AI“對話”創作音樂
另一項被人機交互國際大會收錄的研究,則把AI帶進了音樂創作的世界。
“很多人在使用AI寫歌時會遇到一個難題——我想要的是溫柔清晨的旋律,結果AI給我來了一段激昂搖滾。”研究負責人、西浦計算機科學碩士生徐萬芳解釋道,“這是因為目前AI音樂系統大多只能通過文字與用戶交互,但情緒、畫面感、旋律在文字中很難準確表達。”為此,團隊開發了一個多模態輸入的AI音樂創作系統,讓用戶可以用聲音、圖像,甚至實時的互動方式表達創作意圖。
比如,用戶哼一段旋律,系統能自動識別節奏,將其變成完整的樂段;用戶上傳一張夕陽下的海邊照片,AI能分析圖片的顏色與氛圍,生成與之匹配的音樂片段;用戶錄一段貓叫聲,系統不僅會把它融合進音樂中,還會標注在哪一秒響起,讓你清晰看到“貓聲”的音樂軌跡。
系統通過可視化反饋,可以幫助用戶理解AI的創作邏輯,并進行二次編輯。未來,研究團隊計劃將這一技術拓展至圖像生成、音樂交互等更多“AI+藝術”領域,打破技術黑箱,賦予用戶更直觀的創作控制權,讓AI真正成為創作者的“共創伙伴”。
這兩項研究的成功并非偶然,它們都得益于跨校協作帶來的智慧火花。“軌跡動畫項目由西浦、清華和英國紐卡斯爾大學團隊共同推進;AI音樂系統則源于西浦、昆山杜克大學和北京理工大學三校合作舉辦的工作坊。”西浦智能工程學院院長林永義教授表示,“在這種多方合作模式下,研究團隊能整合不同背景和技能,迸發出新的創造力。”這些突破不僅彰顯了科研團隊的創造力,也為AI技術在科學研究與藝術創作中的應用打開了新思路。
(蘇報記者 袁藝 蘇報通訊員 金畫恬 寇博)