智能手機上的每一次滑動、點擊和滾動,都需要少量但可量化的身體努力。到目前為止,從未有工具能精確測量這些互動究竟有多疲勞,或標識哪些介面設計會悄無聲息地消耗用戶體力。芬蘭 Aalto 大學和德國 Leipzig 大學的研究團隊開發了一款解決方案。他們打造了一個名為 Log2Motion 的 AI 模型,能將原始智能手機使用日誌轉化為人類動作的生物力學模擬,從而首次估算與移動介面互動所需的物理努力。
Aalto 大學教授兼 ELLIS Institute Finland 成員 Antti Oulasvirta 表示,這是首個能幫助設計師和開發者快速評估真實移動用戶介面身體疲勞程度的工具。「至今,手機日誌僅記錄手指觸摸螢幕的位置,並未顯示其舒適度。」
Log2Motion 的運作原理
該模型從標準觸控日誌數據入手,這類數據由智能手機常規收集,記錄手指接觸螢幕的位置和時間。Log2Motion 將這些原始輸入重建為模擬人類動作,使用來自先前動作捕捉研究的肌肉骨骼數字模型。在模擬中,一個由數字骨骼和肌肉組成的人體模型,以食指互動放置於桌面平放的智能手機。透過軟件模擬器,模型能即時運行真實移動應用程式,並重現先前從實際用戶收集的日誌。它隨後計算每次互動的動作軌跡、速度、準確度和生物力學努力——這些是標準使用日誌從未提供的數據。
模擬結果揭示了明顯模式,某些互動類型對用戶的身體需求更大。Oulasvirta 解釋:「我們發現某些手勢更難執行,例如上下和下上滑動。小圖示及顯示器角落位置也需額外努力。」這些發現對介面設計有直接影響。常置於螢幕邊緣的元素——如導航按鈕、返回箭頭、選單圖示——可能在設計師或開發者未察覺下,增加用戶身體負擔。 研究團隊視此工具在無障礙設計中具重大潛力。Log2Motion 可助開發者了解介面對運動障礙用戶的表現,包括顫抖、握力減弱或義肢使用者——這些群體在使用智能手機時,物理疲勞往往構成顯著障礙
。目前模擬假設手機平放桌面、以食指為主輸入,但團隊指框架具擴展性。「可將 Log2Motion 擴展至其他情境,例如經典姿勢:躺在沙發上,單手持機以拇指滾動,」Oulasvirta 說。研究者期望將此工具融入標準 UI 設計流程,讓開發者在介面交付用戶前,針對身體舒適度進行壓力測試。展望未來,他們計劃結合其他 AI 優化方法,為個別用戶的身體需求和限制量身定制介面。




