研究員開發新數學模型,幫助AR/VR精確預測注視點,減少眨眼誤差
根據一篇論文,俄羅斯的研究人員開發了一個可以幫助精確預測下一個注視點,以減少因眨眼造成的誤差的數學模型。
這篇發表在SID Symposium Digest of Technical Papers的研究論文表明,所述模型能夠提升追蹤注視點渲染的精度。
俄羅斯人民友誼大學的研究員維克托·貝爾亞耶夫(Viktor Belyaev)表示:“我們已經有效地解決了在大量VR系統中存在的注視點渲染問題。“
對于人類的視覺系統,中央凹為視場中心提供了更清晰的視覺,而外圍視場的視覺質量則相對更低。注視點渲染利用這一特性,集中資源來重點渲染注視點區域,并減少頭顯外圍視覺的空間分辨率,從而降低每像素的計算。
然而,由于人眼運動是一個復雜的、很大程度上是隨機的過程,注視點渲染技術在預測下一個注視點的速度和精度方面存在限制。
為了解決這個問題,俄羅斯的研究人員開發了一種數學建模方法以幫助提前計算下一個注視點。
模型的預測是基于對掃視運動的研究。這種快速的節奏性眼球運動是指目光從一個對象轉移到另一個對象,而這可以暗示下一個注視點。所以,研究人員專注于一個能夠幫助獲取掃視運動參數的數學模型,然后再利用相關數據計算圖像的注視點區域。
團隊對VR頭顯和AR眼鏡進行了實驗驗證。基于所述數學模型的眼動追蹤器能夠檢測到輕微的眼球運動(3.4分鐘,相當于0.05度)。另外,研究小組同時設法消除了因眨眼造成的計算誤差:模型中的一個過濾器將誤差降低了10倍。
他補充說:“未來,我們計劃校準我們的眼動追蹤器,以減少顯示器或頭顯移動對用戶頭部的影響。”
原文轉載自映維網:https://news.nweon.com/82800
感謝朋友們一路的支持和提出的寶貴建議