欧美日韩国产一区二区三区,自拍偷自拍亚洲精品播放,亚洲人成电影网站色…,久久视频一区二区

當前位置: 首頁 ?  新聞中心 ?  行業新聞 ? 研究員開發新數學模型,幫助AR/VR精確預測注視點,減少眨眼誤差

研究員開發新數學模型,幫助AR/VR精確預測注視點,減少眨眼誤差

通望科技 2021-01-30 2489

根據一篇論文,俄羅斯的研究人員開發了一個可以幫助精確預測下一個注視點,以減少因眨眼造成的誤差的數學模型。

這篇發表在SID Symposium Digest of Technical Papers的研究論文表明,所述模型能夠提升追蹤注視點渲染的精度。

 79af46989471c93609235083a1ca6fbc.jpg

俄羅斯人民友誼大學的研究員維克托·貝爾亞耶夫(Viktor Belyaev)表示:“我們已經有效地解決了在大量VR系統中存在的注視點渲染問題。“

對于人類的視覺系統,中央凹為視場中心提供了更清晰的視覺,而外圍視場的視覺質量則相對更低。注視點渲染利用這一特性,集中資源來重點渲染注視點區域,并減少頭顯外圍視覺的空間分辨率,從而降低每像素的計算。

然而,由于人眼運動是一個復雜的、很大程度上是隨機的過程,注視點渲染技術在預測下一個注視點的速度和精度方面存在限制。

為了解決這個問題,俄羅斯的研究人員開發了一種數學建模方法以幫助提前計算下一個注視點。

模型的預測是基于對掃視運動的研究。這種快速的節奏性眼球運動是指目光從一個對象轉移到另一個對象,而這可以暗示下一個注視點。所以,研究人員專注于一個能夠幫助獲取掃視運動參數的數學模型,然后再利用相關數據計算圖像的注視點區域。 

團隊對VR頭顯和AR眼鏡進行了實驗驗證。基于所述數學模型的眼動追蹤器能夠檢測到輕微的眼球運動(3.4分鐘,相當于0.05度)。另外,研究小組同時設法消除了因眨眼造成的計算誤差:模型中的一個過濾器將誤差降低了10倍。

他補充說:“未來,我們計劃校準我們的眼動追蹤器,以減少顯示器或頭顯移動對用戶頭部的影響。”

原文轉載自映維網:https://news.nweon.com/82800


感謝朋友們一路的支持和提出的寶貴建議

服務熱線

13357700300

在線客服

主站蜘蛛池模板: 本溪| 大渡口区| 牡丹江市| 江达县| 泰州市| 彭泽县| 如皋市| 达尔| 延边| 南召县| 莆田市| 平昌县| 黔西县| 南城县| 日照市| 湘潭市| 盖州市| 黄平县| 永靖县| 黑龙江省| 绥德县| 霍州市| 黄石市| 永昌县| 龙游县| 卢湾区| 延边| 新郑市| 宜昌市| 黔西县| 望江县| 米林县| 安多县| 和平县| 敦化市| 巴青县| 巨鹿县| 章丘市| 定南县| 灵台县| 台江县|