Radosław Mantiuk

West Pomeranian University of Technology, Szczecin, Poland

Kierunkowa synteza obrazów

Projekt badawczy NCN pt. “Synteza obrazów z uwzględnieniem kierunkowości widzenia” ncn_logo_2

(nr grantu: 506-05-024-5125/6, nr umowy: UMO-2013/09/B/ST6/02270, konkurs OPUS 5)

Okres realizacji: 19.02.3014 – 18.02.2017

Cel badań:

Wzrok człowieka ma silną cechę kierunkowości widzenia. Jesteśmy w stanie dostrzec szczegóły tylko w niewielkim kącie obejmującym 2-3 stopnie pola widzenia. W tym zakresie człowiek widzi z rozdzielczością dochodzącą do 60 cykli na stopień kątowy, natomiast już dla obszarów oddalonych o 20 stopni kątowych od osi patrzenia ta rozdzielczość zmniejsza się dziesięć razy. Wraz ze zwiększaniem się kąta widzenia maleje również czułość na kolory, natomiast tak samo dobrze widzimy ruch.

Celem badań jest opracowanie modeli działania układu wzrokowego człowieka uwzględniających widzenie kierunkowe. Nasze badania mają odpowiedzieć na pytania jak zmienia się czułość na kontrasty dla obiektów obserwowanych w peryferyjnych obszarach widzenia? Czy czułość zależy od częstotliwości bodźca? Jak zmienia się widzenie kolorów w obszarach peryferyjnych?

Do pomiarów charakterystyki widzenia peryferyjnego wykorzystany zostanie system syntezy obrazów sprzężony z eye trackerem. Takie rozwiązanie umożliwi generowanie i wyświetlanie złożonych bodźców wzrokowych tylko w obszarach widzenia peryferyjnego.  Sprzężenie syntezy obrazów z kierunkiem patrzenia zapewni zachowanie narzuconej odległości kątowej, w której człowiek obserwował będzie bodziec. Przeprowadzone zostaną eksperymenty psychofizyczne, w których obserwatorzy oceniali będą widoczność kontrastów na bodźcu widzianym pod określonym kątem. Planujemy wykonanie pomiarów najważniejszych czynników widzenia kierunkowego takich, jak czułość na częstotliwość, amplitudę, i kolor. Wyniki eksperymentów poddane zostaną analizie statystycznej prowadzącej do sformułowania analitycznych modeli widzenia kierunkowego, w szczególności kierunkowych funkcji czułości na kontrast (ang. gaze-dependent contrast sensitivity functions).

Wspomniane modele wykorzystane zostaną do opracowania techniki syntezy obrazów uwzględniającej zjawiska percepcyjne towarzyszące widzeniu kierunkowemu. W przyjętym rozwiązaniu zakładamy uzyskanie lepszej jakości generowanych obrazów, ponieważ zastosowana w nim metoda syntezy zbliży się do naturalnego sposobu działania ludzkiego wzroku. Założeniem jest również uzyskanie zasadniczej poprawy wydajności syntezy. Dla peryferyjnych obszarów widzenia będzie można zmniejszyć dokładność syntezy bez wpływu jakości obrazów, ponieważ zmiany i tak nie będą widziane przez człowieka.

Publikacje

  1. Krzysztof Wolski, Radosław Mantiuk. Cross spread pupul tracking technique. Journal of Electronic Imaging, 2016, Vol. 25, No. 6. (strona projektu)
  2. Rafał Piórkowski, Radosław Mantiuk, Adam Siekawa. Automatic Detection of Game Engine Artifacts Using Full Reference Image Quality Metrics. ACM Transaction on Applied Perception, 2017, Vol. 14, No. 3, pp. 14:1–14:17. (strona projektu)
  3. Radosław Mantiuk. Accuracy of high-end and self-build eye-tracking systems. Hard and Soft Computing for Artificial Intelligence, Multimedia and Security (Proc. of ACS’16) , 2017, No. 534, pp. 216-227.
  4. Michał Chwesiuk, Radosław Mantiuk. Acceptable System Latency for Gaze-Dependent Level of Detail Rendering. Proc. of Eurographics 2016 – Posters, 2016.
  5. Radosław Mantiuk. Gaze-Dependent Tone Mapping for High Dynamic Range Video. High Dynamic Range Video Concepts, Technologies and Applications (1st Edition), Academic Press, 2017, Vol. Chapter 10, pp. 189-199. (strona projektu)
  6. Rafał Piórkowski, Radosław Mantiuk. Calibration of Structural Similarity Index Metric to Detect Artefacts in Game Engines. Lecture Notes in Computer Science (Proc. of ICCVG’16), 2016, Vol. 9972, pp. 86-94. (strona projektu)
  7. Rafał Piórkowski, Radosław Mantiuk. Using full reference image quality metrics to detect game engine artefacts. Proceedings of the ACM SIGGRAPH Symposium on Applied Perception, 2015, pp. 83-90. (strona projektu)
FRDIY

High-Frequency Do-It-Yourself eye tracker