Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1229-6457(Print)
ISSN : 2466-040X(Online)
The Korean Journal of Vision Science Vol.27 No.4 pp.403-412
DOI : https://doi.org/10.17337/JMBI.2025.27.4.403

Repeatability Evaluation of a Real-Time Eye Movement Measurement Device Using an Artificial Eye Model

Min-Kyu Choi1), In-Chul Jeon2)
1)Dept. of Optometry and Optic Science, Dong-Shin University, Lecturer, Naju
2)Dept. of Optometry and Optic Science, Dong-Shin University, Professor, Naju
* Address reprint requests to In-Chul Jeon (https://orcid.org/0000-0002-3166-1392) Dept. of Optometry and Optic Science, Dong-Shin University, Professor, Naju TEL: +82-61-330-3553, E-mail: icjeon@dsu.ac.kr
December 7, 2025 December 22, 2025 December 22, 2025

Abstract


Purpose : This study describes the development of a real-time video-based eye movement measurement device and evaluated its performance using repeated measurements with a printed eye model. The aim was to examine the stability and repeatability of pupil center detection using low-cost hardware and open-source software.



Methods : Infrared-illuminated grayscale eye images were captured with a high-speed camera, and a real-time algorithm detected the pupil and extracted its center coordinates. A printed eye target was placed at a fixed distance, and ten repeated trials (900 frames each) were recorded. The pupil detection success rate and the standard deviation (SD) of the center coordinates were calculated.



Results : The overall detection success rate was 97.3%. The SD of the pupil center coordinates remained below 1 pixel (0.46±0.05 pixels horizontally and 0.52±0.04 pixels vertically). No systematic drift was observed in the time-series distribution of coordinates.



Conclusion : The device showed high repeatability and reliable pupil detection in a printed eye model. The low-cost system and adjustable algorithm offer a flexible platform for early-stage development without IRB approval and may be expanded to analyze pupil diameter, vergence, and pupillary oscillation in future work.



모형안을 이용한 실시간 안구운동 측정 장비의 반복 측정 신뢰도 평가

최민규1), 전인철2)
1)동신대학교 안경광학과, 강사, 나주
2)동신대학교 안경광학과, 교수, 나주

    Ⅰ. 서 론

    안구운동은 시지각과 시기능 전반에 걸쳐 핵심적인 역할을 수행한다. 사람의 눈은 정지해 있는 것처럼 보이지만 실제로는 미세한 떨림과 미소운동, 보다 큰 폭의 홱보기와 추종운동, 수렴과 개산을 끊임없이 반복한다.1) 이러한 움직임은 망막에 맺히는 상의 특성과 시피질에서 이루어지는 정보 처리 과정을 반영하며, 전정계, 소뇌, 뇌간, 대뇌피질에 이르는 복잡한 신경 회로의 조절을 받는다.2) 따라서 안구운동을 정량적으로 측정하고 분석하는 기술은 단순한 시기능 평가를 넘어, 신경계 기능과 인지 상태에 대한 중요한 단서를 제공할 수 있다.

    최근에는 안구운동과 동공 크기의 변화를 이용하여 피로도, 인지 부하, 주의 집중도, 노인성 인지 저하와 같은 상태를 추정하려는 연구가 국내외에서 활발하게 이루어지고 있다.3,4) 복잡한 시각 자극이나 인지 과제가 주어졌을 때 나타나는 시선 이동 패턴과 동공 반응은 과제 수행 전략, 정보 처리 방식, 감정 상태와 밀접하게 연관된다는 보고가 다수 있다. 또한 외사위나 내사위와 같은 사위 상태, 조절–폭주 불균형, 시기능 훈련 효과 등을 평가하는 과정에서도 정밀한 안구운동 측정은 매우 중요한 수단으로 활용된다.1)

    그러나 이러한 학문적·임상적 중요성에도 불구하고, 실제 연구 및 임상 환경에서 안구운동 측정 장비를 활용 하는 데에는 여러 현실적인 제약이 존재한다. 대표적으로 상용 아이 트래킹 시스템은 매우 고가인 경우가 많으며, 시스템 구성이 복잡하고 설치와 보정에 전문적인 노하우가 필요하다. 많은 장비가 자체 소프트웨어 내에서 사전 정의된 분석 지표만을 제공하기 때문에 연구자가 새로운 분석 알고리즘을 적용하거나 실험 목적에 맞는 지표를 추가하는 것이 어렵다.5) 또, 장비 내부의 원시 데이터를 자유롭게 추출하기 어려운 경우도 적지 않아, 장비에서 제공하는 결과물에 의존할 수밖에 없고, 연구 설계의 유연성이 떨어지게 된다.

    본 연구는 이러한 문제의식을 바탕으로, 실시간 영상 처리 기반 안구운동 측정 장비를 연구자가 직접 설계하고 구현하며, 고화질로 인쇄된 사진 형태의 모형안으로 반복 측정 실험을 통해 장비의 초기 성능을 검증하고자 하였다. 구체적으로, 저비용 상용 카메라 모듈과 오픈소스 영상 처리 라이브러리를 이용하여, 동공 영역을 실시간으로 탐지하고 중심 좌표를 추적할 수 있는 시스템을 구축하였다. 장비의 성능 평가는 모형안을 일정 거리에서 촬영하면서 반복적으로 데이터를 수집하여, 동공 검출 성공률과 중심 좌표의 반복 측정 안정성을 분석하는 방식으로 이루어졌다. 고화질로 인쇄된 사진 형태의 모형안 모델을 이용한 반복 측정 방식은 안구 자체 움직임에 따른 교란 요인을 배제하고, 영상 센서 및 알고리즘의 고유 안정성을 독립적으로 평가할 수 있다는 점에서 선행 연구에서도 반복적으로 사용되어 왔다.

    기존 연구6)에서 촬영된 영상을 바탕으로한 안구운동 측정 장비를 구현한 바 있으며, 본 연구는 이러한 선행 결과를 바탕으로 연구자 친화적인 실시간 안구운동 측정 장비를 구축하고, 모형안을 활용한 반복 측정 실험을 통해 동공 탐지 및 중심 좌표 추적의 신뢰성을 정량적으로 평가하고자 하였다.

    Ⅱ. 재료 및 방법

    1. 장비 구성 및 실험 환경

    본 연구에서 개발한 안구운동 측정 장비는 영상 획득 모듈, 조명 시스템, 영상 처리 및 분석 소프트웨어, 그리고 시계열 데이터 기록 모듈의 네 가지로 구성된다. 영상 촬영은 흑백 CMOS 적외선 카메라(MQ013RG-E2, XIMEA, Germany)를 사용하였다. 본 장비는 USB 3.0 인터페이스를 지원하여 고속 영상 신호 전송이 가능하며, 센서 해상도는 1280 × 1024픽셀, 최대 프레임 레이트는 60프레임/초이다. 본 연구에서는 실시간 처리를 고려하여 30프레임/초로 설정하였다. 카메라 렌즈는 C-mount 12 mm 단초점 렌즈를 사용하였고, 촬영 거리는 고정 지그를 이용하여 정확히 40 cm 유지하였다 (Table 1). 이 설정은 모형안 타겟 전체와 동공 주변 영역이 매 프레임 안정적으로 획득될 수 있도록 최적화되었다.

    카메라의 노출 시간은 8 ms로 설정하였고, 아날로그 게인은 0 dB로 고정하여 프레임 간 광학적 변동을 최소화하였다. 모든 시험 동안 초점과 조리개는 수동으로 고정하여 렌즈 작동 중에 발생할 수 있는 자동보정이나 심도 변화가 측정값에 영향을 미치지 않도록 하였다. 카메라와 모형안 타겟을 고정하기 위해 수평 조절이 가능한 스탠드를 사용하였다. 타깃은 사람의 얼굴 사진을 고해상도로 출력한 뒤, 동공 위치가 프레임 중앙에 오도록 부착한 작은 보드 형태로 제작하였다.

    조명 시스템은 영상 기반 동공 검출에서 발생할 수 있는 난반사 및 강한 거울반사를 최소화하기 위해 설계되었다. 본 연구에서는 카메라와 동일 축상에 조명이 위치할 경우 발생할 수 있는 각막 반사작용 영향을 줄이기 위해, 카메라 중심에서 약 30도 아래측 좌·우 방향에 두 개의 850 nm 적외선 LED 광원을 배치하였다. LED 광원에는 확산판을 장착하여 빛의 직진성을 줄이고, 인쇄된 홍채 패턴 및 검은 동공 영역의 명암대비를 균일하게 확보하였다(Fig. 1). 실험실 내 주변 조도는 조명계를 이용해 측정하였고, 반복 측정 동안 ±5 lux 이내로 유지되도록 외부 광원을 차단하였다. 이는 매 측정 회차의 영상 대비가 일정하게 유지되도록 하기 위한 조치이다.

    데이터 저장 및 처리 환경은 Python 3.10 기반의 커스텀 코드로 구성하였으며, 카메라 드라이버는 제조사에서 제공하는 공식 라이브러리(xiAPI)를 사용하였다. 영상 처리와 동공 검출은 OpenCV와 NumPy를 기반으로 수행되었고, 결과 데이터는 시간 스탬프, 중심 좌표(x, y), 동공 크기, 그리고 프레임 신뢰도 값을 포함하는 형태로 실시간 생성 및 저장되었다.

    모든 측정은 카메라 및 조명 장비가 충분한 예열 상태에서 수행하였고, 장비의 기계적 고정 상태를 유지하기 위하여 철재 고정대 및 카메라 고정장치를 함께 사용하 였다. 실험 중 카메라, 조명, 모형안 타겟 사이에는 어떠한 물리적 이동도 발생하지 않도록 주의하였다. 이러한 조건 제어를 통해 장비 자체의 안정성과 영상 처리 알고리즘의 반복 측정 신뢰성을 평가하였다.

    2. 영상 처리 및 동공 중심 검출 알고리즘

    실시간 영상 처리는 Python 3.10 환경에서 OpenCV (4.8.0), NumPy(1.26), SciPy, 그리고 Pandas를 사용 하여 구현하였다. 카메라로부터 수신된 원본 프레임은 각 프레임마다 즉시 그레이스케일 변환 과정을 거친 뒤, 영상 의 고주파 노이즈를 완화하기 위해 가우시안 블러(커널 크기 5×5)가 적용되었다. 본 연구에서는 모형안 타겟의 특성을 고려하여 전역 이진화(Global Otsu threshold)와 적응형 이진화(Adaptive Gaussian threshold)를 병행하는 하이브리드 방식을 채택하였다. 즉, 전체 영상에서 동공 후보 영역을 추출할 때는 Otsu 이진화를 우선 적용하고, 동공 경계가 조명 변화에 민감하게 반응하는 구간에서는 적응형 이진화를 적용하여 국소 대비를 유지하였다.

    이진화 단계를 거친 영상에서 윤곽선(contour) 탐색을 수행하였으며, 각 후보 윤곽선에 대해 면적(area), 원형성(circularity), 경계 매끄러움(edge smoothness) 의 세 가지 기준을 적용하였다. 면적은 동공 영역이 지나치게 작거나 큰 경우를 배제하기 위한 1차 필터링 기준이며, 원형성은 윤곽선 길이 대비 면적 비율을 통해 계산하였다. 모형안 타겟에서 동공 영역은 비교적 명확한 원형 형태를 보이기 때문에 원형성이 일정 수준 이하로 떨어지는 윤곽선은 노이즈로 판단하여 제거하였다. 또한 경계 매끄러움은 윤곽선의 픽셀 간 차이값을 이용하여 계산하였으며, 경계가 지나치게 거칠거나 인위적인 윤곽선을 배제하였다.

    윤곽선 필터링 이후에는 스타버스트(ray-based edge detection) 알고리즘7),8)을 적용하였다. 영상 중심에서 32개의 방사형(ray)을 동공 후보 영역 바깥쪽으로 투사하여 각 방향에서 최초 검출되는 강한 에지 지점을 기록하였다. 이 지점들은 동공 경계를 구성하는 외곽 점 집합으로 저장되며, 이후 최소 제곱 타원 피팅(leastsquare ellipse fitting) 알고리즘에 입력된다. 타원의 중심, 장축, 단축 및 회전 각도는 32개 ray endpoint로 부터 계산되며, 본 연구에서는 반복적 좌표 최적화를 위해 SciPy의 LTS(Least Trimmed Squares) 알고리즘을 사용하였다.9) LTS 기반 타원 피팅은 일부 비정상 픽셀(outlier)로 인한 중심 좌표 편향을 줄이는 데 효과적이다.

    본 연구에서는 중심 좌표 계산 시 프레임 간 안정성을 확보하기 위해 이전 프레임 중심 좌표와 현재 프레임 후보 좌표의 유클리디안 거리(euclidean distance)를 비 교하였다. 이전 프레임 중심점과의 거리 변화가 3픽셀 이상일 경우 해당 후보는 일시적 노이즈로 간주하였으며, 이때 LTS 피팅의 이상치 제거(outlier rejection) 임계값을 조정하여 중심 좌표를 재추정하였다. 만약 모든 후보 좌표가 임계값을 초과할 경우, 해당 프레임은 검출 실패로 처리하였다.

    추가로, 중심점 신뢰도(confidence index) 지표를 도입하였다. 이는 세 가지 요소로 계산된다. 첫 번째 방사형 기반(ray-based) 경계 검출점 중 유효 검출 비율, 두 번째 윤곽선 원형성 값, 세 번째 타원 피팅 오차 (residual error)이다.

    각 지표는 0과 1 사이의 정규화된 값으로 변환되며, 최종 신뢰도 점수는 가중 평균으로 계산되었다. 본 연구에서는 신뢰도 점수가 0.65미만인 프레임을 모두 검출 실패로 처리하였다. 이 과정은 특히 모형안 타겟 주변의 명암 변화나 외곽 무늬로 인해 동공으로 오인될 수 있는 영역의 검출 빈도를 감소시켰다.

    실험 중 모든 프레임에 대해 중심 좌표(x, y), 프레임 시간, 타원 장축 길이, 신뢰도 점수 및 검출 여부는 CSV 파일에 저장되었다. 따라서 후속 분석에서는 전체 프레임 수 대비 검출 성공률, 중심 좌표의 표준편차, 신뢰도 분포, 타원 피팅 오차 분포를 종합적으로 활용하여 알고리즘의 반복 측정 신뢰도를 정량화하였다.

    이러한 단계적 알고리즘 구성은 모형안 타겟 뿐 아니라 실제 사람의 눈 영상에도 확장 적용 가능하도록 설계되었다(Fig. 2). 특히 ray-based 동공 경계 검출과 LTS 타원 피팅의 조합은, 눈꺼풀, 속눈썹, 반사광과 같은 고전적 동공 검출 난이도 요소에 대해 알고리즘적 안정성을 제공한다. 본 연구에서는 모형안 타겟을 사용하여 알고리즘의 반복 측정 성능을 먼저 평가하였으며, 향후 IRB 승인 후 실제 인간 대상 실험에서 알고리즘의 임상적 유효성을 검증할 계획이다.

    3. 데이터 수집 및 분석 절차

    동일한 조건에서 총 10회의 측정 회차를 수행하였으며, 각 회차마다 900프레임을 연속으로 수집하였다. 카메라는 30 fps로 설정되어 있으므로 한 번의 측정은 약 30초 정도의 시간 동안 진행되었다. 동일한 환경에서 이러한 측정을 10회 반복 수행하여 총 9,000프레임의 데이터를 확보하였다. 수집 과정에서 카메라 위치, 타깃 위치, 조명 설정은 변경하지 않았으며, 측정 사이에는 장비가 안정 상태를 유지하도록 충분한 간격을 두었다.

    각 프레임에 대한 동공 중심 좌표는 x축과 y축의 픽셀 좌표 형태로 CSV 파일에 저장되었다. 프레임 번호와 타임스탬프도 함께 기록하여, 시간에 따른 좌표 추이와 프레임 간 미세변화를 시계열적으로 분석할 수 있도록 하였다. 데이터 분석에서는 반복 측정 유형별로 동공 검출 성공률을 계산하고, 검출된 좌표들의 평균과 표준편차를 산출하였다. 표준편차는 장비가 고정된 타깃을 촬영하는 동안 중심 좌표가 얼마나 흔들리는지를 나타내는 지표로 해석할 수 있으며, 값이 작을수록 반복 측정의 안정성이 높은 것으로 볼 수 있다.

    Ⅲ. 결 과

    반복 측정 실험을 통해 확보된 총 9,000프레임의 데이터 중에서 8,757프레임에서 동공이 성공적으로 검출되었다. 검출 성공률은 측정 회차에 따라 약간의 차이를 보였으나, 모든 회차에서 96% 이상, 평균적으로는 97.3% 수준으로 유지되었다(Table 2). 이는 딥러닝 기반 동공 검출 시스템에서 보고된 검출률 96.29%와 비교했을 때 유사하게 나타났다.10) 검출 실패가 발생한 프레임을 확인한 결과, 대부분은 모형안 타겟의 테두리나 그림자의 경계가 우연히 동공과 유사한 명암 대비를 보인 영역과 겹칠 때, 알고리즘이 잠시 혼동을 일으킨 경우였다. 하지만 이러한 프레임들은 전체 데이터에서 차지하는 비중이 매우 낮았으며, 연속된 긴 구간에서 검출 실패가 지속되는 현상은 관찰되지 않았다.

    중심 좌표의 안정성을 평가하기 위해 각 반복 측정별로 x좌표와 y좌표의 평균과 표준편차를 계산하였다. 측정된 동공 중심 좌표의 표준편차는 x축 0.46픽셀, y축 0.52픽셀 수준으로, 저비용 eye tracker에서 동공 중심 위치의 실시간 표준편차가 약 0.2~0.5 픽셀로 보고된 Ivanchenko 등의 연구결과11)와 유사한 범위에 해당한다(Table 3). 즉, 동공 중심이 영상 내에서 이론적으로는 동일한 위치에 고정되어 있어야 하는 상황에서, 실제로는 약 1픽셀 이내 범위에서만 미세하게 흔들리는 것으로 나타났다. 이는 장비 자체의 영상 센서 노이즈, 렌즈 특성, 모형안 타겟의 질감, 조명 미세 변화 등이 복합적으로 영향을 미친 결과로 해석할 수 있다.

    프레임 순서에 따른 중심 좌표의 시계열 데이터를 분석한 결과, 측정 시작부터 종료 시점까지 특정 방향으로 점진적으로 누적되는 위치 편향 현상은 거의 관찰되지 않았다. 즉 시간에 따라 좌표가 조금씩 한쪽으로 치우쳐 가는 패턴을 보이지 않았으며, 전체적으로는 동일한 평균값 주변에서 무작위적인 작은 변동만이 존재하는 형태에 가까웠다. 이는 카메라와 타깃 사이의 기계적인 고정 상태가 안정적이었고, 영상 처리 알고리즘이 시간에 따라 누적되는 편향을 만들어내지 않았다는 점을 의미한다.

    동공 중심 좌표의 분포를 시각화해 보면 좌표 평면상에서 하나의 좁은 타원형 영역 안에 대부분의 점들이 분포하는 양상을 보였으며, 이 영역의 중심이 각 반복 측정마다 거의 동일한 위치에 자리하고 있음을 확인할 수 있다. 이는 실험이 반복되더라도 장비와 알고리즘이 중심 좌표를 일관되게 산출하고 있다는 증거로 해석할 수 있다.

    Ⅳ. 고 찰

    본 연구에서 제작한 실시간 안구운동 측정 장비는 모형안을 이용한 반복 측정을 통해 초기 성능을 평가하였다. 모형안을 이용하여 비디오 기반 eye tracker의 정확도와 정밀도를 검증한 선행연구12-14)들을 고려할 때, 사람 대상 실험에 앞서 장비 자체의 물리적 안정성과 알고리즘 특성을 분리해서 확인할 수 있다는 점에서 이러한 설계는 합리적이며 연구 목적에 부합한다. 실시간 안구운동 측정 장비는 비교적 단순한 하드웨어 구성과 오픈소스 기반 소프트웨어만으로도 안정적인 동공 중심 검출 성능을 보여주었다. 모형안 타겟이라는 매우 단순화된 조건이기는 하지만, 동일한 환경에서 10회 반복 측정을 수행하는 동안 중심 좌표의 표준편차가 1픽셀 미만으로 유지되었다는 점은, 이 장비와 알고리즘이 반복 측정 신뢰도 측면에서 충분한 가능성을 가지고 있음을 보여준다. Swirski 등의 선행연구8)에서도 방사형 기반 경계 탐색과 타원 피팅을 결합한 동공 검출 알고리즘이 안정적인 중심 좌표 추정을 가능하게 한다는 보고가 있으며, 본 연구의 결과는 이러한 선행 연구의 기술적 타당성을 장비 개발 실험을 통해 재확인한 결과로 해석할 수 있다. 이는 기존 상용 장비 대비 비용과 구조가 훨씬 간단하다는 점을 고려하면, 연구 개발 초기 단계에서 의미 있는 결과로 평가할 수 있다.

    물론 본 연구에는 한계도 존재한다. 첫째, 모형안 타겟은 실제 사람의 눈과 달리 동공과 홍채 경계가 고정적이고, 눈꺼풀이나 속눈썹, 눈꺼풀 그림자와 같은 외적인 변동 요소가 다양하지 않다. 따라서 실제 사람의 눈을 촬영할 경우 발생할 수 있는 다양한 형태의 노이즈와 반사, 안면 움직임 등은 본 연구 결과에서 고려되지 않았다. 이러한 한계는 실제 사람의 눈을 대상으로 한 후속 연구에서 추가적으로 검증될 필요가 있다.15) 둘째, 실험에서 사용된 조명 조건은 비교적 단순하고 안정적인 환경에 한정되어 있으며, 실제 임상 환경에서는 주변 조도가 수시로 변하거나, 전면·측면·후면에서 다양한 방향의 빛이 들어올 수 있다. 선행 연구8)에서 이러한 조명 변화가 동공 검출 안정성에 중요한 영향을 미칠 수 있음이 보고된 바 있기 때문에 향후 연구에서는 알고리즘의 측정 안정성을 향상시키기 위한 조명 제어 전략과 적응형 영상 처리 기법의 도입이 필요할 것으로 판단된다. 셋째, 본 연구에서는 동공의 중심 좌표만을 분석 대상으로 삼았으며, 동공 크기의 변화와 같은 시간적 진동 패턴은 다루지 않았다. Kucewicz 등의 선행연구16)에서는 동공 크기 변화가 조절 반응, 밝기 변화, 자율신경계 활동과 밀접한 관련이 있음을 보고하였다. 향후에는 본 연구 결과를 토대로 타원의 장축과 단축 길이를 이용한 동공 지름 추정과 시간적 변화 분석을 통해 연구 범위를 확장할 수 있을 것으로 생각된다. 넷째, 본 연구에서 사용한 해상도와 프레임 레이트는 기본적인 실시간 분석에는 충분하지만, 빠른 홱보기나 미소운동을 정밀하게 분석하기에는 다소 부족할 수 있다. Martinez-Conde 등 의 선행연구17)에서도 고프레임레이트 측정이 미세 안구 운동 분석에 유리하다는 점이 보고되었으며, 이에 따라 더 높은 프레임레이트와 해상도를 지원하는 장비를 도입한 후속 연구가 요구된다.

    그럼에도 불구하고, 본 연구의 의의는 명확하다. 연구자가 특정 상용 장비와 소프트웨어 환경에 종속되지 않고, 직접 설계한 시스템을 통해 자유롭게 알고리즘을 수정하고 실험을 설계할 수 있다는 점은 장기적인 연구 경쟁력 측면에서 매우 중요하다. 특히 시기능 분야에서 새로운 검사 프로토콜이나 훈련 프로그램을 개발하고자 할 때, 안구운동을 어떻게 측정하고 어떤 지표를 산출할 것 인지를 연구자가 주도적으로 설계할 수 있다는 것은 큰 장점이다. 예를 들어, 폭주 부족 환자에게 프리즘 자극을 가하면서 홱보기 회수와 속도를 분석하거나, 양안과 단안 주시 조건에서 동공 변화를 비교하는 등, 기존 상용 장비가 기본적으로 제공하지 않는 형태의 실험 설계를 자유롭게 구현할 수 있다.

    Ⅴ. 결 론

    본 연구는 영상 처리 기반 실시간 안구운동 측정 장비를 직접 구축하고, 모형안을 이용한 반복 측정 실험을 통해 초기 성능을 평가하였다. 개발된 시스템은 30 fps 환경에서 각 프레임마다 동공 중심을 안정적으로 탐지하였으며, 총 9,000프레임 데이터에서 평균 동공 검출 성공률은 약 97%를 보였다. 중심 좌표의 표준편차는 X축과 Y축 모두 1픽셀 미만으로 유지되어, 동일한 조건에서 장비가 높은 반복 측정 신뢰도를 갖고 있음을 확인하였다.

    향후 연구에서는 실제 사람의 눈을 대상으로 실험을 설계하여, 동공 크기 변화, 프리즘 자극에 따른 안구운동 반응, 그리고 시기능 훈련 전후의 변화 등을 정량적으로 분석할 계획이다. 특히 본 장비는 폭주·개산 분석, 프리즘 자극 시 홱보기 평가, 단안 및 양안 주시 조건에서의 동공 크기 변화 특성 측정 등 시기능 평가와 재활 연구에 필요한 정량 데이터를 제공할 수 있는 기반을 제공한다. 따라서 다양한 조명 조건, 연령대, 굴절 상태를 가진 피검자를 포함한 후속 연구를 통해, 장비 및 알고리즘의 임상적 타당성과 적용 가능성을 더 폭넓게 검증할 필요가 있다.

    Figure

    KJVS-27-4-403_F1.jpg

    Photograph of the custom-built eye-tracking setup used in this study. The system consists of a chin and forehead rest for head stabilization, a central camera module for real-time image acquisition, and dual infrared LED illumination units. The printed eye target was placed at a fixed distance during repeated measurements.

    KJVS-27-4-403_F2.jpg

    Flowchart of the proposed real-time pupil detection algorithm. The processing steps proceed from top to bottom, beginning with grayscale image input and ending with the estimated pupil center coordinates.

    KJVS-27-4-403_F3.jpg

    Example of the real-time pupil detection process. (a) Right eye region-of-interest (R_roi) with the detected pupil contour (red circle). (b) Corresponding binary mask (R_mask) obtained by combined global and adaptive thresholding. (c) Left eye region-of-interest (L_roi) with the detected pupil contour. (d) Binary mask (L_mask) showing the segmented pupil area used for ellipse fitting. These panels illustrate the algorithm pipeline from raw grayscale input to pupil region segmentation and contour fitting.

    KJVS-27-4-403_F4.jpg

    Distribution of pupil center coordinates obtained from 9,000 detected frames. The scatter plot shows a tight clustering of data points around the mean, and the overlaid 95% confidence ellipse indicates that both X- and Y-coordinates remained within approximately ±1 px of the mean. This demonstrates high temporal stability and repeatability of the proposed detection algorithm under fixed experimental conditions.

    Table

    Device configuration and experimental conditions used for repeated measurements with the printed eye target

    Summary of pupil detection success rates for 10 repeated measurements using the printed eye target. A total of 9,000 frames were analyzed, and the overall mean success rate was 97.3%(SD = 0.4%)

    Values are presented as mean±standard deviation.

    Summary statistics of the detected pupil center coordinates (9,000 frames). Both X- and Y-coordinates remained within a ±1 px range around the mean, indicating high temporal stability and repeatability of the algorithm under fixed experimental conditions

    Reference

    1. Mahanama B, Jayawardana Y et al.: Eye movement and pupil measures: A review. Front Comput Sci. 3, 2022.
    2. Duchowski AT: Eye tracking methodology: Theory and practice, 3rd ed., Springer, 2017.
    3. Xu J, Min J et al.: Real-time eye tracking for the assessment of driver fatigue. J Healthc Eng. 5(2), 2017.
    4. Marandi RZ, Madeleine P et al.: Eye movement characteristics reflected fatigue development in both young and elderly individuals. Sci Rep. 8, 2018.
    5. Song JS, Shin SK: A systematic review of educational research using eye-tracking data: Based on the cognitive process framework. J Educ Technol. 38(1), 109-148, 2022.
    6. Choi MK, Jeon IC: A study on the objective binocular vision function inspection using eye tracking technology. Korean J Vis Sci. 25(2), 195-207, 2023.
    7. Li D, Parkhurst DJ et al.: A hybrid algorithm for video-based eye tracking combining featurebased and model-based approaches. Proc IEEE Workshop Vis Hum-Comput Interact 79, 2005.
    8. Świrski L, Bulling A et al.: Robust real-time pupil tracking in highly off-axis images. Proc ETRA 173-176, 2012.
    9. Fitzgibbon AW, Pilu M et al.: Direct least square fitting of ellipses. IEEE Trans Pattern Anal Mach Intell. 21(5), 476-480, 1999.
    10. Bonteanu G, Boneteanu P et al.: Implementation of a high-accuracy neural network-based pupil detection system for real-time and real-world applications. Sensors 24(8), 2548, 2024.
    11. Ivanchenko D, Rifai K et al.: A low-cost, high-performance video-based binocular eye tracker for psychophysical research. J Eye Mov Res. 14(3), 1-21, 2021.
    12. Cavegn D, Van Rensbergen J et al.: An artificial eye for evaluating videobased eye recording systems. Behav Res Methods Instrum Comput. 25, 472–476, 1993.
    13. Ooms K, Dupont L et al.: Accuracy and precision of fixation locations recorded with the low-cost eye tribe tracker in different experimental set-ups. J Eye Mov Res. 8(1), 1-20, 2015.
    14. Felßberg AM, Strazdas D: RELAY: Robotic eyeLink analysis of the eyeLink 1000 using an artificial eye. J Imaging. 9(1), 18, 2025.
    15. Holmqvist K, Nyström M et al.: Eye tracking: A comprehensive guide to methods and measures, 1st ed., Oxford, Oxford University Press, pp. 185-210, 2011.
    16. Kucewicz MT, Dolezal J et al.: Pupil size reflects successful encoding and recall of memory in humans. Sci Rep. 8(1), 4949, 2018.
    17. Martinez-Conde S, Macknik SL et al.: The role of fixational eye movements in visual perception. Nat Rev Neurosci. 5(3), 229-240, 2004.