image processing एक आँख की एक छवि से अनुमान लग रहा है



image-processing opencv (1)

यह एक उत्तर नहीं है, लेकिन टिप्पणी के रूप में पोस्ट करना असंभव है। आपके उत्तर के बाद मैं इसे हटा दूंगा।

क्या आप सुनिश्चित हैं कि आपके पास सभी आवश्यक पैरामीटर हैं?

निम्नलिखित चित्र पर विचार करें:

यदि आपका कैमरा कोने और छात्र को {K, J, Q} पर पहचानता है, तो आप एक और ट्रिपल {F, E, O} से कैसे अंतर कर सकते हैं? ध्यान दें कि उपाय एक समान हैं, लेकिन काले तीरों द्वारा represnted टकटकी दिशाओं, पूरी तरह से अलग हैं।

नोट: दृश्यमान क्षेत्र के बाहर रखा गया एकल कैमरा बिंदु से दो काले और लाल रेखाएं खींची गई थीं।

मैं छात्र की पहचान करने में सक्षम रहा हूं और आँख के कोनों को ठीक से अभी तक देखा है। आप अपने खुद के प्रश्न का जवाब यहां अपलोड कर सकते हैं।

स्थिर आँख कोने का प्रदर्शन करना

यहां मैंने जो कुछ किया है वह अब तक है। मैं टीएलसीपी, टीआरसीपी और बीएलसीसी को देखकर उपयोगकर्ता के टकराव को मापता हूं

CP = calibration point; a screen point used for calibration
B = bottom
T = top
L= left
R = right
gaze_width = TRCP.x - TLCP.x

gaze_height = BLCP.y- TLCP.y

और उन सी.पी. को देखकर मैं मिलती-जुलती दिखने वाली चीजों को जीपी नामक कहा जाता है

एक टकटकी बिंदु जीपी की गणना:

मैं वर्तमान छात्र केंद्र के स्थान से टीएलजीपी के निर्देशांक के मूल्यों को घटाता है, क्योंकि टकटकी बिंदु को काल्पनिक आयत में गिरना पड़ता है जिसका मुझे आशा है कि आप इसे समझें, यह वास्तव में बहुत सरल है

मैंने रैखिक रूप से छात्र केंद्र के स्थान की गणना की गई एक बुनियादी स्केलिंग सिस्टम का उपयोग करके टकटकी अंकों की गणना की है, जहां तराजू की गणना निम्नानुसार की जाती है:

scaleX = screen_width/gaze_width
scaleY = screen_height/gaze_height

और किसी भी दृष्टि बिंदु पी (एक्स, वाई) के लिए मैं इसी स्क्रीन बिंदु क्यू (मी, एन) की गणना करता हूँ:

m = scaleX*x
n = scaleY*y

लेकिन समस्या यह है कि यहां तक ​​कि लगभग सही छात्र पहचान (लगभग क्योंकि गरीब प्रकाश में यह झूठी सकारात्मकता देता है। लेकिन मैं इसे सीमाओं के तहत रखना चाहता हूं क्योंकि मैं उस पर काम नहीं कर सकता, मेरे पास पर्याप्त समय नहीं है) मी अभी भी गरीब टकटकी चौड़ाई और टकटकी ऊंचाई प्राप्त कर रहा है

यहाँ एक परीक्षण चलाने लॉग है:

DO_CAL= True

Gaze Parameters:

TLGP = (38, 26) | TRGP = (20, 22) | BLGP = (39, 33)
screen height = 768 screen width = 1366

gaze height = 7 gaze width = 18

scales: X = 75.8888888889 | Y = 109.714285714
Thing on = True

Gaze point = (5, 3)
Screen point: (987, 329)

Gaze point = (5, 3)
Screen point: (987, 329)

Gaze point = (7, 5)
Screen point: (835, 549)

Thing on = False

TLGP = (37, 24) | TRGP = (22, 22) | BLGP = (35, 29)
screen height = 768 screen width = 1366

gaze height = 5 gaze width = 15
scales: X = 91.0666666667 | Y = 153.6
Thing on = True

Gaze point = (12, 3)
Screen point: (1093, 461)

Gaze point = (12, 3)
Screen point: (1093, 461)

ESC pressed

बस टकटकी अंक और उनके संबंधित टकटकी से पता लगाए गए स्क्रीन बिंदुओं को देखें (उनके अंतर्गत) एक्स में बड़े अंतर, y 'ordinates के मूल्यों मुझे पागल है bugging है सोमवार अंतिम प्रस्तुति है

इस दृष्टिकोण के बाद, मैं एक और एक, जहां में:

अंशांकन पहली विधि के रूप में किया जाता है मैं टकटकी की गति का पता लगाता हूं, और इसकी दिशा कहो, छात्र केंद्र के स्थान, पी और क्यू के किसी भी दो बिंदु दिए गए हैं, जहां पी सबसे पहले टकटकी बिंदु है, क्यू दूसरा है, फिर हम रेखा PQ की दिशा और लंबाई की गणना करते हैं।

मान लीजिए कि इस रेखा सेगमेंट की लंबाई एल है। हम फिर स्क्रीन अनुपात को एल के पैमाने पर कहते हैं, एल स्क्रीन डी पैमाने में डी है, और टकटकी आंदोलन की दिशा को देखते हुए, हम कर्सर को अपने अंतिम शेषतम बिंदु से स्क्रीन पर ले जाते हैं, आर, डी दूरी, एक नए बिंदु एस के लिए, जो लाइन खंड के अंत बिंदु के रूप में गणना की जाएगी, जिसका लंबाई डी है, और प्रारंभ बिंदु एस। आकृतिगत प्रतिनिधित्व आंकड़े में दिया गया है। इस प्रकार मूल रूप से, मैं स्क्रीन बिंदु पर कोई टकटकी डेटा नहीं मैप करता हूं, मैं मूल रूप से टकटकी को ट्रैक करता हूं, और इसे स्क्रीन पर कर्सर के लिए "धक्का" पर लागू किया जाता है। लेकिन मैंने इसे अभी तक लागू नहीं किया है क्योंकि यह वास्तव में समन्वय को स्क्रीन करने के लिए टकटकी नहीं करता है, और इस प्रकार यह गलत हो सकता है इस सिद्धांत के लिए प्रेरणा स्रोतिका पर ईवायाकैम परियोजना से ली गई थी - वे मूल रूप से अपना चेहरा ट्रैक करते हैं, और तदनुसार माउस को स्थानांतरित करते हैं। अंशांकन में वे सिर्फ गणना करते हैं कि आपके चेहरे कुल्हाड़ियों के साथ कितने कदम उठाते हैं

नीचे की पंक्ति : इसलिए यदि आपके पास कोई भी विचार है कि किसी उपयोगकर्ता की पूरी तरह से संसाधित आंख की छवि से पता लगाया जा सकता है - एक पता लगाए गए छात्र केंद्र और नेत्र कोनों के साथ , कृपया बताओ! मुझे सिर्फ एक दिन मिल गया है, और मैं इसकी देर से जानता हूं, लेकिन मुझे किसी भी जादुई विचार की आवश्यकता है जो मेरी मदद कर सकती है





eye-tracking