شاهد بالفيديو.. "جوجل" تطبيق مبتكر يساعد فاقدي البصر على الجرى دون الحاجة إلي المساعدة
تجري شركة "غوغل" تجارب لتطبيق جديد يعتمد على تقنيات الذكاء
الاصطناعي لمساعدة ضعاف وفاقدي البصر على الركض بمفردهم دون مساعدة.
ووفقا لصحيفة "ديلي ميل" البريطانية، فإن التطبيق الجديد
"مشروع التوجيه" يستخدم كاميرا الهاتف لاستكشاف الخطوط والعلامات على الأرض
وإرشاد المستخدمين من فاقدي البصر وضعاف النظر بالتنبيهات الصوتية عبر سماعات الرأس
وجهاز يوضع حول الجسم.
وأفادت الصحيفة بأن الشركة أكدت أن فكرة التطبيق بدأت العام الماضي وما
زال في مراحله الأولى، وانطلقت بعد أن طلب منهم العداء الكفيف توماس بانيكن والذي شغل
منصب الرئيس التنفيذي لمؤسسة Guiding Eyes for the Blind، والذي بدأ المعاناة من ضعف البصر وهو في سن الثامنة
تصميم برنامج أو تطبيق يسمح له بالركض بشكل فردي دون الحاجة لأي مساعدة من البشر أو
الحيوانات.
وفقد توماس بانيكن البصر بشكل كامل في سن المراهقة، ما اضطره في النهاية
للتخلي عن هوايته المفضلة، وهي الجري، لكنه عاد لممارستها مرة أخرى بعد توفر مرشدين
بحريين وحيوانات، ولكنه كتب عبر مدونته أنه يرغب في المزيد من الاستقلالية.
وقال: "إذا انجرفت إلى يسار الخط ، فإن الصوت سيرتفع أكثر وأكثر تنافرًا
في أذني اليسرى و إذا انجرفت إلى اليمين، سيحدث نفس الشيء، لكن في أذني اليمنى".
ففي عام 2019 وأثناء حدث الهاكاثون، طلب بانيكن من غوغل تطوير تقنية تساعد
ضعاف وفاقدي البصر على ممارسة هواية الجري بشكل أكثر استقلالية.
وخلال عدة أشهر تمكن بانيك من استخدام التطبيق الجديد في مرحلته التجريبية
وأشاد به، وقال إنه حظي بحرية لم يشعر بها منذ عقود أثناء ممارسته لهوايته المفضلة
-الجري- حيث كان النظام قادرا على وضعه في الاتجاه الصحيح.
وذكرت الصحيفة أن التطبيق لا يحتاج للاتصال بالإنترنت، ويمكن الاعتماد عليه
في الظروف الجوية المختلفة.
النص الأصلى للخبر:
In
collaboration with nonprofit organization Guiding Eyes for the Blind, Google
today piloted an AI system called Project Guideline, designed to help blind and
low-vision people run races independently with just a smartphone. Using an app
that tracked the virtual race via GPS and a Google-designed harness that
delivered audio prompts to indicate the location of a prepainted line, Guiding
Eyes for the Blind CEO Thomas Panek attempted to run New York Road Runners’
Virtual Run for Thanks 5K in Central Park.
According
to the U.S. Centers for Disease Control and Prevention, in 2015, a total of
1.02 million people in the U.S. were blind and approximately 3.22 million
people had vision impairment. Technologies exist to help blind and low-vision
people navigate challenging everyday environments, but those who wish to run
must either rely on a guide animal or a human guide who’s tethered to them.
Google’s
Guideline app works without an internet connection and requires only a
guideline painted on a pedestrian path. Users wear an Android phone around the
waist using the aforementioned harness; the Guideline app runs a machine
learning model that looks for the painted line and identifies it. (The model,
which emerged from a Google hackathon, accounts for variables in weather and
lighting conditions.) Then, the app approximates the user’s position and
delivers audio feedback via bone-conducting headphones to help keep them on the
guideline. If the user is to the left of the line, they’ll hear audio in their
left ear increase in volume and dissonance, and if the user moves to the right
of the line, the same will happen in the their right ear.
“Imagine walking down a hallway in the dark with your arms
outstretched. As you drift to the left, you will feel the wall with your left
hand and move back to center to correct,” a Google spokesperson told
VentureBeat via email. “As you drift to the right, you will feel the wall with
your right hand and move back to center to correct. The same applies with
Project Guideline, only you hear the boundaries to your left and right, rather
than feel them.”
Beyond the
pilot with Panek, Google plans to partner with organizations to help paint
guidelines in different communities and provide additional feedback.