تا به حال شده با خودتان فکر کنید که چه می شد اگر می توانستید حین آشپزی یا ورزش، با حرکت دست در هوا تبلت خود را کنترل کنید؟ یا به صورت بی سیم کامپیوتر را با حرکت انگشت های خود به نمایشگر متصل کنید؟ اینتل و AMD در CES 2013 نمونه های اولیه ای از محاسبات ادراکی را به نمایش گذاشتند که بر درک صدا، حسگرها و حرکات چشم کاربر توسط کامپیوتر تکیه دارد و می تواند این آرزو ها را محقق کند.
اینتل که کنترل های صوتی و حرکتی را تحت عنوان "محاسبات ادراکی" توصیف می کند، نمونه ای از تکنولوژی های تولیدی آزمایشگاه های خود را در CES نشان داد که در آنها کاربر با حرکت چشم می تواند بازی "والدو کجاست؟" را انجام دهد و شخصیت معروف آن را به خیره شدن به چهره آن، (بدون انجام هیچ کار فیزیکی دیگری) شناسایی کند. مسیر نگاه چشم توسط دوربین مخصوص دنبال کننده حرکات شناسایی می شد.
در نمونه دیگری از بازی (عکس زیر) فرد قادر بود با حرکات دست در هوا، مکعب بازی Portal 2 را جابه جا نماید. دوربین سه بعدی دنبال کننده حرکات دست، انجام این نمایش را بر روی صحنه ممکن کرده بود . اینتل می گوید که این دوربین از کینکت مایکروسافت هم کاراتر است و در ضمن، با یک اتصال USB ساده کار می کند در حالی که کینکت نیازمند منبع انرژی مجزا است.
AMD نیز شعبده های خودش را رو کرد و ویدیویی از ویژگی های کاربردی را به نمایش گذاشت که بر حرکات دست در هوا برای کنترل تبلت و پخش محتواهای چند رسانه ای از طریق حسگرها تأکید داشت. این ویژگی ها بر روی برخی از جدید ترین سیستم های برخوردار از چیپ های A8 و A10 کمپانی AMD برای دستگاه های موبایل قرار خواهند گرفت و نیازی به دوربین مجزا نخواهند داشت.
با وجود سختی ها، پیشرفت در این مسیر به سرعت ادامه دارد و به نظر می رسد راهی که مایکروسافت با کینکت شروع کرد دارد کم کم به سمت استفاده در کامپیوترها کج می شود. اینکه هر دو کمپانی پشتیبان پردازنده های x86 یعنی اینتل و AMD در این مسیر حرکت می کنند، نوید بخش ارائه جایگزین یا مکملی جدید برای رابط کاربری لمسی است. شاید در CES 2014 "پیشرفت بزرگ بعدی" را در دنیای کامپیوتر و پست پی سی شاهد باشیم.
جهت مشاهده کليه اخبار و مقالات مرتبط با نمايشگاه CES به صفحه اختصاصي گجت نيوز مراجعه کنيد. |
منبع : en.gadgetnews