Web Analytics Made Easy - Statcounter

فیسبوک یک برنامه برای اصلاح تصاویری که افراد به طور تصادفی در آنها پلک زده‌اند و چشم‌هایشان بسته است، توسعه داده است.
به گزارش صدای ایران از ایسنا،  یک تیم از مهندسان فیس‌بوک از فناوری جدیدی به نام "in-painting"  استفاده کرده‌اند.

این برنامه چشم‌های باز را جایگزین چشم‌های بسته افراد در تصویر می‌کند، به طوریکه این جایگزینی بسیار واقعی به نظر می‌رسد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!


مهندسان یک سیستم یادگیری ماشین به نام "Generative Adversarial Network" را توسعه داده‌اند، که این سیستم به صورت خودکار چشم‌های بسته در عکس را اصلاح می‌کند.

در این سیستم دو شبکه عصبی چشم‌های افراد را تشخیص می‌دهند و تصاویر افراد که در آن چشم‌هایشان بسته است را توسط عکس‌های دیگر افراد که در آنها چشم‌هایشان باز است، اصلاح می‌کنند.

این شبکه‌های عصبی با استفاده از برنامه in-painting  و تصاویر جمع‌آوری شده اطلاعاتی مانند رنگ پوست، شکل و رنگ چشم کاربر بدست می‌آورند.

فیسبوک همچنین اشاره کرد که توسط این برنامه می‌توانند در موارد دیگری مانند تکمیل تصویر پس زمینه‌ای که در عکس به صورت کامل نیفتاده است، نیز استفاده کنند.

محققان گفتند که توسط این برنامه افراد می‌توانند برای اصلاح مواردی مانند اصلاح قرمزی چشم، پاک کردن لکه‌ها، تغییر برخی قسمت‌های چهره و آرایش مجازی استفاده کنند.

محققان همچنین افزودند: البته در تغییر قسمت‌های چهره "دره وهمی" (uncanny valley) یک مانع بزرگ به شمار می‌آید. به همین دلیل برای ایجاد تصاویری که واقعی به نظر برسند، ما سیستم یادگیری ماشین GAN را توسعه دادیم.

دره وهمی فرضیه‌ای در زیبایی شناسی است. بر اساس این فرضیه، اگر ویژگی‌ها و حرکت‌های یک پدیده مصنوعی تقریباً همانند نمونه طبیعی باشد(ولی نه کاملاً مطابق با آن)، اغلب بینندگان نسبت به آن حس دافعه خواهند داشت. منظور از دره در این جا کاهش منحنی پذیرش زیبایی‌شناسانه پدیده برای بینندگان است، وقتی که شباهت پدیده مورد بررسی به نمونه طبیعی بیشتر می‌شود. نمونه‌های این رفتار در رباتیک و پویانمایی سه بعدی رایانه‌ای دیده می‌شود.

فرضیهٔ دره وهمی می‌گوید که اگر ظاهر یک ربات هرچه بیشتر شبیه یک انسان واقعی شود، در آغاز واکنش احساسی برخی از بینندگان به ربات مثبت‌تر می‌شود، ولی از مرحله‌ای به بعد این واکنش به سرعت افت کرده و تبدیل به حس دافعه می‌شود. با این حال، اگر شباهت ربات به چهره انسانی آن قدر زیاد شود که از چهره انسان واقعی قابل تشخیص نباشد، واکنش احساسی دوباره مثبت می‌شود و به درجه هم‌ذات‌پنداری بین دو انسان می‌رسد.

محققان در این مطالعه تقریبا عکس 200 هزار نفر را که در یک یا چند عکس چشم‌هایشان باز بود، مورد بررسی قرار دادند.

محققان در یک مجموعه جداگانه 100 هزار عکس افراد مشهور را نیز جمع آوری کره بودند.

به منظور صحت عملکرد این سیستم، فیس‌بوک از کاربران خواست تا به تعدادی عکس نگاه کنند و وسپس بگویند که کدام عکس اصلاح نشده است. در 54 درصد مواقع این تصاویر اصلاح شده همانند تصویر واقعی بوده است.  

با این حال، محققان اشاره کردند که این سیستم همیشه هم موفق نیست زیرا هنگامیکه افراد در عکس عینک زده‌اند و یا به دلیل یک مدل موی خاص چشم‌هایشان تا حدودی معلوم نیست، این سیستم در تشخیص چشم‌ها با مشکل مواجه می‌شود.

با این حال تاکنون مشخص نیست که چه زمانی فیس‌بوک قصد دارد این فناوری را منتشر کند.  

منبع: صدای ایران

کلیدواژه: پلک زدن عکس هوش مصنوعی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت sedayiran.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «صدای ایران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۱۹۲۷۷۶۸۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هوش مصنوعی گرایش سیاسی افراد را از چهره‌شان می‌خواند

ایتنا - مطالعه‌ای جدید می‌گوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاه‌های سیاسی فرد مشابه این است که چگونه مصاحبه‌های شغلی می‌توانند موفقیت در شغل را پیش‌بینی کنند یا مصرف الکل می‌تواند خشونت را تحریک کند.
پس از آنکه نتایج یک پژوهش نشان داد هوش مصنوعی می‌تواند گرایش سیاسی افراد را از روی چهره‌های بدون حالت و بی‌احساس پیش‌بینی کند، محققان هشدار داد‌‌ند که فناوری‌های تشخیص چهره از آنچه قبلا به نظر می‌رسید، «تهدیدآمیزتر» شده‌‌ و برای حریم خصوصی چالش جدی به وجود آورده‌اند.  

مطالعه‌ای جدید که در مجله «روانشناس آمریکایی» (American Psychologist) منتشر شد، می‌گوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاه‌های سیاسی فرد مشابه این است که چگونه مصاحبه‌های شغلی می‌توانند موفقیت در شغل را پیش‌بینی کنند یا مصرف الکل می‌تواند خشونت را تحریک کند.

به گفته مایکل کوزینسکی، نویسنده ارشد این پژوهش، ۵۹۴ شرکت‌کننده قبل از آنکه هوش مصنوعی آنها را چهره‌نگاری (استخراج اطلاعات مخصوص و منحصربه‌فرد یک چهره مانند اندازه و شکل چشم، بینی، لب) کند، پرسشنامه‌‌ای درباره گرایش سیاسی خود پر کردند. سپس داده‌های چهره‌نگاری را با پاسخ‌ پرسشنامه‌های جهت‌گیری سیاسی مقایسه کردند تا با استفاده از اطلاعاتی که از چهره‌ها به دست آورده بود، جهت‌گیری سیاسی هر شخص را پیش‌بینی کند.

کوزینسکی می‌گوید: «فکر می‌کنم مردم متوجه نیستند با انتشار یک تصویر ساده، در واقع چقدر خود و اطلاعات شخصی‌شان را برای دیگران فاش می‌کنند.»

او افزود: «ما می‌دانیم که گرایش جنسی، سیاسی و تفکرات مذهبی افراد باید محفوظ بماند. این موضوع در گذشته متفاوت بود. در گذشته شما می‌توانستید به حساب کاربری فیس‌بوک افراد وارد شوید و به عنوان مثال گرایش‌های سیاسی، آنچه را که پسند می‌کنند (لایک می‌زنند) و صفحاتی را که دنبال کرده‌اند، ببینید. اما فیس‌بوک سال‌ها پیش آن را بست زیرا برای سیاست‌گذاران، فیس‌بوک و روزنامه‌نگاران واضح و مبرهن بود که این موضوع پذیرفتنی نیست و بسیار خطرناک است.»

کوسینسکی افزود: «در حال حاضر نیز هر کس می‌تواند به فیس‌بوک برود و عکس هر فردی را ببیند، حتی اگر آن فرد را هیچ‌وقت ملاقات نکرده و او اجازه دسترسی به عکسش را نداده باشد. این مطالعه نشان می‌دهد اطلاعاتی که در تصویر افراد وجود دارد، ممکن است مشابه افشای جهت‌گیری سیاسی آن‌ها باشد.»

محققان می‌گویند که تصاویر افراد شرکت‌کننده در این پژوهش را در شرایطی بسیار مشخص و کنترل‌شده جمع‌آوری کردند. به این ترتیب که این افراد همگی تی‌شرت‌های مشکی‌ پوشیده و زیور‌آلاتشان را در آورده‌ بودند و در صورت نیاز ریششان را هم اصلاح کرده بودند. همچنین با دستمال مرطوب آرایش صورتشان را پاک کرده و موهایشان را با کش مو، گیره یا تل سر به عقب کشیده بودند تا اطراف صورت پخش نشوند. سپس چهره‌ها را از طریق الگوریتم چهره وی‌جی‌جی فیس۲ (VGGFace2) بررسی کردند.

محققان هشدار می‌دهند که فناوری‌های نظارت بیومتریکی، به ویژه فناوری‌های تشخیص چهره، تهدیدی جدی‌تر از گذشته برای حریم شخصی افرادند. پژوهش‌های پیش‌تر نیز نشان داده بودند که تصاویر طبیعی چهره می‌تواند اطلاعات مهمی را درباره جهت‌گیری سیاسی و ویژگی‌های شخصی دیگر انتقال دهند اما مطمئن نبودیم که این پیش‌بینی‌ها به دلیل نحوه ارائه شخص و ویژگی‌های ثابت چهره (خنثی) فعال شده‌اند یا هر دو این عوامل. محققان می‌گویند، نتایج ما نشان می‌دهند که ویژگی‌های ثابت چهره در انتقال این سیگنال‌ها نقش مهمی دارند و افراد روی اطلاعات شخصی و حریم خصوصی خود کمترین کنترل را دارند، زیرا این اطلاعات بدون اجازه و کنترل شخص به دستگاه‌های نظارتی می‌رسد.

به گفته کوزینسکی، این الگوریتم‌ها را می‌توان بسیار سریع و ارزان برای میلیون‌ها نفر اعمال کرد. به عقیده او این مطالعه بیشتر یک هشدار درباره فناوری‌هایی است که در گوشی‌ها وجود دارد و به طور گسترده در همه‌جا استفاده می‌شود. 

دیگر خبرها

  • هوش مصنوعی گرایش سیاسی افراد را از چهره‌شان می‌خواند
  • ارزش افزوده در شهرهای کوچک ناچیز است و باید این قانون اصلاح شود
  • هوش مصنوعی جهت‌گیری سیاسی افراد را از روی چهره تشخیص می‌دهد
  • موضع تازه وزیر دفاع امریکا به حمله موشکی ایران
  • این ۶ جمله را تنها از افراد با شخصیت واقعی و صادق می شنوید
  • چربی مهمی که در هنگام لاغر کردن نباید بسوزانید
  • موضع تازه وزیر دفاع آمریکا درباره عملیات ایران علیه اسرائیل
  • سقوط مرگبار مینی‌بوس به دره باغملک
  • مرگ دو کارمند سازمان آب و برق در حادثه سقوط مینی‌بوس به دره
  • چرا ربات‌ها و هوش مصنوعی هنوز به گرد پای حیوانات نرسیده‌اند؟