یک مطالعه نگران کننده جدید نشان میدهد که چهرههای جعلی ایجاد شده توسط هوش مصنوعی (AI) قابل اعتمادتر از چهره افراد واقعی به نظر میرسند.
فرارو-یک مطالعه نگران کننده جدید نشان میدهد که چهرههای جعلی ایجاد شده توسط هوش مصنوعی (AI) قابل اعتمادتر از چهره افراد واقعی به نظر میرسند.
به گزارش فرارو، اخیرا دانشمندان توانسته اند با استفاده از هوش مصنوعی چهرههای انسانی ایجاد کنند، این چهرهها به قدری واقعی هستند که ممکن است مردم نتوانند آنها را از چهرههای واقعی تشخیص دهند و به راحتی به این چهرههای جعلی اعتماد کنند. این چهرههای جعلی به قدری متقاعد کننده هستند که حتی میتوانند ناظران آموزش دیده را نیز فریب دهند و برای کلاهبرداری بسیار موثر باشند!
این چهرهها را میتوان به راحتی به صورت آنلاین دانلود کرد و برای کلاهبرداریهای اینترنتی و پروفایلهای جعلی رسانههای اجتماعی استفاده کرد. سوفی نایتینگل از دانشگاه لنکستر بریتانیا میگوید: «ما باید نگران باشیم، زیرا این چهرههای مصنوعی برای اهداف پلید، مثلاً برای مواردی مانند فیلمهای مستهجن انتقامجویانه یا کلاهبرداری، فوقالعاده مؤثر هستند». برخی برنامههای هوش مصنوعی با نام شبکههای متخاصم مولد یا GAN میتوانند با قرار دادن دو شبکه عصبی در برابر یکدیگر تصاویر جعلی ایجاد کنند، تصاویری که تشخیص آنها از تصاویر واقعی کار بسیار سختی است.
نایتینگل و همکارش هانی فرید در دانشگاه برکلی کالیفرنیا، از ۳۱۵ شرکت کننده که در یک وب سایت جمع سپاری استخدام شده بودند، خواستند که ۴۰۰ عکس جعلی را از بین تصاویری که به آنها نشان داده میشود تشخیص دهند. هر مجموعه متشکل از ۱۰۰ نفر از هر یک از چهار گروه قومی سفید، سیاه پوست، آسیای شرقی و جنوب آسیا بود. این گروه دارای میزان دقت ۴۸.۲ درصد بود. به گروه دوم که از ۲۱۹ شرکت کننده تشکیل شده بود، نحوه تشخیص چهرههای تولید شده توسط کامپیوتر آموزش داده شد. این گروه دارای میزان دقت ۵۹ درصد بود، اما این تفاوت ناچیزی نسبت به دقت گروه اول است.
تشخیص چهرههای سفید برای مردم سختتر بود، شاید به این دلیل که نرمافزار سنتز برای چهرههای سفید بهطور مناسب آموزش داده نشده بود. محققان همچنین از یک گروه جداگانه متشکل از ۲۲۳ شرکتکننده خواستند تا به واقعی بودن چهرههایی که به آنها نشان داده میشود، از ۱ تا ۷ امتیاز دهند. آنها چهرههای جعلی را به طور متوسط ۸ درصد قابل اعتمادتر از چهره واقعی ارزیابی کردند. به گفته نایتینگل این یک تفاوت کوچک، اما قابل توجه بود. او میگوید که اشتباه در تشخیص ممکن است به این دلیل باشد که چهرههای مصنوعی بیشتر شبیه چهرههای انسانهای معمولی هستند و مردم بیشتر به چهرههایی با ظاهر معمولی اعتماد میکنند.
چهار چهرهای که بیش از همه غیرقابل اعتماد ارزیابی شده بودند، چهرههای واقعی بودند؛ در حالی که سه چهرهای که امتیاز قابل اعتمادترین چهرهها را کسب کردند، در واقع چهرههایی جعلی بودند! نایتینگل میگوید: «ما در این زمینه به دستورالعملهای اخلاقی سختگیرانهتر و چارچوبهای قانونی بیشتری نیاز داریم، زیرا ناگزیر افرادی هستند که میخواهند از این تصاویر برای آسیب رساندن استفاده کنند، و این نگرانکننده است.» او میگوید: «توسعه دهندگان برای کاهش دادن این خطرات میتواند واترمارکهایی را به تصاویر خود اضافه کنند تا آنها را جعلی معرفی کنند. این ایدهی بدی به نظر نمیرسد. اگر کاری برای جلوگیری از آن انجام ندهیم، فقط بدتر خواهد شد.»
منبع: newscientist