• ساعت : ۱۲:۵۷:۱۲
  • تاريخ :
     ۱۳۹۹/۰۴/۰۹ 
  • تعداد بازدید : 8
  • کد خبر : ۲۳۹۷
چگونه NIST، الگوریتم‌های تشخیص چهره را برای تفاوت نژادی آزمود

چگونه NIST، الگوریتم های تشخیص چهره را برای تفاوت نژادی آزمود؟

فناوری تشخیص چهره هم اکنون برای کاربردهایی از قفل گشایی تلفن ها تا تشخیص بزهکاران بالقوه مورد استفاده قرار می گیرد. علی رغم پیشرفت ها، هنوز به لحاظ تبعیض نژادی، مورد انتقاد قرار دارد: بسیاری از الگوریتم های تشخیص چهره که عملکرد خیلی خوبی در شناسایی سفیدپوستان دارند؛ در تشخیص چهره رنگین پوستان عملکرد ضعیفی از خود نشان داده اند. هفته گذشته، موسسه ملی استانداردها و فناوری (NIST) گزارشی را منتشر کرد که نشان می داد 189 الگوریتم تشخیص چهره که به وسیله 99 توسعه دهنده در سراسر جهان عرضه شده اند، در تشخیص افراد از جوامع آماری مختلف چگونه عمل می کنند؟

در کنار سایر نتایج حاصله، تست های NIST نشان داده که بسیاری از این الگوریتم ها در شناسایی عکس یک چهره سیاه پوست یا آسیای شرقی در مقایسه با یک چهره سفید پوست، با احتمال 10 تا 100 برابر بیشتر خطا دارند. همچنین در تست دیگر، در جستجو و شناسایی تصویر یک فرد مشخص در یک پایگاه داده، احتمال شناسایی نادرست تصویر یک زن سیاه پوست نسبت به سایر جمعیت ها بیشتر می باشد.

این گزارش، بخش سوم آخرین ارزیابی برای عرضه برنامه NIST به نام آزمون تأمین کننده تشخیص چهره (FRVT) می باشد که قابلیت های الگوریتم های مختلف تشخیص چهره را ارزیابی می کند. واتسون کریگ، مدیر گروه تصویر در NIST عنوان می کند: «هدف ما این است که این برنامه بتواند مباحث معناداری را ارایه نماید و داده های تجربی را برای تصمیم گیران، سیاست گذاران و کاربران نهایی عرضه کند تا از دقت، سودمندی، قابلیت ها و محدودیت های این فناوری آگاه شوند. ما می خواهیم کاربران نهایی و سیاست گذاران این نتایج را ببینند و خودشان تصمیم بگیرند». امریکن ساینتیست درباره نحوه اجرای ارزیابی های تیم واتسون با او گفتگو کرده است.

برنامه آزمون تأمین کننده تشخیص چهره چیست؟

این یک آزمون الگوریتم هسته برای قابلیت های تشخیص چهره است. بخش اول به موضوع "دقت تایید یک به یک" پراخته است: الگوریتم ها چقدر خوب می توانند دو تصویر را مقایسه کرده و به شما بگویند که یک فرد هستند یا خیر؟ یک کاربرد می تواند مانند تلفن شما باشد: وقتی می خواهید تلفن خود را باز کنید، اگر از تشخیص چهره استفاده می کنید چهره خود را به تلفن نشان می دهید. این برنامه می گوید «آیا شما همان شخصی هستید که می تواند به این تلفن دسترسی یابد یا خیر؟»

سپس بخش دوم به تشخیص هویت یک به چند پرداخته است. این بخش، یک گالری از تصاویر نامعین را جستجو می کند و اگر تطابقی در گالری وجود داشته باشد، آیا الگوریتم می توان با دقت به آن باز گردد؟

بوسیله جستجوهای یک به چند، شما می توانید از سیستم کنترل دسترسی برای یک مرکز استفاده کنید: به طور ایده آل، کسی که وارد می شود، بیومتریک خود را عرضه می کند. این با مشخصات افراد مجاز برای دسترسی مقایسه می شود و آنگاه دسترسی آنها به طور خودکار صورت می گیرد. این شیوه به وسیله مجری قانون نیز به کار می رود- جستجوی یک پایگاه داده از بزهکاران بالقوه برای تعیین این که آیا کسی در آن بزهکار است یا خیر. آنچه که در این زمینه تاکید دارم آن است که هر چیزی که از الگوریتم در آن رخ می دهد، معمولا به یک دیدگاه انسانی باز می گردد.

سامانه چشم دوران

و این بخش سوم به تفاوت های جمعیتی برای هر دو کاربرد یک به یک و یک به چند می پردازد که ببیند آیا الگوریتم ها در جوامع آماری مختلف مجموعه داده به طور متفاوتی عمل می کنند؟

نتایج بخش سه چه بودند؟

ما دو نوع خطا را گزارش می کنیم: مثبت های کاذب و منفی های کاذب. یک مثبت کاذب زمانی است که یک الگوریتم می گوید که دو تصویر یک فرد هستند در حالی که در واقع چنین نیست. یک منفی کاذب زمانی است که یک الگوریتم می گوید که دو تصویر یک فرد نیستند در حالی که در واقع چنین است. اگر تلاش دارید که به تلفن خود دسترسی یابید، و چهره خود را عرضه می کنید، و به شما دسترسی نمی دهد، این یک منفی کاذب است. در این مورد، شاید به نوعی ناراحت کننده باشد، شما می توانید بار دوم چهره خود را نشان دهید و آنگاه به گوشی خود دسترسی یابید. و یک نکته مثبت کاذب: اگر شما در حال استفاده از سیستم کنترل دسترسی به یک مرکز هستید، نگرانی برای صاحب مرکز وجود دارد. زیرا مثبت نادرست باعث می شود افرادی دسترسی به مرکز را داشته باشند که مجوز دسترسی به آن را ندارند. همچنین اگر تحت بازرسی مجری قانون قرار بگیرید، امکان دارد افرادی اشتباها در لیست قرار بگیرند.

یکی از چیزهایی که یافتیم آن است که اغلب الگوریتم های عرضه شده، سطوحی از تفاوت جمعیتی را نشان می دهند. ما دریافتیم که مثبت های کاذب به طور کلی از منفی های کاذب بیشتر هستند. آنها در اغلب الگوریتم ها تا حدی وجود دارند اما در واقع نه در همه آنها. در مورد یک به یک، عملکرد واقعا گسترده ای وجود دارد. برخی الگوریتم ها در جمعیت های خاصی نسبت به سایرین، خطاهای قابل توجهی – تا 100 درصد- دارند. و این به نوعی بدترین جنبه است. اما الگوریتم هایی نیز هستند که خطاهای کمتری دارند و بهتر عمل می کنند. بنابراین نکته اصلی در اینجا این است که تنوع گسترده ای در عملکرد وجود دارد. ما قویا افراد را به شناخت الگوریتم خود، داده ها خود، و کاربرد خود در زمان تصمیم گیری تشویق می کنیم.

به نظر می رسد که الگوریتم های توسعه یافته در کشورهای آسیایی نسبت به چهره های غیرسفیدپوست بهتر عمل می کنند. این گزارش در این باره چه می گوید؟

آنچه که در این زمینه به طور خاص مطرح می شود آن است که الگوریتم های توسعه یافته در کشورهای آسیایی، تفاوت جمعیتی برای چهره های آسیایی نداشتند. و این نشان می دهد که این امیدواری وجود دارد که داده های آموزش داده به الگوریتم ها بتواند این عملکردها را بهبود بخشد. به طور دقیق نمی دانیم که چه الگوریتم آموزش داده شد. ما فقط فرض می کنیم که الگوریتم های کشورهای آسیایی با چهره های آسیایی بیشتری نسبت به اغلب الگوریتم های دیگر آموزش داده می شوند.

بنابراین چرا توسعه دهندگان در آمریکا، الگوریتم های خود را با چهره های متنوع تری آموزش نداده اند؟

وقتی شما وارد این شبکه های عصبی یادگیری عمیق و پیچشی می شوید، به مقادیر زیادی داده نیاز داشته و باید به آن داده ها دسترسی یابید. که شاید موضوع کم اهمیتی نیست.

NIST از کجا تصاویر و داده ها را برای این آزمون ها به دست آورده است؟

ما اسپانسرهای دیگری داریم که مقادیر عظیمی از داده های عملیاتی گمنام را عرضه می کنند. در این آزمون ویژه، چهار مجموعه داده داریم. تصاویر بازداشتی های داخل کشور را داریم که FBI تهیه کرده است، تصاویر اپلیکیشن ها برای مهاجرت، تصاویر درخواست ویزا در وزارت خارجه و تصاویر متجاوزان مرزی برای ورود به آمریکا از سازمان امنیت ملی. و متذکر می شوم که این داده ها قبل از ارایه به NIST، تحت بررسی سوژه انسانی، بررسی قانونی و بررسی حریم خصوصی قرار می گیرند.

مقادیر داده بسیاری وجود دارد. در این مورد، کمی بیش از 18 میلیون تصویر از بیش از هشت میلیون سوژه وجود داشت که به ما اجازه داد این آزمون را انجام دهیم. و این داده ها که با متادیتاهای مختلف از قبیل تصویر بازداشتی FBI همراه هستند، گروه نژادی آنها سیاه یا سفید بود. و می توانیم آن متادیتا را برای این تحلیل های تفاوت جمعیتی به کار ببریم. برای داده های سازمان امنیت ملی، کشور محل تولد را داشتیم و از آن به عنوان نماینده نژاد استفاده می کنیم که بتوانیم داده را در هفت گروه مختلف منطقه ای در جهان تقسیم کنیم. سپس سن و جنسیت را در اغلب داده ها در نظر می گیریم که به ما امکان این تحلیل را می دهد.

داده هایی که در این جا در آمریکا توقیف شده است را به اشتراک نمی گذاریم. آنچه که انجام می دهیم آن است که یک رابط برنامه (API) را برای اجرای آزمون توسعه می دهیم. بنابراین خودمان همه سخت افزار را در NIST داریم. ما درایور را در انتها جمع آوری می کنیم و آن را به نرم افزار آنها متصل می نماییم و سپس آن را روی سخت افزار خود اجرا می کنیم. این API فقط چگونگی توزیع بار روی سخت افزار ما و نحوه دسترسی ما به تصاویر را کنترل می کند. بنابراین موضوع کنترل آزمون و کنترل داده است.

امتیاز :  ۰ |  مجموع :  ۰

برچسب ها

    © تمامی حقوق این پورتال محفوظ و در اختیار گروه دوران می باشد.

    5.6.5.0
    V5.6.5.0