عنوان فارسی:دانلود ترجمه مقاله حداقل اتلاف حاشیه ای برای تشخیص چهره عمیق
دانلود ترجمه مقاله حداقل اتلاف حاشیه ای برای تشخیص چهره عمیق – الزویر ۲۰۲۰:در این مقاله یک تابع اتلاف جدید به حداقل اتلاف حاشیه ای (MML) برای هدایت شبکه های عصبی عمیق به منظور یادگیری ویژگی های چهره ارائه شده است. براساس اطلاعات موجود، روش MML اولین تابع اتلاف است که تعیین حداقل حاشیه بین دسته های مختلف را در نظر می گیرد. ما نشان می دهیم که پیاده سازی تابع اتلاف پیشنهادی در شبکه های CNN بسیار ساده است و مدل های CNN ما به طور مستقیم توسط SGD استاندارد قابل بهینه سازی است.
عنوان فارسی مقاله: |
حداقل اتلاف حاشیه ای برای تشخیص چهره عمیق |
عنوان انگلیسی مقاله: | |
سال انتشار میلادی: | 2020 |
نشریه: |
Publisher : Elsevier – Science Direct (الزویر – ساینس دایرکت) تشخیص الگو – Pattern Recognition |
کلمات کلیدی فارسی: |
یادگیری عمیق، شبکه های عصبی کانولوشنی (CNN)، تشخیص چهره، حداقل اتلاف حاشیه ای (MML)
|
کلمات کلیدی انگلیسی: |
Deep learning – Convolutional neural networks – Face recognition – Minimum margin loss
|
تعداد صفحات ترجمه شده: | 21صفحه با فونت ۱۴ B Nazanin |
نویسندگان: |
Xin Wei، Hui Wang، Bryan Scotney، Huan Wan
|
موضوع: | هوش مصنوعی، مهندسی الگوریتم ها و محاسبات |
دسته بندی رشته: | مهندسی کامپیوتر |
فرمت فایل انگلیسی: | 9 صفحه با فرمت pdf |
فرمت فایل ترجمه شده: | Word |
کیفیت ترجمه: | عالی |
نوع مقاله: | isi |
تعداد رفرنس: |
مقاله انگلیسی+ترجمه فارسی
فهرست مطالب
چکیده
۱- مقدمه
۲- از تابع Softmax Loss تا تابع حداقل اتلاف حاشیه ای
۱-۲ Sotmax Loss و Center Loss
۲-۲ اتلاف حاشیه ای و اتلاف محدوده
۳-۲ حداقل اتلاف حاشیه ای پیشنهادی
۴-۲ بحث
۳- آزمایش ها
۱-۳ جزئیات آزمایش
۲-۳ تحلیل تاثیر بر پارامترهای β و M
۳-۳ چالش اول MegaFace در مجموعه داده FaceScrub
۴-۳ مقایسه با بهترین روش ها در مجموعه داده های LFW و YTF
۵-۳ مقایسه بیشتر در مجموعه داده SLLFW
۶-۳ نتایج براساس مجموعه داده های IJB-B و IJB-C
۴- نتیجه گیری
چکیده
تشخیص چهره به موفقیت عظیمی دست یافته است که دلیل اصلی آن توسعه سریع شبکه های عصبی عمیق (DNN) در چند سال اخیر است. کارکردهای مختلف اتلاف در یک شبکه عصبی عمیق قابل استفاده است که منجر به عملکرد متفاوتی می شود. اخیراً برخی از کارکردهای تلفات پیشنهاد داده شده است. با این حال، آن ها نمی توانند مساله تمایل حاشیه ای را که در مجموعه داده های غیر متعادل وجود دارد حل کنند. در این مقاله حل مساله تمایل حاشیه ای را با تعیین یک حاشیه حداقلی برای تمامی زوج کلاس ها (دسته ها) پیشنهاد می دهیم.
ما تابع اتلاف جدیدی به نام حداقل اتلاف حاشیه ای (MML) پیشنهاد می دهیم که هدف آن گسترش محدوده آن هایی است که به زوج های مرکزی دسته بیش از حد نزدیک می شوند تا قابلیت متمایز کننده ویژگی های عمیق را ارتقاء دهد. تابع MML همراه با توابع Softmax Loss و Centre Loss بر فرآیند آموزش نظارت می کنند تا حاشیه های تمامی دسته ها را صرف نظر از توزیع دسته آن ها مورد نظارت قرار دهند. ما تابع MML را در پلتفورم Inception-ResNet-v1 پیاده سازی می کنیم و آزمایش های گسترده ای را بر روی هفت مجموعه داده تشخیص چهره انجام می دهیم که شامل MegaFace، FaceScrub، LFW، SLLFW، YTF، IJB-B و IJB-C است. نتایج تجربی نشان می دهد که تابع اتلاف MML پیشنهادی منجر به حالت جدیدی در تشخیص چهره می شود و اثر منفی تمایل حاشیه ای را کاهش می دهد.
Abstract
Face recognition has achieved great success owing to the fast development of deep neural networks in the past few years. Different loss functions can be used in a deep neural network resulting in different performance. Most recently some loss functions have been proposed, which have advanced the state of the art. However, they cannot solve the problem of margin bias which is present in class imbalanced datasets, having the so-called long-tailed distributions. In this paper, we propose to solve the margin bias problem by setting a minimum margin for all pairs of classes.
We present a new loss function, Minimum Margin Loss (MML), which is aimed at enlarging the margin of those overclose class centre pairs so as to enhance the discriminative ability of the deep features. MML, together with Softmax Loss and Centre Loss, supervises the training process to balance the margins of all classes irrespective of their class distributions. We implemented MML in Inception-ResNet-v1 and conducted extensive experiments on seven face recognition benchmark datasets, MegaFace, FaceScrub, LFW, SLLFW, YTF, IJB-B and IJB-C. Experimental results show that the proposed MML loss function has led to new state of the art in face recognition, reducing the negative effect of margin bias.
نمونه ترجمه مقاله:
- مقدمه
در ده سال گذشته، روش های مبتنی بر شبکه عصبی عمیق (DNN) به پیشرفت عظیمی در زمینه تصویرهای رایانه ای شامل تشخیص چهره [1]، شناسایی مجدد افراد [2]، تشخیص اشیا و تشخیص اقدام دست یافته است. پیشرفت در حوزه تشخیص چهره به دلیل دو عامل مهم یعنی مجموعه داده های بزرگتر چهره و توابع اتلاف بهتر به دست آمده است.
کمیت و کیفیت مجموعه داده های چهره برای آموزش تاثیر مستقیمی بر عملکرد یک مدل DNN در تشخیص چهره دارند. این مجموعه داده ها به صورت عمومی در دسترس قرار دارند که نمونه آن MS-Celeb-1M [5]، VGGFace2 [6]، MegaFace [7] و CASIA WebFace [8] است. همانطور که در جدول 1 نشان داده شده است، مجموعه داده CASIA WebFace شامل تصاویر 0.5 M از چهره است؛ مجموعه داده VGGFace2 به طور کلی شامل تصاویر 3M چهره اما تنها از هویت های 9K است. مجموعه داده MS-Celeb-1M و MegaFace شامل تصاویر و هویت های بیشتری است، بنابراین می بایست دارای توان بالقوه بیشتری برای آموزش یک مدل DNN بهتر باشد. با این حال، هر دو مجموعه داده MS-Celeb-1M و MegaFace دارای مشکل توزیع long-tailed هستند [29] که به این معنا است که اقلیت افراد دارای بخش اعظیمی از تصاویر چهره هستند و تعداد زیادی از افراد دارای تصاویر چهره بسیار محدودی هستند. با استفاده از مجموعه داده ها با توزیع long-tailed، مدل آموزش دیده تمایل به تناسب بیش از حد با دسته های دارای نمونه زیاد دارد که سبب تضعیف توانایی تعمیم در بخش long-tailed می شود [9]. به ویژه، دسته هایی که دارای نمونه های غنی هستند تمایل دارند که حاشیه نسبتاً بزرگی بین مراکز دسته خود داشته باشند؛ متقابلاً، دسته هایی که دارای نمونه های محدود هستند تمایل دارند تا حاشیه نسبتاً کوچکی بین مراکز دسته خود داشته باشند چرا که آن ها تنها منطقه کوچکی را در فضا اشغال می کنند و در نتیجه به آسانی فشرده می شوند. این مساله تمایل به حاشیه به دلیل توزیع long-tailed دسته است که منجر به افت عملکرد در تشخیص چهره می شود [9].