خانم پریا دربانی دانشجوی دکترای آقای دکتر حاکم بیتالهی مورخ ۱۴۰۲/۰۶/۲۰ ساعت ۱۶:۰۰ از رساله دکتری خود با عنوان "شتابدهنده دارای قابلیت بازپیکربندی برای اجرای کارآمد شبکههای عصبی پیچشی"دفاع خواهند نمود. |
ارائه دهنده:
پریا دربانی
استاد راهنما:
دکتر حاکم بیتالهی
اساتید مشاور:
دکتر پژمان لطفیکامران
هیات داوران:
دکتر ناصر مزینی؛ دکتر امیرمهدی حسینیمنزّه؛ دکتر مهدی مدرسی
؛ دکتر حسین اسدی
زمان : ۲۰ شهریور ماه ۱۴۰۲
ساعت ۱۶:۰۰
چکیده پایان نامه :
امروزه شبکههای عصبی پیچشی بهطور گسترده در بسیاری از کاربردهای هوش مصنوعی ازجمله پردازش تصویر استفاده میشوند. اجرای شبکههای عصبی پیچشی نیازمند انجام محاسبات زیاد با دقت بالا است. فراگیری استفاده از این شبکهها نیازمند به کارگرفتن روشهایی است که بدون کاهش دقت محاسباتی، باعث بهبود بهرهوری میشوند. از طرفی ساختار شبکههای عصبی پیچشی بهسرعت در حال تحول و پیشرفت است. وجه اشتراک تمام شبکهها، وجود چندین لایه با اندازههای ورودی، وزن و خروجی متفاوت است. شتابدهندۀ مخصوص شبکههای عصبی پیچشی یک پردازنده با ابعاد مشخص است که لایههای شبکۀ عصبی را یکی پس از دیگری اجرا میکند. شتابدهندههای آرایهای که از کنار هم قرار گرفتن تعدادی عنصر پردازشی تشکیل شدهاند، دستهای کاربردی از این پردازندهها هستند. در این شتابدهندهها ابعاد آرایه و اندازۀ هر عنصر پردازشی بر اساس برآیندی از تمام لایهها بهینهسازی میشود. به دلیل اختلاف ابعاد لایههای شبکۀ عصبی با یکدیگر و اجرا توسط یک پردازنده با ابعاد ثابت، در اجرای بعضی لایهها مسئلۀ منابع بیاستفاده به وجود میآید. مسئلۀ منابع بیاستفاده مانع از دسترسی شبکۀ عصبی به حداکثر بهرهوری ممکن میشود. معماری پیشنهادی با ارائۀ یک معماری دارای قابلیت بازپیکربندی مشکل بیاستفاده ماندن منابع را بهبود میبخشد. این روش به وسیلۀ کاهش تعداد منابع بیاستفاده، منجر به افزایش بهرهوری، افزایش گذردهی و کاهش دفعات دسترسی به حافظه خارج تراشه میشود.
Abstract:
Convolutional Neural Network (CNN) is used in many real-world applications due to its high accuracy. The rapid growth of modern applications based on learning algorithms has increased the importance of efficient implementation of CNNs. The array-type architecture is a well-known platform for the efficient implementation of CNN models, which takes advantage of parallel computation and data reuse. However, accelerators suffer from restricted hardware resources, whereas CNNs involve considerable communication and computation load. Furthermore, since accelerators execute CNN layer by layer, different shapes and sizes of layers lead to suboptimal resource utilization. This problem prevents the accelerator from reaching maximum performance. The increasing scale and complexity of deep learning applications exacerbate this problem. Therefore, the performance of CNN models depends on the hardware’s ability to adapt to different shapes of different layers to increase resource utilization. This work proposes a reconfigurable accelerator that can efficiently execute a wide range of CNNs. The proposed flexible and low-cost reconfigurable interconnect units allow the array to perform CNN faster than fixed-size implementations (by ۴۵.۹% for ResNet-۱۸ compared to the baseline). The proposed architecture also reduces the on-chip memory access rate by ۳۶.۵% without compromising accuracy.
|