[صفحه اصلی ]    
بخش‌های اصلی
درباره دانشکده::
مدیریت دانشکده::
اعضای هیات علمی ::
معرفی افراد::
امور آموزش::
امور فرهنگی::
امور پژوهشی::
اخبار و رویدادها::
فضاهای آموزشی و تحقیقاتی ::
تسهیلات پایگاه::
تماس با ما::
::
ورود به سایت دروس
دانشجویان روزانه و پردیس
دانشجویان مرکز آموزش الکترونیکی
..
اطلاعیه ها
 اطلاعیه های آموزشی
..
فراخوان ها
فراخوان های همکاری با صنعت و سازمان ها
..
دفاعیه‌ها

دفاعیه های دکتری

۱۴۰۳/۳/۲۶ - علی السیلاوی
۱۴۰۳/۲/۲۴ - رحمن عمیری


دفاعیه های کارشناسی ارشد

..
جستجو در پایگاه

جستجوی پیشرفته
..
دریافت اطلاعات پایگاه
نشانی پست الکترونیک خود را برای دریافت اطلاعات و اخبار پایگاه، در کادر زیر وارد کنید.
..
:: پریا دربانی ::
 | تاریخ ارسال: 1402/6/18 | 

خانم پریا دربانی دانشجوی دکترای آقای دکتر حاکم بیت‌الهی مورخ  ۱۴۰۲/۰۶/۲۰ ساعت ۱۶:۰۰ از رساله دکتری خود با عنوان "شتاب‌دهنده دارای قابلیت بازپیکربندی برای اجرای کارآمد شبکه‌های عصبی پیچشی"دفاع خواهند نمود.

 

ارائه ­دهنده:
پریا دربانی

  استاد راهنما:
دکتر حاکم بیت‌الهی

اساتید مشاور:
دکتر پژمان لطفی‌کامران


  هیات داوران:

دکتر ناصر مزینی؛ دکتر امیرمهدی حسینی‌منزّه؛ دکتر مهدی مدرسی
؛ دکتر حسین اسدی

زمان : ۲۰ شهریور ماه ۱۴۰۲

  ساعت ۱۶:۰۰

       


چکیده پایان نامه :
 

امروزه شبکه‌های عصبی پیچشی به‌طور گسترده در بسیاری از کاربردهای هوش مصنوعی ازجمله پردازش تصویر استفاده میشوند. اجرای شبکه‌های عصبی پیچشی نیازمند انجام محاسبات زیاد با دقت بالا است. فراگیری استفاده از این شبکه‌ها نیازمند به کارگرفتن روش‌هایی است که بدون کاهش دقت محاسباتی، باعث بهبود بهره‌وری می‌شوند. از طرفی ساختار شبکه‌های عصبی پیچشی به‌سرعت در حال تحول و پیشرفت است. وجه اشتراک تمام شبکه‌ها، وجود چندین لایه‌ با اندازه‌های ورودی، وزن و خروجی‌ متفاوت است. شتاب‌دهندۀ مخصوص شبکه‌های عصبی پیچشی یک پردازنده با ابعاد مشخص است که لایه‌های شبکۀ عصبی را یکی پس از دیگری اجرا می‌کند. شتاب‌دهنده‌های آرایه‌ای که از کنار هم قرار گرفتن تعدادی عنصر پردازشی تشکیل شده‌اند، دسته‌ای کاربردی از این پردازنده‌ها هستند. در این شتاب‌دهنده‌ها ابعاد آرایه و اندازۀ هر عنصر پردازشی بر اساس برآیندی از تمام لایه‌ها بهینه‌سازی می‌شود. به دلیل اختلاف ابعاد لایه‌های شبکۀ عصبی با یکدیگر و اجرا توسط یک پردازنده با ابعاد ثابت، در اجرای بعضی لایه‌ها مسئلۀ منابع بی‌استفاده به وجود می‌آید. مسئلۀ منابع بی‌استفاده مانع از دسترسی شبکۀ عصبی به حداکثر بهرهوری ممکن می‌شود. معماری پیشنهادی با ارائۀ یک معماری دارای قابلیت بازپیکربندی مشکل بی‌استفاده ماندن منابع را بهبود می‌بخشد. این روش به وسیلۀ کاهش تعداد منابع بی‌استفاده، منجر به افزایش بهره‌وری، افزایش گذردهی و کاهش دفعات دسترسی به حافظه خارج تراشه می‌شود.
 

 
 
Abstract:
Convolutional Neural Network (CNN) is used in many real-world applications due to its high accuracy. The rapid growth of modern applications based on learning algorithms has increased the importance of efficient implementation of CNNs. The array-type architecture is a well-known platform for the efficient implementation of CNN models, which takes advantage of parallel computation and data reuse. However, accelerators suffer from restricted hardware resources, whereas CNNs involve considerable communication and computation load. Furthermore, since accelerators execute CNN layer by layer, different shapes and sizes of layers lead to suboptimal resource utilization. This problem prevents the accelerator from reaching maximum performance. The increasing scale and complexity of deep learning applications exacerbate this problem. Therefore, the performance of CNN models depends on the hardware’s ability to adapt to different shapes of different layers to increase resource utilization. This work proposes a reconfigurable accelerator that can efficiently execute a wide range of CNNs. The proposed flexible and low-cost reconfigurable interconnect units allow the array to perform CNN faster than fixed-size implementations (by ۴۵.۹% for ResNet-۱۸ compared to the baseline). The proposed architecture also reduces the on-chip memory access rate by ۳۶.۵% without compromising accuracy.

 

دفعات مشاهده: 1203 بار   |   دفعات چاپ: 189 بار   |   دفعات ارسال به دیگران: 0 بار   |   0 نظر
سایر مطالب این بخش سایر مطالب این بخش نسخه قابل چاپ نسخه قابل چاپ ارسال به دوستان ارسال به دوستان
data
Persian site map - English site map - Created in 0.16 seconds with 53 queries by YEKTAWEB 4657