PDF

دانلود پایان نامه : مقایسه cumulative reward در شبکه عصبی مصنوعی (ANN)

اگر دانشجو و یا محقق هستید با پایان نامه های انگلیسی و جدید سایت پروجکت دانلود می توانید سریع , راحت و حرفه ای تر مقالات و پروژه های خود را تالیف کنید ! پروجکت دانلود , جدیدترین پروژه ها , مقالات , پایان نامه ها و تز های مقاطع مختلف تحصیلی از بهترین دانشگاههای جهان را برای شما فراهم می کند . در این مطلب با دانلود متن کامل پایان نامه انگلیسی : مقایسه cumulative reward در شبکه عصبی مصنوعی (ANN)  همراه شما هستیم .
.

موضوع : متن کامل پایان نامه انگلیسی : مقایسه cumulative reward در شبکه عصبی مصنوعی (ANN)

رشته :  کامپیوتر و برنامه نویسی – نرم افزار و سخت افزار  – هوش مصنوعی

سال انتشار : 2021

زبان : انگلیسی

مقطع : کارشناسی ارشد

چکیده (ترجمه ماشینی ) :

سابقه و هدف: در یادگیری ماشینی ، شما اجازه می دهید رایانه یک میلیون بار یک سناریو را بازی کند. هنگامی که رایانه بازی می کند براساس راهنماهای از پیش تعیین شده بازخورد دریافت می کند. سپس رایانه بر اساس آن بازخورد رفتار خود را تنظیم می کند. روشی که کامپیوتر بازخورد خود را ذخیره می کند در شبکه عصبی مصنوعی (ANN)  است. ANN از یک لایه ورودی ، مقدار مشخصی از لایه های پنهان و یک لایه خروجی تشکیل شده است. ANN اقدامات را با استفاده از وزن بین گره های هر لایه محاسبه می کند و هنگام دریافت بازخورد ، آن وزن ها را اصلاح می کند. ml-agents پیاده سازی Unity Technologies از یادگیری ماشین است. Objectives.ml-agent یک سیستم پیچیده با تنظیمات مختلف است. این امر منجر به این می شود که کاربران برای دستیابی به بهترین نتیجه از منابع مختلفی در مورد پیکربندی استفاده کنند. هدف پایان نامه ما این بود که به این سوال پاسخ دهیم که چند لایه پنهان بهترین نتیجه را می دهد. ما این کار را با تلاش برای پاسخ دادن به س ourال تحقیقاتی خود انجام دادیم: “چند لایه مورد نیاز است تا شبکه بتواند پیچیدگی های محیط را بدست آورد؟”. روش ها. ما از یک محیط از پیش ساخته شده توسط Unity استفاده کردیم ، که در آن عامل قصد دارد تا زمانی که ممکن است یک توپ را روی سر خود نگه دارد. این آموزش توسط Tensorflow جمع آوری شد ، سپس نمودارهایی برای هر جلسه آموزشی ارائه شد. ما برای ارزیابی جلسات آموزشی از این نمودارها استفاده کردیم. هر جلسه تمرینی را چندین بار اجرا کردیم تا نتایج سازگار تری بدست آوریم. برای ارزیابی جلسات آموزشی ، اوج نمودار پاداش تجمعی آنها و در مرحله دوم سرعت رسیدن آنها به این اوج را بررسی کردیم. نتایج. ما دریافتیم که فقط با یک لایه ، عامل فقط می تواند تقریباً یک پنجم از راه پیچیدگی محیط را بدست آورد. با این حال ، عامل با دو و سه لایه قادر به گرفتن پیچیدگی محیط بود. سه جلسه آموزش لایه ای 22 درصد سریعتر از دو لایه به اوج پاداش تجمعی خود رسیدند. نتیجه گیری. ما موفق به دریافت پاسخ سوال تحقیق خود شدیم. حداقل میزان لایه های پنهان مورد نیاز برای گرفتن پیچیدگی محیط دو برابر است. با این وجود ، عامل با یک لایه اضافی توانست همان نتیجه را سریعتر بدست آورد.

دانلود پایان نامه : مقایسه cumulative reward در شبکه عصبی مصنوعی (ANN)

لینک دانلود پس از خرید نمایش داده خواهد شد
30,000 تومان – خرید

دیدگاهتان را بنویسید