زمانبندی وظایف برنامههای کاربردی اینترنت اشیا در محیط رایانش مه با استفاده از یادگیری تقویتی عمیق
محورهای موضوعی : مهندسی برق و کامپیوترپگاه گازری 1 , دادمهر رهبری 2 , محسن نیک رای 3
1 - دانشگاه قم
2 - دانشگاه قم
3 - دانشگاه قم
کلید واژه: اینترنت اشیاءرایانش مهزمان بندی وظایفیادگیری تقویتی عمیق,
چکیده مقاله :
همزمان با فراگیرشدن تکنولوژی اینترنت اشیا در سالهای اخیر، تعداد دستگاههای هوشمند و به تبع آن حجم دادههای جمعآوریشده توسط آنها به سرعت در حال افزایش است. از سوی دیگر، اغلب برنامههای کاربردی اینترنت اشیا نیازمند تحلیل بلادرنگ دادهها و تأخیر اندک در ارائه خدمات هستند. تحت چنین شرایطی، ارسال دادهها به مراکز داده ابری جهت پردازش، پاسخگوی نیازمندیهای برنامههای کاربردی مذکور نیست و مدل رایانش مه، انتخاب مناسبتری محسوب میگردد. با توجه به آن که منابع پردازشی موجود در مدل رایانش مه دارای محدودیت هستند، استفاده مؤثر از آنها دارای اهمیت ویژهای است.در این پژوهش به مسئله زمانبندی وظایف برنامههای کاربردی اینترنت اشیا در محیط رایانش مه پرداخته شده است. هدف اصلی در این مسئله، کاهش تأخیر ارائه خدمات است که جهت دستیابی به آن، از رویکرد یادگیری تقویتی عمیق استفاده شده است. روش ارائهشده در این مقاله، تلفیقی از الگوریتم Q-Learning، یادگیری عمیق و تکنیکهای بازپخش تجربه و شبکه هدف است. نتایج شبیهسازیها نشان میدهد که الگوریتم DQLTS از لحاظ معیار ASD، ۷۶% بهتر از الگوریتم QLTS و 5/6% بهتر از الگوریتم RS عمل مینماید و نسبت به QLTS زمان همگرایی سریعتری دارد.
With the advent and development of IoT applications in recent years, the number of smart devices and consequently the volume of data collected by them are rapidly increasing. On the other hand, most of the IoT applications require real-time data analysis and low latency in service delivery. Under these circumstances, sending the huge volume of various data to the cloud data centers for processing and analytical purposes is impractical and the fog computing paradigm seems a better choice. Because of limited computational resources in fog nodes, efficient utilization of them is of great importance. In this paper, the scheduling of IoT application tasks in the fog computing paradigm has been considered. The main goal of this study is to reduce the latency of service delivery, in which we have used the deep reinforcement learning approach to meet it. The proposed method of this paper is a combination of the Q-Learning algorithm, deep learning, experience replay, and target network techniques. According to experiment results, The DQLTS algorithm has improved the ASD metric by 76% in comparison to QLTS and 6.5% compared to the RS algorithm. Moreover, it has been reached to faster convergence time than QLTS.