افزایش گذردهی در شبکه رادیو شناختی ادهاک بی سیم با NS2
در این بخش پروژه شبیه سازی افزایش گذردهی در شبکه رادیو شناختی ادهاک بی سیم (CRAHN) با الگوریتم اتوماتای یادگیر در نرم افزار NS2 را به همراه فیلم نحوه اجرا و خروجی گرفتن آماده کرده ایم که در ادامه به تشریح صورت مسئله پرداخته و فیلم و تصاویر خروجی قرار داده شده است. در این پروژه پس از شبیه سازی روش کار با نرم افزار NS2.31 و استخراج نتایج شبیه سازی، نمودار ها را در نرم افزار MATLAB رسم کرده ایم.
شرح صورت مسئله برای شبیه سازی
می خواهیم در یک شبکه اقتضایی (ادهاک یا MANET) با استفاده از الگوریتم اتوماتای یادگیر (Learning Automata – LA) کانال های خالی را در شبکه اولیه پیش بینی کنیم تا وقتی که یک کانال اشغال می شود سریعا به کانال خالی بعدی رفته و از گم شدن یا انسداد بسته ها جلو گیری کنیم. این کار باعث افزایش گذردهی یا throughput کل شبکه می شود. برای مشخص کردن اینکه الگوریتم فوق بهره خوبی دارد، آن را با یک روش مرجع (الگوریتم Rule1) مقایسه می کنیم.
دسترسی پویا به طیف
در مسئله دسترسی پویا به طیف، آتاماتای یادگیر یک واحد تصمیم گیرنده است. این واحد تصمیم گیرنده را می توان یک شیء مجرد دارای تعداد محدودی عمل درنظر گرفت که باید از بین M کانال آزاد موجود، یکی را به عنوان کانال بهینه، انتخاب نماید. N کاربر ثانویه بطور متناوب به حسگری طیفی می پردازند تا حفره های طیفی را بیابند. پس از اطمینان از خالی بودن طیف در چند کانال مورد نظر، با کمک آتوماتای یادگیر، کانال بهینه از بین آنها، انتخاب می شود. پس از انتخاب کانال، محیط پاسخی به آتاماتای یادگیر بر می گرداند. این پاسخ نشان از صحت تشخیص خالی یا پر بودن کانال انتخابی دارد. پس از انتخاب کانال بهینه، کاربر ثانویه اقدام به ارسال داده در آن کانال می نماید.
در صورتی که واقعا کانال خالی از کاربر اولیه باشد و گیرنده ثانویه بتواند به درستی سیگنال مورد نظر را دریافت کند، اقدام به ارسال سیگنال Acknowledge (ACK) به فرستنده ثانویه می کند. دریافت ACK توسط فرستنده ثانویه در بازه زمانی t ، موجب تخصیص پاداش به اتوماتای یادگیر مربوط می شود. دراین صورت فرستنده مقدار صفر B(t) = 0 را دریافت می کند، در غیر این صورت فرستنده مقدار B(t) = 1 یک را (یعنی سیگنال جریمه) دریافت می کند. آتوماتای یادگیر با دریافت فیدبک (پاداش یا جریمه) ، می تواند در تصمیمات بعدی خود برای انتخاب کانال، به نحو بهتری اقدام نماید. بطور کلی، هر آتاماتای یادگیر از دو قسمت “مجموعه عمل ها” و “الگوریتم یادگیری” تشکیل شده است. مجموعه عمل ها ، همان انتخاب یا عدم انتخاب کانال i از M کانال کانال موجود می باشد. الگوریتم یادگیری با دریافت در بازه زمانی t ام، به بهبود نحوه انتخاب کانال در بازه زمانی t+1 ام می پردازد.
هدف اصلی در این بخش :
- پیش بینی احتمال در دسترس بودن هر کانال موجود در شبکه با توجه به خوش های که کاربران در آن قرار دارند.
- کنترل دسترسی کاربران ثانویه به منظور کاهش تداخل انتخاب کانال های موجود.
اهداف اصلی از شبیه سازی
اول اینکه گره ها متحرک هستند و تاثیر تحرک گره ها بر گذردهی کل شبکه مورد نیاز است. دوم اینکه محیط شبیه سازی ما یک محیط ناهمگن مخابراتی می باشد که مدل این محیط در نرم افزار شبیه ساز NS2 با الگوی انتشار سایه افکنانه یا Shadowing Model قابل تعریف و پیاده سازی می باشد. قصد داریم تا تاثیر الگوریتم های اتوماتای یادگیر (Learning Automata – LA) را نسبت به روش مرجع (Rule1) در افزایش گذردهی یا توان عملیاتی (Throughput) کل شبکه در محیط ناهمگن رسم کنیم. همینطور گذردهی این روش ها در محیط های با نویز گوسی و محیط ناهمگن مخابراتی در یک منحنی رسم کنیم.
هیچ نظری ثبت نشده است