بخشی از مقاله

چکیده

دادههای عظیم فنآوری رو به رشدی است که در بسیاری از حوزهها از جمله حوزههای تجاری، صنعتی و نظامی تاثیر شگرفی دارد. شبیه سازی نظامی مجموعه داده های حجیمی را تولید می کند که باید توسط مدل هایی با وضوح بالا و شبیه سازی مقیاس بزرگ صورت گیرد. این شبیهسازیها عمدتا برای مطالعه مسایل پیچیده مثل مالکیت سیستم های جنگی، تجزیه و تحیل های جنگی و آموزشهای نظامی استفاده می شود. در این مقاله ابتدا مفهوم دادههای عظیم را مطرح خواهیم کرد و اهمیت داده های عظیم را در حوزه های نظامی بررسی میکنیم و تاثیرات آن در تصمیم گیریهای مهم با بهره گیری از ابزارهای شبیه سازی را بررسی خواهیم کرد.

کلمات کلیدی: شبیه سازی; داده عظیم; نظامی; مقیاس بزرگ

.1 مقدمه

تکنولوژی داده های عظیم یک تکنولوژی اطلاعات در حال ظهور است که دانش را از تعداد زیادی داده کشف می کند تا به تصمیم گیری ها کمک نماید . کلمه "عظیم" دلالت دارد بر مجموعه ای از داده ها که برای کنترل کردن به شیوه های قدیمی خیلی بزرگ محسوب می شوند. علاوه بر این تولید داده ها از طریق منابع متفاوت با سرعت زیادی انجام می شود. [1] متدولوژی داده های بزرگ به عنوان چهارمین نمونه از کشفیات جهان در نظر گرفته شده است چرا که از تجربه و روش های تجربی و محاسبات متفاوت است.[2]اخیرا داده های بزرگ و شبیه سازی توسط محققان برای انجام کشفیات علمی مورد استفاده قرار میگیرند4]،.[3 حوزه نظامی هم چنین توجه زیادی را در این زمینه به خود جلب کرده است. دپارتمان دفاعی آمریکا یا همان DOD یک سری فرآیند بر روی داده های عظیم انجام داده است که توانایی های دفاعی آمریکا را افزایش دهد .[5]

در کل برنامه های نظامی تعداد زیادی داده را با هوش و نظارت و حسگر های شناسایی مورد تحلیل قرار داده اند7]،[ 6 و این داده ها می توانند به شیوه های واقعی، مجازی و شبیه سازی تولید بشوند.[8 ]مدل ها و شبیه سازی ها توسط DOD به چهار سطح طبقه بندی می شوند که عبارتند از: یک رشته عملیات جنگی، ماموریت، اشتغال و مهندسی و به طور معمول به عنوان هرم "M&S" اختصاص پیدا می کنند10]،.[9 برنامه های M&S به تمام سطح های این هرم محدود هستند و به مدل های عملیات جنگی و شبیه سازی هایی که به این تجزیه و تحلیل های جنگی انجام می شود پاسخ می دهد[11-15] .

وقتی این مدل ها و شبیه سازی های بزرگ با کارایی بالا برای به دست آوردن تاثیر بیشتر اجرا می شوند ، داده های شبیه سازی شده حجم بالا و سرعت زیاد و پتانسیل عالی دارند . اخیرا اصطلاح "شبیه سازی بزرگ" توسط Taylor at al ابداع شده است [16] که برای شرح دادن چالش های این مدل ها و داده ها و سیستم ها بیش از اندازه بزرگ مورد استفاده هستند و کنترل کردن شبیه سازی آن ها کار سختی است.بر این اساس ما به داده های شبیه سازی نظامی به عنوان "داده های بزرگ "MS نگاه کرده ایم که حجم زیادی از داده ها را نشان می دهد که توسط شبیه سازی های نظامی تولید شده است.داده های بزرگ MS میتوانند با شبیه سازی های تکراری متعدد که شامل مدل هایی با وضوح بالا یا فضای بزرگ جنگی یا هردوهستند تولید شوند.

اندازه ی داده ها با شبیه سازی بزرگتر و کارایی بالاترمنابع کامپیوتری به سرعت افزایش می یابد.این حالت های مهم چالش هایی درمدیریت و پردازش داده های بزرگ MS ایجاد میکنند. درابتدا تلاش های مهمی انجام شد که شامل نیازمندی ها از شبیه سازی کارایی بالا تا تعدادکمی ازداده ها است, اگرچه پردازش داده های بزرگ MS باداده های تجاری تفاوت زیادی دارد. برای مثال منابع کامپیوتری برای تجزیه و تحلیل داده ها و برای اجرای شبیه سازی استفاده می شوند و ممکن است زمان بندی منابع راپیچیده تر کند.دوم نیازمندی های جدید با در دسترس قرارگرفتن مدل هایی با سطح بالایی ازصحت و جدول زمانی تعداد زیادی ازداده ها درحال ظهور خواهند بود.

روش های تجزیه تحلیل داده های قدیمی با تکنولوژی پایگاه های قدیمی با توجه به تاثیر و مقیاس پذیری محدود می شوند . امروزه داده های بزرگ براساس برنامه های جدید به تجزیه و تحلیل های نظامی اجازه میدهند تا با تصمیم گیری های دقیق تر به توسعه ی دانش یا فهمیدن چشم انداز برای زمینه های نظامی پیچیده بپرازند به جای اینکه محدود به نتایج آزمایش های تجربی بشوند. به عنوان مثال رسیدن به نقشه واقعی جنگ با شبیه سازی تمام امکانات می توان اشاره کرد. این مورد شبیه سازی های تکراری و تجزیه و تحلیل نظامی باید در یک زمان کوتاه صورت گیرد.قبلا مقاله های درباره ی راه و روش داده های بزرگ و تکنیک های اساسی چهارچوب ها بحث کردند . [17-19] اگرچه بعضی از آنها روی شبیه سازی های نظامی تمرکز کردند اما محققان مرتبط این زمینه باید به تولید علاقمند باشند .

در این مقاله مدیریت و برنامه های داده های بزرگ MS و بعضی ازشیوه ها را مطالعه خواهیم کرد و پروسه ای را باا شکل های کلی داده های بزرگ MS که میتوان آن ها را کشید توسعه خواهیم داد . درضمن برای کارکرد های خاص داده های بزرگ ما چنین چالش تکراری را مشخص خواهیم کرد که با پردازش داده های MS مدل سازی شوند. ما همچنین چهارچوب های مقدماتی را به عنوان راه حل ممکن نشان خواهیم داد. قسمت بعدی این مقاله یک پیش زمینه است که داده های بزرگ MS معرفی میکند. بعضی موارد با خلاصه ای از کاراکترهای داده های بزرگ عملی دوره میشوند. در بخش 3 جزئیات پیشرفته ی تکنولوژی بحث خواهد شد. در بخش 4 دو پلت فرم نزدیک به داده های بزرگ MS مرتبط بحث خواهند شد. چالش های جاری دربخش 5 با پیشنهاد یک چهار چوب برای ادغام کردن شبیه سازی و پردازش داده های بزرگ مشخص شده اند. درنهایت ما ازاین مقاله در بخش 6 نتیجه گیری کرده ایم.

.2پیش زمینه ای از مشکلات در حال ظهور

این بخش پیش زمینه داده های بزرگ MS را بررسی می کند اما درابتدا ما باید نشان دهیم که درکل، داده های بزرگ چیست، سپس چندین شبیه سازی نظامی را از نظر داده مرور میکنیم سرانجام ویژگی های داده های بزرگ MS مقایسه شده اند.

.2,1مفهوم داده های بزرگ

داده های بزرگ به مجموعه ای از داده ها که حجم و پیچیدگی بسیار زیادی دارند و با روش های پردازش جدید برای کشف دانش درنظر گرفته می شدند، برمیگردد. این مرحله به روش انفجار داده و مقدار پتانسیل برای جامعه حاضر دلالت دارد. دانشمندان اصولا از ابعاد - حجم, سرعت, تنوع, مقدار,صحت, ... - برای شمردن داده های بزرگ استفاده می کنند .

حجم: اندازه داده های بزرگ دقیقا مشخص نیست و تنوع دارد. ترابایت ها داده را هرروزه و پایگاه داده ی فعال ازبیش پتابایت ها داده استفاده میکنند. برای مثال فیس بوک بیش از 25 میلیون عکس را ذخیره کرده است ودر هر روز بیش از 30 پتابایت ازداده های کاربران دسترسی دارد. علی بابا [ 21]بزرگترین شرکت الکترونیکی درجهان بیش از100پتابایت داده ی تجاری را ذخیره کرده است .[22] حجم زیاد از ویژگی های اساسی داده های بزرگ است. طبق آمار حجم داده های دیجیتال درجهان درسال 2013 به یک زتابایت رسیده است . به علاوه تا قبل از سال 2020 هردوسال یکبار دو برابر میشود.[23]

سرعت انفجار داده ها به این معنا است که سرعت تولید داده ها خیلی سریع است وباید به موقع پردازش شوند. برای مثال فیس بوک را درنظر بگیرید بعضی بخش ها میلیون ها بار به اشتراک گذاشته میشوند وصدها هزاران عکس آپلود می شوند . درهر دقیقه از روز برای خدمت کردن به یک میلیون کاربر جهانی در هر 30دقیقه [24]بیش از صد ترابایت داده اسکن میشوند. سرعت هم مفهوم مرتبطی است که به برنامه های عملی بستگی دارد. برای بیشتر برنامه های تجاری اینترنتی که اطلاعات راپردازش میکنند باید درچند ثانیه دردسترس باشند وگرنه مقدار داده ها کم خواهد شد یا گم خواهد شد .

تنوع: داده های بزرگ انواع و فرمت های متنوعی دارند. داده های ساختار قدیمی پایگاه داده دریک فرمت منظم ذخیره میشوند. که شامل تاریخ و زمان و تعداد و رشته بود تازمانی که داده های ساختار نیافته مثل متن و صدا و ویدیو وتصویر شیوه های اصلی داده های بزرگ شدند. داده های ساختار نیافته میتوانستند صفحات وب باشند یا وبلاگ ها یا نظرات یا پرسشگر یا برنامه های ورود به سیستم داده های حسگر باشند. این داده ها محتوای قابل خواندن برای انسان را بیان میکنند اما برای ماشین غیر قابل درک هستند.معمولا در فایل های سیستمی و نه فقظ پایگاه داده ها ذخیره میشوند بلکه مدل های داده ها ساده مثل زوج مقادیر کلیدی ذخیره میشوند . تنوع همچنین به این معنی است که داده های داده های بزرگ منابع متفاوتی دارند. برای مثال داده برای تجزیه وتحلیل ترافیکی ممکن است ازدوربین شبکه ی معین یاا توبوس یا تاکسی یا حسگرهای مترو بیایند.

مقدار: داده های بزرگ می توانند برای خودشان ارزش زیادی تولید کنند. این بینش کمکی به پیش بینی آینده و ایجاد فرصت های جدید وکاهش ریسک یا هزینه کمک میکند. به عنوان نتیجه داده های بزرگ میتوانند زندگی بشر را بهبود یا تغییر دهند. یک مثال مشهور از داده کاوی داده های بزرگ گوگل است که با موفقیت آنفولانزا را طبق پنجاه میلیون جستجو ثبت شده پیش بینی کرده است. به عنوان مثال کالاهای توصیه شده که میتوانند درهرجایی یافت شوند و وقتی که این روزها در اینترنت گردش مینماییم این آیکون های توصیه شده تولید شده اند. طبق مقدار زیادی از نتایج ضبط شده توسط دسترسی کاربران توجه کنید که مقدار داده های بزرگ با چگالی کم مرتب میشوند و باید از حجم زیادشان به حجم کم فشرده شوند.

صحت : صحت به این معناست که فقط داده هایی که درستی دارند میتوانند استفاده شوند وگرنه تصمیم گیرنده ممکن است که اشتباه کند وتصمیم غلط گیرد. برای مثال مرور ازمشتری برای رتبه بندی سیستم های تجاری مهم است . واگر بعضی از مردم نظرات تقلبی بدهند یا امتیازات فریبنده برای سود خودشان بدهند و این نتیجه تاثیر منفی برروی رتبه بندی وانتخاب مشتری خواهد گذاشت. صحت داده های تقلبی رادرنظر میگیرد که باید کشف شوند. و تجزیه و تحلیل های قبلی را ازبین برند.داده های در حال ظهور بزرگ فقط ازطریق رسانه های اجتماعی اینترنتی یاتجاری تولید نمیشوند بلکه در دولت، خرده فروشی، تحقیقات علمی و دفاع ملی و دیگر حوزه ها نیز تولید میشوند. این روز ها همه ی آنها درگیر پردازش داده های بزرگ هستند. شکوفایی برنامه های داده های بزرگ برای توسعه محرک بزرگی میباشد.

تکنولوژی اطلاعات جدید مثل ساختارهای پردازش داده ها ابزار مدیریت داده ها در روش های تجربه و تحلیل داده ها شیوه ی جدید شرکت ها و سازمان ها توجه شده است که با مجموعه ی داده ها در مراکز داده ها که یک بخش هسته ای از معماری اطلاعات شده اند که مقیاس پذیرهستند ودرروی چهارچوبی که داده هارا با کارایی بالا پردازش میکنند اجرا میشوند. بیشترین چهارچوب ها براساس اکو سیستم apache hadoop است که ازنمونه ی برنامه نویسی موازی کاهش دهنده ی نقشه استفاده میکند . دریک زمان یکسان بیشترین داده کاوی های جدید والگوریتم های یادگیری ماشین وبرنامه های پیشنهاد داده شده برای کشف دانش بیشتراستفاده میکند.

2,2 داده های بزرگ MS

داده های بزرگ و پدیده های تولید داده های حجیم و شبیه سازی های نظامی به سال 1990 برمیگردد یعنی زمانی که یک شبیه سازی برای تمرین های نظامی توزیع شده استفاده شد. در این شبیه سازی 1,5ترابایت داده را بعداز 144ساعت[25] اجرا کرده اند و برای گسترش شبیه سازی تکنولوژی نظامی برنامه های نظامی باچندین ترابایت یا بیشتر داده تولید شده اند.

2,2,1 آزمایش های نیرو های متصل

وقتی که DoD چالش های معاصر عملیات شهری را تشخیص داد، ایالات متحده آمریکا دستور داد تا نیروها یک سری شبیه سازی های جنگی بزرگ که تاکتیک هایی را برای جنگ های آینده گسترش میدهند و سیستم های جدید را که در یک محیط شهری مستقر شده بودند گسترش بدهند. یک نوع از این آزمایش ها دوباره حل کردن مساله شهر با سه فاز در طی چندین سال [11] بود. این برای وصل کردن نیرو های نیمه خودکار - JASF - استفاده می شود، که درباره عملیات شهری که در چهارچوب زمانی 2015-2020 اتفاق می افتند. - JASF - یک کامپیوتر تولید شده با نرم افزار CGF است که ماهیت تقابل مجازی با کامپیوتر ها را تولید و کنترل می کند.در فاز اول بیش از 100000 شی شبیه سازی شدند , صدها گره که از طریق مکان های جغرافیایی به هم متصل بودند JASF را اجرا کردند و 37 ترا بایت دیتا از این مدل ها [12]ساخته شد.

این دیتا ها به محیط های دینامیکی و ماهیت های عملیاتی و حسگر های خروجی [26] مرتبط بودند.این تجزیه و تحلیل شامل جست و جو وتجسم برای مجموعه ای از داده های بزرگ مثل killer victim scoreboard که به طور خلاصه ماهیت چرخه حیات دارند و ادراک را دنبال می کنند.اگرچه بیشتر داده های وضعیت عمرانی که در دوازده ثانیه ذخیره می شوند به سادگی به علت غیر مقرون به صرفه بودن منابع دور انداخته شدند . بنابر این فعالیت های عمرانی برای تجزیه و تحلیل نتوانستند تکرار بشوند.در ضمن تقاضای شبیه سازی بزرگ تر و اجتماعی تر افزایش یافت. از کلاستر هایی با قدرت بیشتر و دسترسی به بخش پردازش گرافیک و شبکه محدوده وسیع با سرعت بالا و در زمینه های مدیریت شده استفاده کردند و ده ها میلیون شی و مدل های نظامی با وضوح بالاتر در آزمایش های بعدی حمایت شدند . در این مورد ابزار مدیریت جدید داده ها بر اساس تکنولوژی محاسبات گریدی پیشنهاد شدند.[14]

.2,2,2 پروژه های کشاورزی داده

کشاورزی داده فرآیندی است که از شبیه سازی های متعدد با محاسبات کارایی بالا استفاده می کند . [15] ایده ی اصلی این است که داده را می کاریم از میان ورودی های مختلف در شبیه سازی و سپس مقدار قابل توجه این محصول از خروجی شبیه سازی داده ها [27] به دست می آید.اولین پروژه ی کشاورزی داده پروژه ی آلبرت بود که از نیروی دریایی حمایت می کرد.[28] این پروژه تصمیم گیری ها را حمایت می کرد و بر روی سوال هایی مثل " چه می شود اگر " و " چه فاکتورهایی مهم هستند " تمرکز می کرد. این نوع از سوالات نیاز دارند به تجزیه و تحلیل جامع که تمام موقعیت های ممکن را پوشش می دهد . اگر چه متد های قدیمی قادر نیستند آن ها را نشان بدهند به علت شبیه سازی که یک نتیجه ی یکسان[20] را فراهم کرده است .با مقایسه ی کشاورزی داده ها که به چشم اندازه های کلی با شبیه سازی های متعدد اجازه می دهد.

تعداد نمونه های شبیه سازی به طور همزمان روی HPC که معمولا بزرگ است اجرا می شود . برای مثال یک شبیه سازی حفاظت نیروی آلمانی 241920 تکرار را ایجاد کرده [29]به علاوه میلیون ها شبیه سازی که اجرا می شود می توانند با آخرین پلتفرم کشاورزی داده حمایت شوند .که روی منابع ناهمگون ساخته شده است که شامل کلاستر و ابر است .[30] به عنوان یک نتیجه، داده های بزرگ می توانستند برای تجزیه و تحلیل تولید شوند .[20] برای مثال پروژه ی آلبرت صدها میلیون داده در مرحله ی میانی تولید کرد.[31]در پروژه ی آلبرت بیشتر کشورهای جهان این ایده را اهرمی برای خود قرار دادند که تمام مشکلات نظامی را مطالعه کند.بعضی از سیستم های شبیه سازی برای کشاوزی داده ها گسترش پیدا کرده اند . به عنوان چند مثال MANA در نیوزلند[32] و یا PAXEM در آلمان [33]و ABSNE در کانادا [34]می توان

در متن اصلی مقاله به هم ریختگی وجود ندارد. برای مطالعه بیشتر مقاله آن را خریداری کنید