بخشی از مقاله

چکیده

در این مقاله ضمن بررسی مروری بر تاریخچه و توسعه ی بازی Go یا شطرنج تبتی، برنامه ی کاربردی بازی AlphaGo را که توسط ماشین هوش مصنوعی گوگل - Google Minder - توسعه داده شد، مورد ارزیابی قرار می دهیم. رویکردها و فناوری مورد استفاده در آن تشریح شده و به عنوان یکی از دستاوردهای نوین هوش مصنوعی بررسی شده است، به طوری که پیش از آن مهندسان در توسعه ی هوش مصنوعی روی کپی برداری از هوش انسانی تمرکز می کردند، اما اکنون به نظر می رسد این تفکر تغییر کرده و تمرکز محققان بر الگوها و رفتارهای انسانی معطوف شده است. نظرات تحلیل گران و پژوهشگران مختلف در این خصوص بیان شده و تأثیرات آن در دنیای فناوری اطلاعات و هوش مصنوعی ارزیابی شده است. نکته ی برجسته در کارایی AlphaGo ، ترکیب هوشمندانه ی دو روش جعبه ی سیاه برای حرکت های قوی در آن است. شبکه های عصبی مصنوعی - تکنیک مهم یادگیری عمیق - و جستجوی درختی مونت کارلو . درAlphaGo ، نه برنامه، نه برنامه نویسان و نه حریفان، هدایت کننده هستند بلکه واقعاً یک درک استراتژیک در آن به وجود آمده است. از این نظر نقطه ی عطفی در آینده ی هوش مصنوعی
محسوب می شود.

واژگان کلیدی: آینده ی هوش مصنوعی، هوش مصنوعی در AlphaGo، شبکه های عصبی یادگیری عمیق، ماشین هوش مصنوعی گوگل.

مقدمه

شطرنج تبتی - Go - اولین بار در تبت چین ابداع شد و به مناطق دیگر تبت گسترش یافت. با استفاده از پیشرفت فناوری و هوش مصنوعی بازی شطرنج توسعه پیدا کرد .

در سال 1997 میلادی سیستم آبی عمیق شرکت IBM ، قهرمان شطرنج جهان، گری گاسپاروف در شطرنج را شکست داد و در مارس 2016 میلادی برنامه - Alpha GO جدیدترین توسعه از بازی شطرنج تبتی - به وسیله هوش مصنوعی گوگل موفق شد استاد لی سدول را در کره جنوبی با نتیجه ی 9-15 شکست دهد .

با توجه به پیچیدگی هایی زیادی که در بازی Go وجود دارد و تفاوت های آن به لحاظ سختی با شطرنج ساده پیشرفت قابل ملاحظه ای که بدست آمده را در می یابیم .

از سال 2012، دانشگاه ملی چینگهای اولین توسعه بازی شطرنج تبتی را ارائه داد و پس از آن، دانشگاه شمال غرب کشور از جمله دانشگاه مینزو چین نیز پژوهش هایی در این خصوص ارائه دادند .

از سال 2011، برخی از اساتید و دانشجویان دپارتمان مهندسی اطلاعات، دانشگاه مینزو چین، یک تیم بازی رایانه ای راه اندازی نمودند و فعالیت های تحقیقاتی در خصوص شطرنج تبتی پرداختند. آنها اطلاعات و داده های مربوطه را جمع آوری نموده و سپس گزارش نیازمندیها برای سیستم آن را ارائه دادند و در نهایت در سال 2015 یک بازی کامپیوتری شطرنج تبتی با عنوان های MIMANG و JIU - شکل شماره - 1 توسعه داده شد.

شکل :1 نمایی از بازیJIU

انواع مختلفی از شطرنج تبتی وجود دارد وهر یک از از آنها قوانین و صفحه شطرنج متمایز دارد JIU .، یکی از شطرنج های تبتی است که دارای سایزهای مختلف صفحه بازی و Fuseki های مختلف است.

در حال حاضر بهترین بازی شطرنج تبتی که توسعه یافته با عنوان AlphaGo از سوی ماشین هوش مصنوعی گوگل - Google Minder - در سال 2016 ارائه شده است. در ادامه به بحث و بررسی رویکردهای جدید، تکنولوژی به کار رفته، تأثیرات و پیشرفت های هوش مصنوعی در آن می پردازیم.

بررسی و تحلیل

با توجه به اینکه در شطرنج تبتی در هر حرکت با 200 احتمال مواجه هستیم در حالی که در شطرنج ساده در هر حرکت با 20 احتمال مواجه هستیم، توسعه ی این بازی از اهمیت بالایی برخوردار است.  - Silver et al,2016 - با رویکردی جدید بازی شطرنج تبتی - - Go را توسعه دادند. در این برنامه، بازی به دو بخش تقسیم می شود: بخشی برای آماده شدن قبل از نبرد و بخشی برای نبرد است.

در طول بازی شاخه های بسیار زیادی از وضعیت بازی ایجاد می شود که به جستجوی پیچیده ای در درخت1 تشکیل شده از آن شاخه ها2 نیاز دارد.

آنها روش جدیدی برای این بازی ارائه داده اند که در آن از » شبکه های ارزش3« برای ارزیابی نقاط تخته - موقعیت ها و حالت های مختلف شکل گرفته روی صفحه بازی - و از »شبکه های سیاست4« برای انتخاب حرکت ها استفاده شده است.

این » شبکه های عصبی عمیق - 5« - DNN توسط یک ترکیب جدید یادگیری، از طریق نظارت بر بازی های متخصص انسانی و تقویت یادگیری از طریق بازی خود، آموزش می یابند.

بدون استفاده از هرگونه »جستجوی پیش بینی6«، شبکه های عصبی، Go را در سطح حالتی از فن برنامه های »جستجوی درختی مونت کارلو7« بازی می کنند که هزاران بازی تصادفی را بصورت خود بازی شبیه سازی می نمایند.

آنها یک الگوریتم جستجوی جدید معرفی نمودند که ترکیبی از شبیه سازی مونت کارلو و شبکه های ارزش و سیاست است. این اولین بار بود که یک برنامه ی رایانه ای به صورت کامل در یک بازی Go یک بازیکن انسانی حرفه ای را شکست داد، شاهکاری که حداقل تا یک دهه ی پیش تصور می شد.
نکته ی برجسته در عملکرد AlphaGo ، ترکیب هوشمندانه ی دو روش جعبه ی سیاه8 در آن است. شبکه های عصبی مصنوعی و جستجوی درختی مونت کارلو . برای حرکت های قوی در آن، نه برای برنامه، نه برنامه نویسان و نه حریفان، بلکه واقعاً یک درک استراتژیک بود.
- Dyster et al,2016 - در مقاله ی خود با عنوان "استراتژی های اتخاذ تصمیم از هوش مصنوعی بر پایه ی شبکه های عصبی عمیق" عملکرد شبکه های عصبی عمیق را در AlphaGo بررسی نموده اند.

در AlphaGo از شبکه های عصبی عمیق DNN - ها - ، تکنیک های محاسباتی برای پردازش اطلاعات پیچیده ی بصری مانند طبقه بندی تصویر یا تشخیص چهره استفاده می شود.

DNN شامل لایه هایی از نورون ها9 - واحد محاسباتی - است که بالای یکدیگر کاشی شده اند. به طور فزاینده ای لایه های عمیق شامل نمایش های انتزاعی از تصویر واقعی افزایش یافته است. در این بازگردانی، پژوهشگران تخته بازی Go را درون شبکه ی عصبی عمیقی به صورت یک تصویر چند لایه 19*19 گذر می دهند.

هر نقطه در تصویر 19*19 مکانی از تخته ی بازی را نمایش می دهد و هر 48 لایه از تصویر در بر دارنده حوزه ای متفاوت از اطلاعات مرتبط با بازی است - برای مثال، کدام بازیکن یک مکان خاص را اشغال کرده است، چه تعداد از یک مکان اشغال شده گذر نموده اند و اینکه آیا قراردادن یک قطعه در یک مکان طبق قوانین بازی بود - .

در متن اصلی مقاله به هم ریختگی وجود ندارد. برای مطالعه بیشتر مقاله آن را خریداری کنید