مدار عصبی: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
Mercyse (بحث | مشارکت‌ها)
اضافه شدن تراشه های سیناپس پیشرفته شرکت آی‌بی‌ام
برچسب‌ها: افزودن پیوند بیرونی به جای ویکی‌پیوند ویرایشگر دیداری
Mercyse (بحث | مشارکت‌ها)
اضافه شدن گوگل deepmind و بررسی مختصری از تکنولوژی اون
برچسب‌ها: پیوند به بیرون نیازمند بازبینی ویرایشگر دیداری
خط ۷۰:
در این حافظه یا شبکهٔ عصبی نورونها دارای دو حالت فعال (روشن یا ۱) و غیرفعال (خاموش یا ۰) اند و هر یال (سیناپس یا ارتباط بین گره‌ها) دارای یک وزن می‌باشد. یال‌های با وزن مثبت، موجب تحریک یا فعال کردن گره غیر فعال بعدی می‌شوند و یال‌های با وزن منفی، گره متصل بعدی را غیر فعال یا مهار (در صورتی که فعال بوده باشد) می‌کنند.
 
====== تحقیقات اخیر ======
در تاریخ Dec 17, 2009 ابر کامپیوتر ( supercomputer ) شرکت [http://www.popularmechanics.com/technology/engineering/extreme-machines/4337190 IBM] در امریکا توانست در حدود '''billion''' '''1''' ( میلیارد ) نورون رورا با حدود 10 trillion سیناپس مصنوعی شبیه سازی کند که این نشان دهنده این واقعیت هست که نورون های مصنوعی به سیستم های قدرتمندی برای اجرا نیاز دارند و برای شبیه سازی مغز انسان احتمالا به [[رایانه کوانتومی|<u>کامپیوتر کوانتومی</u>]] نیاز خواهد بود. همچنین با دانستن این موضوع که [[:en:List_of_animals_by_number_of_neurons|مورچه 250,000 نورون و زنبور در حدود 960,000]] نورون دارد می شود نتیجه گرفت که با supercomputer های کنونی تا حدودی بشه این موجودات رو شبیه سازی کرد. ( البته باید مدنظر داشت که این موجودات از عموما [[هوش ازدحامی|Swarm Intelligence]] استفاده می کنند )
 
در تاریخ Dec 9, 2014 شرکت IBM از تراشه SyNAPSE خود رونمایی کرد. این چیپ که با سرمایه گذاری DARPA ( سازمان پروژه‌های تحقیقاتی پیشرفتهٔ دفاعی ایالت متحده ) به بهره برداری رسیده , به گونه‌ای طراحی شده که فعالیت‌های مغز انسان را شبیه‌سازی کند و به طور کلی از چارچوب منطق بولین و باینری خارج شود. این تراشه متشکل از 1 میلیون نورون مجازی است که با استفاده از 256 میلیون سیناپس مجازی به یکدیگر متصل شده‌اند. سیناپس بزرگ‌ترین تراشه‌ای است که شرکت IBM تاکنون تولید کرده است، چراکه در آن 5.4 میلیارد ترانزیستور استفاده شده است. همچنین مجموعه‌ی ترانزیستورهای مورد استفاده متشکل از 4٫096 هسته‌ی neuroSynaptic است که روی تراشه قرار گرفته‌اند. مصرف این تراشه تنها 70 میلی‌وات mW است که در مقایسه با تراشه‌ های کنونی بسیار کمتر است.[https://en.wikipedia.org/wiki/List_of_CPU_power_dissipation_figures] از نظر مقیاس، تراشه‌ی سیناپس برابر با مغز یک زنبور عسل است و تعداد نئورون‌ها و عصب‌های مورد استفاده با آن برابری می‌کند، با این وجود این تراشه بسیار ضعیف‌تر از مغز انسان‌ها است. مغز هر انسان از حدود 86 میلیارد نورون و 100 تریلیوین سیناپس تشکیل شده است. البته تیم توسعه‌ی SyNAPSE نشان داده که می‌توان با اتصال تراشه‌های سیناپس به یکدیگر، تراشه‌ی بزرگ‌تر و قوی‌تری ساخت.
 
در حال حاضر IBM موفق شده یک بورد قابل برنامه‌ریزی و کارآمد با استفاده از 16 عدد چیپ SyNAPSE ایجاد نماید که همگی در هماهنگی کامل با یکدیگر فعالیت می‌کنند. این بورد نمایانگر قدرت 16 میلیون نورون است که بنا بر گفته‌ی محققان این پروژه، در پردازش سنتی با استفاده از تعداد زیادی رک‌ (مکان قرارگیری چندین کامپیوتر پر قدرت بزرگ ) و مجموعه‌های عظیم کامپیوتری قابل دستیابی بود. و با وجود مجتمع نمودن 16 چیپ در یک سیستم، باز هم با مصرف نیروی به شدت پایینی روبرو هستیم که در نتیجه‌ی آن حرارت بسیار پایین‌تری نیز تولید می‌شود. در حقیقت چیپ SyNAPSE جدید آنچنان انقلابی بوده و دنیای پردازش را از نگرش دیگری نمایان می‌سازد که IBM مجبور شده برای همراهی با توسعه‌ی آن به ایجاد یک زبان برنامه‌نویسی جدید بپردازد و یک برنامه‌ی آموزشی گسترده‌ی اطلاع رسانی تحت نام دانشگاه SyNAPSE راه‌اندازی کند.[http://www.zoomit.ir/2014/8/10/13168/ibm-synapse-supercomputing-chip/][https://www.theguardian.com/technology/2014/dec/09/synapse-ibm-neural-computing-chip]
 
در تاریخ March 16, 2016 ← شرکت Google بخش [[:en:Google_DeepMind|DeepMind]] توسط هوش مصنوعی خود توانستند قهرمان جهان را در بازی GO ( شطرنج چینی که قدمتی بیش از ۲۵۰۰ سال دارد ) با نتیجه 4 به 1 شکست دهند که این دستاورد بزرگی برای هوش مصنوعی بود. گوگل در این هوش مصنوعی از تکنولوژی Deep Learning و short-term memory بهره برده است و این سیستم به نوعی مشابه [[:en:Turing_Machine|Turing Machine]] هست اما به صورت end-to-end تفاوتهایش قابل تشخصیص است و این تکنولوژی ها بهش اجازه داده که با [[:en:Gradient_descent|gradient descent]] به صورت موثری قابل تعلیم باشد. در DeepMind محققان گوگل مجموعه‌ای از حرکت‌های بهترین بازکنان گو را که شامل بیش از 30 میلیون حرکت است، جمع آوری کرده و سیستم هوش مصنوعی مبتنی بر یادگیری عمیق خود را با استفاده از این حرکات آموزش داده‌اند تا از این طریق آلفاگو قادر باشد به تنهایی و براساس تصمیمات خود به بازی بپردازد. همچنین دانشمندان برای بهبود هر چه بیشتر این سیستم راه‌حل تقابل هوش مصنوعی توسعه یافته با خودش را در پیش گرفتند؛ با استفاده از این روش، دانشمندان موفق شدند تا حرکات جدیدی را نیز ثبت کنند و با استفاده از این حرکات آموزش هوش مصنوعی را وارد مرحله‌ی جدید‌تری نمایند. چنین سیستمی قادر شده تا بهترین بازیکن اروپا و جهان را شکست دهد. بزرگ‌ترین نتیجه‌ی توسعه‌ی آلفاگو، عدم توسعه‌ی این سیستم با قوانین از پیش تعیین شده است. در عوض این سیستم از روش‌های مبتنی بر یادگیری ماشین و شبکه عصبی توسعه یافته و تکنیک‌های برد در بازی گو را به خوبی یاد گرفته و حتی می تواند تکنیک های جدیدی را ایجاد و در بازی اعمال کند. کریس نیکولسون، موسس استارت آپ Skymind که در زمینه‌ی تکنولوژی های یادگیری عمیق فعالیت می‌کند، در این خصوص این چنین اظهار نظر کرده است: " از سیستم‌های مبتنی بر شبکه‌ی عصبی نظیر آلفاگو می‌توان در هر مشکل و مساله‌ای که تعیین استراتژی برای رسیدن به موفقیت اهمیت دارد، استفاده کرد. کاربردهای این فناوری می‌تواند از اقتصاد، علم یا جنگ گسترده باشد. "
 
اهمیت برد آلفاگو ːدر ابتدای سال 2014 میلادی، برنامه‌ی هوش مصنوعی Coulom که Crazystone نام داشت موفق شد در برابر نوریموتو یودا، بازیکن قهار این رشته‌ی ورزشی پیروز شود؛ اما موضوعی که باید در این پیروزی اشاره کرد، انجام 4 حرکت پی در پی ابتدایی در این رقابت توسط برنامه‌ی هوش مصنوعی توسعه یافته بود که برتری بزرگی در بازی گو به شمار می‌رود. در آن زمان Coulom پیش‌بینی کرده بود که برای غلبه بر انسان، نیاز به ''یک بازه‌ی زمانی یک دهه‌ای'' است تا ماشین‌ها بتوانند پیروز رقابت با انسان‌ها در بازی GO باشند. چالش اصلی در رقابت با بهترین بازیکن‌های گو، در طبیعت این بازی نهفته است. حتی بهترین ابررایانه‌های توسعه یافته نیز برای آنالیز و پیش‌بینی نتیجه‌ی حرکت‌های قابل انجام از نظر قدرت پردازشی دچار تزلرل شده و نمی‌توانند قدرت پردازشی مورد نیاز را تامین کنند. در واقع نیروی پردازشی این رایانه‌ها مناسب نبوده و در نتیجه زمان درازی را برای ارائه‌ی نتیجه‌ی قابل قبول مورد نیاز است. زمانی که ابررایانه‌ی موسوم به Deep Blue که توسط IBM توسعه یافته بود، موفق شد تا در سال 1997، گری کاسپاروف، قهرمان شطرنج جهان را شکست دهد، بسیاری به قدرت این ابررایانه پی بردند؛ چراکه این ابررایانه با قدرت زیادی کاسپاروف را شکست داد. علت پیروزی قاطع این Deep Blue، قدرت بالای این ابررایانه در کنار قدرت تحلیل و نتیجه‌گیری از هر حرکت احتمالی ممکن در بازی بود که تقریبا هیچ انسانی توانایی انجام آن را ندارد. اما چنین پیش‌بینی‌هایی در بازی GO ممکن نیست. براساس اطلاعات ارائه شده در بازی شطرنج که در صفحه ای 8 در 8 انجام می شود، در هر دور، بصورت میانگین می‌توان 35 حرکت را انجام داد، اما در بازی گو که بین دو نفر در تخته‌ای به بزرگی 19 در 19 خانه انجام می‌شود، در هر دور بصورت میانگین می‌توان بیش از 250 حرکت انجام داد. هر یک از این 250 حرکت احتمالی نیز در ادامه 250 احتمال دیگر را در پی دارند. که می شه نتیجه گرفت که در بازی گو، به اندازه‌ای احتمال حرکات گسترده است که تعداد آن از اتم‌ های موجود در جهان هستی نیز بیشتر است.
 
تلاش های پیشینː در سال 2014 محققان در DeepMind، دانشگاه ادینبورگ و facebook امیدوار بودند تا با استفاده از شبکه‌های عصبی، سیستم‌هایی مبتنی بر شبکه‌های عصبی توسعه دهند که قادر باشد تا با نگاه کردن به تخته‌ی بازی، همچون انسان‌ها به بازی بپردازند. محققان در فیس‌بوک موفق شده‌اند تا با کنار هم قراردادن تکنیک درخت مونت کارلو و یادگیری عمیق، شماری از بازیکنان را در بازی گو شکست دهد. البته سیستم فیس‌بوک قادر به برد در برابر CrazyStone و سایر بازیکنان شناخته شده‌ی این رشته‌ی ورزشی نشد.
 
سخت افزار مورد نیاز سیستم یادگیری عمیق دیپ مایندː براساس اطلاعات ارائه شده, سیستم DeepMind قادر است روی رایانه‌ای با چند پردازنده‌ی گرافیکی نیز به خوبی کار کند؛ اما در مسابقه‌ای که آلفاگو در برابر فان هوی برگزار کرد، این سیستم مبتنی بر شبکه‌ی عصبی از وجود شبکه‌های از رایانه‌ها بهره می‌برد که شامل بیش از 170 پردازنده‌ی گرافیکی Nvidia و 1,200 پردازنده‌‌ بود. [http://www.zoomit.ir/2016/2/11/126687/huge-breakthrough-googles-ai-beats-a-top-player/]
 
== تاریخچه شبکه‌های عصبی مصنوعی ==