رایانش کوانتومی: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
FreshmanBot (بحث | مشارکت‌ها)
جز اصلاح فاصله مجازی + اصلاح نویسه با ویرایشگر خودکار فارسی
FreshmanBot (بحث | مشارکت‌ها)
خط ۱۴:
 
== اصول گزیده‌ای از کامپیوترهای کوانتومی ==
رؤیای محاسبات ماشینی یا ماشینی که بتواند مسائل را در اشکال گوناگون حل کند کمتر از دو قرن است که زندگی بشر را به‌طور جدی دربر گرفته‌است. اگر از ابزارهایی نظیر چرتکه و برخی تلاش‌های پراکنده دیگر در این زمینه بگذریم، شاید بهترین شروع را بتوان به تلاش‌های «چارلز بابیج» و «بلز پاسکال» با ماشین محاسبه مکانیکی شان نسبت داد. با گذشت زمان و تا ابتدای [[قرن بیستم]] تلاش‌های زیادی جهت بهبود ماشین محاسب مکانیکی صورت گرفت که همه آن‌ها بر پایه ریاضیات دهدهی (decimal) بود، یعنی این ماشین‌ها محاسبات را همان‌طور که ما روی کاغذ انجام می‌دهیم انجام می‌دادند. اما تحول بزرگ در محاسبات ماشینی در ابتدای قرن بیستم شروع شد. این زمانی است که الگوریتم و مفهوم فرایندهای الگوریتمی (algorithmic processes) به سرعت در ریاضیات و به تدریج سایر علوم رشد کرد. ریاضیدانان شروع به معرفی سیستم‌های جدیدی برای پیاده‌سازی الگوریتمی کلی کردند که در نتیجه آن، سیستم‌های انتزاعی محاسباتی بوجودبه وجود آمدند. در این میان سهم برخی بیشتر از سایرین بود.
آنچه امروزه آن را [[دانش کامپیوتر]] یا [[الکترونیک دیجیتال]] می‌نامیم مرهون و مدیون کار ریاضیدان برجسته انگلیسی به نام «آلن تورینگ» (Alan Turing) است. وی مدلی ریاضی را ابداع کرد که آن را ماشین تورینگ می‌نامیم و اساس تکنولوژی دیجیتال در تمام سطوح آن است. وی با پیشنهاد استفاده از سیستم دودویی برای محاسبات به جای سیستم عددنویسی دهدهی که تا آن زمان در ماشین‌های مکانیکی مرسوم بود، انقلابی عظیم را در این زمینه بوجودبه وجود آورد. پس از نظریه طلایی تورینگ، دیری نپایید که «جان فون نویمان» یکی دیگر از نظریه پردازان بزرگ قرن بیستم موفق شد ماشین محاسبه‌گری را بر پایه طرح تورینگ و با استفاده از قطعات و مدارات الکترونیکی ابتدایی بسازد. به این ترتیب دانش کامپیوتر به تدریج از ریاضیات جدا شد و امروزه خود زمینه‌ای مستقل و در تعامل با سایر علوم به‌شمار می‌رود. گیتهای پیشرفته، مدارات ابر مجتمع، منابع ذخیره و بازیابی بسیار حجیم و کوچک، افزایش تعداد عمل در واحد زمان و غیره از مهم‌ترین این پیشرفت‌ها در بخش سخت‌افزاری محسوب می‌شوند. در ۱۹۶۵ «گوردون مور» اظهار کرد که توان کامپیوترها هر دو سال دو برابر خواهد شد. در تمام این سال‌ها، تلاش عمده در جهت افزایش قدرت و سرعت عملیاتی در کنار کوچک‌سازی زیر ساختها و اجزای بنیادی بوده‌است. نظریه مور در دهه‌های ۶۰ و ۷۰ میلادی تقریباً درست بود. اما از ابتدای دهه ۸۰ میلادی و با سرعت گرفتن این پیشرفت‌ها، شبهات و پرسش‌هایی در محافل علمی مطرح شد که این کوچک سازی‌ها تا کجا می‌توانند ادامه پیدا کنند؟ کوچک کردن ترازیستورها و مجتمع کردن آن‌ها در فضای کمتر نمی‌تواند تا ابد ادامه داشته باشد زیرا در حدود ابعاد نانومتری اثرات کوانتومی از قبیل تونل زنی الکترونی بروز می‌کنند. گرچه همیشه تکنولوژی چندین گام بزرگ از نظریه عقب است، بسیاری از دانشمندان در زمینه‌های مختلف به فکر رفع این مشکل تا زمان رشد فناوری به حد مورد نظر افتادند. به این ترتیب بود که برای نخستین بار در سال ۱۹۸۲ «[[ریچارد فاینمن]]» معلم بزرگ فیزیک و برنده [[جایزه نوبل]]، پیشنهاد کرد که باید محاسبات را از دنیای دیجیتال وارد دنیای جدیدی به نام کوانتوم کرد که بسیار متفاوت از قبلی است و نه تنها مشکلات گذشته و محدودیت‌های موجود را بر طرف می‌سازد، بلکه افق‌های جدیدی را نیز به این مجموعه اضافه می‌کند. این پیشنهاد تا اوایل دهه ۹۰ میلادی مورد توجه جدی قرار نگرفت تا بالاخره در ۱۹۹۴ «پیتر شور» از آزمایشگاه AT&T در آمریکا نخستین گام را برای محقق کردن این آرزو برداشت. به این ترتیب ارتباط نوینی بین [[نظریه اطلاعات]] و مکانیک کوانتومی شروع به شکل‌گیری کرد که امروز آن را محاسبات کوانتومی یا محاسبات نانومتری (nano computing) می‌نامیم. در واقع هدف محاسبات کوانتومی یافتن روش‌هایی برای طراحی مجدد ادوات شناخته شده محاسبات (مانند گیت‌ها و ترانزیستورها) به گونه ایست که بتوانند تحت اثرات کوانتومی، که در محدوده ابعاد نانومتری و کوچکتر بروز می‌کنند، کار کنند.
 
== محاسبات کوانتومی ==