رؤیای محاسبات ماشینی یا ماشینی که بتواند مسائل را در اشکال گوناگون حل کند کمتر از دو قرن است که زندگی بشر را بهطور جدی دربر گرفتهاست. اگر از ابزارهایی نظیر چرتکه و برخی تلاشهای پراکنده دیگر در این زمینه بگذریم، شاید بهترین شروع را بتوان به تلاشهای «چارلز بابیج» و «بلز پاسکال» با ماشین محاسبه مکانیکی شان نسبت داد. با گذشت زمان و تا ابتدای [[قرن بیستم]] تلاشهای زیادی جهت بهبود ماشین محاسب مکانیکی صورت گرفت که همه آنها بر پایه ریاضیات دهدهی (decimal) بود، یعنی این ماشینها محاسبات را همانطور که ما روی کاغذ انجام میدهیم انجام میدادند. اما تحول بزرگ در محاسبات ماشینی در ابتدای قرن بیستم شروع شد. این زمانی است که الگوریتم و مفهوم فرایندهای الگوریتمی (algorithmic processes) به سرعت در ریاضیات و به تدریج سایر علوم رشد کرد. ریاضیدانان شروع به معرفی سیستمهای جدیدی برای پیادهسازی الگوریتمی کلی کردند که در نتیجه آن، سیستمهای انتزاعی محاسباتی بوجودبه وجود آمدند. در این میان سهم برخی بیشتر از سایرین بود.
آنچه امروزه آن را [[دانش کامپیوتر]] یا [[الکترونیک دیجیتال]] مینامیم مرهون و مدیون کار ریاضیدان برجسته انگلیسی به نام «آلن تورینگ» (Alan Turing) است. وی مدلی ریاضی را ابداع کرد که آن را ماشین تورینگ مینامیم و اساس تکنولوژی دیجیتال در تمام سطوح آن است. وی با پیشنهاد استفاده از سیستم دودویی برای محاسبات به جای سیستم عددنویسی دهدهی که تا آن زمان در ماشینهای مکانیکی مرسوم بود، انقلابی عظیم را در این زمینه بوجودبه وجود آورد. پس از نظریه طلایی تورینگ، دیری نپایید که «جان فون نویمان» یکی دیگر از نظریه پردازان بزرگ قرن بیستم موفق شد ماشین محاسبهگری را بر پایه طرح تورینگ و با استفاده از قطعات و مدارات الکترونیکی ابتدایی بسازد. به این ترتیب دانش کامپیوتر به تدریج از ریاضیات جدا شد و امروزه خود زمینهای مستقل و در تعامل با سایر علوم بهشمار میرود. گیتهای پیشرفته، مدارات ابر مجتمع، منابع ذخیره و بازیابی بسیار حجیم و کوچک، افزایش تعداد عمل در واحد زمان و غیره از مهمترین این پیشرفتها در بخش سختافزاری محسوب میشوند. در ۱۹۶۵ «گوردون مور» اظهار کرد که توان کامپیوترها هر دو سال دو برابر خواهد شد. در تمام این سالها، تلاش عمده در جهت افزایش قدرت و سرعت عملیاتی در کنار کوچکسازی زیر ساختها و اجزای بنیادی بودهاست. نظریه مور در دهههای ۶۰ و ۷۰ میلادی تقریباً درست بود. اما از ابتدای دهه ۸۰ میلادی و با سرعت گرفتن این پیشرفتها، شبهات و پرسشهایی در محافل علمی مطرح شد که این کوچک سازیها تا کجا میتوانند ادامه پیدا کنند؟ کوچک کردن ترازیستورها و مجتمع کردن آنها در فضای کمتر نمیتواند تا ابد ادامه داشته باشد زیرا در حدود ابعاد نانومتری اثرات کوانتومی از قبیل تونل زنی الکترونی بروز میکنند. گرچه همیشه تکنولوژی چندین گام بزرگ از نظریه عقب است، بسیاری از دانشمندان در زمینههای مختلف به فکر رفع این مشکل تا زمان رشد فناوری به حد مورد نظر افتادند. به این ترتیب بود که برای نخستین بار در سال ۱۹۸۲ «[[ریچارد فاینمن]]» معلم بزرگ فیزیک و برنده [[جایزه نوبل]]، پیشنهاد کرد که باید محاسبات را از دنیای دیجیتال وارد دنیای جدیدی به نام کوانتوم کرد که بسیار متفاوت از قبلی است و نه تنها مشکلات گذشته و محدودیتهای موجود را بر طرف میسازد، بلکه افقهای جدیدی را نیز به این مجموعه اضافه میکند. این پیشنهاد تا اوایل دهه ۹۰ میلادی مورد توجه جدی قرار نگرفت تا بالاخره در ۱۹۹۴ «پیتر شور» از آزمایشگاه AT&T در آمریکا نخستین گام را برای محقق کردن این آرزو برداشت. به این ترتیب ارتباط نوینی بین [[نظریه اطلاعات]] و مکانیک کوانتومی شروع به شکلگیری کرد که امروز آن را محاسبات کوانتومی یا محاسبات نانومتری (nano computing) مینامیم. در واقع هدف محاسبات کوانتومی یافتن روشهایی برای طراحی مجدد ادوات شناخته شده محاسبات (مانند گیتها و ترانزیستورها) به گونه ایست که بتوانند تحت اثرات کوانتومی، که در محدوده ابعاد نانومتری و کوچکتر بروز میکنند، کار کنند.