رایانش کوانتومی: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
Rezabot (بحث | مشارکت‌ها)
جز ربات: تغییر ردهٔ تغییرمسیرداده‌شدهٔ فناوری نوپدید به فناوری‌های نوپدید
FreshmanBot (بحث | مشارکت‌ها)
جز اصلاح فاصله مجازی + اصلاح نویسه با ویرایشگر خودکار فارسی
خط ۱۱:
تعریف سادهٔ نقطهٔ کوانتومی این است که یک ذره مادی کوچک، که افزایش یا کاهش یک الکترون خواص آن را به نحو ارزشمندی تغییر دهد.
البته اتم‌ها [[نقطه کوانتومی]] محسوب می‌شوند، ولی توده‌های چندمولکولی نیز چنین‌اند. در زیست‌شیمی، [[نقاط کوانتومی]] گروه‌های اکسیداسیون-احیا خوانده می‌شوند.
در نانوتکنولوژی به آن‌ها بیت‌های کوانتومی یا [[کیوبیت]] گفته می‌شود. اندازه آن‌ها در حد چند نانومتر است و از انواع مواد همچون [[سلنید کادمیوم]] -که رنگهایرنگ‌های مختلفی را تولید می‌کند- ساخته می‌شوند. کاربردهای بالقوه آن‌ها در مخابرات و اپتیک است. نانوذرات فلورسنت -که تا پیش از تابش ماوراءبنفش نامرئی هستند- ساختار نانوبلوری قادر به تغییر رنگ از دیگر تعاریف آنهاست. نقاط کوانتومی از دیگر مواد فلورسنت انعطاف بیشتری دارد؛ لذا استفاده از آن‌ها در ساخت کامپیوترهای نانومقیاس بهره‌گیرنده از نور برای [[پردازش اطلاعات]] مناسب است.
 
== اصول گزیده‌ای از کامپیوترهای کوانتومی ==
رؤیای محاسبات ماشینی یا ماشینی که بتواند مسائل را در اشکال گوناگون حل کند کمتر از دو قرن است که زندگی بشر را به‌طور جدی دربر گرفته‌است. اگر از ابزارهایی نظیر چرتکه و برخی تلاشهایتلاش‌های پراکنده دیگر در این زمینه بگذریم، شاید بهترین شروع را بتوان به تلاشهایتلاش‌های «چارلز بابیج» و «بلز پاسکال» با ماشین محاسبه مکانیکی شان نسبت داد. با گذشت زمان و تا ابتدای [[قرن بیستم]] تلاشهایتلاش‌های زیادی جهت بهبود ماشین محاسب مکانیکی صورت گرفت که همه آن‌ها بر پایه ریاضیات دهدهی (decimal) بود، یعنی این ماشین‌ها محاسبات را همان‌طور که ما روی کاغذ انجام می‌دهیم انجام می‌دادند. اما تحول بزرگ در محاسبات ماشینی در ابتدای قرن بیستم شروع شد. این زمانی است که الگوریتم و مفهوم فرایندهای الگوریتمی (algorithmic processes) به سرعت در ریاضیات و به تدریج سایر علوم رشد کرد. ریاضیدانان شروع به معرفی سیستم‌های جدیدی برای پیاده‌سازی الگوریتمی کلی کردند که در نتیجه آن، سیستم‌های انتزاعی محاسباتی بوجود آمدند. در این میان سهم برخی بیشتر از سایرین بود.
آنچه امروزه آن را [[دانش کامپیوتر]] یا [[الکترونیک دیجیتال]] می‌نامیم مرهون و مدیون کار ریاضیدان برجسته انگلیسی به نام «آلن تورینگ» (Alan Turing) است. وی مدلی ریاضی را ابداع کرد که آن را ماشین تورینگ می‌نامیم و اساس تکنولوژی دیجیتال در تمام سطوح آن است. وی با پیشنهاد استفاده از سیستم دودویی برای محاسبات به جای سیستم عددنویسی دهدهی که تا آن زمان در ماشین‌های مکانیکی مرسوم بود، انقلابی عظیم را در این زمینه بوجود آورد. پس از نظریه طلایی تورینگ، دیری نپایید که «جان فون نویمان» یکی دیگر از نظریه پردازان بزرگ قرن بیستم موفق شد ماشین محاسبه‌گری را بر پایه طرح تورینگ و با استفاده از قطعات و مدارات الکترونیکی ابتدایی بسازد. به این ترتیب دانش کامپیوتر به تدریج از ریاضیات جدا شد و امروزه خود زمینه‌ای مستقل و در تعامل با سایر علوم به‌شمار می‌رود. گیتهای پیشرفته، مدارات ابر مجتمع، منابع ذخیره و بازیابی بسیار حجیم و کوچک، افزایش تعداد عمل در واحد زمان و غیره از مهم‌ترین این پیشرفت‌ها در بخش سخت‌افزاری محسوب می‌شوند. در ۱۹۶۵ «گوردون مور» اظهار کرد که توان کامپیوترها هر دو سال دو برابر خواهد شد. در تمام این سال‌ها، تلاش عمده در جهت افزایش قدرت و سرعت عملیاتی در کنار کوچک‌سازی زیر ساختها و اجزای بنیادی بوده‌است. نظریه مور در دهه‌های ۶۰ و ۷۰ میلادی تقریباً درست بود. اما از ابتدای دهه ۸۰ میلادی و با سرعت گرفتن این پیشرفت‌ها، شبهات و پرسش‌هایی در محافل علمی مطرح شد که این کوچک سازی‌ها تا کجا می‌توانند ادامه پیدا کنند؟ کوچک کردن ترازیستورها و مجتمع کردن آن‌ها در فضای کمتر نمی‌تواند تا ابد ادامه داشته باشد زیرا در حدود ابعاد نانومتری اثرات کوانتومی از قبیل تونل زنی الکترونی بروز می‌کنند. گرچه همیشه تکنولوژی چندین گام بزرگ از نظریه عقب است، بسیاری از دانشمندان در زمینه‌های مختلف به فکر رفع این مشکل تا زمان رشد فناوری به حد مورد نظر افتادند. به این ترتیب بود که برای نخستین بار در سال ۱۹۸۲ «[[ریچارد فاینمن]]» معلم بزرگ فیزیک و برنده [[جایزه نوبل]]، پیشنهاد کرد که باید محاسبات را از دنیای دیجیتال وارد دنیای جدیدی به نام کوانتوم کرد که بسیار متفاوت از قبلی است و نه تنها مشکلات گذشته و محدودیت‌های موجود را بر طرف می‌سازد، بلکه افق‌های جدیدی را نیز به این مجموعه اضافه می‌کند. این پیشنهاد تا اوایل دهه ۹۰ میلادی مورد توجه جدی قرار نگرفت تا بالاخره در ۱۹۹۴ «پیتر شور» از آزمایشگاه AT&T در آمریکا نخستین گام را برای محقق کردن این آرزو برداشت. به این ترتیب ارتباط نوینی بین [[نظریه اطلاعات]] و مکانیک کوانتومی شروع به شکل‌گیری کرد که امروز آن را محاسبات کوانتومی یا محاسبات نانومتری (nano computing) می‌نامیم. در واقع هدف محاسبات کوانتومی یافتن روش‌هایی برای طراحی مجدد ادوات شناخته شده محاسبات (مانند گیت‌ها و ترانزیستورها) به گونه ایست که بتوانند تحت اثرات کوانتومی، که در محدوده ابعاد نانومتری و کوچکتر بروز می‌کنند، کار کنند.
 
خط ۲۰:
کامپیوتر تنها بخشی از دنیایی است که ما آن را دنیای دیجیتالی می‌نامیم. پردازش ماشینی اطلاعات، در هر شکلی، بر مبنای دیجیتال و محاسبات کلاسیک انجام می‌شود. اما کمتر از یک دهه است که روش بهتر و قدرتمندتر دیگری برای پردازش اطلاعات پیش رویمان قرار گرفته که بر اساس مکانیک کوانتومی می‌باشد. این روش جدید با ویژگی‌هایی همراه است که آن را از محاسبات کلاسیک بسیار متمایز می‌سازد. گرچه محاسبات دانشی است که اساس تولد آن در ریاضیات بود، اما کامپیوترها سیستم‌هایی فیزیکی هستند و فیزیک در آینده این دانش نقش تعیین‌کننده‌ای خواهد داشت. البته وجود تفاوت بین این دو به معنای حذف یکی و جایگزینی دیگری نیست. به قول «نیلس بور» گاهی ممکن است خلاف یک حقیقت انکار ناپذیر منجر به حقیقت انکار ناپذیر دیگری شود؛ بنابراین محاسبات کوانتومی را به عنوان یک زمینه و روش جدید و بسیار کارآمد مطرح می‌کنیم. وجود چند پدیده مهم که مختص فیزیک کوانتومی است، آن را از دنیای کلاسیک جدا می‌سازد. این پدید ه‌ها عبارتند از: برهم نهی(superposition)، تداخل (interference), Entanglement، عدم موجبیت (non determinism)، نا جایگزیدگی (non locality) و تکثیر ناپذیری (non clonability). برای بررسی اثرات این پدیده‌ها در این روش جدید، لازم است که ابتدا واحد اطلاعات کوانتومی را معرفی کنیم.
هر سیستم محاسباتی دارای یک پایه اطلاعاتی است که نماینده کوچکترین میزان اطلاعات قابل نمایش، چه پردازش شده و چه خام است. در محاسبات کلاسیک این واحد ساختاری را بیت می‌نامیم که گزیده واژه «عدد دودویی» است زیرا می‌تواند تنها یکی از دو رقم مجاز صفر و یک را در خود نگه دارد. به عبارت دیگر هر یک از ارقام یاد شده در محاسبات کلاسیک، کوچکترین میزان اطلاعات قابل نمایش محسوب می‌شوند. پس سیستم‌هایی هم که برای این مدل وجود دارند باید بتوانند به نوعی این مفهوم را عرضه کنند. در محاسبات کوانتومی هم چنین پایه‌ای معرفی می‌شود که آن را کیوبیت (qubit) یا بیت کوانتومی می‌نامیم. اما این تعریف کیوبیت نیست و باید آن را همراه با مفهوم و نمونه‌های واقعی و فیزیکی درک کرد. در ضمن فراموش نمی‌کنیم که کیوبیت‌ها سیستم‌هایی فیزیکی هستند، نه مفاهیمی انتزاعی و اگر از ریاضیات هم برای توصیف آن‌ها کمک می‌گیریم تنها به دلیل ماهیت کوانتومی آن‌ها است.
در [[فیزیک کلاسیک]] برای نگهداری یک بیت از حالت یک سیستم فیزیکی استفاده می‌شود. در سیستم‌های کلاسیکی اولیه (کامپیوترهای مکانیکی) از موقعیت مکانی دندانه‌های چند [[چرخ دنده]] برای نمایش اطلاعات استفاده می‌شد. از زمانی‌که حساب دودویی برای محاسبات پیشنهاد شد، سیستم‌های دو حالتی انتخابهایانتخاب‌های ممکن برای محاسبات عملی شدند. به این معنی که تنها کافی بود تا سیستمی دو حالت یا دو پیکربندی مشخص، متمایز و بدون تغییر داشته باشد تا بتوان از آن برای این منظور استفاده کرد. به همین جهت، از بین تمام کاندیداها، سیستم‌های الکتریکی و الکترونیکی برای این کار انتخاب شدند. به این شکل، هر بیت، یک [[مدار الکتریکی]] است که یا در آن جریان وجود دارد یا ندارد.
هر بیت کوانتومی یا کیوبیت عبارت است از یک سیستم دودویی که می‌تواند دو حالت مجزا داشته باشد. به عبارت فنی‌تر، کیوبیت یک سیستم دو بعدی کوانتومی با دوپایه به شکل و است. البته نمایش پایه‌ها یکتا نیست، به این دلیل که بر خلاف محاسبات کلاسیک در محاسبات کوانتومی از چند سیستم کوانتومی به جای یک سیستم ارجح استفاده می‌کنیم. اولین کاندید برای نمایش کیوبیت استفاده از مفهوم اسپین است که معمولاً [[اتم هیدروژن]] برای آن به کار می‌رود. در اندازه‌گیری اسپین یک الکترون، احتمال بدست آمدن دو نتیجه وجود دارد: یا اسپین رو به بالاست که با آن را با نشان می‌دهیم و معادل است یا رو به پائین است که با نشان می‌دهیم و معادل است با |۱>|. بالا یا پائین بودن جهت اسپین در یک اندازه‌گیری از آنجا ناشی می‌شود که اگر اسپین اندازه‌گیری شده در جهت محوری باشد که اندازه‌گیری را در جهت آن انجام داده‌ایم، آن را بالا و اگر در خلاف جهت این محور باشد آن را پائین می‌نامیم. علاوه بر [[اسپین]] از وضع قطبش یک پرتو فوتونی و نیز سطوح انرژی مجزای یک اتم دلخواه نیز می‌توان به عنوان سیستم کیوبیتی استفاده کرد. شاید بتوان مهم‌ترین تفاوت بیت و کیوبیت را در این دانست که بیت کلاسیک فقط می‌تواند در یکی از دو حالت ممکن خود قرار داشته باشد در حالیکه بیت کوانتومی می‌تواند به‌طور بالقوه در بیش از دو حالت وجود داشته باشد. تفاوت دیگر در اینجاست که هرگاه بخواهیم می‌توانیم مقدار یک بیت را تعیین کنیم اما اینکار را در مورد یک کیوبیت نمی‌توان انجام داد. به زبان کوانتومی، یک کیوبیت را با عبارت نشان می‌دهیم. حاصل اندازه‌گیری روی یک کیوبیت حالت |o> را با احتمال C۱۲ و حالت |۱>| را با احتمال C۲۲ بدست می‌دهد. البته اندازه‌گیری یک کیوبیت حتماً یکی از دو نتیجه ممکن را بدست می‌دهد. از سوی دیگر اندازه‌گیری روی سیستم‌های کوانتومی حالت اصلی آن‌ها را تغییر می‌دهد. کیوبیت در حالت کلی در یک حالت برهم نهاده از دوپایه ممکن قرار دارد. اما در اثر اندازه‌گیری حتماً به یکی از پایه‌ها برگشت می‌کند. به این ترتیب هر کیوبیت، پیش از اندازه‌گیری شدن می‌تواند اطلاعات زیادی را در خود داشته باشد.
 
خط ۳۵:
 
== بیت کوانتومی در برابر بیت ==
یک رایانه کوانتومی که دارای تعدادی بیت کوانتومی است، اساساً با کامپیوتر کلاسیک که دارای همان تعداد بیت است متفاوت است. برای مثال برای نشان دادن حالت سیستم n بیت کوانتومی روی کامپیوتر کلاسیک، احتیاج به ذخیره n ضریب مختلط است. اگرچه به نظر می‌رسد که بیت کوانتومی می‌تواند اطلاعات را بطوربه‌طور نمایی بیشتر از همتایان کلاسیک خود نگه دارد؛ نباید از این حقیقت بیتهای کوانتومی که فقط احتمال انطباق در همه حالت هایشان هستند، چشم پوشی کنیم. به این معنی که وقتی حالت نهایی بیت کوانتومی اندازه‌گیری شود، آن‌ها فقط در یکی از تنظیمات ممکن که قبلاً اندازه‌گیری شده‌اند یافت می‌شوند. علاوه بر این اگر فکر کنیم که بیتهای کوانتومی فقط در یک حالت ممکن قبل از اندازه‌گیری وجود داشته اند، نادرست است. چرا که این حقیقت وجود دارد که آن‌ها در حالت‌های منطبق قبل از اینکه اندازه‌گیری شوند روی نتایج احتمالی محاسبات تأثیر مستقیم دارند.
برای مثال کامپیوتر کلاسیک اولیه را در نظر بگیرید که با حافظه ۳ بیت کار می‌کند. کامپیوتر در هر زمان، یک [[توزیع احتمال]] با ۸ حالت مختلف دارد. اگر یک کامپیوتر مطمئن باشد، پس قطعاً حالتی وجود دارد که احتمال وجود آن حالت ۱ است. اگر کامپیوتر یک کامپیوتر احتمالی (غیر قطعی) باشد، احتمال این وجود دارد که کامپیوتر در هر یک از حالت‌های مختلف قرار بگیرد. ما می‌توانیم هریک از این حالت‌های احتمالی را با ۸ عدد توصیف کنیم. باید در نظر گرفت که مجموع احتمالات این حالتها برابر با یک خواهد بود.
حالت رایانه کوانتومی ۳ بیت با یک بردار ۸ بعدی توصیف می‌شود که Ket نامیده می‌شود؛ بنابراین به جای جمع کردن احتمال این حالتها، مجموع مربعات این حالتها را در نظر می‌گیریم که مقدار آن برابر با یک خواهد بود. علاوه بر این ضرائب [[اعداد مختلط]] هستند. گرچه دامنه این حالت‌ها با اعداد مختلط نشان داده می‌شود، فاز بین دو حالت یک پارامتر معنی دار است که این یک کلید تفاوت بین محاسبه کوانتوم و احتمال محاسبه کلاسیکی است.
خط ۴۴:
 
== پتانسیل ==
محاسبه فاکتورگیری [[عدد صحیح]] به وسیلهٔ یک کامپیوتر معمولی برای [[اعداد صحیح]] بزرگ، در صورتی که این اعداد حاصل چند عدد اول هستند (بعنوان مثال [[حاصل ضرب]] ۲ عدد اول ۳۰۰ رقمی) غیرممکن است. در مقایسه، یک رایانه کوانتومی می‌تواند به صورت مؤثری مشکل پیدا کردن این عاملهاعامل‌ها را با استفاده از الگوریتم Shore حل کند. این قابلیت رایانه کوانتومی را قادر می‌سازد بسیاری از سیستم‌های رمزنگاری امروزه را رمز گشایی کند، به این معنی که یک الگوریتم زمانی (در تعداد ارقام عدد صحیح) چند جمله‌ای برای [[حل مسئله]] وجود خواهد داشت. به ویژه مبنای بسیاری از رمزهای [[کلید عمومی]] متداول، مشکل بودن فاکتورگیری اعداد صحیح (یا مسائل الگوریتم مجزای مربوطه که به سادگی با الگوریتم Shore قابل حل است) شامل حالتهای مختلف RSA می‌باشد. این روش‌ها برای ایمن کردن صفحات WEB، رمز کردن ایمیل و بسیاری انواع دیگر دیتا بکار می‌رود. شکستن این‌ها پیامدهای مهمی برای محرمانگی و امنیت الکترونیکی خواهد داشت.
با این حال بنظر نمی‌رسد سایر الگوریتمهایالگوریتم‌های رمزنگاری موجود با این الگوریتم‌ها شکسته شوند. برخی از الگوریتمهایالگوریتم‌های کلید عمومی بر مبنای مسائلی بجز فاکتورگیری اعداد صحیح و الگوریتم مجزا که الگوریتم Shore برای حل آن‌ها بکار می‌رود، مانند سیستم رمز McEliece مبتنی بر مسئله‌ای در تئوری کدینگ قابل حل باشند. سیستم‌های رمز Lattice نیز با رایانه‌های کوانتومی شکسته می‌شوند و یک الگوریتم زمانی چند جمله‌ای برای حل مسائل زیرگروه پنهان دو سطحی، که قابلیت شکستن بسیاری از رمزهای lattice را دارند، پیدا می‌کنند. ثابت شده که بکارگیری الگوریتم Grover برای شکستن الگوریتم متقارن (کلیدمخفی) به روش حمله همه‌جانبه تقریباً نیاز به <math>2^\frac{n}{2}</math> الگوریتم رمز زیرین دارد که در مقایسه با <math>2^n</math> درحالت سنتی، به این معناست که طول کلید متقارن به صورت مؤثری نصف شده‌است. ۲۵۶–AES در برابر حمله‌ای که از الگوریتم Grover استفاده می‌کند همان میزان امنیت ۱۲۸-AES در برابر حملات همه‌جانبه سنتی دارد (ابعاد کلید را ببینید). [[رمزنگاری کوانتومی]]، برخی عملیات رمزنگاری کلیدعمومی را به صورت بالقوه بهبود می‌بخشد. علاوه بر فاکتورگیری و الگوریتمهایالگوریتم‌های مجزا، الگوریتمهایالگوریتم‌های کوانتومی یک چند جمله‌ای سرعت بخش برای معروف‌ترین الگوریتم سنتی که برای بسیاری مسائل پیداشده، شامل [[شبیه‌سازی]] فرایندهای فیزیک کوانتومی در شیمی و [[فیزیک حالت جامد]]، تخمین چندجمله‌ایJones و حل معادله Pell ارائه می‌کند.
هیچ [[استدلال ریاضی]] که نشان دهد الگوریتم سنتی سریع معادلی را نتوان یافت، پیدا نشده و بعید هم به نظر می‌رسد. برای برخی مسائل، رایانه‌های کوانتومی یک چند جمله‌ای سرعت بخش ارائه می‌کنند. معروف‌ترین نمونه آن، جستجوی [[پایگاه داده]] کوانتومی است که با استفاده از الگوریتم Grover با پرسش‌های کمتر از پایگاه داده نسبت به روش سنتی حل می‌شود. این مزیت قابل اثبات است. نمونه‌های متعددی از سرعت بخشی کوانتومی برای مسائل مربوط به queryها مانند یافتن توابع دو- به- یک و برآورد NAND trees اثبات شده‌است.
 
خط ۵۸:
الگوریتم Grover همچنین برای سرعت بخشی درجه دوم در جستجوهای همه‌جانبه پاره‌ای از مسائل مانند NP-complete بکار می‌رود.
از آنجا که [[علوم شیمی]] و نانوتکنولوژی متکی بر درک سیستم‌های کوانتومی می‌باشند و این سیستم‌ها به روش سنتی قابل شبیه‌سازی نیستند، بسیاری بر این اعتقادند که شبیه‌سازی کوانتومی یکی از مهم‌ترین کاربردهای محاسبات کوانتومی است.
چالشهایچالش‌های فنی بسیاری در ایجاد یک رایانه کوانتومی در ابعاد بزرگ وجود دارد؛ بنابراین انتظار می‌رود این رایانه‌ها مسائل را بسیار سریع تر حل کنند. David DiVincenzo از شرکت IBM، الزامات زیر را برای یک رایانه کوانتومی ذکر کرده‌است:
* به لحاظ فیزیکی تعداد بیتهای کوانتومی قابل افزایش باشند؛
* به بیتهای کوانتومی بتوان مقادیر دلخواه داد؛
خط ۶۶:
 
== ناهمدوسی کوانتومی ==
یکی از بزرگترین چالشها، کنترل یا حذف ناهمدوسی کوانتومی است. به این معنی که جداسازی سیستم از محیط آن در حالیکه با جهان خارج تعامل دارد باعث ناهمدوسی سیستم می‌شود. این پدیده علمی برگشت‌ناپذیر است؛ زیرا یکپارچه نیست و در صورت عدم جلوگیری از آن، باید قویا کنترل شود. زمان‌های ناهمدوسی برای یک سیستم مناسب، بخصوص زمان ملایم‌سازی سراسری T۲ (برای تکنولوژیهایتکنولوژی‌های NMR و MRI زمان dephasing هم نامیده می‌شود)، عموماً در حرارت پایین بین چند [[نانو ثانیه]] تا چند ثانیه است.
این مباحث برای رویکردهای اپتیکی بسیار پیچیده‌تر است؛ زیرا مقیاس‌های زمانی به میزان بسیار زیادی کوتاهتر می‌باشند و راهکاری که اغلب برای رفع آن ذکر می‌شود شکل‌دهی پالس نوری است. میزان خطا، عموماً با زمان عمل تا زمان ناهمدوسی نسبت دارد؛ بنابراین همه کارکردها باید بسیار سریع تر از زمان ناهمدوسی انجام شوند.
اگر میزان خطا کم بود می‌توان از اصلاح خطای کوانتومی که خطاهای ناشی از ناهمدوسی را برطرف می‌کند استفاده کرد؛ بدینوسیله زمان محاسبه کل بیشتر از زمان ناهمدوسی خواهد بود. به‌طور معمول نرخ خطای هر Gate، از مرتبه ۴− می‌باشد(۱۰ به توان ۴−). به این معنا که هر Gate باید وظایف خود را در یک ده هزارم زمان ناهمدوسی سیستم انجام دهد.
فراهم کردن این شرایط [[مقیاس پذیری]] برای بسیاری از سیستم‌ها مقدور است. درحالیکه استفاده از اصلاح خطا هزینه افزودن تعداد زیادی بیت کوانتومی را نیز همراه دارد. تعداد این بیتهای کوانتومی الزامی برای فاکتورگیری اعداد صحیح با استفاده از الگوریتمShore همچنان چند جمله‌ای است و بین L و ۲L می‌باشد که در آن L تعداد بیتهایی است که باید فاکتورگیری شوند. الگوریتمهایالگوریتم‌های اصلاح خطا، این عدد را بایک فاکتور اضافی L بزرگتر خواهند کرد. برای یک عدد ۱۰۰۰ بیتی نیاز به حدود ده هزار بیت کوانتومی بدون اصلاح خطا داریم. با اصلاح خطا این عدد به ده میلیون بیت کوانتومی خواهد رسید. توجه داشته باشید که این زمان حدود ۲L یا ده میلیون مرحله و روی MHz۱ حدود ۱۰ ثانیه خواهد بود.
حالت دیگر برای مسئله ناهمدوسی پایدار، ایجاد یک هم‌بندی رایانه کوانتومی با anyons است که quasi-particleها به صورت رشته‌ها و متکی بر تئوری braid برای ایجاد [[دروازه‌های منطقی]] ثابت بکار می‌روند.