نحوه راه اندازی گوشی های هوشمند و رایانه های شخصی. پرتال اطلاعاتی

کامپیوتر کوانتومی کامپیوتر کوانتومی خانگی

بشر، مانند 60 سال پیش، بار دیگر در آستانه یک پیشرفت بزرگ در زمینه فناوری های محاسباتی است. کامپیوترهای کوانتومی به زودی جایگزین کامپیوترهای امروزی خواهند شد.

چقدر پیشرفت داشته است

در سال 1965، گوردون مور گفت که در یک سال تعداد ترانزیستورهایی که در یک ریزتراشه سیلیکونی قرار می گیرند دو برابر می شود. این سرعت پیشرفت اخیراً کاهش یافته است و دو برابر شدن آن کمتر اتفاق می افتد - هر دو سال یک بار. حتی با این سرعت، در آینده نزدیک، ترانزیستورها به اندازه یک اتم خواهند رسید. سپس خطی وجود دارد که نمی توان از آن عبور کرد. از نظر ساختار فیزیکی ترانزیستور نمی تواند کمتر از مقادیر اتمی باشد. افزایش اندازه تراشه مشکل را حل نمی کند. عملکرد ترانزیستورها با آزاد شدن انرژی حرارتی همراه است و پردازنده ها به یک سیستم خنک کننده با کیفیت بالا نیاز دارند. معماری چند هسته ای نیز مسئله رشد بیشتر را حل نمی کند. رسیدن به اوج در توسعه فناوری مدرن پردازنده به زودی اتفاق خواهد افتاد.
توسعه دهندگان این مشکل را در زمانی درک کردند که رایانه های شخصی تازه در دسترس کاربران قرار گرفته بود. در سال 1980، یکی از بنیانگذاران انفورماتیک کوانتومی، پروفسور شوروی، یوری مانین، ایده محاسبات کوانتومی را فرموله کرد. یک سال بعد، ریچارد فیمن اولین مدل کامپیوتر با پردازنده کوانتومی را پیشنهاد کرد. مبانی نظری اینکه کامپیوترهای کوانتومی چگونه باید باشند توسط پل بنیوف فرموله شد.

اصل عملکرد یک کامپیوتر کوانتومی

برای درک نحوه عملکرد پردازنده جدید، لازم است حداقل دانش سطحی از اصول مکانیک کوانتومی داشته باشیم. ارائه طرح‌بندی‌های ریاضی و استخراج فرمول‌ها در اینجا منطقی نیست. کافی است که افراد غیرمستقیم با سه ویژگی متمایز مکانیک کوانتومی آشنا شوند:

  • وضعیت یا موقعیت یک ذره فقط با درجاتی از احتمال تعیین می شود.
  • اگر یک ذره می تواند چندین حالت داشته باشد، در آن صورت در تمام حالت های ممکن در یک زمان قرار دارد. این اصل برهم نهی است.
  • فرآیند اندازه گیری وضعیت ذره منجر به ناپدید شدن برهم نهی می شود. مشخصاً، دانش در مورد وضعیت ذره که با اندازه گیری به دست می آید با وضعیت واقعی ذره قبل از اندازه گیری ها متفاوت است.

از نقطه نظر عقل سلیم - مزخرف کامل. در دنیای معمولی ما، این اصول را می توان به صورت زیر نشان داد: درب اتاق بسته است، و در عین حال باز است. بسته و همزمان باز است.

این تفاوت قابل توجه بین محاسبات است. یک پردازنده معمولی در اقدامات خود با یک کد باینری عمل می کند. بیت های کامپیوتری فقط می توانند در یک حالت باشند - دارای ارزش منطقی 0 یا 1 هستند. کامپیوترهای کوانتومی بر روی کیوبیت ها کار می کنند که می توانند یک مقدار منطقی 0، 1، 0 و 1 داشته باشند. برای کارهای خاص، آنها مزیت چند میلیون دلاری نسبت به رایانه های سنتی خواهند داشت. امروزه ده ها شرح از الگوریتم های کار وجود دارد. برنامه نویسان کد برنامه خاصی را ایجاد می کنند که می تواند بر اساس اصول جدید محاسبات کار کند.

کامپیوتر جدید کجا استفاده خواهد شد؟

یک رویکرد جدید در فرآیند محاسبات به شما امکان می دهد با حجم عظیمی از داده ها کار کنید و عملیات محاسباتی فوری را انجام دهید. با ظهور اولین کامپیوترها، برخی از مردم، از جمله دولتمردان، نسبت به استفاده از آنها در اقتصاد ملی تردید زیادی داشتند. امروزه هنوز افرادی هستند که در مورد اهمیت کامپیوترهای نسل جدید تردید دارند. برای مدت طولانی، مجلات فنی از انتشار مقالاتی در مورد محاسبات کوانتومی خودداری می کردند، زیرا این حوزه را یک ترفند متقلبانه رایج برای فریب سرمایه گذاران می دانستند.

روش جدید محاسبات، پیش نیازهای اکتشافات عظیم علمی را در همه صنایع ایجاد خواهد کرد. پزشکی بسیاری از مسائل مشکل ساز را که اخیراً انباشته شده اند حل می کند. تشخیص سرطان در مراحل اولیه بیماری نسبت به الان امکان پذیر خواهد بود. صنایع شیمیایی قادر به سنتز محصولات با خواص منحصر به فرد خواهد بود.

پیشرفت در فضانوردی شما را منتظر نخواهد گذاشت. پرواز به سیارات دیگر مانند سفرهای روزانه در اطراف شهر عادی خواهد شد. پتانسیل ذاتی در محاسبات کوانتومی مطمئناً سیاره ما را غیرقابل تشخیص تغییر خواهد داد.

یکی دیگر از ویژگی‌های متمایز رایانه‌های کوانتومی، توانایی محاسبات کوانتومی برای یافتن سریع کد یا رمز مناسب است. یک کامپیوتر معمولی یک راه حل بهینه سازی ریاضی را به صورت متوالی انجام می دهد و گزینه ها را یکی پس از دیگری طی می کند. یک رقیب کوانتومی با کل آرایه داده به یکباره کار می کند و مناسب ترین گزینه ها را با سرعت رعد و برق در زمان بی سابقه ای کوتاه انتخاب می کند. تراکنش های بانکی در یک چشم به هم زدن رمزگشایی می شود که در دسترس کامپیوترهای مدرن نیست.

با این حال، بخش بانکی ممکن است نگران نباشد - راز آن با روش رمزگذاری کوانتومی با پارادوکس اندازه گیری ذخیره می شود. اگر بخواهید کد را باز کنید، سیگنال ارسالی مخدوش می شود. اطلاعات دریافتی هیچ معنایی نخواهد داشت. سرویس‌های مخفی، که جاسوسی برای آنها امری رایج است، به امکانات محاسبات کوانتومی علاقه دارند.

مشکلات طراحی

مشکل در ایجاد شرایطی است که تحت آن یک بیت کوانتومی می تواند برای مدتی بی نهایت طولانی در حالت برهم نهی قرار گیرد.

هر کیوبیت یک ریزپردازنده است که بر اساس اصول ابررسانایی و قوانین مکانیک کوانتومی کار می کند.

تعدادی از شرایط محیطی منحصر به فرد در اطراف عناصر میکروسکوپی موتور منطق ایجاد می شود:

  • دما 0.02 درجه کلوین (-269.98 سانتیگراد)؛
  • سیستم حفاظت در برابر تشعشعات مغناطیسی و الکتریکی (تاثیر این عوامل را 50 هزار بار کاهش می دهد).
  • سیستم حذف حرارت و میرایی ارتعاش؛
  • نادر شدن هوا زیر فشار اتمسفر تا 100 میلیارد بار.

یک انحراف محیطی جزئی باعث می شود کیوبیت ها به طور لحظه ای حالت برهم نهی خود را از دست بدهند و در نتیجه عملکرد نادرستی ایجاد می شود.

جلوتر از سیاره

همه موارد فوق را می توان به خلاقیت ذهن ملتهب یک نویسنده علمی تخیلی نسبت داد، اگر گوگل به همراه ناسا سال گذشته یک کامپیوتر کوانتومی D-Wave را از یک شرکت تحقیقاتی کانادایی خریداری نمی کرد که پردازنده آن حاوی 512 عدد است. کیوبیت ها

با کمک آن، پیشرو در بازار فناوری رایانه مسائل یادگیری ماشین را در مرتب سازی و تجزیه و تحلیل آرایه های داده بزرگ حل می کند.

یک بیانیه آشکار مهم توسط اسنودن، که ایالات متحده را ترک کرد، بیان کرد - NSA همچنین قصد دارد کامپیوتر کوانتومی خود را توسعه دهد.

2014 - آغاز دوران سیستم های D-Wave

جوردی رز، ورزشکار موفق کانادایی، پس از معامله با گوگل و ناسا، شروع به ساخت یک پردازنده 1000 کیوبیتی کرد. مدل آینده از نظر سرعت و حجم محاسبات حداقل 300000 برابر از اولین نمونه اولیه تجاری پیشی خواهد گرفت. کامپیوتر کوانتومی که عکس آن در زیر قرار دارد، اولین نسخه تجاری جهان از یک فناوری محاسباتی اساساً جدید است.

آشنایی با کارهای کالین ویلیامز در مورد محاسبات کوانتومی در دانشگاه، او را تشویق به توسعه علمی کرد. باید بگویم که ویلیامز امروز در شرکت رز به عنوان مدیر پروژه تجاری کار می کند.

پیشرفت یا فریب علمی

خود رز به طور کامل نمی داند کامپیوترهای کوانتومی چیست. طی ده سال، تیم او از ساخت یک پردازنده 2 کیوبیتی به اولین نسل تجاری امروزی تبدیل شده است.

رز از همان ابتدای تحقیق خود قصد داشت پردازنده ای با حداقل تعداد کیوبیت 1000 بسازد. و او باید یک گزینه تجاری داشته باشد - فروش و کسب درآمد.

بسیاری با دانستن وسواس و هوش تجاری رز سعی می کنند او را به جعل متهم کنند. ظاهراً معمولی ترین پردازنده برای کوانتومی صادر شده است. این با این واقعیت تسهیل می شود که سرعت خارق العاده تکنیک جدید هنگام انجام انواع خاصی از محاسبات نشان می دهد. در غیر این صورت، مانند یک کامپیوتر کاملا معمولی رفتار می کند، فقط بسیار گران است.

چه زمانی ظاهر می شوند

زمان زیادی برای انتظار نیست. گروه تحقیقاتی که توسط خریداران مشترک نمونه اولیه سازماندهی شده است، به زودی نتایج تحقیقات روی D-Wave را گزارش خواهد کرد.
شاید به زودی زمانی فرا برسد که کامپیوترهای کوانتومی درک ما را از دنیای اطرافمان تغییر دهند. و تمام بشریت در آن لحظه به سطح بالاتری از تکامل خود خواهد رسید.

25-09-2017, 16:25

در مقاله امروز ما نه پیچیدگی وقایع گذشته و نه انحرافات فراعلمی زمان حال را در نظر نخواهیم گرفت. امروز سعی خواهیم کرد به آینده نگاه کنیم.

موضوع اصلی گفتگوها در مورد آینده اغلب مسئله فناوری است - و باید توجه داشت که کاملاً شایسته است. از بین همه عوامل مؤثر بر حرکت چرخ دنده های فرآیند تاریخی، این پویایی تغییرات در ساختار فناوری است که می توان قوی ترین آنها را نام برد. در طول تاریخ، هم نهادهای اجتماعی و هم کل امپراتوری‌ها و در برخی موارد حتی تمدن‌ها قربانی معرفی تدریجی فناوری‌های جدید و از بین رفتن ناگهانی معنا در فناوری‌های قدیمی شده‌اند. به همین دلیل، تمایل به دیدار با دسته جدیدی از تغییرات آماده شده بیش از حد طبیعی به نظر می رسد.

اما در عین حال، باید توجه داشت که آینده‌شناسی فن‌آوری مدرن تا حد زیادی تحت‌تاثیر رویاگرایی عاطفی از نوع نسبتاً بدی است. کیفیتی که در آن کیفیت پیش‌بینی اولویت کمتری نسبت به میل به متحیر کردن و خوشحال کردن مخاطب به شیوه‌ای شیک در آینده‌ای با تکنولوژی بالا است. احتمالاً نکته این است که این نوع آینده‌شناسی به اندازه‌ای که در طبیعت به کار می‌رود، بنیادی نیست و بیشتر در خدمت وظایف بازاریابی در اینجا و اکنون است تا نیاز به درک تصویر آینده یک روز بعد. به همین دلیل، ایده های نسبتاً ابتدایی وجود دارد که آینده زمانی است که:
1. همه چیز شیک، گرد و بیشتر سفید است (مرحوم استیو جابز و اپل).
2. همه چیز الکتریکی، قابل استفاده مجدد و پایدار است (الون ماسک و امپراتوری او از SpaceX، Tesla و SolarCity).
3. همه چیز سایبری، هوشمند مصنوعی و با برنامه های کاربردی برای اصلاح طبیعت انسان (Ray Kurzweil و Google، مورد نادری که چهره تصویر آینده اولین شخص در شرکت نیست).
4. ترکیب دلخواه از موارد فوق (متوسط ​​مشترک هر عمومی در موضوعات علمی و فنی).

مشکل گزینه های ذکر شده برای آینده چیست که از امروز می بینیم؟ این واقعیت که آنها واقعاً گزینه هایی برای آینده ندارند. همه موارد فوق در بهترین حالت به عنوان توصیف زیبایی شناسی برخی از فرانچایزهای علمی تخیلی مناسب است که خرید قطعه ای از آن در قالب محصولات شرکت مربوطه به مخاطب پیشنهاد می شود. گزینه‌های فهرست‌شده از نظر توصیف مشکلات و راه‌حل‌های واقعی نسبتاً ضعیف هستند، و آن‌هایی که هنوز وجود دارند، ساده‌اند و، به بیان ملایم، بحث‌انگیز نیستند.

در اینجا، به نظر می رسد، عبارت "و اکنون من یک آینده پژوهی واقعی با کیفیت بالا را به شما نشان خواهم داد" خود را نشان می دهد. او، با این حال، نمی کند. چنین بیانیه ای بیش از حد جسورانه و متکبرانه خواهد بود. در عوض، اجازه دهید فقط یک موضوع تکنولوژیکی را در نظر بگیریم که به چشم انداز توسعه پایه عناصر کامپیوتری مربوط می شود. و چقدر خوب به نظر می رسد - قضاوت، خوانندگان عزیز، در وهله اول برای شما.

اخیراً رئیس دولت دوره ای را برای ایجاد اقتصاد دیجیتال پیشنهاد کرده است. این توسط بسیاری به عنوان پیشنهادی برای تبدیل بخش فناوری اطلاعات به لوکوموتیو اقتصاد روسیه، به معنای واقعی کلمه، "نفت جدید" تلقی شد. که کاملاً صحیح نیست و صادقانه بگویم، مفهوم پیشنهادی را به پوپولیسم پیش پا افتاده تقلیل می دهد. فناوری‌های اطلاعاتی به خودی خود قادر به ایجاد هیچ نوع لوکوموتیو نیستند، زیرا چیزی مادی ایجاد نمی‌کنند، بلکه تنها به نگهداری و بهره‌برداری از این مواد کمک می‌کنند. بخش IT به سادگی نمی تواند بدون توسعه سایر صنایعی که آن را خودکار می کند وجود داشته باشد. حتی برخی از این مواضع به این ابتکار انتقاد کردند. اما آیا عادلانه است؟

برای اینکه با مدل های ساده شده، حدس ها و اسب های کروی در خلاء کار نکنیم، اجازه دهید به منبع اصلی بپردازیم. یعنی مستقیماً به متن برنامه "اقتصاد دیجیتال فدراسیون روسیه" که توسط فرمان دولت شماره 1632-r مورخ 28 ژوئیه 2017 تصویب شده است.

"تکنولوژی های دیجیتالی اصلی پایان به پایان که در محدوده این برنامه گنجانده شده اند عبارتند از:
- اطلاعات بزرگ؛
- فناوری های عصبی و هوش مصنوعی؛
- سیستم های دفتر کل توزیع شده؛
- فن آوری های کوانتومی؛
- فن آوری های جدید تولید؛
- اینترنت صنعتی؛
- اجزای رباتیک و حسگرها؛
- فن آوری های ارتباطی بی سیم؛

- فناوری های واقعیت مجازی و واقعیت افزوده

همانطور که می بینید، این نه تنها و نه چندان در مورد بخش فناوری اطلاعات است. توجه ویژه در زمینه گفتگوی ما در مورد تصویر آینده مستحق چنین موردی در این لیست به عنوان "فناوری های کوانتومی" است. از بین همه موارد فوق، شاید این او باشد که می تواند حداکثر تأثیر را در شکل گیری نظم فناوری بعدی داشته باشد. اما برای درک اینکه چرا دقیقاً چرا باید گفت و گو از راه دور شروع شود.

چنین مقداری وجود دارد - بیست نانومتر. این نقطه صفر و بیست و پنج هزارم ضخامت موی انسان است و به صورت گرد شده، نقطه صفر و سه هزارم قطر یک گلبول قرمز است. همچنین حداقل اندازه گیت ترانزیستور مورد استفاده در پردازنده های مدرن تولید انبوه است.

تنها در چند دهه، کوچک‌سازی الکترونیک به موفقیت واقعاً چشمگیری دست یافته است، و ایجاد دستگاه‌هایی را ممکن می‌سازد که در جیب شما قرار می‌گیرند، که قدرت محاسباتی آن‌ها با اختلاف زیادی از کل توان مورد نیاز برای کل برنامه فضایی شوروی بیشتر است. و چنین وسایلی کنجکاوی منحصر به فردی نیستند که در یک نسخه در برخی از آزمایشگاه های فوق محرمانه وجود داشته باشند، بلکه بخشی جدایی ناپذیر از زندگی ما هستند. از روی صفحه نمایش یکی از این دستگاه ها، ممکن است به خوبی این مقاله را بخوانید.

شگفت انگیز است، اینطور نیست؟ اما به ندرت کسی به این موضوع فکر می کند و نه از روی عدم کنجکاوی. توسعه سریع فناوری رایانه قبلاً به چیزی آشنا و شاید حتی پیش پا افتاده تبدیل شده است. وقتی تعداد ترانزیستورهایی که سازندگان موفق می‌شوند روی یک تراشه پردازنده استاندارد قرار دهند به‌طور متوسط ​​هر دو سال یکبار دو برابر می‌شود، سخت است که در هر تکرار این اقدام، اشتیاق مشخصی را انتظار داشت. برعکس، به نظر عادی می رسد. و روندی که در طول وجود آن یک نسل کامل موفق شد بزرگ شود ، شروع به ابدی به نظر می رسد. اما اینطور نیست. و در آینده ای نه چندان دور، این جشن کوچک سازی ممکن است، اگر به طور کامل به پایان نرسد، به طور قابل توجهی تاخیر زمانی را افزایش دهد.

واقعیت این است که حداقل اندازه گیت فیزیکی ممکن برای یک ترانزیستور سیلیکونی قابل کار پنج نانومتر است. در زیر این مقدار، پدیده‌ای به نام «اثر تونل» رخ می‌دهد که به این واقعیت خلاصه می‌شود که الکترون‌ها این فرصت را پیدا می‌کنند که از سد پتانسیل اتصال p-n عبور کنند (آیا هنوز آن را از یک درس فیزیک به خاطر می‌آورند؟) به طور کلی، شروع به "راه رفتن" آزادانه در ترانزیستورهای پردازنده همسایه می کنند. حدس زدن این که چه عواقبی برای فرآیند محاسباتی جاری در پی خواهد داشت دشوار نیست. به عقیده من، یک تشبیه تقریباً نزدیک، گربه‌ای است که تصمیم می‌گیرد موش‌ها را دور صفحه‌کلید پیانو تعقیب کند، که در آن لحظه سعی می‌کنند بتهوون را روی آن بنوازند. بعید است که صداهای به دست آمده بسیار شبیه به "سوناتای مهتاب" مورد انتظار باشد.

برای مدت طولانی اعتقاد بر این بود که این حد شدید است، پس از آن افزایش بهره وری رایانه ها دوباره، مانند زمان "لامپ گرم"، منجر به افزایش اندازه آنها می شود. و این حد در صورت تداوم سرعت کوچک سازی، حدود چهار سال دیگر به آن می رسد.

با این حال، همه چیز آنقدر کشنده نیست. در سال 2016، تیمی از فیزیکدانان در آزمایشگاه ملی لارنس در برکلی، کالیفرنیا موفق به ایجاد ترانزیستوری با اندازه دروازه تنها 1 نانومتر شدند. برای انجام این کار، آنها مجبور شدند سیلیکون معمولی را با مولیبدنیت (دی سولفید مولیبدن) جایگزین کنند و از یک نانولوله کربنی به عنوان ماده برای خود شاتر استفاده کنند.

البته همه چیز به این سادگی نیست. هنوز با امکان تولید انبوه این گونه ترانزیستورها فاصله زیادی دارد، در حال حاضر تا آنجایی که بنده مطیع شما از اطلاعات اطلاع دارد، پیکربندی آنها بر روی تراشه پردازنده حتی هنوز تست نشده است. علاوه بر این، لازم است تفاوت اصلی بین سیلیکون خوب قدیمی (محتوای پوسته زمین بر حسب جرم بیش از بیست و پنج درصد) و مولیبدن (محتوای پوسته زمین بر حسب جرم سه برابر ده به منهای است) را درک کنیم. توان چهارم درصد). مولیبدن بسیار گرانتر است، حتی اگر در مورد شکل آزاد مولیبدنیت موجود در طبیعت صحبت کنیم. و بعید است که نانولوله گرافن هزینه تولید را کاهش دهد. با این وجود، امکان اساسی عقب راندن حد پایین کوچک سازی ترانزیستورها از طریق استفاده از مواد جدید را می توان اثبات شده تلقی کرد. بدون مشکل و البته تا بی نهایت نیست، اما شدنی است.

با این وجود، وجود حد کوچک سازی، که برای سالیان متمادی قطعی و غیرقابل تعرض تلقی می شد، نمی توانست به تحقیق در زمینه یافتن راه حل هایی که هم نیاز به افزایش توان محاسباتی را ببندد و هم از محدودیت های ذاتی میکروالکترونیک ترانزیستوری جلوگیری کند، ترغیب کند. نتیجه این مطالعات مفهوم کامپیوتر کوانتومی بود.

ایده محاسبات کوانتومی اولین بار توسط ریاضیدان روسی یوری ایوانوویچ مانین در کتاب محاسباتی و غیر قابل محاسبه (1980) بیان شد. اندکی پس از آن، ریچارد فاینمن، فیزیکدان آمریکایی، اولین مدل اولیه یک کامپیوتر کوانتومی را در سخنرانی معروف خود با عنوان «فضای کافی در پایین وجود دارد» (1981) پیشنهاد کرد. با این حال، در آن زمان هنوز هیچ صحبتی در مورد راه هایی برای دور زدن محدودیت های کوچک سازی وجود نداشت - به گفته مانین و فاینمن، جایگاه کامپیوترهای کوانتومی شبیه سازی تکامل یک سیستم کوانتومی بود که به دلیل ماهیت حوزه موضوعی، قابل قبول شبیه سازی دقیق و کارآمد در رایانه های کلاسیک نبود.

ایده خود محاسبات کوانتومی، اگر بخواهید آن را به زبانی کم و بیش قابل فهم برای افراد ناآشنا بیان کنید، بر این واقعیت استوار است که اگر افزایش تعداد ترانزیستورهای یک پردازنده کلاسیک، افزایش خطی را به همراه داشته باشد. تعداد حالت های دودویی توصیف شده، سپس برای عناصر کوانتومی دو سطحی، که در غیر این صورت بیت کوانتومی نامیده می شود، یا به اختصار کیوبیت، رشد نمایی خواهد بود. با توجه به اینکه یک کیوبیت می تواند به اندازه یک ترانزیستور اطلاعات پردازش کند: دقیقاً یک بیت. این امر به دلیل ترکیب اصل برهم نهی کوانتومی (یک جسم به طور همزمان در دو حالت منحصر به فرد متقابل) و پدیده درهم تنیدگی کوانتومی (وابستگی متقابل حالات کوانتومی دو یا چند جسم) ممکن می شود.

در عین حال، در گفتگو در مورد کیوبیت ها، خود کلمه "مینیاتورسازی" حتی خیلی مناسب نیست، زیرا نسخه های مختلف "بدنه کار" آن (ممکن است فیزیکدانان کوانتومی چنین عامیانه ای را به من ببخشند) می تواند باشد:
- جهت چرخش هسته ای در یک نقطه کوانتومی روی یک نیمه هادی.
- جفت کوپر (الکترون-فونون-الکترون) در نقطه ابررسانا.

- اتم ها در تله های نوری.

به عبارت دیگر، ما در مورد مقیاس ذرات بنیادی صحبت می کنیم که وضعیت آنها بسته به اجرا، یا توسط یک شار فوتون یا یک میدان مغناطیسی فوق ضعیف کنترل می شود. کوچکتر، شاید، در حال حاضر هیچ جا. افزایش تصاعدی در سرعت محاسبات را در مقایسه با رایانه های کلاسیک به این اضافه کنید - و امکاناتی که باز می شوند تقریباً بی حد و حصر به نظر می رسند.

اما از بسیاری جهات - به نظر می رسد. زیرا، مانند همیشه با هر فناوری پیشرفت، تفاوت های ظریف زیادی وجود دارد.

با توجه به این واقعیت که اندازه گیری وضعیت یک سیستم کوانتومی نیز این حالت را تغییر می دهد (طبق اصل عدم قطعیت هایزنبرگ)، نتیجه یک محاسبه کوانتومی خاصیت بسیار جالبی به دست می آورد: فقط با یک احتمال خاص درست است. اگر محاسبه بارها تکرار شود و همگرایی نتایج به مقدار معینی آشکار شود، می توان این احتمال را به طور قابل توجهی به صد درصد نزدیک کرد. با این حال، به این دلیل (در واقع - نه تنها، بلکه در حال حاضر کاملاً "کاسه را سرریز می کند")، الگوریتم های رایانه های کلاسیک برای محاسبات کوانتومی غیرقابل اجرا هستند. یک کامپیوتر کوانتومی بر اساس الگوریتم‌های کوانتومی خاصی کار می‌کند که توسعه آن به یک جهت امیدوارکننده جداگانه منجر می‌شود.

همچنین، وضعیت یک سیستم کوانتومی درهم تنیده، یک چیز بسیار حساس به مطلقاً هرگونه تأثیر خارجی است. ببخشید هر کسی که قادر به وارد کردن اعوجاج در فرآیند محاسباتی است، اگر سیستم کوانتومی را به طور کامل از بین نبرد. بنابراین، بدون تحقیقات بسیار گسترده اضافی در مورد محافظت از تأثیرات خارجی، کاربرد انبوه رایانه‌های کوانتومی بسیار دشوار است.

یکی از دشوارترین مسائل در محاسبات کوانتومی، به اصطلاح مسئله مقیاس است که به همان اصل عدم قطعیت هایزنبرگ مربوط می شود. سوال این است که یک کامپیوتر کوانتومی از حداکثر تعداد کیوبیت های جفت شده می تواند قبل از اثر ناهمدوسی ساخته شود که به آن کاهش فون نویمان یا فروپاشی تابع موج نیز می گویند، در ساده ترین شکل - تجمع اعوجاج ها به عنوان یک نتیجه اندازه گیری ها، محاسبات نتیجه واضح را غیرممکن می کند. این سوال موضوع یک رشته علمی جداگانه است که به سرعت در حال توسعه است - مکانیک کوانتومی چند ذره، و پاسخ به آن، به بیان ساده، به ماهیت فیزیکی ناپیوستگی بستگی دارد، که در حال حاضر برای علم ناشناخته است.

با این حال، محدودیت مرتبط با ناهمدوسی، اگر آشکار شود، به هیچ وجه به یک حکم قطعی برای کل جهت محاسبات کوانتومی تبدیل نخواهد شد. در پایان، مطلقاً ضروری نیست که تمام کیوبیت‌های یک کامپیوتر را در حالت درهم‌تنیدگی کوانتومی نگه دارید - معماری با استفاده از خوشه‌های کیوبیت مستقل کاملاً ممکن است. با این وجود، برای توسعه بیشتر جهت، روشن شدن این موضوع ضروری است.

و در نهایت، یکی دیگر از نکات ظریف مرتبط با محاسبات کوانتومی این است که همه الگوریتم‌ها خود را به شتاب کوانتومی نمی‌دهند. علاوه بر این، آنها حتی یک اقلیت هستند. با این حال، اگر به الگوریتم‌هایی که هنوز هم می‌توانند شتاب داده شوند نگاه کنید، دیگر مانند چیزی کشنده به نظر نمی‌رسد. و اینها بیشتر الگوریتم هایی برای حل مسائل شمارش هستند. بسیار ساده به نظر می رسد، حتی می توانید بگویید - ساده است، اما وظایف بر اساس آنها است:
- مدل‌سازی و پیش‌بینی دینامیک ساختاری سیستم‌های پیچیده، از کوانتومی مناسب تا بیولوژیکی و احتمالاً اجتماعی.
- رمزنگاری، که در آن الگوریتم‌های کوانتومی از نظر تئوری می‌توانند هم اکثر رمزهای مدرن را که قابل اعتماد در نظر گرفته می‌شوند در یک زمان معقول بشکنند و هم الگوریتم‌های رمزگذاری خود را بسازند که از نظر قابلیت اطمینان از همه الگوریتم‌های موجود فراتر رود.

- هوش مصنوعی، که در آن سرعت حل مسائل مختلف شمارش، در اصل، یک پارامتر بسیار مهم است.

به این معنا که، اگرچه فهرست وظایفی که شتاب کوانتومی دارند محدود است، وظایف ارائه شده در آن اصلی ترین مرحله مدرن در توسعه فناوری رایانه است.

خوب، اگر به نکات ظریف محاسبات کوانتومی که بیشتر به عنوان خوشایند طبقه بندی می شوند برویم، آنگاه حداقل تخلیه کوانتومی به اندازه ترانزیستور کلاسیک به منطق باینری وابسته نیست و ایجاد یک qutrit (سلولی با سه حالت) است. خیلی پیچیده تر از ایجاد یک کیوبیت نیست. و این چشم اندازهای بسیار جالبی را باز می کند. بر اساس تحقیقات گروهی از دانشمندان دانشگاه کوئینزلند (استرالیا) که در سال 2008 منتشر شد، استفاده از سلول‌های چند بعدی، اصولاً می‌تواند اجرای الگوریتم‌های کوانتومی و رایانه‌ها را به میزان قابل توجهی ساده کند.

علاوه بر این، خود منطق سه تایی، حتی بدون در نظر گرفتن ویژگی‌های پیاده‌سازی فیزیکی، در مقایسه با منطق باینری دارای مزایای متعددی است که به طور کلی به قابلیت اطمینان بیشتر محاسبات، افزایش دو برابری بیشتر در سرعت هنگام حل مشکلات جمع خلاصه می‌شود. و راحتی بیشتر هنگام حل مسائل مربوط به ماهیت سه تایی، مانند پردازش تصویر RGB (از جمله تشخیص الگو)، یا وظایف مدل سازی سه بعدی. در عین حال، منطق سه تایی را می توان به عنوان یک گسترش از باینری موجود در آن، به عنوان یک زیرمجموعه درک کرد، که به لطف آن، کامپیوتر سه تایی می تواند همه چیز را مانند باینری انجام دهد - و کمی بیشتر از آن. کامپیوترهای سه تایی به دلیل هزینه، حداقل یک و نیم برابر بیشتر از هزینه یک ماشین باینری، به طور گسترده مورد استفاده قرار نگرفتند. با این حال، در مورد کامپیوترهای کوانتومی، تفاوت هزینه مورد انتظار کمتر خواهد بود. چرا که نه؟

یک کامپیوتر کوانتومی جهانی تمام عیار در حال حاضر یک دستگاه کاملاً فرضی باقی مانده است. با این حال، تا به امروز، پردازنده‌های کوانتومی کارآمدی در بسیاری از آزمایشگاه‌های علمی در سرتاسر جهان ایجاد شده‌اند، که از میان آنها می‌توان به یک دستگاه دو کیوبیتی که در آزمایشگاه ابررسانایی مسکو توسط گروه یو.پاشکین (2005) و یک دستگاه مشترک روسی و آمریکایی ایجاد شد، اشاره کرد. پروژه یک کامپیوتر 51 کیوبیتی که تحت رهبری M. Lukin توسعه یافته و پیچیده ترین سیستم در نوع خود است (2017). این ماشین‌ها و ماشین‌های مشابه دیگر معمولاً برای حل یک مشکل ایجاد می‌شوند، عمدتاً برای تحقیقات در زمینه مکانیک کوانتومی، جایی که قبلاً در کشف تعدادی از اثرات ناشناخته قبلی مشارکت داشته‌اند.

به طور جداگانه می توان به اولین تجربه موجود در ساخت کامپیوترهای کوانتومی تجاری توسط شرکت کانادایی D-Wave اشاره کرد. با این حال، این مثال نسبتاً بحث برانگیز است. کامپیوترهای D-Wave بر اساس اصولی کار می کنند که تا حدودی متفاوت از سایر معماری های کوانتومی هستند و برای اجرای الگوریتم های کوانتومی سنتی مناسب نیستند و تنها یک مشکل را حل می کنند - بهینه سازی گسسته. علاوه بر این، اطلاعاتی که تأیید می کند که D-Wave سریعتر از یک کامپیوتر معمولی است و در اصل کوانتومی است (از اثر درهم تنیدگی کوانتومی استفاده می کند) که از خود D-Wave یا گوگل که آن را به عنوان یک کامپیوتر در نظر گرفته است به دست نمی آید. شریک در توسعه هوش مصنوعی، در دسترس نیست. البته ما اظهارات بلندی نخواهیم کرد، اما این سؤالات خاصی را ایجاد می کند، به ویژه با توجه به این واقعیت که لاکهید مارتین بزرگترین مشتری D-Wave است و صحبت های زیادی در مورد مقیاس عظیم کار اره کردن و حمل و نقل وجود دارد. در صنایع دفاعی آمریکا ساپینتی نشست.

در واقع، همه اینها به ویژه برای چیست - با توجه به برنامه اقتصاد دیجیتالی که توسط ما پذیرفته شده است و تحولات روسیه در زمینه محاسبات کوانتومی که در متن بالا تأکید شده است. خوب، و به طور مستقیم پیش بینی آینده.

تقریباً همه در مورد ظهور عصر اطلاعات جدید شنیده اند. اما در عین حال، یک درک نسبتاً نادرست "پاپ" از این پدیده گسترده است: به عنوان نوعی آرمانشهر فناوری اطلاعات، جایی که روبات ها کار می کنند و مردم یا برای آنها برنامه می نویسند، یا با اتصال ابزار خود از راه دور به یک "محتوا تولید می کنند". سرور کار از برخی از استراحتگاه های گرمسیری.

اما در عمل اینطور نیست. در واقعیت، شتاب بی‌سابقه‌ای در فرآیندهای اقتصادی و اجتماعی وجود دارد که ناشی از امکان اساسی به دست آوردن مقادیر قابل توجهی از اطلاعات تقریباً در زمان واقعی از طرف مقابل جهان است. یعنی نکته بیشتر در توسعه سیستم های ارتباطی و توزیع جهانی آنهاست. در این شرایط ، اطلاعات واقعاً ارزش ویژه ای پیدا می کند ، زیرا به شما امکان می دهد به رویدادهای به سرعت در حال توسعه در زمان پاسخ دهید. اما دسترسی به اطلاعات به تنهایی کافی نیست، زیرا گاهی اوقات حتی خود اطلاعات بیش از حد وجود دارد - علیرغم این واقعیت که می تواند پراکنده، ناقص، نادرست یا حتی اطلاعات نادرست باشد. این نیاز به طور مداوم در حال رشد برای ابزارهای قدرتمند و قابل اعتماد برای پردازش اطلاعات دریافتی و توسعه راه حل های مبتنی بر آن ایجاد می کند.

بنابراین، علیرغم اینکه اهمیت صنایع "کهنه" (که کمتر از اقبال مدیران روابط عمومی برخوردارند) از بین نرفته است، باید انتظار نوعی "مسابقه تسلیحاتی" در ایجاد چنین سیستم هایی را داشت که در زمانی نه چندان دور آینده ممکن است تبدیل شود (یا حتی - در حال حاضر تبدیل شده است) نه تجاری، بلکه یک امر دولتی. شاید حتی بتوان تصویری را تصور کرد (تا حدودی به سبک محبوب پرطرفدار، اما هنوز) که در آن بحث‌های طوفانی در پارلمان ناشی از ارزیابی اخلاقی نمونه‌های صنعت سرگرمی نیست، بلکه با مقایسه نمودارهای پیچیده ایجاد می‌شود. از توسعه وضعیت ساخته شده توسط سیستم های مختلف. با تجزیه و تحلیل دقیق خطاهای مدل سازی در این سیستم ها.

در عین حال، هر کسی می‌داند که چنین سیستمی، حتی کامل‌ترین، بدون پایه عنصر هیچ معنایی ندارد. و از نظر میکروالکترونیک سنتی، از نظر تئوری می‌توان با سیلیکون ولی، با زیرساخت‌های موجود و حوزه‌های علمی فعال، وارد مسابقه شد، اما از قبل می‌توان به اولین موقعیت‌ها در آن دست یافت... شاید، نیز ممکن است، اما بسیار دشوار و برای مدت طولانی غیرقابل قبول است.

و در اینجا کامپیوترهای کوانتومی توجه ویژه ای را به خود جلب می کنند. اولا، این واقعیت که وضعیت پایه تولید برای ایجاد آنها تقریباً در سراسر جهان یکسان است - این پایگاه به سادگی وجود ندارد. ثانیاً، با توجه به این واقعیت که وظایفی که رایانه‌های کوانتومی به بهترین شکل حل می‌کنند، به‌طور قابل‌توجهی با وظایفی که با ظهور عصر اطلاعات مطرح می‌شود، مطابقت دارد. و ثالثاً، این واقعیت که دانشمندان روسی زمینه محکم خود را در محاسبات کوانتومی دارند، و آنچه که باید به طور خاص ذکر شود، نه در چارچوب کلی جهانی "مسابقه کیوبیت"، بلکه در جهت خود - توسعه کیوبیت ها در ابررساناها. (که به صورت موازی توسط هر دو موضوع در حال توسعه است).

به طور خلاصه، معلوم می شود که در زمینه محاسبات کوانتومی، همه چیز در دست ماست. و شانس‌های کاملاً واقعی برای تبدیل این منطقه به یکی از ستون‌های (به عنوان مثال، انرژی هسته‌ای، فضا و صنایع دفاعی) رهبری آینده ما وجود دارد. و برای این کار ما باید از همین الان به شدت روی این موضوع کار کنیم - حتی اگر هنوز زمان وجود دارد.

کامپیوترهای کوانتومی نوید یک انقلاب واقعی را نه تنها در محاسبات، بلکه در زندگی واقعی می دهند. رسانه‌ها مملو از سرفصل‌هایی هستند که نشان می‌دهند چگونه رایانه‌های کوانتومی رمزنگاری مدرن را از بین می‌برند و قدرت هوش مصنوعی، به لطف آن‌ها، با مرتبه‌ای بزرگ افزایش می‌یابد.

در طول 10 سال گذشته، کامپیوترهای کوانتومی از نظریه محض به اولین نمونه های اولیه تبدیل شده اند. درست است، هنوز راه زیادی تا انقلاب موعود مانده است و تأثیر آن در نهایت ممکن است آنقدر که اکنون به نظر می رسد جامع نباشد.

چگونه یک کامپیوتر کوانتومی کار می کند

کامپیوتر کوانتومی وسیله ای است که از پدیده های برهم نهی کوانتومی و درهم تنیدگی کوانتومی استفاده می کند. عنصر اصلی در چنین محاسباتی کیوبیت یا بیت کوانتومی است. پشت همه این کلمات ریاضیات و فیزیک کاملاً پیچیده ای نهفته است، اما اگر آنها را تا حد امکان ساده کنیم، چیزی شبیه به زیر به دست می آید.

در کامپیوترهای معمولی با بیت ها سر و کار داریم. بیت - واحد اطلاعات در سیستم باینری. می تواند مقدار 0 و 1 را بگیرد، که نه تنها برای عملیات ریاضی، بلکه برای عملیات منطقی نیز بسیار راحت است، زیرا صفر را می توان مقدار "نادرست" و یک - "درست" اختصاص داد.


پردازنده های مدرن بر اساس ترانزیستورها ساخته می شوند، عناصر نیمه هادی که می توانند جریان الکتریکی را عبور دهند یا ندهند. به عبارت دیگر، خروجی دو مقدار 0 و 1 است. به طور مشابه، در حافظه فلش، یک ترانزیستور دروازه شناور می تواند شارژ را ذخیره کند. اگر وجود داشته باشد یک می گیریم و اگر نباشد صفر می گیریم. ضبط دیجیتال مغناطیسی به روشی مشابه کار می کند، فقط حامل اطلاعات یک ذره مغناطیسی است که یا دارای بار است یا ندارد.

در محاسبات، مقدار یک بیت (0 یا 1) را از حافظه می خوانیم و سپس جریان را از ترانزیستور عبور می دهیم و بسته به اینکه آن را عبور دهد یا نه، یک بیت جدید در خروجی به دست می آوریم که احتمالاً مقدار متفاوتی دارد.

کیوبیت برای کامپیوترهای کوانتومی چیست؟ در یک کامپیوتر کوانتومی، عنصر اصلی یک کیوبیت - یک بیت کوانتومی است. برخلاف یک بیت معمولی، در حالت برهم نهی کوانتومی قرار دارد، یعنی مقدار 0 و 1 و هر ترکیبی از آنها در هر زمان معین را دارد. اگر چندین کیوبیت در سیستم وجود داشته باشد، تغییر یک کیوبیت نیز مستلزم تغییر تمام کیوبیت‌های دیگر است.


این به شما اجازه می دهد تا به طور همزمان تمام گزینه های ممکن را محاسبه کنید. یک پردازنده معمولی با محاسبات باینری خود در واقع گزینه ها را به صورت متوالی محاسبه می کند. ابتدا یک سناریو، سپس سناریوی دیگر، سپس سوم و غیره. برای افزایش سرعت، آنها شروع به استفاده از multithreading، اجرای محاسبات به صورت موازی، واکشی اولیه به منظور پیش بینی گزینه های انشعاب احتمالی و محاسبه آنها از قبل کردند. در یک کامپیوتر کوانتومی، همه این کارها به صورت موازی انجام می شود.

اصل محاسبه نیز متفاوت است. به یک معنا، یک کامپیوتر کوانتومی از قبل شامل تمام گزینه های ممکن برای حل مسئله است، وظیفه ما فقط خواندن وضعیت کیوبیت ها و ... از بین آنها گزینه صحیح است. و از اینجا سختی ها شروع می شود. این اصل کار یک کامپیوتر کوانتومی است.

ساخت کامپیوتر کوانتومی

ماهیت فیزیکی یک کامپیوتر کوانتومی چگونه خواهد بود؟ فقط ذرات می توانند به حالت کوانتومی دست یابند. شما نمی توانید یک کیوبیت از چند اتم بسازید، مانند یک ترانزیستور. تاکنون این مشکل به طور کامل حل نشده است. چندین گزینه وجود دارد. از حالت های بار اتم ها استفاده می شود، به عنوان مثال، وجود یا عدم حضور الکترون در یک نقطه معمولی، عناصر ابررسانا، فوتون ها و غیره.


چنین "موضوعات ظریف" همچنین محدودیت هایی را در اندازه گیری وضعیت کیوبیت ها اعمال می کنند. انرژی بسیار کم است، تقویت کننده ها برای خواندن داده ها مورد نیاز است. اما تقویت‌کننده‌ها می‌توانند بر یک سیستم کوانتومی تأثیر بگذارند و حالت‌های آن را تغییر دهند، با این حال، نه تنها آنها، بلکه حتی واقعیت مشاهده نیز می‌تواند مهم باشد.

محاسبات کوانتومی شامل دنباله ای از عملیات است که بر روی یک یا چند کیوبیت انجام می شود. آنها به نوبه خود منجر به تغییراتی در کل سیستم می شوند. وظیفه انتخاب صحیح از بین حالات آن است که نتیجه محاسبات را می دهد. در این مورد، می‌تواند به‌طور دلخواه حالت‌های زیادی وجود داشته باشد که تا حد امکان به یکی نزدیک باشند. بر این اساس، دقت چنین محاسباتی تقریباً همیشه با وحدت متفاوت خواهد بود.

بنابراین، برای یک کامپیوتر کوانتومی تمام عیار، پیشرفت های قابل توجهی در فیزیک مورد نیاز است. علاوه بر این، برنامه نویسی برای یک کامپیوتر کوانتومی با آنچه اکنون وجود دارد متفاوت خواهد بود. در نهایت، کامپیوترهای کوانتومی قادر به حل مسائلی نخواهند بود که رایانه‌های معمولی قادر به حل آن نیستند، اما می‌توانند راه‌حل‌هایی را که می‌توانند از عهده آن برآیند، سرعت بخشند. درست است، دوباره، نه همه.

حساب کردن روی کیوبیت، کامپیوتر کوانتومی کیوبیت

بتدریج مشکلات موجود در مسیر کامپیوتر کوانتومی برطرف می شود. اولین کیوبیت ها در ابتدای قرن ساخته شدند. این روند در آغاز دهه شتاب گرفت. امروزه توسعه دهندگان قادر به تولید پردازنده هایی با ده ها کیوبیت هستند.


آخرین پیشرفت، ایجاد پردازنده Bristlecone در روده های گوگل بود. در مارس 2018، این شرکت اعلام کرد که قادر به ساخت یک پردازنده 72 کیوبیتی است. گوگل بر اساس اصول فیزیکی Bristlecone ساخته شده است. با این حال، اعتقاد بر این است که 49 کیوبیت برای دستیابی به "برتری کوانتومی" کافی است، زمانی که یک کامپیوتر کوانتومی شروع به عملکرد بهتر از کامپیوتر معمولی می کند. گوگل موفق شد این شرط را برآورده کند، اما نرخ خطای 0.6٪ همچنان بالاتر از 0.5٪ لازم است.

در پاییز 2017، آی‌بی‌ام از ساخت نمونه اولیه پردازنده کوانتومی 50 کیوبیتی خبر داد. او در حال آزمایش است. اما در سال 2017، IBM پردازنده 20 کیوبیتی خود را به رایانش ابری باز کرد. در مارس 2018، نسخه کوچکتر IBM Q راه اندازی شد. هر کسی می تواند روی چنین رایانه ای آزمایش کند. بر اساس نتایج آنها، تاکنون 35 مقاله علمی منتشر شده است.


در آغاز دهمین سالگرد، شرکت سوئدی D-Wave در بازار ظاهر شد که رایانه های خود را به عنوان کوانتومی قرار داد. جنجال‌های زیادی ایجاد کرد، زیرا اعلام کرد که ماشین‌های 1000 کیوبیتی ایجاد می‌کند، در حالی که رهبران شناخته شده تنها با چند کیوبیت «تعقل» می‌کردند. کامپیوترهای توسعه دهندگان سوئدی به قیمت 10 تا 15 میلیون دلار فروخته شدند، بنابراین بررسی آنها چندان آسان نبود.


کامپیوترهای D-Wave به معنای مستقیم کلمه کوانتومی نیستند، اما از برخی اثرات کوانتومی استفاده می کنند که می تواند برای حل برخی از مسائل بهینه سازی اعمال شود. به عبارت دیگر، همه الگوریتم‌هایی که می‌توانند روی یک کامپیوتر کوانتومی اجرا شوند، شتاب کوانتومی روی موج D دریافت نمی‌کنند. گوگل یکی از سیستم های سوئدی ها را خریداری کرد. در نتیجه، محققان آن کامپیوترها را به عنوان "کوانتومی محدود" تشخیص دادند. در همان زمان، معلوم شد که کیوبیت ها در خوشه های هشت تایی گروه بندی می شوند، یعنی تعداد واقعی آنها به میزان قابل توجهی کمتر از اعلام شده است.

کامپیوتر کوانتومی در روسیه

مکتب سنتی قوی فیزیک این امکان را به وجود می آورد که کمک قابل توجهی در حل مسائل فیزیکی برای ایجاد یک کامپیوتر کوانتومی داشته باشد. در ژانویه 2018، روس ها یک تقویت کننده سیگنال برای یک کامپیوتر کوانتومی ایجاد کردند. با توجه به اینکه خود تقویت کننده می تواند با عملکرد خود بر وضعیت کیوبیت ها تأثیر بگذارد، سطح نویز تولید شده توسط آن باید کمی با «خلاء» متفاوت باشد. این توسط دانشمندان روسی از آزمایشگاه "Superconducting Metamaterials" NUST "MISiS" و دو موسسه آکادمی علوم روسیه به دست آمد. برای ایجاد تقویت کننده از ابررساناها استفاده شده است.


یک مرکز کوانتومی نیز در روسیه ایجاد شده است. این یک سازمان تحقیقاتی غیردولتی است که در زمینه فیزیک کوانتومی تحقیق می کند. به طور خاص، او با مشکل ایجاد کیوبیت ها سر و کار دارد. پشت این مرکز، تاجر سرگئی بلوسف و استاد دانشگاه هاروارد، میخائیل لوکین قرار دارند. تحت رهبری او، یک پردازنده 51 کیوبیتی قبلاً در هاروارد ساخته شده بود که مدتی قبل از معرفی بریستلکون قدرتمندترین دستگاه رایانه کوانتومی در جهان بود.

توسعه محاسبات کوانتومی به بخشی از برنامه دولتی اقتصاد دیجیتال تبدیل شده است. در سال 2018-2020، حمایت دولتی برای کار در این زمینه اختصاص خواهد یافت. برنامه اقدام برای ایجاد یک شبیه ساز کوانتومی بر اساس هشت کیوبیت ابررسانا فراهم می کند. پس از آن، موضوع مقیاس پذیری بیشتر این فناوری تصمیم گیری خواهد شد.

علاوه بر این، روسیه تا سال 2020 فناوری کوانتومی دیگری را آزمایش خواهد کرد: ساخت کیوبیت ها بر روی اتم های خنثی و یون های باردار در تله ها.

یکی از اهداف این برنامه ایجاد دستگاه هایی برای رمزنگاری کوانتومی و ارتباطات کوانتومی است. مراکز توزیع کلید کوانتومی ایجاد خواهد شد که آنها را بین مصرف کنندگان - بانک ها، مراکز داده، شرکت های صنعتی توزیع می کند. اعتقاد بر این است که یک کامپیوتر کوانتومی تمام عیار می تواند هر الگوریتم رمزگذاری مدرن را در عرض چند دقیقه بشکند.

در نهایت

بنابراین، کامپیوترهای کوانتومی هنوز آزمایشی هستند. بعید است که یک کامپیوتر کوانتومی تمام عیار که قدرت محاسباتی واقعاً بالایی را ارائه می کند تا قبل از دهه آینده ظاهر شود. تولید کیوبیت ها و ساخت سیستم های پایدار از آنها هنوز تا کامل شدن فاصله دارد.

با قضاوت بر اساس این واقعیت که در سطح فیزیکی، رایانه های کوانتومی چندین راه حل دارند که از نظر فناوری و احتمالاً هزینه متفاوت هستند، تا 10 سال دیگر یکپارچه نخواهند شد. فرآیند استانداردسازی می تواند زمان زیادی ببرد.

علاوه بر این، در حال حاضر واضح است که رایانه های کوانتومی احتمالاً در دهه آینده دستگاه های «یک تکه» و بسیار گران قیمت خواهند بود. بعید است که آنها در جیب یک کاربر ساده باشند، اما می توان انتظار داشت که لیستی از ابررایانه ها ظاهر شود.

این احتمال وجود دارد که کامپیوترهای کوانتومی در مدل "ابر" ارائه شوند، زمانی که محققان و سازمان های علاقه مند بتوانند از منابع خود استفاده کنند.

محاسبات کوانتومی، حداقل در تئوری، دهه‌هاست که درباره آن صحبت می‌شود. انواع مدرن ماشین‌هایی که از مکانیک غیرکلاسیک برای پردازش مقادیر بالقوه غیرقابل تصور داده استفاده می‌کنند، پیشرفت بزرگی بوده‌اند. به گفته توسعه دهندگان، اجرای آنها شاید پیچیده ترین فناوری ایجاد شده باشد. پردازنده‌های کوانتومی در سطوحی از ماده کار می‌کنند که بشر تنها 100 سال پیش درباره آن‌ها آموخته است. پتانسیل چنین محاسباتی بسیار زیاد است. استفاده از خواص عجیب و غریب کوانتوم ها، محاسبات را سرعت می بخشد، بنابراین بسیاری از مشکلاتی که در حال حاضر از توان کامپیوترهای کلاسیک خارج است، حل خواهند شد. و نه تنها در زمینه شیمی و علم مواد. وال استریت نیز علاقه نشان می دهد.

سرمایه گذاری در آینده

گروه CME در شرکت فناوری اطلاعات 1QB مستقر در ونکوور سرمایه گذاری کرده است که نرم افزاری را برای پردازنده های کوانتومی توسعه می دهد. به گفته سرمایه گذاران، چنین محاسباتی احتمالاً بیشترین تأثیر را بر صنایعی خواهد داشت که با حجم زیادی از داده های حساس به زمان کار می کنند. مؤسسات مالی نمونه ای از این گونه مصرف کنندگان هستند. گلدمن ساکس در سیستم‌های D-Wave سرمایه‌گذاری کرده است و In-Q-Tel توسط سیا تامین مالی می‌شود. اولی ماشین‌هایی تولید می‌کند که کاری را انجام می‌دهند که به آن "آنیل کوانتومی" می‌گویند، یعنی مشکلات بهینه‌سازی سطح پایین را با استفاده از یک پردازنده کوانتومی حل می‌کنند. اینتل نیز در حال سرمایه گذاری بر روی این فناوری است، اگرچه اجرای آن را موضوعی آینده می داند.

چرا این مورد نیاز است؟

دلیل هیجان انگیز بودن محاسبات کوانتومی به دلیل ترکیب کامل آن با یادگیری ماشین است. در حال حاضر، این برنامه اصلی برای چنین محاسباتی است. بخشی از ایده یک کامپیوتر کوانتومی استفاده از یک دستگاه فیزیکی برای یافتن راه حل است. گاهی اوقات این مفهوم با استفاده از مثال بازی Angry Birds توضیح داده می شود. CPU تبلت از معادلات ریاضی برای شبیه سازی گرانش و تعامل اجسام در حال برخورد استفاده می کند. پردازنده‌های کوانتومی این رویکرد را تغییر می‌دهند. آنها چند پرنده را "پرتاب" می کنند و می بینند چه می شود. پرندگان روی ریزتراشه ثبت می شوند، پرتاب می شوند، مسیر بهینه چیست؟ سپس تمام راه حل های ممکن یا حداقل ترکیب بسیار بزرگی از آنها تست شده و پاسخ برگردانده می شود. در یک کامپیوتر کوانتومی، ریاضیدانی وجود ندارد، در عوض، قوانین فیزیک کار می کنند.

چگونه عمل می کند؟

بلوک های ساختمانی اساسی جهان ما مکانیک کوانتومی است. اگر به مولکول ها نگاه کنید، دلیل تشکیل و پایدار ماندن آنها به دلیل برهمکنش اوربیتال های الکترونی آنهاست. تمام محاسبات مکانیک کوانتومی در هر یک از آنها وجود دارد. تعداد آنها به صورت تصاعدی با تعداد الکترون های شبیه سازی شده افزایش می یابد. مثلا برای 50 الکترون، 2 احتمال به توان 50 وجود دارد. این فوق العاده است، بنابراین امروز نمی توان آن را محاسبه کرد. اتصال نظریه اطلاعات به فیزیک می تواند راه حل چنین مسائلی را نشان دهد. یک کامپیوتر 50 کیوبیتی می تواند این کار را انجام دهد.

طلوع یک دوره جدید

به گفته لندون داونز، رئیس و یکی از بنیانگذاران 1QBit، یک پردازنده کوانتومی توانایی مهار قدرت محاسباتی دنیای زیراتمی است که برای به دست آوردن مواد جدید یا ایجاد داروهای جدید اهمیت زیادی دارد. گذار از پارادایم کشف به عصر جدیدی از طراحی وجود دارد. برای مثال، محاسبات کوانتومی می‌تواند برای مدل‌سازی کاتالیزورهایی استفاده شود که اجازه می‌دهند کربن و نیتروژن از جو حذف شوند و در نتیجه به توقف گرمایش جهانی کمک کنند.

در خط مقدم پیشرفت

جامعه توسعه دهندگان این فناوری بسیار هیجان زده و شلوغ است. تیم‌هایی در سرتاسر جهان در استارت‌آپ‌ها، شرکت‌ها، دانشگاه‌ها و آزمایشگاه‌های دولتی در حال رقابت برای ساخت ماشین‌هایی هستند که از رویکردهای متفاوتی برای پردازش اطلاعات کوانتومی استفاده می‌کنند. تراشه های کیوبیت ابررسانا و کیوبیت های یونی به دام افتاده توسط محققان دانشگاه مریلند و موسسه ملی استاندارد و فناوری ایالات متحده ساخته شده اند. مایکروسافت در حال توسعه یک رویکرد توپولوژیکی به نام Station Q است که هدف آن بهره برداری از یک آنیون غیر آبلی است که وجود آن هنوز به طور قطعی اثبات نشده است.

سال موفقیت احتمالی

و این تازه اولشه. تا پایان ماه مه 2017، تعداد پردازنده‌های کوانتومی که به طور واضح کاری را سریع‌تر یا بهتر از یک کامپیوتر کلاسیک انجام می‌دهند، صفر است. چنین رویدادی «برتری کوانتومی» را ایجاد می‌کند، اما تاکنون این اتفاق نیفتاده است. اگرچه این احتمال وجود دارد که امسال این اتفاق بیفتد. اکثر خودی ها می گویند که گروه محبوب گوگل است که توسط استاد فیزیک دانشگاه سانتا باربارا، جان مارتینی رهبری می شود. هدف آن دستیابی به برتری محاسباتی با پردازنده 49 کیوبیتی است. تا پایان ماه مه 2017، این تیم با موفقیت یک تراشه 22 کیوبیتی را به عنوان گامی میانی برای جداسازی یک ابر رایانه کلاسیک آزمایش کرد.

چگونه همه چیز شروع شد؟

ایده استفاده از مکانیک کوانتومی برای پردازش اطلاعات ده ها سال قدمت دارد. یکی از رویدادهای کلیدی در سال 1981 رخ داد، زمانی که IBM و MIT به طور مشترک کنفرانسی را در مورد فیزیک محاسبات ترتیب دادند. فیزیکدان معروف پیشنهاد ساخت یک کامپیوتر کوانتومی را داد. به گفته وی برای مدل سازی باید از ابزار مکانیک کوانتومی استفاده کرد. و این یک کار عالی است، زیرا آنقدرها هم ساده به نظر نمی رسد. اصل عملکرد یک پردازنده کوانتومی مبتنی بر چندین ویژگی عجیب اتم ها - برهم نهی و درهم تنیدگی است. یک ذره می تواند همزمان در دو حالت باشد. با این حال، هنگامی که اندازه گیری می شود، تنها در یکی از آنها خواهد بود. و نمی توان پیش بینی کرد که در کدام به جز از منظر نظریه احتمال. این اثر زیربنای آزمایش فکری با گربه شرودینگر است، که هم زنده و هم مرده در یک جعبه است تا زمانی که یک ناظر نگاهی مخفیانه به آن بیندازد. هیچ چیز در زندگی روزمره اینطور کار نمی کند. با این حال، حدود 1 میلیون آزمایش انجام شده از آغاز قرن 20 نشان می دهد که برهم نهی وجود دارد. و قدم بعدی این است که بفهمیم چگونه از این مفهوم استفاده کنیم.

پردازنده کوانتومی: شرح شغل

بیت های کلاسیک می توانند مقدار 0 یا 1 را بگیرند. اگر رشته آنها را از "دروازه های منطقی" (AND، OR، NOT و غیره) عبور دهید، می توانید اعداد را ضرب کنید، تصاویر را ترسیم کنید، و غیره. یک کیوبیت می تواند مقادیر 0 را بگیرد. ، 1 یا هر دو به طور همزمان. اگر مثلاً 2 کیوبیت درهم تنیده باشند، این باعث می شود که آنها کاملاً همبستگی داشته باشند. یک پردازنده از نوع کوانتومی می تواند از گیت های منطقی استفاده کند. T. n. برای مثال دروازه هادامارد کیوبیت را در حالت برهم نهی کامل قرار می دهد. هنگامی که برهم نهی و درهم تنیدگی با دروازه های کوانتومی هوشمندانه ای ترکیب می شوند، پتانسیل محاسبات زیراتمی شروع به آشکار شدن می کند. 2 کیوبیت به شما امکان کاوش در 4 حالت 00، 01، 10 و 11 را می دهد. اصل عملکرد یک پردازنده کوانتومی به گونه ای است که اجرای یک عملیات منطقی کار با همه موقعیت ها را به طور همزمان ممکن می کند. و تعداد حالت های موجود 2 به توان تعداد کیوبیت ها می باشد. بنابراین، اگر یک کامپیوتر کوانتومی جهانی 50 کیوبیتی بسازید، از نظر تئوری می‌توانید همه ترکیب‌های 1.125 کوادریلیون را همزمان کاوش کنید.

احسنت

یک پردازنده کوانتومی در روسیه تا حدودی متفاوت دیده می شود. دانشمندان مؤسسه فیزیک و فناوری مسکو و مرکز کوانتومی روسیه "kudits" را ایجاد کرده اند که چندین کیوبیت "مجازی" با سطوح مختلف "انرژی" هستند.

دامنه ها

پردازنده کوانتومی این مزیت را دارد که مکانیک کوانتومی مبتنی بر دامنه است. دامنه ها مانند احتمالات هستند، اما می توانند اعداد منفی و مختلط نیز باشند. بنابراین، اگر شما نیاز به محاسبه احتمال یک رویداد دارید، می توانید دامنه همه گزینه های ممکن را برای توسعه آنها اضافه کنید. ایده پشت محاسبات کوانتومی این است که سعی کنیم به گونه ای تنظیم کنیم که برخی از مسیرها به پاسخ های نادرست دامنه مثبت و برخی دارای دامنه منفی باشند تا یکدیگر را خنثی کنند. و مسیرهای منتهی به پاسخ صحیح دارای دامنه هایی هستند که با یکدیگر هم فاز هستند. ترفند این است که همه چیز را سازماندهی کنید بدون اینکه از قبل بدانید کدام پاسخ صحیح است. بنابراین نمایی حالات کوانتومی، همراه با پتانسیل تداخل بین دامنه های مثبت و منفی، مزیت این نوع محاسبات است.

الگوریتم شور

مشکلات زیادی وجود دارد که کامپیوتر نمی تواند آنها را حل کند. به عنوان مثال، رمزگذاری. مشکل اینجاست که یافتن ضرایب اول یک عدد 200 رقمی آسان نیست. حتی اگر لپ‌تاپ نرم‌افزاری عالی اجرا کند، یافتن پاسخ ممکن است سال‌ها طول بکشد. بنابراین نقطه عطف دیگر در محاسبات کوانتومی، الگوریتمی بود که در سال 1994 توسط پیتر شور، که اکنون استاد ریاضیات در MIT است، منتشر شد. روش او این است که با استفاده از یک کامپیوتر کوانتومی که هنوز وجود نداشت، عواملی با تعداد زیاد را جستجو کند. اساساً، الگوریتم عملیاتی را انجام می دهد که به مناطقی با پاسخ صحیح اشاره می کند. سال بعد، شور راهی برای تصحیح خطای کوانتومی کشف کرد. سپس بسیاری متوجه شدند که این یک روش جایگزین برای محاسبه است که در برخی موارد می تواند قدرتمندتر باشد. سپس علاقه فیزیکدانان به ایجاد کیوبیت ها و دروازه های منطقی بین آنها افزایش یافت. و اکنون، دو دهه بعد، بشریت در آستانه ایجاد یک کامپیوتر کوانتومی تمام عیار است.

جهان در آستانه یک انقلاب کوانتومی دیگر است. اولین کامپیوتر کوانتومی فوراً مشکلاتی را حل می کند که قدرتمندترین دستگاه مدرن اکنون سال ها طول می کشد تا آنها را حل کند. این وظایف چیست؟ استفاده گسترده از الگوریتم های کوانتومی به نفع چه کسانی است و چه کسانی را تهدید می کند؟ برهم نهی کیوبیت ها چیست، چگونه مردم یاد گرفتند که راه حل بهینه را بدون عبور از تریلیون ها گزینه پیدا کنند؟ به این سؤالات با عنوان «به سادگی درباره مجموعه» پاسخ می دهیم.

قبل از کوانتومی، نظریه کلاسیک تابش الکترومغناطیسی در حال استفاده بود. در سال 1900، دانشمند آلمانی ماکس پلانک، که خود به کوانتوم ها اعتقادی نداشت، آنها را ساختگی خیالی و صرفاً نظری می دانست، مجبور شد اعتراف کند که انرژی یک جسم گرم شده در بخش هایی - کوانتومی ساطع می شود. بنابراین، مفروضات نظریه با مشاهدات تجربی منطبق شد. و پنج سال بعد، آلبرت انیشتین بزرگ هنگام توضیح اثر فوتوالکتریک به همین رویکرد متوسل شد: هنگامی که با نور تابش می شود، جریان الکتریکی در فلزات ظاهر می شود! بعید است که پلانک و انیشتین تصور کنند که با کار خود پایه های یک علم جدید - مکانیک کوانتومی - را می گذارند که قرار است جهان ما را فراتر از شناخت تغییر دهد و در قرن بیست و یکم دانشمندان به ایجاد نزدیک شوند. یک کامپیوتر کوانتومی

در ابتدا، مکانیک کوانتومی توضیح ساختار اتم را ممکن ساخت و به درک فرآیندهای رخ داده در داخل آن کمک کرد. به طور کلی، رویای قدیمی کیمیاگران در مورد تبدیل اتم های برخی از عناصر به اتم های برخی دیگر (بله، حتی به طلا) محقق شد. و فرمول معروف انیشتین E=mc2 منجر به پیدایش انرژی هسته ای و در نتیجه بمب اتم شد.

پردازنده کوانتومی در پنج کیوبیت از IBM

علاوه بر این. به لطف کار انیشتین و فیزیکدان انگلیسی پل دیراک، یک لیزر در نیمه دوم قرن بیستم ایجاد شد - همچنین یک منبع کوانتومی نور فوق خالص جمع آوری شده در یک پرتو باریک. تحقیقات لیزری جایزه نوبل را برای بیش از دوازده دانشمند به ارمغان آورده است و خود لیزرها تقریباً در تمام زمینه های فعالیت انسانی کاربرد دارند - از برش های صنعتی و تفنگ های لیزری گرفته تا اسکنرهای بارکد و اصلاح بینایی. تقریباً در همان زمان، تحقیقات فعالی در مورد نیمه هادی ها وجود داشت - موادی که با آنها می توانید به راحتی جریان الکتریکی را کنترل کنید. بر اساس آنها، اولین ترانزیستورها ایجاد شدند - آنها بعداً به بلوک های اصلی ساختمان الکترونیک مدرن تبدیل شدند که بدون آنها اکنون نمی توانیم زندگی خود را تصور کنیم.

توسعه رایانه های الکترونیکی - رایانه ها - اجازه داد بسیاری از مشکلات را به سرعت و کارآمد حل کند. و کاهش تدریجی اندازه و هزینه آنها (به دلیل تولید انبوه) راه را برای رایانه در هر خانه ای هموار کرد. با ظهور اینترنت، وابستگی ما به سیستم های کامپیوتری، از جمله برای ارتباطات، حتی بیشتر شده است.

ریچارد فاینمن

وابستگی در حال افزایش است، قدرت محاسباتی دائماً در حال افزایش است، اما زمان آن فرا رسیده است که بپذیریم، علیرغم قابلیت‌های چشمگیر، رایانه‌ها نتوانسته‌اند تمام مشکلاتی را که ما آماده هستیم برای آنها حل کنیم. فیزیکدان معروف ریچارد فاینمن یکی از اولین کسانی بود که در این مورد صحبت کرد: در سال 1981 در یک کنفرانس اظهار داشت که اساساً محاسبه دقیق یک سیستم فیزیکی واقعی در رایانه های معمولی غیرممکن است. همه چیز مربوط به ماهیت کوانتومی آن است! اثرات میکرو مقیاس به راحتی توسط مکانیک کوانتومی و بسیار بد توضیح داده می شود - با مکانیک کلاسیک آشنا برای ما: رفتار اجسام بزرگ را توصیف می کند. سپس، به عنوان یک جایگزین، فاینمن استفاده از رایانه های کوانتومی را برای محاسبه سیستم های فیزیکی پیشنهاد کرد.

کامپیوتر کوانتومی چیست و چه تفاوتی با کامپیوترهایی دارد که ما به آن ها عادت کرده ایم؟ همه چیز به نحوه ارائه اطلاعات به خود بستگی دارد.

اگر در رایانه های معمولی بیت ها - صفر و یک - مسئول این عملکرد هستند، در رایانه های کوانتومی با بیت های کوانتومی (به اختصار کیوبیت) جایگزین می شوند. کیوبیت خود یک چیز نسبتاً ساده است. هنوز هم دو مقدار اصلی (یا حالت، همانطور که دوست دارند در مکانیک کوانتومی بگویند) دارد که می تواند به خود بگیرد: 0 و 1. با این حال، به لطف ویژگی اجسام کوانتومی به نام "ابرجایگاه"، یک کیوبیت می تواند به خود بگیرد. تمام مقادیری که ترکیبی از مقادیر اساسی هستند. در عین حال، ماهیت کوانتومی آن به آن اجازه می دهد که در همه این حالت ها به طور همزمان باشد.

این همسانی محاسبات کوانتومی با کیوبیت ها است. همه چیز به یکباره اتفاق می افتد - دیگر نیازی نیست همه گزینه های ممکن را برای وضعیت های سیستم مرتب کنید و این دقیقاً همان کاری است که یک رایانه معمولی انجام می دهد. جستجو در پایگاه‌های اطلاعاتی بزرگ، گردآوری یک مسیر بهینه، توسعه داروهای جدید تنها نمونه‌هایی از کارهایی هستند که الگوریتم‌های کوانتومی می‌توانند آن‌ها را چندین برابر افزایش دهند. اینها وظایفی هستند که برای یافتن پاسخ صحیح باید تعداد زیادی گزینه را طی کنید.

علاوه بر این، برای توصیف وضعیت دقیق سیستم، دیگر نیازی به قدرت محاسباتی عظیم و مقادیر RAM نیست، زیرا 100 کیوبیت برای محاسبه یک سیستم 100 ذره کافی است و نه تریلیون ها تریلیون بیت. علاوه بر این، با افزایش تعداد ذرات (مانند سیستم های پیچیده واقعی)، این تفاوت حتی بیشتر می شود.

یکی از وظایف شمارش به دلیل بی فایده بودن ظاهری آن - تجزیه اعداد بزرگ به عوامل اول (یعنی فقط بر خود و یک تقسیم می شوند) برجسته بود. به این "فاکتورسازی" می گویند. واقعیت این است که کامپیوترهای معمولی می توانند اعداد را به سرعت ضرب کنند، حتی اگر بسیار بزرگ باشند. با این حال، با مشکل معکوس تجزیه یک عدد بزرگ حاصل از ضرب دو عدد اول در فاکتورهای اصلی، کامپیوترهای معمولی عملکرد بسیار ضعیفی دارند. به عنوان مثال، برای تجزیه تعدادی از 256 رقم به دو عامل، حتی قدرتمندترین رایانه به بیش از ده سال نیاز دارد. اما یک الگوریتم کوانتومی که می تواند این مشکل را در چند دقیقه حل کند در سال 1997 توسط ریاضیدان انگلیسی پیتر شور اختراع شد.

با ظهور الگوریتم شور، جامعه علمی با مشکل جدی مواجه شد. در اواخر دهه 1970، بر اساس پیچیدگی مسئله فاکتورسازی، رمزنگاران یک الگوریتم رمزگذاری داده را ایجاد کردند که فراگیر شد. به طور خاص، با استفاده از این الگوریتم، آنها شروع به محافظت از داده ها در اینترنت - رمز عبور، مکاتبات شخصی، تراکنش های بانکی و مالی کردند. و پس از چندین سال استفاده موفق، ناگهان معلوم شد که اطلاعات رمزگذاری شده به این روش به یک هدف آسان برای الگوریتم Shor در حال اجرا بر روی یک کامپیوتر کوانتومی تبدیل می شود. رمزگشایی با آن به چند دقیقه تبدیل می شود. یک چیز خوب بود: یک کامپیوتر کوانتومی که بتواند یک الگوریتم مرگبار را اجرا کند هنوز ساخته نشده بود.

در همین حال، در سراسر جهان، ده‌ها گروه علمی و آزمایشگاه شروع به انجام مطالعات تجربی کیوبیت‌ها و امکان ایجاد یک کامپیوتر کوانتومی از آنها کردند. از این گذشته، اختراع کیوبیت از نظر تئوری یک چیز است و تبدیل آن به واقعیت کاملاً چیز دیگری است. برای انجام این کار، یافتن یک سیستم فیزیکی مناسب با دو سطح کوانتومی که بتواند به عنوان حالت های پایه کیوبیت - صفر و یک - استفاده شود، ضروری بود. خود فاینمن، در مقاله پیشگام خود، استفاده از فوتون‌های پیچ خورده در جهات مختلف را برای این اهداف پیشنهاد کرد، اما اولین کیوبیت‌های آزمایشی ایجاد شده، یون‌هایی بودند که در سال 1995 در تله‌های مخصوص گرفته شدند. یون ها با بسیاری از تحقق های فیزیکی دیگر دنبال شدند: هسته اتم ها، الکترون ها، فوتون ها، نقص در کریستال ها، مدارهای ابررسانا - همه آنها الزامات را برآورده کردند.

این تنوع محاسن خود را داشت. گروه‌های علمی مختلف به دلیل رقابت شدید، کیوبیت‌های پیشرفته‌تری را ایجاد کردند و مدارهای پیچیده‌تری را از آنها ساختند. کیوبیت ها دو پارامتر رقابتی اصلی داشتند: طول عمر آنها و تعداد کیوبیت هایی که می توان با هم کار کرد.

کارکنان آزمایشگاه سیستم های کوانتومی مصنوعی

طول عمر کیوبیت ها تعیین می کند که وضعیت کوانتومی شکننده چه مدت در آنها ذخیره می شود. این به نوبه خود تعیین کرد که چه تعداد عملیات محاسباتی را می توان روی کیوبیت قبل از "مرگ" انجام داد.

برای عملکرد کارآمد الگوریتم‌های کوانتومی، نه یک کیوبیت، بلکه حداقل صد کیوبیت لازم بود، علاوه بر این، با هم کار کنند. مشکل این بود که کیوبیت ها زیاد از بودن در کنار هم خوششان نمی آمد و با کاهش چشمگیر عمرشان اعتراض می کردند. برای دور زدن این مشاجره کیوبیت ها، دانشمندان مجبور بودند به انواع ترفندها بپردازند. و با این حال، تا به امروز، دانشمندان موفق شده اند حداکثر یک یا دو دوجین کیوبیت را برای کار با یکدیگر به دست آورند.

بنابراین، برای خوشحالی رمزنگاران، کامپیوتر کوانتومی هنوز هم چیزی در آینده است. اگرچه به هیچ وجه آنطور که قبلاً به نظر می رسید دور نیست، زیرا هم بزرگترین شرکت ها مانند اینتل، آی بی ام و گوگل، و همچنین کشورهایی که ایجاد یک کامپیوتر کوانتومی برای آنها یک موضوع استراتژیک است، فعالانه درگیر هستند. در ایجاد آن

سخنرانی را از دست ندهید:

برترین مقالات مرتبط