Zasada Nierealizowalności Komputera Kwantowego

wersja:   1.0   15.02.2024
 


Zasada Nierealizowalności Komputera Kwantowego , skrótowo NONQC jest postulatem podlegającym sprawdzeniu. Wynika ona z faktu posługiwania się w próbach stworzenie komputera kwantowego dwoma błędami (lub nieścisłościami) pojęciowymi. W następstwie uzasadnię dlaczego wydają się one być w konstrukcji komputerów kwantowych kluczowe i mogą zadecydować o nierealizowalności komputera kwantowego .

Termin " komputer kwantowy " to skrót językowy oznaczający urządzenie do kwantowego przetwarzanie danych. Pod pojęciem maszyny realizującej kwantowe przetwarzanie danych rozumiem na użytek tego artykułu, co następuje:

Kwantowe przetwarzanie danych to transformacje ciągów znaczeniowych, w których podstawowym jednostkom informacji tzw. q-bitom przypisuje się (ciągłe) spektra stanów podlegające Kwantowej Zasadzie Superpozycji . Definicja:
kwantowe
przetwarzanie
danych

 (1)  
  Pod pojęciem kwantowego przetwarzania danych rozumie się nierzadko przetwarzanie z wykorzystaniem zjawisk kwantowych. (zob. Wikipedia). Taka definicja jest niewystarczająca, bo spełniałby ją choćby zwykły przepływ prądu w przewodniku miedzianym, który ma pełne wyjaśnienie dopiero w mechanice kwantowej. Stąd potrzeba powyższego uściślenia, w którym Kwantowej Zasadzie Superpozycji i w efekcie przypisywanie podstawowym jednostkom przetwarzania danych potencjalnie nieskończonych rozkładów stanów (tzw.spektrów stanów) .  



Zasada
Nierealizowalności
Komputera
Kwantowego
Ograniczenia techniczne statystycznej natury rosną wraz z liczbą jednostek użytych w kwantowym przetwarzaniu danych w sposób, który efektywnie wyklucza możliwości kwantowego przetwarzania danych większych, niż jest to teoretycznie możliwe bez posługiwania się kwantowym przetwarzaniem.

W teorii mechaniki kwantowej oraz w fizyce ogólnej pojawiają się dwie nieścisłości, które prowadzą do znanych trudności pojęciowych odnotowywanych częstokroć w literaturze jako niespójność między mechaniką kwantową a ogólną teorią względności (teorią grawitacji). Oto one:
  1. Fałszywe i niepełne rozumienie pojęcia funkcji falowej w mechanice kwantowej, w którym przypisuje się funkcje statystyki pojedynczym przypadkom.

  2. Hipoteza o dopuszczalności posługiwania się znanymi nam z makroskopowego świata pojęciami czasu i przestrzeni w coraz mniejszej skali ad infinitum.

Ad.1. Powszechne dziś rozumienie mikroświata kwantowego zakłada posługiwanie się pojęciem funkcji falowej opisującej stany cząstek jako rozkłady prawdopodobieństw pomiaru stwierdzającego na przykład pozycję elektronu w danym miejscu i czasie.
Jednak takie rozumienie jest nieprawidłowe i może grać jedynie rolę skrótu myślowego, który w rozważanej tu sytuacji pomija istotę zjawiska. Wyniki pomiarów dotyczących tu przykładowo położenie pojawiają się w dające się ująć prawa fizyki statystyki dopiero przy miliardach miliardów pojedynczych wydarzeń składających się na makroskopowy pomiar. Statystyki te dotyczą odpowiednio tej olbrzymiej liczby przypadków, podczas gdy pojedyncze pomiary pozostają nieprzewidywalne, co oznacza, że znajdują się poza zakresem teorii  (2)  
  Pominę tu istotny dla pełnego rozumienia fakt, że niemożność przewidzenie pojedynczego pomiaru np, położenie cząstki oznacza przy założeniu, że teoria jest zbudowana jedynie na realnych, mierzalnych faktach, a nie na apriorycznych założeniach de facto niemożność prawidłowego zdefiniowania samego pojęcia położenia w przypadku pojedynczego mikroskopowego zdarzenia.  

. Przypisywanie statystyk pojedynczym przypadkom jest absurdem pojęciowym.

Ad.2. Wspomniane powyżej założenie dowolnej redukowalności fizycznej przestrzeni (i czasu) do coraz mniejszych skal prowadzi do znanych paradoksów oraz kłopotów kalkulacyjnych postulujących możliwość usuwania rosnących do nieskończoności składowych tych wyników. Tak założona redukowalność wydaje się umożliwiać ponadto reprodukowanie opisu rzeczywistości fizycznej w postaci jej kopii w mniejszej skali. To z kolei prowadzi do kolapsu - nasza rzeczywistość fizyczna zapadłaby się sama w sobie.

Jeśli założymy natomiast, że pojęcie czasu i przestrzeni mają swoje uzasadnienie jedynie w makroskopowych wynikach, wtedy takiej redukowalności nie da się już przeprowadzić, co pozwala uniknąć kolapsu opisu rzeczywistości.

Hipoteza zezwalająca na odtwarzanie modelu naszej fizycznej rzeczywistości w subatomowym kwantowym podsystemie i przeliczanie jego możliwych efektów za pomocą q-bitów wydaje się mieć więc swój limit.

Druga granica na jaką napotykamy, dotyczy samego pojęcia liczby. Przyjmujemy, że liczby naturalne są strukturami mentalnymi, wytworzonymi w celu posługiwania się makroskopowymi obiektami. Jednak pojęcia niezależnie od siebie istniejących indywidualnych obiektów tracą swój sens np. w kwantowej teorii pola. Hipoteza, zgodnie z którą liczby rzeczywiste są jedynie nieskończonymi ciągami zbudowanych na liczbach naturalnych znaków ma więc tu także swój kres.

Lapidarnie mówiąc cyfrowe (w sensie niewielkiej digitalnej liczby symboli) przeliczanie modeli naszego makroskopowego świata obiektów w skali subatomowej za pomocą "komputera kwantowego" byłoby niczym innym, jak fizyczną realizacją Teorii Ukrytych Parametrów , która jak wiemy została wykluczone sprawdzeniem łamania nieruchomości Bella. Takie "ukryte parametry" nie mogą istnieć, a podlegające kwantowej zasadzie superpozycji ciągłe spektra to nie przeliczalne makroskopowo liczydła  (3)  
  Rzeczywiście, w algorytmie Shora kluczowym elementem jest odczyt do makroskopowych wyników pełnego rozkładu funkcji falowej po dokonaniu superpozycji . Jeśli byłoby to analitycznie dokładnie możliwe, uzyskalibyśmy rzeczywiście wiedzę o "ukrytych parametrach", które zadecydowały o wyniku superpozycji. Fakt ten sugeruje, że praktyczną niemożliwość faktoryzacji dużych liczb dowodzić można za pomocą złamania nierówności Bella.  

.