Zasada Nierealizowalności Komputera Kwantowego

wersja:   1.1   29.10.2024   (poprzednie wersje)  
  1.0        15.02.2024
1.1        29.10.2024
 

 


Zasada Nierealizowalności Komputera Kwantowego , skrótowo NONQC jest postulatem. Wynika ona z dwóch błędów (lub nieścisłości), jakie czynione są w samej koncepcji komputera kwantowego . W następstwie uzasadnię dlaczego wydają się one być w tej konstrukcji kluczowe i mogą zadecydować o nierealizowalności komputera kwantowego .

" Komputer kwantowy " to urządzenie do kwantowego przetwarzanie danych. Pod pojęciem maszyny realizującej kwantowe przetwarzanie danych rozumiem na użytek tego artykułu, co następuje:

Kwantowe przetwarzanie danych to transformacje ciągów znaczeniowych, w których podstawowym jednostkom informacji tzw. q-bitom przypisuje się (ciągłe) spektra stanów podlegające Zasadzie Superpozycji . Definicja:
kwantowe
przetwarzanie
danych

 (1)  
  Pod pojęciem kwantowego przetwarzania danych rozumie się nierzadko przetwarzanie z wykorzystaniem zjawisk kwantowych. (zob. Wikipedia). Taka definicja jest niewystarczająca, bo spełniałby ją choćby zwykły przepływ prądu w przewodniku miedzianym, który ma pełne wyjaśnienie dopiero w mechanice kwantowej. Stąd potrzeba powyższego uściślenia, w którym Zasadzie Superpozycji i w efekcie przypisywanie podstawowym jednostkom przetwarzania danych potencjalnie nieskończonych rozkładów stanów (tzw.spektrów stanów) .  



Zasada
Nierealizowalności
Komputera
Kwantowego
Ograniczenia techniczne statystycznej natury rosną wraz z liczbą jednostek użytych w kwantowym przetwarzaniu danych w sposób, który efektywnie wyklucza możliwości kwantowego przetwarzania danych większych, niż jest to teoretycznie możliwe bez posługiwania się kwantowym przetwarzaniem.

W powszechnym rozumieniu Mechaniki Kwantowej oraz w fizyce ogólnej pojawiają się dwie nieścisłości, które prowadzą do znanych trudności pojęciowych odnotowywanych częstokroć w literaturze jako niespójność między mechaniką kwantową a ogólną teorią względności (teorią grawitacji). Oto ich źródło:
  1. Fałszywe i niepełne rozumienie pojęcia funkcji falowej w mechanice kwantowej, w którym przypisuje się funkcje statystyki pojedynczym przypadkom.

  2. Hipoteza o dopuszczalności posługiwania się znanymi nam z makroskopowego świata pojęciami czasu i przestrzeni w coraz mniejszej skali ad infinitum.

Ad.1. Powszechne dziś rozumienie mikroświata kwantowego zakłada posługiwanie się pojęciem funkcji falowej opisującej stany cząstek jako rozkłady prawdopodobieństw pomiaru stwierdzającego na przykład pozycję elektronu w danym miejscu i czasie.
Jednak takie rozumienie jest nieprawidłowe i może grać jedynie rolę skrótu myślowego, który w rozważanej tu sytuacji pomija istotę zjawiska. Wyniki pomiarów dotyczących przykładowo położenie pojawiają się w dające się ująć prawa fizyki statystyki dopiero przy miliardach miliardów pojedynczych wydarzeń składających się na makroskopowy pomiar. Statystyki te dotyczą więc odpowiednio tej olbrzymiej liczby przypadków, podczas gdy pojedyncze pomiary pozostają nieprzewidywalne, co oznacza, że znajdują się poza zakresem teorii  (2)  
  Pominę tu istotny dla pełnego rozumienia fakt, że niemożność przewidzenie pojedynczego pomiaru np, położenie cząstki oznacza przy założeniu, że teoria jest zbudowana jedynie na realnych, mierzalnych faktach, a nie na apriorycznych założeniach de facto niemożność prawidłowego zdefiniowania samego pojęcia położenia w przypadku pojedynczego mikroskopowego zdarzenia.  

. Przypisywanie statystyk pojedynczym przypadkom jest absurdem pojęciowym, jak np. przypisywanie funkcji falowej pojedyńczym cząstkom a nie ich statystykom.

Ad.2. Wspomniane powyżej założenie dowolnej redukowalności fizycznej przestrzeni (i czasu) do coraz mniejszych skal prowadzi do znanych paradoksów oraz kłopotów kalkulacyjnych postulujących możliwość usuwania rosnących do nieskończoności składowych tych wyników. Tak założona redukowalność wydaje się umożliwiać ponadto reprodukowanie opisu rzeczywistości fizycznej w postaci jej kopii w mniejszej skali. To z kolei prowadzi do kolapsu - nasza rzeczywistość fizyczna zapadłaby się sama w sobie.

Jeśli założymy natomiast, że pojęcie czasu i przestrzeni mają swoje uzasadnienie jedynie w makroskopowych wynikach, wtedy takiej redukowalności nie da się już przeprowadzić, co pozwala uniknąć kolapsu opisu rzeczywistości.

Hipoteza zezwalająca na odtwarzanie modelu naszej fizycznej rzeczywistości w subatomowym kwantowym podsystemie i przeliczanie jego możliwych efektów za pomocą q-bitów wydaje się mieć więc swój limit.

Druga granica na jaką napotykamy, dotyczy samego pojęcia liczby. Przyjmujemy, że liczby naturalne są strukturami mentalnymi, wytworzonymi w celu posługiwania się makroskopowymi obiektami. Jednak pojęcia niezależnie od siebie istniejących indywidualnych obiektów tracą swój sens np. w kwantowej teorii pola. Hipoteza, zgodnie z którą liczby rzeczywiste są jedynie nieskończonymi ciągami zbudowanych na liczbach naturalnych znaków ma więc tu także swój kres.

Lapidarnie mówiąc cyfrowe (w sensie niewielkiej digitalnej liczby symboli) przeliczanie modeli naszego makroskopowego świata obiektów w skali subatomowej za pomocą "komputera kwantowego" byłoby niczym innym, jak fizyczną realizacją Teorii Ukrytych Parametrów , która jak wiemy została wykluczone sprawdzeniem łamania nieruchomości Bella. Takie "ukryte parametry" nie mogą istnieć, a podlegające kwantowej zasadzie superpozycji ciągłe spektra to nie przeliczalne makroskopowo liczydła  (3)  
  Rzeczywiście, w algorytmie Shora kluczowym elementem jest odczyt do makroskopowych wyników pełnego rozkładu funkcji falowej po dokonaniu superpozycji . Jeśli byłoby to analitycznie dokładnie możliwe, uzyskalibyśmy rzeczywiście wiedzę o "ukrytych parametrach", które zadecydowały o wyniku superpozycji. Fakt ten sugeruje, że praktyczną niemożliwość faktoryzacji dużych liczb dowodzić można za pomocą złamania nierówności Bella.  



Podsumowanie:

Niemożność budowy Komputera Kwantowego wynika więc z faktu, że zaznaczające się już dziś trudności techniczne, jak przykładowo zapewnienie wyjątkowo stabilnych warunków temperaturowych nie są jedynie technicznymi niedokładnościami, które dałoby się w przyszłości przezwyciężyć dokładnieszą lub bardziej skomplikowaną budową, lecz wynikają one z samej statystycznej natury pojęć, jakimi się posługujemy w interpretacji wyników działania takiego urządzenia.

Wart wpomnienia jest także fakt, że historia concepcji komputer kwantowy rozpoczyna się (tak wikipedia) od sformułowanego z początkiem 70-tych lat Twierdzenia o Niemożności Klonowania która wydaje się rozszerzalna na wniosek o nierealizowalności komputer kwantowy

Konsekwencje:

Powyższa zasada nierealizowalności rzuca nowe światło na samo pojęcie