Zasada Nierealizowalności Komputera Kwantowego , skrótowo NONQC jest postulatem.
Wynika ona z dwóch błędów (lub nieścisłości), jakie czynione są w samej koncepcji
komputera kwantowego . W następstwie uzasadnię dlaczego wydają się one być w tej
konstrukcji kluczowe i mogą zadecydować o nierealizowalności komputera kwantowego .
" Komputer kwantowy " to urządzenie do kwantowego przetwarzanie danych.
Pod pojęciem maszyny realizującej kwantowe przetwarzanie danych rozumiem na użytek
tego artykułu, co następuje:
Kwantowe przetwarzanie danych to transformacje ciągów znaczeniowych,
w których podstawowym jednostkom informacji tzw. q-bitom przypisuje się (ciągłe)
spektra stanów podlegające Zasadzie Superpozycji .
| Definicja: kwantowe przetwarzanie danych |
(1)
|
Pod pojęciem kwantowego przetwarzania danych rozumie się nierzadko
przetwarzanie z wykorzystaniem zjawisk kwantowych.
(zob. Wikipedia).
Taka definicja jest niewystarczająca, bo spełniałby ją choćby zwykły przepływ prądu
w przewodniku miedzianym, który ma pełne wyjaśnienie dopiero w mechanice kwantowej.
Stąd potrzeba powyższego uściślenia, w którym Zasadzie Superpozycji i w efekcie
przypisywanie podstawowym jednostkom przetwarzania danych potencjalnie nieskończonych
rozkładów stanów (tzw.spektrów stanów) . |
|
Zasada Nierealizowalności Komputera Kwantowego
|
Ograniczenia techniczne statystycznej natury rosną wraz z liczbą jednostek użytych
w kwantowym przetwarzaniu danych w sposób, który efektywnie wyklucza możliwości
kwantowego przetwarzania danych większych, niż jest to teoretycznie możliwe bez
posługiwania się kwantowym przetwarzaniem. |
W powszechnym rozumieniu Mechaniki Kwantowej oraz w fizyce ogólnej pojawiają się dwie
nieścisłości, które prowadzą do znanych trudności pojęciowych odnotowywanych częstokroć
w literaturze jako niespójność między mechaniką kwantową a ogólną teorią względności
(teorią grawitacji). Oto ich źródło:
- Fałszywe i niepełne rozumienie pojęcia funkcji falowej w mechanice kwantowej,
w którym przypisuje się funkcje statystyki pojedynczym przypadkom.
- Hipoteza o dopuszczalności posługiwania się znanymi nam z makroskopowego
świata pojęciami czasu i przestrzeni w coraz mniejszej skali ad infinitum.
Ad.1. Powszechne dziś rozumienie mikroświata kwantowego zakłada posługiwanie się
pojęciem funkcji falowej opisującej stany cząstek jako rozkłady prawdopodobieństw
pomiaru stwierdzającego na przykład pozycję elektronu w danym miejscu i czasie.
Jednak takie rozumienie jest nieprawidłowe i może grać jedynie rolę skrótu myślowego,
który w rozważanej tu sytuacji pomija istotę zjawiska. Wyniki pomiarów dotyczących
przykładowo położenie pojawiają się w dające się ująć prawa fizyki statystyki dopiero
przy miliardach miliardów pojedynczych wydarzeń składających się na makroskopowy pomiar.
Statystyki te dotyczą więc odpowiednio tej olbrzymiej liczby przypadków, podczas gdy
pojedyncze pomiary pozostają nieprzewidywalne, co oznacza, że znajdują się poza
zakresem teorii
(2)
|
Pominę tu istotny dla pełnego rozumienia fakt, że niemożność przewidzenie
pojedynczego pomiaru np, położenie cząstki oznacza przy założeniu, że teoria jest
zbudowana jedynie na realnych, mierzalnych faktach, a nie na apriorycznych założeniach
de facto niemożność prawidłowego zdefiniowania samego pojęcia położenia w przypadku
pojedynczego mikroskopowego zdarzenia. |
|
.
Przypisywanie statystyk pojedynczym przypadkom jest absurdem pojęciowym, jak np.
przypisywanie funkcji falowej pojedyńczym cząstkom a nie ich statystykom.
Ad.2. Wspomniane powyżej założenie dowolnej redukowalności fizycznej przestrzeni
(i czasu) do coraz mniejszych skal prowadzi do znanych paradoksów oraz kłopotów
kalkulacyjnych postulujących możliwość usuwania rosnących do nieskończoności
składowych tych wyników. Tak założona redukowalność wydaje się umożliwiać ponadto
reprodukowanie opisu rzeczywistości fizycznej w postaci jej kopii w mniejszej skali.
To z kolei prowadzi do kolapsu - nasza rzeczywistość fizyczna zapadłaby się sama
w sobie.
Jeśli założymy natomiast, że pojęcie czasu i przestrzeni mają swoje uzasadnienie
jedynie w makroskopowych wynikach, wtedy takiej redukowalności nie da się już
przeprowadzić, co pozwala uniknąć kolapsu opisu rzeczywistości.
Hipoteza zezwalająca na odtwarzanie modelu naszej fizycznej rzeczywistości
w subatomowym kwantowym podsystemie i przeliczanie jego możliwych efektów
za pomocą q-bitów wydaje się mieć więc swój limit.
Druga granica na jaką napotykamy, dotyczy samego pojęcia liczby. Przyjmujemy,
że liczby naturalne są strukturami mentalnymi, wytworzonymi w celu posługiwania
się makroskopowymi obiektami. Jednak pojęcia niezależnie od siebie istniejących
indywidualnych obiektów tracą swój sens np. w kwantowej teorii pola. Hipoteza,
zgodnie z którą liczby rzeczywiste są jedynie nieskończonymi ciągami zbudowanych
na liczbach naturalnych znaków ma więc tu także swój kres.
Lapidarnie mówiąc cyfrowe (w sensie niewielkiej digitalnej liczby symboli)
przeliczanie modeli naszego makroskopowego świata obiektów w skali subatomowej
za pomocą "komputera kwantowego" byłoby niczym innym, jak fizyczną realizacją
Teorii Ukrytych Parametrów , która jak wiemy została wykluczone sprawdzeniem
łamania nieruchomości Bella.
Takie "ukryte parametry" nie mogą istnieć, a podlegające kwantowej zasadzie
superpozycji ciągłe spektra to nie przeliczalne makroskopowo liczydła
(3)
|
Rzeczywiście, w algorytmie Shora kluczowym elementem jest odczyt
do makroskopowych wyników pełnego rozkładu funkcji falowej po dokonaniu superpozycji .
Jeśli byłoby to analitycznie dokładnie możliwe, uzyskalibyśmy rzeczywiście wiedzę
o "ukrytych parametrach", które zadecydowały o wyniku superpozycji. Fakt ten sugeruje,
że praktyczną niemożliwość faktoryzacji dużych liczb dowodzić można za pomocą
złamania nierówności Bella. |
|
Podsumowanie:
Niemożność budowy Komputera Kwantowego wynika więc z faktu, że zaznaczające się już
dziś trudności techniczne, jak przykładowo zapewnienie wyjątkowo stabilnych warunków
temperaturowych nie są jedynie technicznymi niedokładnościami, które dałoby się w
przyszłości przezwyciężyć dokładnieszą lub bardziej skomplikowaną budową, lecz
wynikają one z samej statystycznej natury pojęć, jakimi się posługujemy w interpretacji
wyników działania takiego urządzenia.
Wart wpomnienia jest także fakt, że historia concepcji rozpoczyna
się (tak wikipedia) od sformułowanego z początkiem 70-tych lat
Twierdzenia o Niemożności Klonowania która wydaje się rozszerzalna na wniosek
o nierealizowalności
Konsekwencje:
Powyższa zasada nierealizowalności rzuca nowe światło na samo pojęcie
|