A kvantumszámítás, a kvantumszámítógép lesz a közel-, még inkább a középtávú jövő egyik, ha nem a legdiszruptívabb technológiája. Elsőszámú oka, hogy az anyag atomok alatti, szubatomikus szinten tapasztalható olyan furcsa jelenségei, mint a kvantum-összefonódás és a kvantum-szuperpozíció egyes feladatoknál úgy használhatók ki, hogy több nagyságrenddel felgyorsítják a számításokat.
Ilyen terület lehet mintázatok azonosítása masszív adatkészletekben, rengeteg változót tartalmazó komplex optimalizációs problémák megoldása, kriptográfiai titkosítás információ kódolásához és dekódolásához.
Tényleges valóvilágbeli kihívások, mint a mesterségesintelligencia-fejlesztés, anyagok és gyógyszerek felfedezése vagy a cyberbiztonság javítása ilyen műveleteken alapulnak, azaz a kvantumszámítások óriási hatással lehetnek a technológiára, tudományra, mindenre.
Csakhogy a terület hiába fejlődik gyorsan, egyelőre inkább laboratóriumi jellegű, az azon túlmutató kevés alkalmazás még csekély kapacitású gépekkel valósul meg. A legnagyobb felhőszolgáltatók, az Amazon, a Google és a Microsoft mindenesetre kínál már kvantumszolgáltatásokat, a startupok virágzó ökoszisztémává alakultak, fontos eredmények is történtek (D-Wave, IonQ, dél-koreai kezdeményezések).
Mindezek ellenére messze vagyunk a céltól. Például Jensen Huang az Nvidia vezérigazgatója nemrégi előrejelzése alapján mintegy harminc évre, mert nagyjából akkor lehetnek majd valóban hasznos kvantumkomputerek. Nyilatkozata után le is mentek a szakterületen érintett vállalatok tőzsdeindexei.
A látványos fejlesztések ellenére a mostani korszakot „zajos köztes-léptékű kvantumidőknek” (noisy intermediate scale quantum, NISQ) nevezzük, ami még nagyon nem a technológiai jövőképekben felvázolt kvantumkor. A folyamatos előrelépések ellenére a mostani rendszerek hibatűrése alacsony, a kvantumállapotukból kieső qubitek miatti magas hibaarány miatt rendkívül érzékenyek az interferenciára, működésük könnyen zavarható. Emellett a gépek túlnyomó többsége sok feladat megoldásához továbbra is hagyományos számítógépes architektúrán alapul. Ez adja a sebesség szűk keresztmetszetét.
Míg a legfejlettebb mai rendszerek kb. ezer qubitesek, komolyabb problémák kezeléséhez százezres, milliós nagyságrendű kvantumbites gépek kellenének. Az új qubitekkel történő bővítés bonyolult mérnöki feladat: koherenciájuk csak a külvilágtól való teljes elszigeteléssel tartható fenn, és az esetek többségében éppen csak valamivel az abszolút nulla fok (-273,15 Celsius-fok) fölé kell hűteni őket.
Mindez azt jelenti, hogy a jelenlegi technológiák erősen kísérleti jellegűek, prototípusok koncepció-igazolásai, próbaüzemeltetése (proof-of-concept), és nem az ipari alkalmazásokhoz nélkülözhetetlen méretezhető, robusztus rendszerek.
(A jövő lehetőségeiről holnapi anyagunkban írunk.)