
Un nou punct de referință al calculului cuantic a dezvăluit punctele forte și punctele slabe ale mai multor Unități de procesare cuantică (Qpus).
Testele de evaluare comparativă, conduse de o echipă de la Jülich Research Center din Germania, au comparat 19 QPU-uri diferite de la cinci furnizori-inclusiv IBM, Quantinuum, Ionq, Rigetti și IQM-pentru a determina ce cipuri au fost mai stabile și mai fiabile pentru calcularea performanței de înaltă performanță (HPC).
Aceste sisteme cuantice au fost testate atât la „lățimi” diferite (numărul total de Qubits) precum și diferite „adâncimi” pentru porți de 2 qub. Porțile sunt operații care acționează pe două încurcat Qubits simultan, iar adâncimea măsoară lungimea unui circuit – cu alte cuvinte, complexitatea și timpul său de execuție.
QPU -urile IBM a arătat cea mai mare forță din punct de vedere al profunzimii, în timp ce Quantinuum a fost cel mai bun în categoria lățime (unde au fost testate un număr mai mare de qubits). QPU -urile de la IBM a arătat, de asemenea, o îmbunătățire semnificativă a performanței între iterații, în special între anterior Vultur și mai recente generații Heron Chip.
Aceste rezultate, prezentate într -un studiu încărcat pe 10 februarie la preprint arxiv Baza de date, sugerează că îmbunătățirile performanței pot fi atribuite nu numai unui hardware mai bun și mai eficient, dar și îmbunătățiri ale firmware -ului și integrarea porților fracționate – porțile personalizate disponibile pe Heron pot reduce complexitatea unui circuit.
Cu toate acestea, cea mai recentă versiune a cipului Heron, supranumită IBM Marrakesh, nu a demonstrat îmbunătățiri de performanță preconizate, în ciuda faptului că a avut jumătate din erorile pe poarta stratificată (EPLG), comparativ cu QPU -ul anterior al gigantului de calcul, IBM FEZ.
Dincolo de calculul clasic
Companiile mai mici au obținut câștiguri relativ mari. Important de important, un cip Quantinuum a trecut de referință la o lățime de 56 de qubits. Acest lucru este semnificativ, deoarece reprezintă capacitatea unui sistem de calcul cuantic de a depăși computerele clasice existente în contexte specifice.
„În cazul Quantinuum H2-1, experimentele de 50 și 56 de qubits sunt deja peste capacitățile simulării exacte în sistemele HPC, iar rezultatele sunt încă semnificative”, au scris cercetătorii în studiul lor de preimprimare.
Mai exact, cip-ul Quantinuum H2-1 a produs rezultate la 56 de qubits, rulând trei straturi ale algoritmului de optimizare aproximativă a rampei liniare (LR-QAOA)-un algoritm de referință-care implică 4.620 de gate cu două qubit.
„În conformitate cu cunoștințele noastre, aceasta este cea mai mare implementare a QAOA pentru a rezolva o problemă de optimizare combinatorie FC pe hardware -ul cuantic real, care este certificat pentru a da un rezultat mai bun asupra ghicitului aleatoriu”, au spus oamenii de știință în studiu.
FEZ -ul IBM a gestionat problemele la cea mai mare profunzime a sistemelor testate. Într-un test care a inclus o problemă de 100 de qub-uri folosind până la 10.000 de straturi de LR-QAOA (aproape un milion de porți de două qub-uri), Fez a păstrat unele informații coerente până la aproape marca de 300 de straturi. Cea mai scăzută QPU în testare a fost Ankaa-2 de la Rigetti.
Echipa a dezvoltat punctul de referință pentru a măsura potențialul QPU de a efectua aplicații practice. Având în vedere acest lucru, au căutat să elaboreze un test cu un set clar și consistent de reguli. Acest test trebuia să fie ușor de rulat, platforma agnostică (astfel încât ar putea funcționa cea mai largă gamă posibilă de sisteme cuantice) și să ofere valori semnificative asociate cu performanța.
Expertina de referință a acestora este construită în jurul unui test numit Problema MaxCut. Prezintă un grafic cu mai multe vârfuri (noduri) și margini (conexiuni), apoi cere sistemului să împartă nodurile în două seturi, astfel încât numărul de margini între cele două subseturi să fie maxim.
Acest lucru este util ca punct de referință, deoarece este foarte dificil din punct de vedere calculat, iar dificultatea poate fi extinsă prin creșterea dimensiunii graficului, au spus oamenii de știință în lucrare.
Un sistem a fost considerat că a eșuat testul atunci când rezultatele au ajuns la o stare complet mixtă – când au fost indistinguibile de cele ale unui eșantionist aleatoriu.
Deoarece valoarea de referință se bazează pe un protocol de testare care este relativ simplu și scalabil și poate produce rezultate semnificative cu un set de probe mici, este rezonabil de ieftin să rulați, au adăugat informaticienii.
Noul referință nu este lipsit de defectele sale. Performanța depinde, de exemplu, de parametrii de program fix, ceea ce înseamnă că parametrii sunt setați în prealabil și nu sunt ajustați dinamic în timpul calculului, ceea ce înseamnă că nu pot fi optimizați. Oamenii de știință au sugerat că, pe lângă propriul test, ar trebui propuse diferite repere candidați pentru a capta aspecte esențiale ale performanței, iar cel mai bun dintre ei cu cel mai explicit set de reguli și utilități vor rămâne. „
Comentarii recente