Krylov Time Evolution (Global Krylov)

Tartalomjegyzék

tensor

A krilovi altérmódszerek [1] [2] [3] [4] [5] [6] (pl. Lanczos-módszer [7] [8]) a numerikus lineáris algebra területéről jól ismert iterációs technikák. Időfüggő problémákra való alkalmazásuk során közelítjük a $ \ hat U ^ \ mathrm (\ delta) $ műveletét közvetlenül a $ \ ket $ kvantumállapotra, ami egy időben kialakult $ \ ket $ állapotot eredményez. Nem biztosít hozzáférést az exponenciális $ e ^ \ delta \ hat H> $ -hoz a standard fizikai alapon. A legegyenesebb megközelítés az MPS/MPO reprezentáció speciális struktúrájának figyelmen kívül hagyása és az iteratív eljárás közvetlen végrehajtása, az alábbiakban részletesen. Ezt hívjuk \ textit-nek. Ezzel szemben az MPS ansatz szerkezetét kihasználó változatot helyi Krylov-módszernek nevezzük, és megegyezik a DMRG system-environment idő-lépéses célzási módszerével.

Itt mutatjuk be először a Krylov-módszert, függetlenül az alkalmazott specifikus ábrázolástól (sűrű vektorok, mint a pontos átlósodásnál, MPS, fa-tenzor hálózatok stb.). Ezt az algoritmust a helyi Krylov-módszer és a TDVP helyi integrátoraként is használják. Ezt követően megvitatjuk az egyes figyelmeztetéseket, amikor a módszert globálisan alkalmazzuk a mátrix-termék állapotokra.

A hamiltoni $ \ hat H $ és a $ \ ket $ kezdőállapot Krylov $ \ mathcal_N $ alterületét a $ \ vektorok tartománya határozza meg.< \ket, \hat H \ket, \ldots, \hat H^ \ket \>$. Ezt a teret a Krillov $ \ ket $, $ \ ket $, $ \ ldots $, $ \ ket> $ vektorok fedik le, így az első Krilov vektor $ | v_0 \ rangle $ értéke $ \ ket $ lesz normalizálva. A $ 1 $ normát, és az azt követő $ \ ket $ vektorokat úgy konstruálják, hogy a $ \ hat H $ -ot alkalmazzák a $ \ ket> $ -ra, és ortonormalizálják az összes korábbi Krilov-vektorral szemben, egyenértékűen a Lanczos-algoritmussal. A Hermitian $ \ hat H $ pontos aritmetikájában a Krylov-altér kialakításának ilyen módja az előző két $ \ ket> $ és $ \ ket> $ vektorral szemben ortogonalizálódik, ami egyenértékű a Lanczos-algoritmussal [8].

A számszerű megvalósításban rejlő kerekítési hibák miatt azonban a Krilov vektorok ortogonalitása általában elvész. Ha az egyes megoldásokhoz szükséges pontosság alacsony, akkor tartózkodhat a probléma elkerülésétől, és egyszerűen csak egy nagyon kis altérben dolgozhat. Azonban az időfejlődés során felhalmozódó hibák és a spektrális vagy időfüggő tulajdonságok kiszámítása miatt meg kell gyógyítani ezt a problémát. Ezért általában minden új Krilov-vektort kifejezetten ortogonalizálni kell az összes korábbi Krilov-vektorral szemben. (Alternatív megoldásként csak ortogonalizálódhat az előző két vektorral szemben, és teljes ortogonalitást érhet el egy későbbi alaptranszformációval, amint azt az 5. hivatkozás részletezi.) A módszer ezután a $ \ mathcal_N $ elem keresésével folytatódik, amely közelíti a pontos eredményét evolúció a legszorosabban:

Ehhez definiáljuk a kivetítőt a $ \ mathcal_N $ fájlra

\ begin \ hat P_N & = \ sum_ ^ \ ket> \ langle v_i | \\ & = \ begin \ Big | \ begin \ vdots \\ v_0 \\ \ vdots \ end \ Big \ rangle & \ Big | \ begin \ vdots \\ v_ \\ \ vdots \ end \ Big \ rangle & \ cdots & \ Big | \ begin \ vdots \\ v_ \\ \ vdots \ end \ Big \ rangle \ end \ cdot \ begin \ bra \ hbox <>> \ cdots> \\ \ bra \ hbox <>> \ cdots> \ \ \ vdots \\ \ bra \ cdots> \ end \ equiv V_N ^ \ tőr V_N \ end

ahol bevezettük a $ V_N $ és a $ V_N ^ \ dagger $ mátrixokat, amelyek a Hilbert térből a Krylov térbe és fordítva mutatják be a térképeket. A fenti minimalizálási probléma megoldását az adja

\ begin \ ket = \ hat P_N ^ \ tőr \ hat U ^ \ mathrm (\ delta) \ hat P_N \ ket \;. \ end

Ne feledje, hogy a $ N = \ mathcal \ equiv N _> $ esetében ez a pontos. A projektorok kibővítésével és a Taylor hivatalos formátumának felírásával a $ \ hat U ^ \ mathrm (\ delta) $ értékre a következőket találjuk:

ahol $ N \ ll N _ >> $ és $ T_N $ a $ \ hat H $ Krilov-térbeli ábrázolása együtthatókkal

A Krilov-közelítést a $ \ eqref $ -ba vezetjük be. Vegye figyelembe, hogy $ n> N-1 esetén $ \ kezdődik V _ >> \ hat H ^ n V _ >> ^ \ tőr V _ >> \ ket \ neq \ bal (T_N \ jobb) ^ n V_N \ ket \;. \ end

Ez azt jelenti, hogy az időfejlődés operátor Taylor-bővítésének hibája $ \ frac $ nagyságrendű, ami azt jelzi, hogy már néhány ismétlés elegendő ahhoz, hogy egy nagyon kis hibát adjon az integrátorban. Ha a $ V_N ^ \ tőr V_N $ megfelelő identitás lenne, beilleszthetnénk a $ \ hat H $ bármely hatványa közé, és pontosan megkapnánk a $ V_N \ hat H ^ n V_N ^ \ tőr = T_N ^ n $ értéket. Krylov-alterünk azonban sokkal kisebb, mint a valódi Hilbert-tér, és a $ V_N ^ \ tőr V_N $ által kiváltott vetület tehát nagyon nagy, $ V_N ^ \ tőr V_N \ neq \ mathbf $. De ennek a Krilov-térnek a különleges felépítése miatt a $ V_N ^ \ tőr T_N ^ n V_N \ ket $ sokkal gyorsabban konvergál a $ \ hat H ^ n \ ket $ -hoz, mint vártuk, ha például véletlenszerű vektorokat választunk teljes egészében Hilbert tér az altérünk kialakításához.

Pontos számtanban és a hermita $ \ hat H $ esetén a $ T_N $ háromszög lenne, azaz $ \ left (T_N \ right) _ = 0 $, ha $ | i-i ^ \ prime | > 1 $. Bár a gyakorlatban ez nem feltétlenül igaz, azt tapasztaltuk, hogy javítja az eredmények numerikus stabilitását és pontosságát, ha feltételezzük, hogy a $ T_N $ háromszög alakú, és csak ezeket az elemeket értékeli, miközben az összes többi elemet erőszakkal nullára állítja. Visszatérve a $ \ eqref $ egyenletünkhöz, a $ V_N \ ket $ a Krilov-tér vektor

mivel az összes többi Krylov-vektor merőleges a $ \ ket $ -ra, és a $ \ ket $ a $ \ ket $ normalizált változata. A $ T_N $ hatékonyan hatványozható a LAPACK szabványos átlósítási rutinjainak használatával, mivel ez csak a $ N \ szorzat N $ -ának felel meg. $ T_N = Q_N ^ \ tőr D_N Q_N $ esetén ez megkapja

Adott számú Krilov vektorhoz és a $ \ delta $ lépésmérethez tehát megkapjuk

a $ c_N = Q ^ \ dagger_N e ^ \ delta D_N> Q_N e ^ 1_N $ és $ e ^ 1_N $ együtthatóvektorral a $ N $ -dimenziós egységvektor $ (1, 0, 0, \ ldots) ^ T $ . A példa részben bemutatott tipikus problémák esetén az általunk használt Krilov vektorok száma $ 3 $ és $ 10 között volt.

Algoritmus

A Krylvo módszer fő bemenete a hamiltoni $ \ hat H $, a kezdeti állapot a $ ket és az (esetleg összetett) idő lépés. Ezenkívül szükség van egy ALKALMAZÁS-ORTHONORMALIZÁLÁS eljárásra, amelyhez viszont szükség van az operátor-állapot termékre és az állapotok ortogonalizálására. Ennek variációs megközelítésével kapcsolatos részletekért lásd: Ref. 9., Sec. 2.8.2. A COMPUTE-EFFECTIVE-H függvénynek csak a $ T_ $ új elemeit kell frissítenie a $ T_j $ értékhez képest.

Ezért két megközelítés létezik a Krilovi tér konvergenciájának mérésére: (i) A tényleges mátrix $ T_n $ jobb alsó sarkában lévő bejegyzés méri a Krilovi térből elszórt súlyt a hamiltoni alkalmazásával, és általában exponenciálisan bomlik; (ii) a két szekvenciális iteráció közötti teljes Hilbert-térbeli 2-normális távolság olcsón elérhető a két iterációban előállított Krylov-vektorok együtthatóin keresztül. Tapasztalataink szerint ez a második mérték kiváló konvergencia kritériumot jelent.

A benne rejlő Krylov-hiba mellett, amelyet gyakran rendkívül kicsi lehet ($ O (10 ^) $ vagy kisebb), a Krylov-módszer természetesen a szokásos MPS-csonkolási hibától is szenved - ez a hiba is pontosan mérhető ( a kiselejtezett súlyon keresztül), és nagyon kicsi legyen. Mint ilyen, a globális Krylov-módszer mindkét hibája rendkívül kicsi, véges idő-lépés méretben, bár viszonylag nagy numerikus költséggel. A módszer tehát különösen kitűnő, ha az állapotokat nagyon pontosan értékelik, például más módszerek hibáit mérik rövid időskálán.

\ alszakasz Eddig a pontig nem volt szükség a leírás szűkítésére egy meghatározott reprezentációra, amely a Krillov-módszer sokoldalúságának bizonyítékául szolgál. Gyakorlati számításaink során azonban az MPS-t szeretnénk használni az időben kialakult kvantumállapotok és a köztes Krylov-vektorok képviseletében, valamint egy MPO-t a Hamilton-i $ \ hat H $ ábrázolásához, amely néhány kisebb adaptációt igényel a hatékonyság és a pontosság érdekében. Ne feledje, hogy a TEBD és az MPO \ wiii módszerrel ellentétben csak a $ \ hat H $ MPO ábrázolása szükséges, és nem szükséges analitikai vagy egyéb lebontás.

Első és legfontosabb: a legnyilvánvalóbb javulás a tényleges Krylov-mátrix $ T_N $ utolsó bejegyzésének kiszámításában van. Pontos vagy sűrű számtanban a $ \ bra> \ hat H \ ket> $ kiértékeléséhez meg kell számítani a $ \ hat H \ ket> $ mátrix-vektor szorzatot. Az MPS megközelítésben ez nem így van: Valójában a $ \ bra> \ hat H \ ket> $ várakozási érték értékelése sokkal olcsóbb, mint a $ \ hat H \ ket> $ értéket képviselö MPS kiszámítása. Mint ilyen, egy $ N \ -szeres N $ -dimenziós tényleges Krylov-mátrix $ T_N $ előállításához csak a $ N-1 $ MPO-MPS termékeket kell értékelni, és kerülni kell az MPO-MPS terméket az utolsó legdrágább alkalmazásához. Krilov vektor. Tapasztalataink szerint minden további Krylov-vektor kötési dimenziója szuperlineárisan növekszik, ami nagyon megéri ezt az optimalizálást.

Az időben kialakult $ \ ket $ állapot összeállításához össze kell adni a $ N $ Krylov vektorokat. Különböző módszerek léteznek erre, megvalósításunkban egymás után két vektort adunk hozzá (új MPS-t kapunk, amelynek $ 2m $ kötési dimenziója van), amelyeket aztán csonkítunk vissza a $ m $ célkötés dimenzióig. $ N-1 $ lépésekben az összes $ N $ Krilov-vektort összeadjuk, bekerülési érték: $ O (N (2m) ^ 3) $. Lehetne követni ezt az eljárást néhány variációs optimalizálási lépéssel vagy alternatív megoldásként közvetlenül variálható optimalizálással, de ez nem tűnik szükségesnek alkalmazásunk számára.

Az ortogonalitás elvesztése

A Krylov-altér-módszerek tipikus problémája az alapvektorok ortogonalitásának esetleges elvesztése a lebegőpontos műveletek véges-precíziós aritmetikája miatt. Ez az ügy lényegesen nyomasztóbbá válik a mátrix-termék algebrában, mivel a csonkolás kulcsfontosságú a számítások megvalósíthatósága szempontjából. Ha sok Krilov-vektorra van szükség, az alapvektorok ortogonalitását befolyásoló csonkolási hibák nem egyszerűen növelik az általános hibát (lásd fent), hanem gyorsan ronthatják a Krilov-tér általános minőségét, ami rossz eredményhez vezet. Ebben az esetben ellenőrizni kell az alap ortogonalitását, és végül egymás után újra ortogonalizálni az alapvektorokat. Ha azonban egy egyszerű Gram-Schmidt eljárást használunk a vektorok ortogonalizálására az MPS egymást követő hozzáadásával, akkor az eljárás során új csonkolási hibák kerülnek bevezetésre, amelyek gyakran ugyanazzal a problémával járnak.

Tapasztalataink szerint gyümölcsözőnek bizonyult az új Krilovi államok ortogonalizálása az összes többi Krilov állammal szemben. Ez lényegében egy állapot variációs tömörítése azon további kényszerek mellett, hogy nulla átfedés van az összes korábbi Krilov-állapottal. A további megszorítások beépíthetők a Lagrange-szorzók módszerébe: Minden korlátozáshoz (ortogonális $ \ ket $ vektorhoz) vezesse be a megfelelő $ \ beta_i $ Lagrange-szorzót. A $ \ | \ hat \ ket- \ ket> \ | ^ 2 $ minimalizálásához a $ \ | v_> = 0 \> _ $ korlátozások alatt valójában minimalizáljuk

a $ \ ket $ és a $ \ beta_ $ vonatkozásában. A variációs tömörítéshez hasonlóan ez is megoldható a helyi egy- vagy kétoldalas problémák iteratív megoldásával (a $ \ braket $ kifejezett értékelése nélkül). Gondoskodni kell a helyi ortogonalitás biztosításáról a Gram mátrix ál-inverzének felhasználásával, amint azt a Ref. 6. A kéthelyes megközelítés alkalmazása további csonkolási lépést jelent minden egyes helyi optimalizálási lépés után, és ismét az ortogonalitás elvesztését vonja maga után. A két telephelyű megközelítés azonban sokkal jobban konvergál, mint az egyhelyes megközelítés a globális optimum felé. A gyakorlatban ezért először elvégezünk néhány söpörést a két helyszín optimalizálásával (vagy hasonlóan egy hely optimalizálásával az altér bővítésével [11]), majd néhány söpöréssel elvégezzük a teljes, egy helyszínen történő optimalizálást bővítés nélkül, és így csonka nélkül is. A kapott állapot ekkor pontosan merőleges az összes előző állapotra. Ne feledje, hogy a $ \ eqref $ optimalizálás kezdetekor az első néhány helyen a rendelkezésre álló vektorterület valószínűleg nagyon kicsi (pl. $ \ Sigma ^ 2 \ cdot (m_2 = \ sigma ^ 2) $) és az ortogonalizáció ezért túlfeszített. A probléma elkerülése érdekében a következő seprések során egyenként hozzá kell adni a korlátozásokat.

Ez a variációs ortogonalizáció vagy külön ortogonalizációs lépésként használható az MPO-MPS alkalmazás után (az ismert algoritmusok bármelyikével), vagy kombinálható a variációs operátor alkalmazással. Az, hogy jobb-e először elvégezni az MPO-MPS alkalmazást a zip-up módszerrel, majd variálni ortogonalizálni az eredményt, vagy mindkét lépést egyszerre elvégezni, a mindenkori rendszertől függ: különösen a nagy hatótávolságú interakciók esetén a variációs megközelítés több sweep-et igényel a konvergáláshoz, míg a rövid hatótávolságú interakciókkal ott nagyon hatékonyan foglalkoznak.

Dinamikus lépésméretezés

A dinamikus lépésméretezés a módszer egyik legérdekesebb és leghatékonyabb jellemzője, és többféleképpen is használható. Az ötlet az, hogy egy Krylov altér, amelyet egy ideig kiszámítottak a $ \ delta $ lépésben, újrahasznosítható más lépéshosszra. Két eset különböztethető meg: interpoláció és extrapoláció.

Interpoláció

Bizonyos alkalmazásokban az idő alakulását időben nagyon finom rácson kell végrehajtani. Az időbeli léptetési módszerek egyetlen lépést jelentenének a rács minden pontjára, ami gyorsan nehézkessé vagy akár lehetetlenné is válhat. Másrészről, ha van egy Krilov-altérünk, amelyet korábban nagy időlépcsőn hajtottunk végre, akkor újból felhasználható bármely közbenső kisebb időlépés kiszámítására ugyanolyan vagy nagyobb pontossággal. Ez azonnal következik a Krilovi tér felépítéséből és a fent felsorolt ​​konvergencia kritériumokból/feltételezésekből. Mivel az effektív Hamilton-féle átlósítása már ismert, csak annyit kell tennünk, hogy az átlós szorzókat hatványozzuk az új időlépéssel, visszatérképezzük a Krilov-alapba, hogy megkapjuk az együtthatóvektort, és kiszámoljuk az új MPS-t Krilov-vektorok szuperpozíciójaként. Ha csak egy megfigyelhető $ \ hat $ várakozási értékei érdekelnek, akkor előnyös kiszámítani a vetületét a Krilov térbe a $ \ left (O_ \ right) _ = \ braket | \ phi _> $ bonyolultsággal $ \ sim \ mathcal (n ^ 2) $. A $ c_N $ együtthatóvektorral a kívánt várakozási érték kiszámítható $ c_N ^ \ tőr O_N c_N $ néven, teljesen kihagyva a krilovi államok drágább szuperpozícióját.

Extrapoláció

Bár végrehajtása bonyolultabb, az extrapoláció jelentősen javíthatja a teljesítményt, ha egyfajta automatikus adaptív lépésméretezési sémaként alkalmazzák. Az ötlet a következő: Adva egy Krilov-teret, gyakran lehetséges újrahasznosítani is nagyobb lépésméretekhez, csak kevés további Krilov-vektor hozzáadásával (vagy egyáltalán nem). Ebből következik, hogy az optimális Krylov altérdimenzió minimálisra csökkenti az alapja kiszámításához szükséges idő és a felhasználható lépések számának arányát. Ezen mennyiségek nyers közelítéseként feltételezzük, hogy bármely új Krilov-vektor költsége exponenciálisan növekszik, vagyis az egymást követő vektorok költségeinek aránya rögzített. Feltételezzük továbbá, hogy bármely új Krilov-vektor annyi további időlépést tesz lehetővé számunkra, mint az előző Krilov-vektor. Ezután folyamatosan figyeljük az új Krilov-vektor felépítéséhez szükséges időt és a vele megtehető lépések számát. Miután el kell dönteni, hogy kibővítjük-e a Krilov-teret vagy újjáépítjük-e a semmiből, ezeket az értékeket becslésként használjuk a döntéshez. A gyakorlatban ez a heurisztika meglehetősen megbízhatónak bizonyult.

Az oldal tartalma S. Paeckel, T. Köhler, A. Swoboda, S. R. Manmana, U. Schollwöck és C. Hubig mátrix-termék állapotok idő-evolúciós módszerein alapszik, és a CC-BY 4.0 licenc alapján van engedélyezve.