Forskare har utvecklat en matematisk metod som visar att kvantdatorer effektivt kan bearbeta stora datamängder för AI-uppgifter. Genom att ladda data i omgångar, likt streaming, undviker metoden behovet av massivt minne. En maskin med bara 60 logiska kvantbitar skulle kunna överträffa klassiska system innan decenniets slut.
Hsin-Yuan Huang vid kvantföretaget Oratomic och hans kollegor menar att deras arbete lägger grunden för kvantfördelar inom maskininlärning. Den konventionella skepsisen har varit att inmatning av data från den verkliga världen, som restaurangrecensioner eller RNA-sekvenser, i kvantsuperpositionstillstånd krävde orimligt stora minneskapaciteter. Teamets lösning streamar data i mindre omgångar och bearbetar den utan fullständig förlagring, ungefär som att titta på en film online i stället för att ladda ner den först. Haimeng Zhao vid California Institute of Technology noterar att detta ger en minnesfördel som är så enorm att 300 logiska kvantbitar skulle överträffa en klassisk dator som använder varenda atom i det observerbara universumet. Huang betonar maskininlärningens allestädes närvaro: ”Maskininlärning används verkligen överallt inom vetenskap, teknik och även i vardagslivet. I en värld där vi kan bygga denna [kvantdator-]arkitektur tror jag att den kan tillämpas varhelst det finns massiva datamängder tillgängliga.” Experter hyllar innovationen men manar till försiktighet. Adrián Pérez-Salinas vid ETH Zürich kallar den lovande för att mata kvantmaskiner bit för bit, men understryker vikten av att testa metoden mot ”dekvantisering”, där kvantalgoritmer förlorar sitt försprång på klassisk hårdvara. Vedran Dunjko vid Leidens universitet ser att den kan passa för datatunga experiment som Large Hadron Collider, även om den inte lämpar sig för alla typer av AI-arbetsbelastningar. Forskarna planerar att bredda användbara algoritmer och optimera kvanthårdvarans hastighet. Ett system med 60 logiska kvantbitar verkar genomförbart till 2030 och erbjuder tidiga fördelar för AI-bearbetning av stordata.