Kvantmetod lovar lyft för AI-datorer

Forskare har utvecklat en matematisk metod som visar att kvantdatorer effektivt kan bearbeta stora datamängder för AI-uppgifter. Genom att ladda data i omgångar, likt streaming, undviker metoden behovet av massivt minne. En maskin med bara 60 logiska kvantbitar skulle kunna överträffa klassiska system innan decenniets slut.

Hsin-Yuan Huang vid kvantföretaget Oratomic och hans kollegor menar att deras arbete lägger grunden för kvantfördelar inom maskininlärning. Den konventionella skepsisen har varit att inmatning av data från den verkliga världen, som restaurangrecensioner eller RNA-sekvenser, i kvantsuperpositionstillstånd krävde orimligt stora minneskapaciteter. Teamets lösning streamar data i mindre omgångar och bearbetar den utan fullständig förlagring, ungefär som att titta på en film online i stället för att ladda ner den först. Haimeng Zhao vid California Institute of Technology noterar att detta ger en minnesfördel som är så enorm att 300 logiska kvantbitar skulle överträffa en klassisk dator som använder varenda atom i det observerbara universumet. Huang betonar maskininlärningens allestädes närvaro: ”Maskininlärning används verkligen överallt inom vetenskap, teknik och även i vardagslivet. I en värld där vi kan bygga denna [kvantdator-]arkitektur tror jag att den kan tillämpas varhelst det finns massiva datamängder tillgängliga.” Experter hyllar innovationen men manar till försiktighet. Adrián Pérez-Salinas vid ETH Zürich kallar den lovande för att mata kvantmaskiner bit för bit, men understryker vikten av att testa metoden mot ”dekvantisering”, där kvantalgoritmer förlorar sitt försprång på klassisk hårdvara. Vedran Dunjko vid Leidens universitet ser att den kan passa för datatunga experiment som Large Hadron Collider, även om den inte lämpar sig för alla typer av AI-arbetsbelastningar. Forskarna planerar att bredda användbara algoritmer och optimera kvanthårdvarans hastighet. Ett system med 60 logiska kvantbitar verkar genomförbart till 2030 och erbjuder tidiga fördelar för AI-bearbetning av stordata.

Relaterade artiklar

Quantum computers face significant challenges from errors that limit their usefulness, but recent breakthroughs in error correction are offering hope. Innovations involve creating logical qubits from fewer physical ones and enhancing reliability through entanglement and additional protections. Experts describe this as an exciting time where theory and practice are converging.

Rapporterad av AI

Researchers have reduced the quantum computing power required to break the widely used RSA encryption algorithm by a factor of ten, to about 100,000 qubits. This advancement builds on prior work and highlights growing vulnerabilities in current security systems. However, significant engineering challenges persist in building such machines.

Scientists in Australia have developed the largest quantum simulator to date, using 15,000 qubits to model exotic quantum materials. This device, known as Quantum Twins, could help optimize superconductors and other advanced substances. Built by embedding phosphorus atoms in silicon chips, it offers unprecedented control over electron properties.

Rapporterad av AI

Scientists have identified a method to create multiple copies of quantum information by encrypting them with a one-time decryption key, sidestepping the no-cloning theorem. This approach, developed by Achim Kempf and colleagues at the University of Waterloo, was tested on an IBM quantum processor. The technique could enhance redundancy in quantum computing and storage systems.

Building on 2026 qubit reductions like Iceberg Quantum's qLDPC breakthrough, recent studies project quantum computers cracking RSA-2048 and ECDLP-256 by 2029. Google and cybersecurity experts warn of imminent Q-Day, pushing post-quantum cryptography to avert a crisis worse than Y2K, with businesses ramping up quantum-safe migrations.

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj