Partikelfysiklaboratoriumet Cern har tillsammans med IBM använt sig av it-företagets kvantdator för att analysera data som de fått fram genom världens kraftfullaste partikelacceleratoranläggning, Large Hadron Collider, rapporterar Zdnet.

Experimentet kördes genom kvantsimulatorer i form av Google Tensorflow Quantum, IBM Quantum och Amazon Braket medan ett hårdvaruexperimentet kördes på IBM:s egen kvantdator som använde 15 kvantbitar och ett 100-event dataset.

Samarbetet beskrivs som framgångsrikt och i en ny rapport konstaterar IBM:s forskare att kvantalgoritmer kan användas för att förstå data från LHC. Något som innebär att framtida kvantdatorer kan användas för att stärka Cerns forskningsarbete. Rapporten har ännu inte granskats av en tredjepart.

En kvantdators maskininlärningsalgoritm skulle exempelvis kunna gå igenom LHC:s rådata och upptäcka Higgsbosonens beteende där klassiska datorer kanske inte skulle se något alls. 

Higgsbosonen (även känd som Higgspartikeln) är en elementarpartikel i partikelfysikens standardmodell och är en komponent i universums higgsfält som gör att partiklar har massa. Higgsbosonen påvisades av Cern första gången 4 juli 2012 och är central för att förstå hur universum är uppbyggt.

Än så länge har dock kvantdatorer för få kvantbitar för att göra användbara beräkningar. Kvantbitarna är också för känsliga vilket gör att felberäkningar kan förekomma. Likväl tror IBM och Cern är tekniken kommer bli användbar inom en snar framtid.

Läs också: Cern vill bygga 100 kilometer lång partikelaccelerator