L'origen de la computació quàntica es remunta a principis del segle XX, quan Planck i Einstein van proposar que la llum no és una ona contínua, sinó que està dividida en petits paquets o quants de llum. Aquesta idea, en aparença simple, servia per a resoldre un problema anomenat la "catàstrofe ultraviolada", que va ser desenvolupat i va derivar en dues conclusions clau per a aquesta tecnologia: la superposició d'estats i l'entrellaçament. Dos conceptes sense els quals els ordinadors quàntics probablement no serien més que una curiositat científica.
La pròxima frontera en computació
La computació quàntica és fonamentalment diferent de la computació a la qual estem acostumats. A escala tècnica, la computació actual treballa en bits i la quàntica amb qubits (bits quàntics). La diferència entre tots dos conceptes és que el bit només pot treballar amb resultats binaris (0 i 1), mentre que els electrons del qubit, aprofitant les propietats de la mecànica quàntica, poden ser tots dos valors alhora, la qual cosa permet tenir ordinadors moltíssim més ràpids.
En un moment en què es generen immenses quantitats de dades, necessitem més que mai disposar de sistemes capaços de processar a una major velocitat. És aquí on entra la computació quàntica, de la qual s'espera que estableixi nous estàndards sobre com es calculen i processen les dades, afectant significativament la societat. Gràcies a aquesta tecnologia es podran realitzar càlculs complexos, que requeririen milions d'anys amb els ordinadors actuals, en minuts o hores.
Fins ara, la computació quàntica ha estat un camp que no s'ha aplicat molt en el món real, però podria arribar a deixar completament obsolets molts sistemes de xifrat actual, entre altres aplicacions. De fet, segons Fujitsu, aquest 2019 veurem l'enlairament de la tecnologia quàntica per a solucionar una sèrie de problemes que amb arquitectures tradicionals serien inviables, com el descobriment de medicaments i materials, o l'optimització del risc en serveis bancaris davant una possible crisi financera.
La carrera cap a la "computació del demà"
Les grans tecnològiques fa anys que investiguen el que es considera la "computació del demà". Fa quasi un parell de mesos us vam explicar que IBM presentava la primera computadora quàntica de 20 qubits, coneguda com a Q System One i dissenyada per a l'ús comercial. D'altra banda, Microsoft també va anunciar que, amb investigadors de la Universitat de Copenhaguen, obria les portes d'un nou laboratori de materials quàntics per a construir el primer "ordinador quàntic escalable" del món.
Així mateix, fa uns dies Intel presentava un crioanalizador destinat a realitzar proves per a accelerar el desenvolupament de la computació quàntica. La particularitat d'aquest llançament és que permet provar qubits en oblies de 300 mm a temperatures de tan sols uns kèlvins, convertint-lo en la primera eina de proves de la seva classe per a computació quàntica. Google, per la seva part, també disposa d'un projecte de computació quàntica universal anomenat Bristlecone, amb el qual espera aconseguir la supremacia quàntica, i utilitzar-lo com a banc de proves per a investigar l'escalabilitat dels qubits i les taxes d'error, així com en aplicacions com la simulació, optimització i aprenentatge automàtic.
Reptes actuals
El principal problema al qual s'enfronta la computació quàntica és la construcció i desenvolupament d'ordinadors capacitats amb aquesta tecnologia, ja que funcionen a una temperatura pròxima al zero absolut (-273 °C), i el suport i els components per a poder llegir i manipular els qubits no són gens senzills. El fet que els algoritmes i codis per a ordinadors clàssics no es puguin utilitzar en ordinadors quàntics també és un dels grans problemes als quals s'enfronten aquests sistemes.
Per a aquells interessats en aprofundir més en aquesta tecnologia, recomanem el llibre "Quàntica: El teu futur en joc" de José Ignacio Latorre, un gran divulgador i expert en física quàntica que afirma que el s. XX ha estat "un segle quàntic".
Leave a comment