Door walmare: Door Anoniem: Interessante discussie met raakvlakken met dit topic:
https://www.security.nl/posting/679656/Hoe+komen+we+uit+de+Big+Tech+Informatie+Lockdown%3F
Waarom heb ik als ik lees over quantumcomputers toch altijd dat ongemakkelijke gevoel over het hele paradigma van de kwantummechanica. Volgens een bepaalde zienswijze binnen de kwantummechanica bestaan ten gevolge van het onzekerheidsprincipe deeltjes niet eens totdat er een waarneming plaatsvindt. Schrödingers kat, die door dit effect tegelijkertijd levend en dood zou zijn geweest.
Dat is niet waar. Deeltjes bestaan. Ze zijn alleen onbepaald. Of je weet de snelheid of de positie maar niet allebei te gelijk. De deeltjes zijn ook verstrengeld. Qubits maken daar gebruik van. Het is een bizarre wereld.
Relevant voor QC is meer dat deeltjes - voor meting - in een superpositie van verschillende toestanden verkeren, met een waarschijnlijkheid.
Die superpositie van toestanden heb je op quantumschaal - en niet op de schaal "kat" - en dat , en de vraag wanneer of waarom het quantumgedrag verdwijnt bij 'grotere' schaal is wat het gedachtenexperiment van Schrödinger's kat illustreert.
Het enkele radiactieve atoom gedraagt zich quantum - maar de kat, naar we normaal menen - niet. In de doos worden die twee gekoppeld.
Het is die superpositie van (veel) mogelijke toestanden die de basis van de quantumcomputer belooft .
Als het ene quantumdeeltje rechtsom tolt, dan weet je dat de verstrengelde deeltje de andere kant op draait op hetzelfde moment ook al zit er een afstand van lichtjaren tussen. De draaiinformatie lijkt dus sneller dan het licht te reizen en dat kan niet en toch is fenomeen waar de quantum computer gebruik van maakt met een experiment aangetoond.
Ik denk niet dat een betrouwbare quantum computer er in zit. Wij willen geen computeruitkomst uitgedrukt in waarschijnlijkheden toch of wel?
We willen resultaat.
En het prettige van de cryptografische problemen waar QC een belofte voor vormt, is dat het antwoord _controleren_ makkelijk is.
Dat je RSA factoren met hoge waarschijnlijkheid krijgt - prima, even controleren _of_ ze de modulus ontbinden is snel en simpel.
We accepteren veel meer onzekerheden van computers : 'klassieke' algorithmen met chaotisch gedrag worden ook onvoorspelbaar (en onbruikbaar). We gebruiken wat er uit komt - *hopelijk* niet verder dan dat het resultaat nog bruikbaar is.
Matige modellen gevoerd met dubieuze data (kwaliteit en foutmarge onbekend) .
We kunnen van een getraind neuraal netwerk eigenlijk niet zeggen _hoe_ het z'n keuzes maakt - maar we gebruiken het resultaat .
(btw - je kunt niet zeggen dat de informatie van een deeltjespaar op afstand 'sneller dan het licht reist' . Dat suggereert dat je dit fenomeen zou kunnen gebruiken om informatie sneller dan het licht uit te wisselen.
Dat kan niet .
Je kunt alleen achteraf , beperkt door de lichtsnelheid, de twee metingen correleren en constateren dat de deeltjes gekoppeld waren/bleven.
Voor de liefhebber - dit is de EPR paradox :
https://en.wikipedia.org/wiki/EPR_paradox )