Problemem genomiki, a szerzej „multi-omiki”, analizującej zależności wśród tera- a nawet pentabajtów danych biologicznych jest zasobożerność, czasochłonność i konieczność upraszczania analiz kosztem ryzyka błędu w analizie. 

Badacze genomów, transkryptomów, proteomów i metabolomów zacierają więc ręce, słysząc o powstających kolejnych generacjach komputerów kwantowych. Jeżeli nie rozumiecie idei komputera kwantowego – uspokajamy Was. Mało kto ją dobrze rozumie. W dużym uproszczeniu jednak stany 0 i 1, zwane w klasycznych systemach obliczeniowych „bitem” zostają zastąpione przez dyskretne spektrum stanów kwantowych i ich prawdopodobieństw, czyli „kubit”. 

Daje to niemal nieskończoną moc obliczeniową, przy czym same obliczenia stają się grą prawdopodobieństw. Z powodu swojej niejednoznacznej natury obliczenia kwantowe raczej nie pozwolą użytkownikowi zagrać w Counter Strike’a, za to doskonale nadadzą się do analiz stochastycznych, takich jak przewidywanie pogody lub… no właśnie: analiza szans na wyleczenie lub progresję nowotworu, albo też ocena kandydatów na nowe leki. Możliwości są nieograniczone. 

Może więc receptą na problem nadmiaru danych biologicznych będzie właśnie rozwój technologii kwantowych? Są opinie zarówno entuzjastyczne jak i sceptyczne. Ale przyznajcie sami, że idea działa na wyobraźnię.

Informatyk pracujący przy zaawansowanym komputerze

Źródła: