prof. Konrad Banaszek prof. Konrad Banaszek mat. pr.
Struktura

FNP prezentuje: Konrad Banaszek o drugiej rewolucji kwantowej

Więcej o najnowszych wynikach badań z polskich laboratoriów w publikacji pt. „Nauka w czasach przemian. Jak badania finansowane z Funduszy Europejskich pomagają chronić nas przed globalnymi zagrożeniami i wykorzystywać historyczne szanse”: www.fnp.org.pl.||| Więcej o najnowszych wynikach badań z polskich laboratoriów w publikacji pt. „Nauka w czasach przemian. Jak badania finansowane z Funduszy Europejskich pomagają chronić nas przed globalnymi zagrożeniami i wykorzystywać historyczne szanse”: www.fnp.org.pl.
|||||| |||
Pierwsza rewolucja kwantowa przyniosła nam lasery i mikroprocesory. Druga może dać jeszcze więcej, bo możliwości komputerów, łączności i czujników rosną. W ścisłej czołówce naukowców zajmujących się technologiami kwantowymi jest prof. Konrad Banaszek, dyrektor Centrum Optycznych Technologii Kwantowych na UW, placówki, która powstała dzięki współfinansowaniu z unijnych środków pochodzących z programu Międzynarodowe Agendy Badawcze Fundacji na rzecz Nauki Polskiej.
Konrad Banaszekmat. pr.Konrad Banaszek
Prof. Konrad Banaszek, dyrektor Centrum Optycznych Technologii Kwantowych na Uniwersytecie Warszawskim i autor ponad stu artykułów naukowych. Jest koordynatorem naukowym europejskiej sieci badawczej QuantERA i współzałożycielem spółki Quantum Optical Technologies. W listopadzie 2022 r. w uznaniu osiągnięć naukowych został wybrany Fellow Member międzynarodowego towarzystwa naukowego Optica (d. Amerykańskie Towarzystwo Optyczne).


Tegoroczną Nagrodę Nobla z fizyki przyznano za badania nad splątaniem kwantowym. Jeszcze kilkanaście lat temu to zjawisko wydawało się tylko ciekawostką. Teraz technologie oparte na zjawiskach kwantowych, takie jak kwantowa kryptografia, łączność czy czujniki, są o krok od wejścia na rynek.
Ten Nobel przyznano za badania podstawowe, ale myślę, że na ten wybór miały wpływ perspektywy technologiczne. Splątaniem kwantowym i jego praktycznym wykorzystaniem zajmujemy się w Polsce co najmniej od 20 lat. Pierwsze doświadczenia z optycznym splątaniem kwantowym robiliśmy w Toruniu na Uniwersytecie Mikołaja Kopernika w Krajowym Laboratorium Fizyki Atomowej, Molekularnej i Optycznej (FAMO), które zostało utworzone w 2002 r., a pierwsze publikacje naukowe mieliśmy już dwa lata później. Mamy więc spore doświadczenie.

W tej dziedzinie Polacy są w światowej czołówce.
Polska zawsze była mocna w naukach teoretycznych, w matematyce czy fizyce teoretycznej. To dało bardzo solidne podstawy, by zająć się informatyką kwantową. Ośrodek toruński był silny, jeśli chodzi o matematyczne podstawy fizyki kwantowej i tam powstało wiele ważnych koncepcji, zanim jeszcze zaczęto rozważać ich zastosowanie w informatyce kwantowej. Przez wiele lat chronicznym problemem w Polsce było jednak niedofinansowanie badań doświadczalnych, bo aparatura kosztuje. To zaczęło się zmieniać pod koniec lat 90., czego pierwszą jaskółką było stworzenie Krajowego Laboratorium FAMO w Toruniu. Dziś, jeśli chodzi o laboratoria w zdecydowanej większości krajowych ośrodków akademickich, to nie mamy się czego wstydzić. Mamy potencjał, aby prowadzić badania na takim samym poziomie jak zespoły z Europy Zachodniej, USA czy Chin. Oczywiście konieczna jest regularna modernizacja aparatury i zapewnienie odpowiedniej obsługi.

Laika wszystkie te osiągnięcia – na przykład fakt, że potrafimy manipulować pojedynczymi cząstkami elementarnymi – mocno zaskakują. Wydaje mu się, że jest to sukces, który pojawił się znikąd…
To rezultat metodycznego wysiłku, który naukowcy podejmowali przez dziesięciolecia. To, co dziś robimy, opiera się na wcześniejszych pracach. Fizycy uczyli się tego, jak kontrolować pojedyncze układy kwantowe, fotony czy atomy i była to mozolna praca, która przynosiła kolejne spektakularne wyniki.

I jakie będą konsekwencje tego wysiłku? Jak gwałtowny skok technologiczny może nas czekać dzięki temu?
Łączność kwantowa staje się stosunkowo dojrzała od strony fizycznej, ale w zakresie całych systemów telekomunikacyjnych sytuacja jest bardziej skomplikowana. Rozumiemy dobrze zjawiska fizyczne, które chcemy wykorzystać, ale pełne systemy są niezwykle złożone i ważne jest ich harmonijne działanie na wszystkich poziomach. Z perspektywy użytkownika liczy się przede wszystkim sprawność, bezpieczeństwo i niezawodność. I to właśnie jest dla nas istotne: wdrożenie w telekomunikacji kwantowych protokołów w taki sposób, by wzmacniały bezpieczeństwo, nie tworząc przy tym nowych luk. To coś, nad czym wspólnie pracować powinni zarówno fizycy, jak i inżynierowie zajmujący się systemami łączności optycznej i cyberbezpieczeństwem.

Mamy do czynienia z kilkoma polami technologii, które łącznie nazywamy kwantowymi, od telekomunikacji, przez czujniki kwantowe, komputery kwantowe czy kwantową kryptografię. Jak dalece postęp w każdej z tych dziedzin napędza pozostałe?
Efekty fizyczne, które występują w każdej z tych dziedzin, są podobne. Musimy nauczyć się, jak kontrolować pojedyncze atomy, fotony czy też stany kwantowe światła lub materii. W przypadku komputerów kwantowych problemem jest skalowalność – chcielibyśmy mieć bardzo dużo współpracujących ze sobą, identycznych układów działających niemal bez zakłóceń. Łączność kwantowa pierwszej generacji jest nieco prostsza, bo tam wystarczy przesyłać pojedyncze układy kwantowe, na przykład w celu generacji klucza kryptograficznego. Podobnie ma się sprawa w przypadku sensorów, gdzie pojedynczy układ kwantowy może dać nam wcześniej nieosiągalną czułość. W przyszłości te dziedziny będą się zbiegać. Możemy mieć sieci kwantowych sensorów czy kwantowych komputerów połączonych kwantowym internetem. Są to jednak wizje długofalowe.

W tej chwili wydaje się, że najdalej jesteśmy od praktycznych komputerów kwantowych.
Od strony badawczej sprawa jest otwarta. Inżynierowie, którzy zajmują się budowaniem komputerów kwantowych, zdają sobie sprawę, że są one jeszcze niedoskonałe, więc liczą na fachowców od oprogramowania, że to oni wymyślą algorytmy kwantowe, które, uruchomione nawet na niedoskonałych urządzeniach, będą działały lepiej od konwencjonalnych metod, czyli osiągną tak zwaną przewagę kwantową. Specjaliści od algorytmów mówią z kolei, że potrzebna jest dalsza redukcja zakłóceń w budowanych obecnie urządzeniach.

Na obecnym etapie ważne jest to, żeby nie zamykać sobie żadnej drogi i poszukiwać równolegle różnych potencjalnych rozwiązań, bo zawsze może z tego wyniknąć coś ciekawego, np. podejście do obliczeń inne od tego, które stosowane jest w komputerach konwencjonalnych. W ten sposób powstał cały obszar symulatorów kwantowych, które, zamiast wykonywać po kolei serię instrukcji, opierają się na stworzeniu złożonego układu, który będzie modelował skomplikowany obiekt trudny do symulowania na komputerze klasycznym.

Jak wygląda praca w kierowanym przez pana ośrodku? Co jest najbardziej ekscytującym polem badań?
Nasze centrum obejmuje w tej chwili pięć zespołów badawczych. Jestem dyrektorem całego centrum i prowadzę jeden z tych zespołów. Wszyscy współpracujemy ze sobą, ale zespoły są autonomiczne, jeśli chodzi o badania naukowe.

Kilka lat temu zaczęliśmy się zajmować łącznością optyczną na bardzo dużych odległościach, na przykład pomiędzy Ziemią i Marsem czy innymi planetami Układu Słonecznego. Elektronika i technologia sensorów rozwinęły się w ostatnich latach w takim tempie, że sondy kosmiczne mogą zabierać ze sobą pakiety czujników zdolnych do zbierania megabajtów danych na sekundę. Wąskim gardłem jest jednak ściągnięcie tych danych na Ziemię. Większość komunikacji z misjami kosmicznymi odbywa się za pomocą fal radiowych, ale nie można ich zbyt szybko modulować, ulegają one także dyfrakcji, czyli rozchodzą się w różnych kierunkach i tylko niewielki ułamek promieniowania dociera na Ziemię. Rozwiązaniem tego problemu mogłoby być przejście z częstotliwości radiowych na optyczne. To pozwoliłoby na dużo lepsze ukierunkowanie wiązki, a także zakodowanie w niej dużo większej ilości informacji. To bardzo obiecujące pole. Mamy już na koncie kilka prezentacji na konferencjach organizowanych przez agencje kosmiczne i rozmowy z inżynierami przygotowującymi kolejne misje kosmiczne.

Kosmos to zawsze świetny, technologiczny poligon. Potem takie technologie zazwyczaj trafiają do zastosowania na Ziemi.
Można się zastanowić, czy podobne rozwiązania nie mogłyby znaleźć się na satelitach, które nie dysponują zbyt wielką mocą. Zastąpienie w nich komunikacji radiowej optyczną mogłoby być bardzo cenne. Można powiedzieć, że satelity stają się naszą specjalnością, bo zajmujemy się w tej chwili także kryptografią kwantową w kontekście łączności satelitarnej. To bardzo stymulujące pole, bo musimy stawiać czoła ograniczeniom technologicznym i poszukiwać realnych rozwiązań. Od paru lat daje nam to bardzo dużą satysfakcję.

Czyli dochodzi do sprzężenia zwrotnego między technologią a nauką podstawową?
To jest w tej chwili najciekawsze. Jeżeli chcemy stosować w praktyce te rozwiązania, trzeba zadbać, żeby były stabilne i wiarygodne.

Czym zajmują się pozostałe wspomniane przez pana zespoły?
Laboratorium Jana Kołodyńskiego bada metrologię kwantową i sensory kwantowe. Pracuje nad tym, jak kontrolować układy fizyczne, by były jak najbardziej czułe. Alexander Streltsov zajmuje się podstawami technologii kwantowych, rozwija bardzo ogólne spojrzenie na to, jakie zasoby są potrzebne na przykład do realizacji danego protokołu kwantowego. Stworzone przez Wojciecha Wasilewskiego laboratorium zajmuje się pamięciami kwantowymi i mają one rekordowe parametry, jeżeli chodzi o to, ile informacji kwantowej potrafią przechować. To nie są jednak tylko pamięci kwantowe, ale też procesory kwantowe, które tę informację kwantową potrafią przetwarzać. Ten kierunek badań rozwija Michał Parniak wraz ze swoim zespołem. W ich eksperymentach informacja niesiona np. przez wiązki światła jest przekształcana na sposoby, które są nieosiągalne przy użyciu konwencjonalnych technik.

Jaką rolę w waszych badaniach odgrywają europejskie programy, w ramach których działacie?
Nasze centrum jest finansowane ze środków z programu Inteligentny Rozwój (POIR) w ramach programu Międzynarodowe Agendy Badawcze Fundacji na rzecz Nauki Polskiej. Współpracuję też z Narodowym Centrum Nauki, agencją finansującą w Polsce badania podstawowe i koordynującą europejską sieć QuantERA, w ramach której ponad 30 agencji wspólnie organizuje konkursy na projekty naukowe z zakresu technologii kwantowych. Mam przyjemność być koordynatorem naukowym tego przedsięwzięcia. QuantERA przeprowadziła trzy konkursy w 2017, 2019 i 2021 r., a na finansowanie projektów przeznaczono łącznie kilkadziesiąt milionów euro.

Jak istotne jest to, że badania nad technologiami kwantowymi stały się jednym z priorytetów Unii Europejskiej?
To flagowa europejska inicjatywa, prowadzona już od kilku lat. Coraz większą rolę odgrywa w niej przemysł, choć rzecz jasna nie kieruje nim ciekawość świata, lecz uzyskanie przewagi konkurencyjnej i chęć zarobku na nowych technologiach. To zaczyna być bardzo twarda gra, w której uwypuklają się interesy narodowe. Musimy jako Polska się w niej odnaleźć.

Gra o duże pieniądze. Z niektórych raportów wynika, że rynek technologii kwantowych w ciągu 10 lat ma być wart 50 mld dolarów.
Fundacja na rzecz Nauki Polskiej stworzyła bardzo dobry system motywowania do poszukiwania praktycznych zastosowań badań. Zachęca do generowania własności intelektualnej oraz poszukiwania możliwości współpracy z przemysłem. To bardzo cenna kombinacja. Mamy w kraju potencjał, aby tworzyć rozwiązania konkurencyjne w skali światowej. Potrzebne jest opracowanie mechanizmów, które zapewnią, aby w jak największym stopniu korzystała z nich nasza gospodarka.

Program Międzynarodowe Agendy Badawcze jest realizowany przez Fundację na rzecz Nauki Polskiej ze środków funduszy strukturalnych w ramach Programu Operacyjnego Inteligentny Rozwój (POIR) 2014–2020, Działanie 4.3. Międzynarodowe Agendy Badawcze.

Partnerzy projektu|||Partnerzy projektu