Streszczenia Sprawozdania Fabuła

Urządzenia do optycznego przetwarzania sygnału fotonicznego. Kurs wykładowy z fotoniki od

V. Leach:

Dzień dobry. Kanał „Mediametria”, program „Cyber-med” i jego prezenterka Valeria Lich. Dziś naszym gościem jest Piotr Zelenkow, kandydat nauk medycznych, dyplomowany neurochirurg i Laureat Rządu Federacji Rosyjskiej. Dzień dobry, Piotrze.

P. Zelenkow:

Cześć.

V. Leach:

Obiecałeś dzisiaj opowiedzieć nam o fotonice w neurochirurgii. Co to jest? Jakie są jego funkcje i zalety?

P. Zelenkow:

Dzięki za zaproszenie. Tak, to temat, którym zajmuję się od wielu lat w naszym Centrum Neurochirurgii imienia Akademika N. N. Burdenki. Czym w ogóle jest fotonika? Fotonika to dziedzina wiedzy, gałąź fizyki wykorzystująca światło, czyli fotony światła. Światło jest stosowane w neurochirurgii od dłuższego czasu; jest to jeden z pierwszych obszarów chirurgii, w którym potrzebne były urządzenia oświetleniowe, aby zobaczyć subtelne struktury mózgu i rdzenia kręgowego, zobaczyć je lepiej, powodować mniej uszkodzeń i stwarzać mniejsze ryzyko pacjentowi. W związku z tym postęp nastąpił od prymitywnych lamp czołowych małej mocy, które stosowano na początku XX wieku, do nowoczesnych, bardzo skomplikowanych urządzeń, mikroskopów, które wykorzystują ukierunkowaną wiązkę światła o bardzo dużej mocy, która pozwala zobaczyć struktury głowy w głębinach bardzo wąskich przestrzeni mózg, naczynia krwionośne, cienkie nerwy i tak dalej.

Ale obecny etap rozwoju dotyczy oczywiście nie tylko oświetlenia struktur, ale wykorzystania fotonów światła, aby można było odróżnić patologię od zdrowej tkanki. Jest to jedno z głównych pytań w neurochirurgii, ponieważ wiele guzów mózgu rośnie w taki sposób, że nie ma granicy między zdrowym mózgiem a guzem. Jest to strefa rozproszona, w której czasami gołym okiem nie widać, gdzie znajdują się komórki nowotworowe, a gdzie normalne komórki.

Światło jest stosowane w neurochirurgii od dłuższego czasu; jest to jeden z pierwszych obszarów chirurgii, w którym potrzebne były urządzenia oświetleniowe, aby zobaczyć subtelne struktury mózgu i rdzenia kręgowego, zobaczyć je lepiej, powodować mniej uszkodzeń i stwarzać mniejsze ryzyko pacjentowi.

V. Leach:

I jak wtedy? Przecież guz nadal często trzeba usunąć?

P. Zelenkow:

Tak, oczywiście. I tutaj zawsze pojawia się pytanie o radykalność, to znaczy, jeśli usuniesz za mało, guz najprawdopodobniej zacznie dalej rosnąć, a jeśli usuniesz za dużo, utracisz jakąś ważną funkcję. Ponieważ praktycznie nie ma obszarów w mózgu, które nie są odpowiedzialne za tę czy inną funkcję. Jest więcej stref krytycznych i mniej krytycznych. Jednak kwestia pomiędzy radykalnym usunięciem a zachowaniem funkcji zawsze pozostaje bardzo ważna. I tu fotonika przyszła z pomocą neurochirurgii.

Temat ten zaczął się dość dawno temu, około 30 lat temu, a obecnie zyskał ogromny rozwój, kiedy wykorzystując metody fluorescencji i spektroskopii z wykorzystaniem laserów, o których wspomniałeś, potrafią rozróżnić, ocenić właściwości tkanek na podstawie ich światła charakterystyka, ich absorpcja światła i odrzucenie odpowiedniej odpowiedzi (jest to efekt fluorescencji) pozwala dokładniej rozróżnić podczas operacji, bezpośrednio w jej trakcie, czy jest to guz, czy zdrowa tkanka, czy też jakaś strefa przejściowa. Temat ten rozwija się w naszym instytucie od bardzo dawna, obecnie nosi on nazwę Narodowe Centrum Badań Medycznych Neurochirurgii imienia akademika N. N. Burdenki. Jest aktywnie wykorzystywany w mózgu i rdzeniu kręgowym.

V. Leach:

To już nie jest operacja, ale leczenie. Co zostało zrobione w celu diagnozy? Przecież dzisiaj jest wiele przypadków guzów mózgu. Jak można to zdiagnozować na wczesnym etapie? Na przykład radzimy raz w roku udać się do lekarza, poddać się badaniom lekarskim, jakiejś profilaktyce. Ale jeśli chodzi o guzy mózgu, nie poddajemy się raz w roku rezonansowi magnetycznemu ani tomografii komputerowej.

P. Zelenkow:

Oczywiście i pewnie dzięki Bogu, że nie jeździmy tam raz w roku. Tutaj odchodzimy nieco od fotoniki, ponieważ mówiliśmy o diagnostyce bezpośrednio podczas operacji, o czymś, co pomaga chirurgowi lepiej zobaczyć guz.

Jeśli chodzi o diagnostykę przedszpitalną i diagnostykę profilaktyczną. Aby zapobiec takiemu rozwojowi na wczesnym etapie, należy zwrócić uwagę na objawy: regularne bóle głowy, zaburzenia mowy i ruchy kończyn. I najczęściej przyczyną nie będą wcale nowotwory, ale zaburzenia naczyniowe i wysokie ciśnienie krwi. Jest to problem prawdziwie społeczny, ponieważ wysokie ciśnienie krwi i zaburzenia naczyniowe w mózgu są powszechnym problemem, który dotyka prawie każdego, i tutaj oczywiście należy monitorować swój ogólny stan zdrowia i ciśnienie krwi. A jeśli pojawią się jakiekolwiek objawy neurologiczne, warto udać się na badanie MRI.

Wysokie ciśnienie krwi i zaburzenia naczyniowe w mózgu to powszechny problem, który dotyka prawie każdego

V. Leach:

Jak szybko pacjent wraca do zdrowia po leczeniu? I czy wracają do zdrowia po operacji mózgu? Mówisz, że każda część mózgu jest za coś odpowiedzialna. W jakim stopniu dana osoba pozostaje sprawna?

P. Zelenkow:

Oczywiście obecnie poziom leczenia nowotworów mózgu i rdzenia kręgowego jest bardzo wysoki, znacznie lepszy niż 10-20 lat temu dzięki zastosowaniu różnych technik, takich jak monitoring elektrofizjologiczny, diagnostyka fluorescencyjna, które pozwalają na usunięcie guza, zachowując jednocześnie obszary istotne funkcjonalnie. A także nowe metody rehabilitacji, przywracanie ruchów, koordynacja, przekwalifikowanie pacjentów, techniki mowy, które pozwalają przywrócić nawet mowę. Można zatem powiedzieć, że wyniki są wyraźnie lepsze niż wcześniej.

V. Leach:

A leczyć za pomocą fotoniki, laserów, jakich specjalistów łączy, jakie obszary?

P. Zelenkow:

Tak naprawdę my, neurochirurdzy, niewiele rozumiemy z fizyki. Jesteśmy na styku dwóch dziedzin: fizyki laserowej i neurochirurgii. Od dawna współpracujemy z Instytutem Fizyki Ogólnej im. Prochorowa, z laboratorium profesora Laschenova. Przez wiele lat on i jego personel byli na naszych salach operacyjnych i pomagali, konfigurowali sprzęt, dostarczali nam włókna laserowe, wyłączali ten laser i mówili nam, co bezpośrednio widzimy w ranie. Bo żeby zinterpretować wyniki tego sygnału trzeba mieć odpowiednie kwalifikacje i wiedzę.

V. Leach:

Co jest regulowane - szerokość belki, długość, głębokość, jak to się dzieje?

P. Zelenkow:

Widmo, długość absorpcji i tak dalej są regulowane. Szczerze mówiąc, nie bardzo to rozumiem. Niemniej jednak obecność inżynierów w tej sytuacji jest nadal konieczna. Chociaż wersje mikroskopów operacyjnych, które integrują możliwości diagnostyki fluorescencyjnej, istnieją już od dłuższego czasu. Oznacza to, że chirurg tak naprawdę nie potrzebuje żadnego zewnętrznego asystenta, wystarczy, że przełączy przycisk na mikroskopie i obejrzy obraz w trybie fluorescencyjnym.

V. Leach:

Czy mikroskopy są używane bezpośrednio podczas operacji?

P. Zelenkow:

Tak. To osobna kwestia, którą chciałbym jeszcze raz podkreślić. Można powiedzieć, że fotonika jako taka, czyli światło, jest stosowana w neurochirurgii już od dawna, w latach 50. i 60. zaczęto wykorzystywać mikroskopy do chirurgii mózgu. Wcześniej używano tylko reflektorów czołowych.

V. Leach:

W jaki sposób mikroskop jest zainstalowany na osobie?

P. Zelenkow:

To dość duża jednostka, która ma dużą podstawę wielkości dobrej lodówki, z której wychodzi ramię, na którym wisi właściwa głowica optyczna mikroskopu z uchwytami. Jest to bardzo wygodne dla neurochirurga. Oznacza to, że pomiędzy głową pacjenta lub potrzebną nam konstrukcją a samym chirurgiem znajduje się to urządzenie optyczne, które jest bardzo łatwe w regulacji i ma bardzo mocne skupione światło. Można uzyskać powiększenie do 10-15 razy, co oznacza, że ​​można zobaczyć najdrobniejsze struktury. Znajduje to zastosowanie nie tylko w neurochirurgii, ale także w chirurgii plastycznej, nawet w stomatologii, otorynolaryngologii i wszystkich innych dziedzinach, w których wymagana jest mikrochirurgia, czyli praca, w której ruchy mogą sięgać z precyzją ułamka milimetra.

V. Leach:

Czy coraz więcej diagnoz podlega obecnie leczeniu?

P. Zelenkow:

Tak. Jest całkowicie jasne, że guzy i patologie, które wcześniej uważano za nieuleczalne, a których chirurdzy po prostu nie podejmowali, teraz zaczęto operować.

V. Leach:

Który na przykład?

P. Zelenkow:

Dotyczy to guzów olbrzymich i guzów głębokich. Bezpośrednio moją specjalizacją jest chirurgia rdzenia kręgowego, chirurgia guzów śródrdzeniowych. Wcześniej taktyka polegała na tym, aby nie operować tak długo, jak to możliwe, ponieważ operacja rdzenia kręgowego zawsze wiąże się z jakimś niedoborem. Wszystkie obszary rdzenia kręgowego są jeszcze bardziej wrażliwe; jest on mniejszy, prawdopodobnie tak gruby jak mój mały palec. A jeśli w nim rozwinie się guz, najprawdopodobniej wpłynie to na wszystkie jego funkcje, a objawy danej osoby szybko się nasilą. I w tym przypadku każda operacja nieuchronnie prowadzi do wzrostu deficytu neurologicznego, ale dana osoba ma szansę, że w przyszłości dzięki skutecznej rehabilitacji uda mu się jeszcze wyzdrowieć, znów będzie chodzić i żyć pełnią życia. A więc to właśnie mikrochirurgia, zastosowanie mikroskopu, monitorowanie, spektroskopia i diagnostyka fluorescencyjna, to zestaw nowych technik, które pozwalają stawiać lepsze rokowania i naprawdę skutecznie działać w przypadkach, w których wcześniej woleli nie dotykać.

V. Leach:

Oznacza to, że dzisiaj ludzie mogą sobie pozwolić na dłuższe chodzenie?

P. Zelenkow:

Niewątpliwie. Jest to rzadka patologia jako taka. Jeśli porównamy na przykład z tym samym obszarem, kiedy leczymy przepuklinę krążka międzykręgowego, zwężenie kanału kręgowego, zdarza się to prawie każdemu. Myślę, że jeśli ty i ja wykonamy rezonans magnetyczny, na pewno wykryjemy przepukliny, wypukłości i tak dalej. A takich pacjentów jest znacznie więcej. Jeśli każdy będzie chciał zrobić rezonans magnetyczny, jestem pewien, że 10% osób napisze, że ma przepuklinę i potrzebuje konsultacji z neurochirurgiem i jakiejś operacji.

Jeśli każdy będzie chciał zrobić rezonans magnetyczny, jestem pewien, że 10% osób napisze, że ma przepuklinę i potrzebuje konsultacji z neurochirurgiem i jakiejś operacji.

V. Leach:

Czy guz jest nadal złośliwy czy łagodny?

P. Zelenkow:

W mózgu około połowa nowotworów ma charakter złośliwy: glejak wielopostaciowy i gwiaździak anaplastyczny, w rzeczywistości jest to ogromny problem, który wymagał wprowadzenia fotoniki jako jednego z możliwych sposobów jego rozwiązania, ponieważ jest to ogromna grupa pacjentów które są bardzo trudne w leczeniu. Pomimo połączenia chirurgii, chemioterapii, radioterapii i kilku nowych metod eksperymentalnych, wyniki ich leczenia wciąż nie są tak zadowalające. Oznacza to, że średni czas przeżycia wynosi około roku, nieco ponad rok. Chociaż, jak wynika z doświadczenia naszego ośrodka, jeśli pacjent otrzyma tego typu leczenie skojarzone, w odpowiednim czasie i będzie pod stałą kontrolą, wówczas jego życie może znacznie wydłużyć się do kilku, a czasem nawet kilkudziesięciu lat.

V. Leach:

Jeśli chodzi o kręgosłup, jakie są wskaźniki?

P. Zelenkow:

W przypadku kręgosłupa sytuacja jest nieco inna. W praktyce pacjenci z kręgosłupem stanowią niemal 50-75% całej praktyki neurochirurga. To bóle pleców, to różne zespoły uciskowe, w których ból promieniuje do kończyn, ramienia, nogi. Pracuję na oddziale specjalizującym się w schorzeniach kręgosłupa, rdzenia kręgowego i nerwów obwodowych, dlatego z tymi pacjentami spotykam się codziennie. A to już trochę inna dziedzina, bliska ortopedii, bo dużo pracujemy ze strukturami kostnymi, z aparatem stawowo-więzadłowym. I tutaj my, neurochirurdzy, stosujemy te same podejścia: mikrochirurgię, użycie mikroskopów, różne podejścia małoinwazyjne, mało traumatyczne, poprzez bardzo małe nacięcia. W ostatnich latach ludzie zaczęli aktywnie opanowywać endoskopię - jest to technika, która pozwala na jeszcze mniejsze uszkodzenie mięśni, tkanek i więzadeł.

V. Leach:

Czy łatwiej jest operować kręgosłup niż mózg?

P. Zelenkow:

Z jednej strony sama operacja kręgosłupa jest uważana za łatwiejszą niż operacja mózgu, ponieważ struktury są większe. Nie mówię teraz o rdzeniu kręgowym, mówię tylko o kościach i dyskach. W pewnym sensie uważa się to za operację. Przykładowo możemy pracować bez użycia mikroskopu (starymi technikami, przy dużych nacięciach, wykonywać duże dekompresje), w związku z tym możemy wykonać duże stabilizacje, zastosować konstrukcje stabilizujące (implanty tytanowe, śruby) lub możemy wykonać małe, delikatne operacje, podczas których uwalniamy jedynie struktury nerwowe bez uszkodzenia struktur podporowych. Oczywiście jest to zupełnie inne podejście, wymagające nieco innych kwalifikacji, gdyż wymaga doświadczenia, wizji anatomii w bardzo wąskich, ograniczonych przestrzeniach.

V. Leach:

Ilu pacjentów może w pełni chodzić i poruszać się po operacji kręgosłupa?

P. Zelenkow:

Zdecydowana większość. Klasyczny mit, że „nie operuj kręgosłupa – to paraliż” to już przeszłość, powiedziałbym.

V. Leach:

Z drugiej strony to i tak paraliżuje, ale tutaj jest chociaż jakaś szansa.

P. Zelenkow:

W niezwykle rzadkich sytuacjach pacjent z przepukliną może zostać sparaliżowany. Dzieje się tak, gdy wystąpią powikłania, zaburzenia naczyniowe lub gdy w trakcie operacji wystąpi powikłanie, podczas którego upośledzona zostanie funkcja obu kończyn dolnych. Ale z reguły w 99,9% przypadków tak się nie dzieje.

Naszymi głównymi zadaniami jest zwalczanie długotrwałych zespołów bólowych, gdyż często zdarza się, że ból pojawia się przed operacją, ale pozostaje po operacji. A czasami zdarza się, że pomimo tego, że zmniejszył się o 20-30-50%, pacjent nadal skupia się na tym zespole bólowym. Tych przeżyć nie da się spisać na straty. My, jako chirurdzy, musimy nadal się z nimi komunikować, wyjaśniać, znajdować inne przyczyny pojawienia się tego bólu. Czasem wypadną ciekawe rzeczy. Nasza konsultacja po raz pierwszy ujawnia choroby współistniejące, które nie były wcześniej zdiagnozowane.

Kręgosłup jest centralną osią ciała. I musimy ocenić nie tylko sam kręgosłup, ale także wszystko, co go otacza, i pacjenta jako całość, ponieważ wszyscy jesteśmy bardzo różni, a ból to bardziej stan umysłu niż rzecz morfologiczna, którą można dotknąć, zobaczyć za pomocą dowolnej metody. Oznacza to, że każdy ma swój własny ból.

W niezwykle rzadkich sytuacjach pacjent z przepukliną może zostać sparaliżowany. W 99,9% przypadków tak się nie dzieje.

V. Leach:

Mówisz o przepuklinach, ale co jeśli wrócimy do guza?

P. Zelenkow:

W przypadku nowotworów wszystko jest prostsze. To jest osobny temat. Zazwyczaj pacjenci z rdzeniem kręgowym lub guzem kręgosłupa przechodzą długą drogę, zanim zostaną zdiagnozowani. Na początku boli ich tylko kręgosłup, często nie robi się im żadnej dodatkowej diagnostyki, jedynie robi się prześwietlenie, które tak naprawdę nic nie wykazuje, a pacjenta kierowano na fizjoterapię i terapię witaminową, co z kolei pobudza dalszy wzrost guza.

V. Leach:

Ale mówisz, że nie zaleca się wykonywania corocznego rezonansu magnetycznego.

P. Zelenkow:

Prawda.

V. Leach:

Co wtedy zrobić?

P. Zelenkow:

Aby neurolodzy przyjrzeli się pacjentowi bardzo uważnie. Jeśli pacjenci widzą, że ich stan się pogarsza, zaczynają szukać sposobów, szukać innych lekarzy i sami udać się na rezonans magnetyczny. Pozytywnym aspektem naszej rosyjskiej rzeczywistości jest to, że za pieniądze można łatwo zrobić rezonans magnetyczny i nikt specjalnie nie będzie pytał o drogę, bo te ośrodki muszą jakoś przetrwać. A przepływ pacjentów jest dla nich ważny, a usługa MRI jest procedurą diagnostyczną, która jest całkowicie nieszkodliwa, dzięki czemu można ją wykonać spokojnie i bez recepty.

Inną kwestią jest interpretacja zdjęcia, ponieważ bardzo często przychodzą do nas ludzie, którzy nawet nie potrafią do końca wytłumaczyć swoich skarg, a my pytamy: „Po co w ogóle przyszliście?” „Ponieważ mój rezonans magnetyczny wykazał, że to przepuklina”. Dlatego zawsze wyjaśniam, że wniosek napisał specjalista, który studiował, jak opisać, gdzie są patologie, a gdzie jest norma. Ale nie była ona pisana dla pacjenta, który nie potrafi wyodrębnić tego, co tu jest istotne, a co nie, ale dla innego specjalisty (dla neurologa, neurochirurga), który potrafi ocenić, co jest ważne, istotne klinicznie, może nawet wymaga operacji, a co nie jest aż tak ważne.

Pozytywnym aspektem naszej rosyjskiej rzeczywistości jest to, że za pieniądze można łatwo zrobić rezonans magnetyczny i nikt specjalnie nie będzie pytał o drogę, bo te ośrodki muszą jakoś przetrwać.

V. Leach:

Z drugiej strony pacjent trafia do chirurga, ponieważ lekarz z kliniki wysłał go już na pływanie. Przecież mamy dość dużą przepaść pomiędzy lekarzami, którzy pracują w szpitalach, operują, leczą i klinikach, którzy najczęściej przepisują aspirynę i paracetamol na przeziębienia i choroby. Może kwalifikacje znacznie się różnią?

P. Zelenkow:

Nie do końca mogę się z Tobą zgodzić. Faktem jest, że ci, którzy siedzą w klinikach, praktycznie siedzą na linii ognia. Są w bardzo trudnej sytuacji – finansowej, ekonomicznej i społecznej. Z jednej strony jest on podmiotem świadczącym podstawową opiekę zdrowotną, czyli tym, co w cywilizowanym świecie nazywa się lekarzem pierwszego kontaktu, lekarzem rodzinnym. Tak naprawdę to właśnie ta osoba przyjmuje na siebie ciężar ciosu, przychodzą do niego ludzie z różnymi chorobami i ta osoba oczywiście musi być w dobrym stanie. Niestety w naszej rzeczywistości osoby te często mają niskie zarobki, niezbyt dobre wsparcie i niewiele możliwości w tej samej klinice.

V. Leach:

Nawet w płatnych klinikach kwalifikacje nie zawsze są potwierdzane. Chociaż odbiór może kosztować znacznie.

P. Zelenkow:

Nasz system kształcenia podyplomowego działa całkiem nieźle. Powiedziałbym, że kwalifikacje tych osób są nadal wysokie. Inną kwestią jest to, że mają bardzo mało czasu na zbadanie pacjenta, są zmuszeni pisać wiele różnych rzeczy. Są one prawnie ograniczone w określonych granicach, dlatego też powstają stereotypy, że jakość leczenia jest tam gorsza niż gdzie indziej. Myślę jednak, że jeśli w przychodni podstawowej zostaną stworzone dobre warunki przyjmowania, jakość będzie bardzo wysoka, a sami lekarze będą dobrze wykwalifikowani, co potwierdza sposób, w jaki przychodzą pacjenci z wielu klinik w regionie. Nie ma absolutnie żadnego związku pomiędzy tym, skąd pochodził pacjent, jak dobrze został przebadany i jakie zalecenia mu udzielono. Często po wypisaniu pacjentów do domu kontaktujemy się nawet telefonicznie z lokalnymi lekarzami. Ponownie w rzeczywistości w Moskwie można udać się na basen lub do ośrodka rehabilitacyjnego. Gdzieś na wsi czy w małym miasteczku nie ma basenu, dobrych przychodni sportowych i tak dalej. Jednak pacjent nadal potrzebuje rehabilitacji. Opracowujesz jakąś taktykę, próbujesz się dostosować, wyjaśniasz, co jest możliwe, a co nie.

Jeśli w przychodni podstawowej zostaną stworzone dobre warunki przyjęcia, jakość będzie bardzo wysoka, a sami lekarze będą dobrze wykwalifikowani.

V. Leach:

Ale istnieją też ćwiczenia domowe, prawda?

P. Zelenkow:

Oczywiście, że istnieją, ale wymaga to ogromnej wytrzymałości. Jednak moją główną radą jest pójście do trenera. Jeśli odpowiednio zmotywujesz i wszystko wyjaśnisz, wtedy ta osoba naprawdę o siebie zadba.

V. Leach:

Ile? Pacjenci ćwiczą przez miesiąc lub dwa, potem jest już naprawdę źle.

P. Zelenkow:

Mam wrażenie, że to nie wystarczy. Czasami efekt naszych operacji, szczególnie w przypadku przepuklin, jest tak dobry, to znaczy, że dana osoba była chora, potem wstała, chodziła i zaczęła cieszyć się życiem, że jego ogólny tryb życia trochę się zmienia, zaczyna pozwalać sobie na większą aktywność , bardziej o siebie dba, rozumie, że lepiej nie dopuścić, aby to się więcej powtórzyło. Co powinieneś w tym celu zrobić? Wzmocnij mięśnie pleców: pływaj, ćwicz.

V. Leach:

Kto jest Twoim pacjentem najczęściej?

P. Zelenkow:

Jak mówią: „Tutaj są uległe wszystkie grupy wiekowe”. Młodzi ludzie częściej doświadczają przepuklin, urazów i zespołów bólowych po prostu związanych ze skurczami mięśni. W kategorii osób starszych mówimy bardziej o długotrwałych zwężeniach kanału kręgowego, w których osteochondroza z powodu długotrwałego obciążenia elementy składowe rosną i ściskają zakończenia nerwowe. Częściej występuje to w kategorii osób powyżej 50. roku życia.

V. Leach:

A jeśli wrócimy do nowotworu, kto choruje częściej? I z jakich powodów?

P. Zelenkow:

Nowotwory mają oczywiście podłoże genetyczne, to znaczy istnieją pewne predyspozycje genetyczne, plus czynniki środowiskowe, a także może wystąpić narażenie na substancje chemiczne i promieniowanie. Ale jak wiemy, teraz są to awarie genów, czyli mechanizmy samozniszczenia w niektórych komórkach przestają działać i zamieniają się w komórkę nowotworową. Zwykle u każdej zdrowej osoby stale tworzy się pewna liczba komórek nowotworowych. Ale gdy tylko ta komórka zorientuje się, że stała się komórką nowotworową, rozpoczyna się w niej proces apoptozy, czyli samozniszczenia. Komórka ta po prostu umiera stopniowo i nie powoduje powstania nowotworu. Załamanie tego mechanizmu utrzymuje takie komórki przy życiu, aż w pewnym momencie pojawia się masa krytyczna i zaczyna rosnąć. Przyczyny tego nie są w pełni znane; istnieje bardzo duży wkład w mechanizmy molekularne, biologiczne i genetyczne. W przypadku wielu nowotworów mechanizmy te zostały bardzo dogłębnie zbadane, znanych jest wiele genów, w których może rozwinąć się guz, a nawet badania genetyczne pozwalają z góry założyć, że dana osoba jest w grupie wysokiego ryzyka i że musi co roku poddawać się rezonansowi magnetycznemu. roku i ściśle monitoruj, czy rozwinie się guz, czy nie.

Na podstawie badań genetycznych można z góry założyć, że dana osoba jest w grupie wysokiego ryzyka, że ​​musi co roku poddawać się rezonansowi magnetycznemu i uważnie monitorować, czy guz się rozwija, czy nie.

V. Leach:

Czy urazy wpływają na rozwój nowotworu?

P. Zelenkow:

To pytanie jest często zadawane, ale o ile wiem, nie ma tu bezpośredniego związku. Jak uczono nas w instytucie na pierwszych latach: „Zbierz historię rodziny: dowiedz się, czy twoi rodzice, dziadkowie, a może pradziadkowie mieli nowotwory”. Często sama natura sugeruje, że istnieją jakieś predyspozycje rodzinne, wówczas należy zwrócić większą uwagę na tego konkretnego pacjenta.

V. Leach:

Czy nowe metody leczenia skracają pobyt w szpitalu?

P. Zelenkow:

Tak. W tym miejscu możemy powrócić do naszej operacji kręgosłupa. Mogę powiedzieć, że wcześniej operacja stenozy kręgosłupa była dużą operacją, z dużym nacięciem, laminektomią, długim gojeniem, pacjent był zmuszony długo leżeć, podczas gdy ja miałem tylny zrost kręgosłupa, zrost kości i tak dalej . Teraz możemy wykonać dekompresję za pomocą endoskopu przez 5-milimetrowe nacięcie i wieczorem wypisać pacjenta do domu. Z reguły czekamy jeden dzień, aby po prostu ocenić stan, ale już następnego dnia możemy pacjenta wypisać. Technologia pozwala szybko opuścić szpital i wrócić do normalnego życia.

V. Leach:

Czy nasi lekarze kształcą się dziś w naszym kraju czy za granicą? Bo na niektórych specjalizacjach lekarze narzekają, że nie zapewniamy pełnego przeszkolenia.

P. Zelenkow:

Dużo podróżowałem za granicę do różnych klinik. Szkoliłem się i studiowałem w Niemczech i Francji i mogę powiedzieć, że w Rosji poziom medycyny jest ogólnie dość wysoki, szczególnie w dużych miastach: Moskwie, Petersburgu, Nowosybirsku i tak dalej. Duże ośrodki dysponują prawie tymi samymi technikami, które są dostępne w rozwiniętych krajach zachodnich. Być może jesteśmy opóźnieni właśnie w poziomie badań klinicznych, różnych nowych technik, całkowicie eksperymentalnych. W przypadku tego samego glejaka wielopostaciowego w Rosji jest znacznie mniej badań klinicznych, nowych metod, wykorzystujących nowe zasady fizyczne, chemiczne lub biologiczne, niż w tych samych klinikach uniwersyteckich w Niemczech. Ale poziom wyszkolenia można uzyskać w Rosji. Co więcej, przy obecnym kursie euro, lekarzom dość trudno jest podróżować gdzieś na własny koszt i studiować. Ale wśród moich kolegów jest wielu skupionych ludzi, przede wszystkim młodych, którzy chcą coś osiągnąć i dowiedzieć się więcej. Oczywiście radzę takim osobom, jeśli to możliwe, aby podróżowały, studiowały, oglądały i stosowały to w swojej praktyce.

Duże ośrodki dysponują prawie tymi samymi technikami, które są dostępne w rozwiniętych krajach zachodnich. Być może jesteśmy opóźnieni właśnie w poziomie badań klinicznych, różnych nowych technik, całkowicie eksperymentalnych.

V. Leach:

Co zyskałeś dla siebie i swojej praktyki z zagranicznych doświadczeń, czego nie miałeś tutaj?

P. Zelenkow:

Podczas rocznego stażu w Niemczech w 2008 roku zmieniłem nieco swoją filozofię dotyczącą chirurgii kręgosłupa: przepukliny, stenozy i tak dalej. Czyli zobaczyłem, że nie trzeba wykonywać wielkich operacji, wielkich dekompresji, stabilizacji przy użyciu dużej ilości metalu, że te same problemy można rozwiązać w bardzo mało traumatyczny, minimalnie inwazyjny sposób, stosując techniki mikrochirurgiczne, mikrodekompresję.

V. Leach:

To znaczy, że ci zagraniczni byli przed nami w tym okresie?

P. Zelenkow:

Również w Niemczech można znaleźć kliniki, które działają zarówno starymi, jak i nowymi metodami. Na przykład niedawno odbyłem staż kliniczny na Uniwersytecie Bordeaux I we Francji. I zdziwiło mnie, że byli tam ludzie o nieco innym podejściu. Czyli są to operacje bardziej otwarte, można powiedzieć, z których korzystaliśmy 10 lat temu, jednak są wprowadzone na rynek, zrobione bardzo dobrze, wszystko tam działa jak w zegarku, cały zespół wie, co i jak robić, i działają szybko i bardzo wydajnie. Oznacza to, że w rękach każdego chirurga metoda, w której jest dobry, jest dobra.

V. Leach:

Czy w związku z tym konieczne jest przeszkolenie całego zespołu?

P. Zelenkow:

Oczywiście cała brygada. Sam chirurg jest ważny, bo bezpośrednio pracuje, robi to własnymi rękami, jednak rola pielęgniarki sali operacyjnej, rola anestezjologa, rola radiologa – takiego pracownika niestety nie mamy na sali operacyjnej, ale jest on również wymagany, ponieważ pracujemy z promieniami rentgenowskimi, konwerterem elektronowo-optycznym. Oznacza to, że rola całej brygady jest niezwykle ważna. Operacji nie można przeprowadzić siłą i wiedzą jednego chirurga, dlatego konieczne jest, aby każdy uczestnik rozumiał cechy tej operacji, pewne niuanse, jej ruchy itp., a ponadto zespół musiał być dobrze skoordynowany. Chirurg, anestezjolog i pielęgniarka muszą być przy tym jednocześnie.

V. Leach:

Okazuje się, że po odbyciu stażu za granicą trzeba wrócić do domu i przeszkolić cały zespół?

P. Zelenkow:

Niewątpliwie. Podczas operacji czasami trzeba było siostrze wyjaśniać nieznane rzeczy. Ale nasz personel i nasze pielęgniarki, z którymi współpracujemy w Centrum Neurochirurgii im. Akademika N. N. Burdenki to wspaniali, bardzo wykwalifikowani specjaliści, dzięki którym nasze operacje są możliwe, bo bez nich, bez ich doświadczenia byłoby to niezwykle trudne.

V. Leach:

I jak w takim razie to doświadczenie jest przekazywane naszym kolegom, czy jest jakaś konkurencja i wszyscy siadają i myślą: „Ja nikogo nie będę uczyć, niech wszyscy przyjdą do mnie”.

P. Zelenkow:

Tutaj na pierwszy plan wysuwa się kolegialność. Można oczywiście siedzieć i nie przekazywać swojej wiedzy i bać się konkurencji. Ale życie i tak to przyniesie, a ci, którzy jej potrzebują, i tak otrzymają tę wiedzę. Dlatego zawsze kieruję się zasadą: lepiej, żebym to ja uczył, niż ktoś inny. Oznacza to, że nie ma sensu być psem w żłobie. Im więcej wiedzy przekażesz innym, młodym kolegom, mieszkańcom, tym bardziej zaprocentuje to później. Bo nadal będą przychodzić po poradę i przysyłać swoich pacjentów. Jest to proces korzystny dla obu stron. Wieloletnia tradycja lekarska - jeśli otrzymałeś swoją wiedzę od swojego nauczyciela, to musisz kłaniać się, dziękować i przekazywać tę wiedzę dalej, bo takie jest nasze prawo zawodowe.

Wieloletnia tradycja medyczna – jeśli otrzymałeś wiedzę od swojego nauczyciela, to musisz tę wiedzę kłaniać się, dziękować i przekazywać dalej.

V. Leach:

Co się dzisiaj dzieje ze specjalnością neurochirurgia, bo co roku wielu specjalistów kończy studia, więcej niż potrzeba, jak twierdzą niektórzy. Czy każdy pracuje w swojej specjalności, czy jest zatrudniony?

P. Zelenkow:

Mam wrażenie, że miejsc jest coraz mniej, to generalny trend w naszej służbie zdrowia, następuje pewna optymalizacja, a przychodni jest trochę mniej. Ale jednocześnie nie mogę powiedzieć, że zapotrzebowanie na neurochirurgów, szczególnie w mojej specjalności, spada. Moim zdaniem wręcz przeciwnie, nie jest zamknięty. A neurochirurgów i takich specjalistów w całym kraju brakuje, bo widzimy, że dużo osób przyjeżdża z regionów, a wielu z jakiegoś powodu nie chce aplikować lokalnie. Chociaż wydaje mi się, że jest to błędne przekonanie. Bo poziom kadetów jest dość wysoki, a ludzie całkiem nieźle radzą sobie z niektórymi rzeczami w terenie, z wyjątkiem tych najbardziej skomplikowanych, do których potrzebne jest doświadczenie. Dlatego uważam, że liczba neurochirurgów, podobnie jak innych specjalistów, powinna wzrosnąć.

I oto moja osobista opinia, że ​​​​ludzie powinni otrzymać w swoich miejscach zamieszkania wysoko wykwalifikowaną, zaawansowaną technologicznie pomoc, ponieważ dotarcie do Moskwy jest dla nich bardzo trudne, a czasem po prostu niemożliwe. Jestem zwolennikiem decentralizacji, aby ludzie mogli łatwo dotrzeć do tej pomocy i otrzymać ją w swoim miejscu zamieszkania, niedaleko miejsca zamieszkania. A jednocześnie bądźcie w kontakcie, w kontakcie z lekarzem, który z nimi pracował. Bo sprawa nie ogranicza się do jednej operacji, życie toczy się dalej, a pacjent potrzebuje kontroli, rehabilitacji i badań kontrolnych. Często zdarzają się nawroty, nowe problemy, kiedy przychodzą do mnie ludzie, którzy 10 lat temu mieli operację, z jakimiś nowymi pytaniami i problemami, zawsze starają się dotrzeć do tej samej osoby, z którą już mieli do czynienia, jeśli zakończyło się to sukcesem.

V. Leach:

Dziś wśród samych pacjentów panuje pewnego rodzaju propaganda na temat profilaktyki, prawidłowej diagnozy, gdzie, kiedy się udać?

P. Zelenkow:

Właściwie to wielka porażka.

V. Leach:

Bo zamierzają wprowadzić do szkół wiedzę finansową. Finanse są ważne, ale jeśli nie masz zdrowia, to jaki jest sens wszystkiego innego?

P. Zelenkow:

Nie wiedziałem, że w szkołach uczą wiedzy finansowej.

V. Leach:

W niektórych wprowadzają, łącznie z planami wprowadzenia dalszych.

P. Zelenkow:

Nauczanie umiejętności zdrowotnych byłoby prawdopodobnie nie mniej ważne niż umiejętności finansowych. Bo moim zdaniem dbanie o zdrowie jest priorytetem.

V. Leach:

Dzieci, począwszy od szkoły, czasem od przedszkola, zaczynają prowadzić nieco niezdrowy tryb życia: gadżety, dość siedzący tryb życia.

P. Zelenkow:

Tutaj zarówno tak, jak i nie. Siedzący tryb życia zdecydowanie jest zły. Oczywiście na pierwszym miejscu powinien być sport, aktywna mobilność. Jednak realia naszego życia są takie, że dzieci muszą się więcej uczyć, ilość informacji, ilość wiedzy rośnie. Gadżet to także nieunikniona konsekwencja postępu naukowo-technicznego.

V. Leach:

Czasem jest źle, rodzice wyrzucają swoje dzieci od komputerów. Jeśli wcześniej nie można było nas odwieźć do domu, teraz za pomocą tych gadżetów nie da się wypędzić dzieci z domu.

P. Zelenkow:

Tutaj zawsze powinieneś pomyśleć: po co dziecku gadżet? Nie patrz na powierzchowne przejawy problemu, ale na głębokie. Oznacza to, że dziecko potrzebuje gadżetu, gdy po prostu się nudzi i nie ma innych zajęć.

Dziecko potrzebuje gadżetu, gdy po prostu się nudzi i nie ma innych zajęć.

V. Leach:

Z drugiej strony nie chodzi ulicą, nie błąka się gdzieś.

P. Zelenkow:

Może iść do sekcji sportowej i tam poćwiczyć. I tu pytanie nie do dzieci, tylko do rodziców, jak organizują czas swojemu dziecku i co robią, żeby zapewnić mu ciekawe zajęcia, żeby nie było ochoty przesiedzieć całego dnia w tym gadżecie lub nie było nie ma możliwości, żeby po prostu mieć czas, bo jeśli będzie się uczył tu i tam, to nie będzie miał siły i czasu, aby siedzieć przez wiele godzin. Ale spędzenie czasu na telefonie lub tablecie tak naprawdę nie ma w tym nic złego, ponieważ jest to nowoczesna zabawka, taka sama, jaką kiedyś mieliśmy kostki, skakanki i tak dalej.

V. Leach:

Czy mogę mieć kilka życzeń dla Twoich współpracowników i pacjentów?

P. Zelenkow:

Życzę moim kolegom, aby nie ustawali w pragnieniu ciągłego uczenia się czegoś nowego, aby ten zapał nie przygasł, aby nie zakłócały go żadne wzloty i upadki życia ani okoliczności, aby istniała ciągła chęć doskonalenia metod, które wykorzystujecie własne, aby wzbogacić się o wiedzę.

Jeśli chodzi o pacjentów, to chcę zachować trzeźwość i nie uważać lekarzy za bogów w białych fartuchach, którzy wszystko wiedzą lepiej. Oznacza to, że podążaj trochę za swoją wewnętrzną intuicją i dowiedz się, czego potrzebujesz, a czego nie. Może to być takie niezwykłe zalecenie, szczególnie w rosyjskich realiach, ale mimo to zacznij brać większą odpowiedzialność za własne zdrowie. Lepiej zrozumieć, kształcić się, interesować się, czytać w Internecie o osobliwościach fizjologii i anatomii. Poznaj cechy własnej choroby i z tą wiedzą udaj się do lekarza. Trzeźwo oceniaj to, co jest ci zalecane. Wybierz lekarza, wybierz klinikę. Tak naprawdę wolność wyboru jest obecnie bardzo dobra. I prowadź zdrowy tryb życia.

V. Leach:

Wszystkiego najlepszego. Do następnego razu.

P. Zelenkow:

Komputer fotoniczny, Wi-Fi z żarówki, niewidzialne materiały, lasery bojowe i ultraczułe czujniki… To wszystko są owoce tej samej nauki – fotoniki. O tym, dlaczego światło stało się dziś przedmiotem badań prawie połowy fizyków na całym świecie, w naszym nowym materiale

Foto: GiroScience / Alamy / DIOMEDIA

Mysz w komorze oświetlana jest piekielnym zielonym światłem: laser potrzebuje kilku sekund, aby wniknąć głęboko w ciało i zeskanować je w najdrobniejszych szczegółach. Na ekranie pojawia się obraz splątanej plątaniny naczyń krwionośnych – o wielkości nawet najmniejszej, wynoszącej jedną dziesiątą milimetra. To mikroskop optoakustyczny - unikalne i jak dotąd jedyne urządzenie w Rosji. Zamienia sygnał optyczny na sygnał akustyczny i pozwala nie tylko „zobaczyć” naczynia krwionośne aż do mikrokapilar, ale także wykryć najmniejsze cząsteczki we krwi – na przykład pojedyncze komórki nowotworowe.

A jeśli zwiększysz intensywność promieniowania, komórka po prostu pęknie z powodu przegrzania i rozpadnie się. Czy rozumiesz? – mówi profesor Ildar Gabitov: „Niepotrzebne obiekty biologiczne możemy usunąć bezpośrednio z wnętrza organizmu, bez interwencji chirurgicznej i bez wpływu na cały organizm. Te możliwości jednoczesnej diagnozy i terapii są charakterystyczne dla nowego kierunku medycyny – teranostyki.

Znajdujemy się w Centrum Fotoniki i Materiałów Kwantowych Instytutu Naukowo-Technologicznego Skołkowo, w laboratorium biofizycznym. Podczas gdy naukowcy doskonalą swoje umiejętności na próbkach tkanek. Ale w najbliższej przyszłości Skoltech będzie miał pełnoprawne wiwarium badawcze.

Co ciekawe, pomysł połączenia technologii diagnostycznych i leczniczych wyszedł od laureata Nagrody Nobla, jednego z autorów amerykańskiej bomby atomowej, Richarda Feynmana. Przewidział powstanie autonomicznych instrumentów, które mogłyby wykonywać operacje chirurgiczne bezpośrednio na ciele człowieka. Feynman napisał: „…Byłoby ciekawie, gdybyś mógł połknąć chirurga. Włożyłbyś chirurga mechanicznego do naczyń krwionośnych, a on poszedłby do serca i tam „rozglądał się”…”. Być może wszystko to stanie się rzeczywistością w ciągu najbliższej dekady. Aby tego dokonać, musimy zrozumieć, w jaki sposób fotony oddziałują z materią w nanoskali i opracować metody kontrolowania światła.

Komputer wykonany ze światła

Światło jest podstawą wszystkiego” – dodaje profesor Gabitow w drodze do innego laboratorium. „Bez światła nie byłoby niczego: życie nie mogłoby powstać na Ziemi”. Nie byłoby współczesnej medycyny, nowoczesnego przemysłu, nie byłoby też całego współczesnego społeczeństwa z jego złożoną strukturą informacyjną, gospodarką i życiem codziennym. Nauka fotoniki, której szybki rozwój wynika z ogromnej liczby zastosowań, bada właściwości światła, oddziaływanie światła z materią oraz opracowuje metody kontrolowania strumieni świetlnych. Metody te łączy jedno – opierają się na manipulacji cząsteczkami światła – fotonami. (Foton jest kwantem promieniowania elektromagnetycznego; w przeciwieństwie do elektronu nie ma masy ani ładunku elektrycznego i porusza się w próżni z prędkością światła - "O".)

Dlaczego fotonika zaczęła się rozwijać tak szybko właśnie teraz? Wszystkie kraje rozwinięte, w tym Rosja, uznały go za obszar strategicznie ważny...

Wymieniłbym dwa główne czynniki – rozwój bazy instrumentalnej i rosnące potrzeby technologiczne, w tym infrastrukturę informatyczną współczesnego społeczeństwa. Dziś 30-40 procent światowych produktów powstaje przy użyciu fotoniki, a lista obszarów, w których odkrycia znajdą zastosowanie, rośnie z każdym dniem.

Technologia komputerowa pozostaje jedną z najgorętszych dziedzin. Już w 1965 roku założyciel Intela Gordon Moore sformułował prawo, zgodnie z którym liczba tranzystorów w chipie, a tym samym jego wydajność, podwaja się co dwa lata. Ale w 2016 roku jego prawo przestało działać: elektronika nie może się już tak szybko rozwijać. Czy zastąpią je technologie fotoniczne?

W niektórych obszarach technologia elektroniczna rzeczywiście osiągnęła pewne granice. Wszyscy jesteśmy świadkami szybkiego rozwoju urządzeń opartych na elektronice. Wiele osób ma w kieszeni smartfon – niesamowite urządzenie, którego funkcjonalność byłaby niewyobrażalna 20 lat temu. Jego wygląd dobrze ilustruje filozoficzne prawo przejścia od ilości do jakości. Gdybyśmy w czasach tzw. elektroniki dyskretnej próbowali zrobić coś na wzór smartfona, to odpowiednie urządzenie składałoby się z lamp radiowych, kondensatorów, rezystancji, indukcyjności itp. byłby wielkości bloku. Poza tym zużywałby niesamowitą ilość energii i nie byłby w stanie pracować z powodu ciągłych awarii wynikających z zawodności elementów. Dopiero pojawienie się wysoce zintegrowanych mikroukładów (zawierających dużą liczbę elementów - „O”) doprowadziło do powstania nowego typu urządzenia, które jest teraz dostępne dla każdego. Dalszy postęp w rozwoju elektroniki jest jednak w niektórych przypadkach niemożliwy.

- A jaki jest powód?

Po drugie, rozwój komputerów jest znacznie utrudniony przez brak materiałów mogących odprowadzać ciepło. Elementy w nowoczesnych urządzeniach stają się coraz mniejsze, a jest ich na tyle dużo, że są niezwykle ciasno upakowane, przez co nie da się uniknąć przegrzania. Obecnie tacy giganci branży jak Google i Facebook zmuszeni są lokować swoje „centra danych” (centra przetwarzania danych – „O”) w zimnym klimacie: za kołem podbiegunowym i na północy na platformach wiertniczych, gdzie jest dużo zimna woda . Największe centrum danych w Chinach znajduje się na wysokości 1065 m n.p.m. w Hohhot w Mongolii Wewnętrznej. Problem należy rozwiązać, ponieważ gęstość systemów przechowywania będzie tylko wzrastać. Umiejętność wymazania lub niszczenia czegoś całkowicie znika z kultury użytkowników, tak jak miało to miejsce 20 lat temu, gdy używaliśmy dyskietek lub dyskietek. Przestrzeń w chmurze wydaje się nieskończona.

Trzeci, najważniejszy powód, dla którego prędkość komputerów już nie wzrasta, jest związany z liczbą elektronów biorących udział w elementarnej operacji logicznej. Jedna operacja faktycznie obejmuje jeden elektron. Oznacza to, że dalej będziemy musieli użyć „połówki” lub „ćwiartki” elektronu, co jest absolutnym absurdem. Dlatego powstał pomysł, aby spróbować stworzyć wysoce zintegrowane urządzenia wykorzystujące fotony.

Czy będzie to podobne do przełomu technologicznego z lat 70., kiedy zamiast kabla miedzianego zaczęto stosować światłowód? W końcu to właśnie ta transformacja w istocie stworzyła nowoczesne społeczeństwo informacyjne.

Tak, światłowód – cienka nić przezroczystego materiału, przez który światło przechodzi z dużą prędkością – to niesamowity materiał. Wyobraź sobie: dziesiątki kilometrów światłowodu mają taką samą przezroczystość jak metr szyby okiennej! Dzięki temu możliwe jest wykorzystanie fotonów zamiast elektronów jako nośników informacji. Stworzenie technologii światłowodowej i wynalezienie wzmacniaczy optycznych doprowadziło do ogromnych przełomów w dziedzinie szybkiej transmisji. Teraz oczywiście istnieje pokusa wykorzystania technologii fotonicznych nie tylko do transmisji, ale także do przetwarzania informacji.

- Czy zatem w najbliższej przyszłości możliwe będzie stworzenie komputera fotonicznego?

Tutaj natrafiamy na problemy, które nie zostały jeszcze rozwiązane. Na przykład nowoczesny procesor to złożona konstrukcja zbudowana z drobnych elementów. Co roku firmy udoskonalają technologię: Apple i Samsung mają wymiary technologiczne około 7 nanometrów (czyli dziś można operować częściami tej wielkości i odpowiednio umieszczać wiele miniaturowych elementów. - „O”). Ale foton, jak wiemy, jest zarówno cząstką, jak i falą. Co więcej, długość tej fali stosowana we współczesnych systemach informatycznych wynosi 1550 nanometrów. Z grubsza rzecz biorąc, smartfon oparty na technologii fotonicznej byłby dziś około 200 razy większy niż to, do czego jesteśmy przyzwyczajeni.

Drugim nierozwiązanym problemem jest brak skutecznych metod kontroli strumieni fotonów. Wiadomo, że elektrony mają ładunek, więc można nimi manipulować za pomocą pola magnetycznego lub elektrycznego. Fotony są neutralne i nie da się tego zrobić. Dziś wszyscy spodziewają się pojawienia się nowych urządzeń hybrydowych, które łączyłyby fotonikę i elektronikę. Ośrodki badawcze kluczowych firm borykają się z problemem rozwiązania tego problemu.

Co to da? Niesamowite wykonanie? Czy ludzkość ma problemy, które należy rozwiązać przy takiej wydajności?

Oczywiście są takie zadania z zakresu modelowania klimatu, badań mózgu, problemów medycznych i biologicznych... Tę listę można ciągnąć długo. A co do nowych możliwości w życiu codziennym – wiesz, nie potrafię odpowiedzieć na to pytanie. Znów 20 lat temu nie mogliśmy sobie wyobrazić, jakie niesamowite możliwości miałyby smartfony. Dlatego fantazjowanie o tym, do jakiej funkcjonalności może doprowadzić stworzenie wysoce zintegrowanych urządzeń fotonicznych, jest zadaniem niewdzięcznym.

Nauka oświecenia

- Jak kosztowna jest nauka o fotonice? Jakich instalacji potrzebują naukowcy?

Trudno wyobrazić sobie gigantyczne projekty, takie jak zderzacz hadronów, w dziedzinie fotoniki – skala procesów jest tutaj mniejsza. Ale ta nauka jest bardzo kosztowna. Zazwyczaj centra fotoniczne pracujące z bardzo małymi obiektami strukturalnymi, przy użyciu nowych materiałów i nowych urządzeń, kosztują około 250–300 milionów dolarów.

- Gdzie koncentruje się dziś potencjał naukowy i gdzie najprawdopodobniej pojawią się nowe superurządzenia?

Coraz więcej badań jest przenoszonych i skupianych w dużych firmach. Kluczowy personel jest bardzo kosztowny, dlatego firmy zlecają część swoich badań pilotażowych i badań wysokiego ryzyka uniwersytetom, które zatrudniają wykwalifikowanych profesorów i dobrych studentów.

Jeśli mówimy o krajach, w USA robi się dużo pracy. Ponadto istnieją dobre ośrodki w Anglii, Niemczech, Japonii i Korei. Częściowo we Francji. Wiele pracy prowadzi się na uniwersytetach, takich jak Uniwersytet Rochester w Nowym Jorku. Jest to ogólnie miejsce znane wszystkim osobom związanym z optyką. Swoją pracę rozpoczynali tu tak znani giganci optyczni jak Kodak, Xerox, Bausch czy Lomb.

- Chin nie ma jeszcze na tej liście?

Chiny to inna historia. Na fotonikę przeznaczane są tam ogromne środki. Chińczycy już dominują w niektórych obszarach produkcji, ale nadal mogą być nieco w tyle w rozwoju nowych urządzeń. Chociaż gdzieś, na przykład w komunikacji kwantowej, Chińczycy wyprzedzili cały świat. Dosłownie we wrześniu tego roku, korzystając z satelity kwantowego QUESS, nawiązali łączność między Chinami a Austrią. To nie tylko pobiło rekord odległości, jaką przebył sygnał, ale także zapoczątkowało tworzenie łączy komunikacyjnych, których nie da się zhakować.

Chiny rozwijają się bardzo szybko, przyciągają nie tylko znaczne środki, ale także potencjał ludzki. Co ciekawe, chińscy studenci często po studiach nie zostają już w tych samych stanach, wracają do Chin, a następnie zostając kierownikami laboratoriów, zapraszają tam swoich profesorów.

Nie jest tajemnicą, że elektronika to dziedzina, w której Rosja, delikatnie mówiąc, pozostaje daleko w tyle: na cywilnym rynku mikroprocesorów mamy 100 proc. importu. Co można powiedzieć o rosyjskiej fotonice? Jest to szczególnie interesujące, ponieważ w BRICS odpowiadają za to Rosja i Indie, jako jeden z najbardziej obiecujących obszarów nauki.

Tak, Rosja i Indie najwyraźniej będą realizować wspólne programy w dziedzinie radiofotoniki. Ale ogólnie wybór, powiedziałbym, jest uzasadniony. Niewiele osób pamięta, że ​​w 1919 roku, u szczytu wojny domowej, decyzją rządu utworzono Państwowy Instytut Optyczny (GOI). W 1923 roku była to jedna z najlepiej wyposażonych instytucji naukowych na świecie.

Ogólnie rzecz biorąc, ta wspaniała instytucja rozwiązała wiele problemów. Powiedzmy, że przed pierwszą wojną światową Niemcy były głównym producentem optyki i gdzieś w środku wojny wprowadzono sankcje, jak się teraz mówi. Oznacza to, że urządzenia nie były już dostarczane do Rosji. Konieczne było stworzenie przemysłu, w którym rząd Indii odegrał ogromną rolę. Na jego podstawie w tym samym 1919 roku zbudowano 300-metrowy interferometr do obserwacji gwiazd. Tam zajmowali się zarówno naukami podstawowymi, jak i tworzeniem bazy technologicznej. Tutaj powstało wszystko - od mikroskopów medycznych po najbardziej skomplikowaną optykę wojskową i soczewki do statków kosmicznych.

Niestety, w szalonych latach 90. rząd Indii popadł w opłakany stan. Wielu specjalistów silną wolą zarządu zostało przyjętych do pracy w ITMO – Uniwersytecie Badawczym Informatyki, Mechaniki i Optyki w Petersburgu. Teraz jest to wyjątkowa instytucja edukacyjna, w której prowadzone są bardzo poważne prace naukowe. Cóż, poza tym nie można nie wspomnieć o Fizyce i Technologii, MISIS, Uniwersytecie. Baumana w Moskwie, Uniwersytet Nowosybirski. Teraz cały ten obszar się rozrósł, a decyzja rosyjskiego rządu o wsparciu rozwoju fotoniki w Rosji nie jest przypadkowa. Nawiasem mówiąc, Skoltech brał udział w tworzeniu tego programu. Wreszcie istnieje poważne zainteresowanie ze strony biznesu: istnieją organizacje, które wytwarzają konkurencyjne produkty do zastosowań cywilnych i wojskowych oraz opracowują nowe produkty.

Powrót do przyszłości

Proszę opowiedzieć nam o technologiach fotonicznych, które zmienią nasze codzienne życie. Na jakim etapie jest rozwój Li-Fi – Wi-Fi zasilanego fotonami?

Za twórcę tej technologii uważany jest niemiecki fizyk Harald Haas, który w 2011 roku zastosował lampę LED jako router. W warunkach laboratoryjnych osiągnął prędkość transferu na poziomie 224 Gb/s. Prędkość ta pozwala na pobranie np. 18 filmów po 1,5 GB każdy w ciągu 1 sekundy. Kolejnym ważnym niuansem jest tajemnica. Fale radiowe mogą przenikać przez ściany, co sprawia, że ​​komunikując się poprzez Wi-Fi, sygnał radiowy można łatwo odczytać, a dane można ukraść i odszyfrować. Modulowane światło nie dotrze daleko od pomieszczenia, znacznie trudniej jest w ukryciu przechwycić taki sygnał – jest on odbierany i transmitowany w linii wzroku. Jednak technologia ta jest wciąż daleka od wdrożenia. Technologie oparte na plazmonice są bardziej realistyczne.

-Czym oni są?

Plazmonika zaczęła się rozwijać dopiero około 15 lat temu, ale zjawiska z nią związane znane są już od bardzo dawna. Na przykład w starożytnym Egipcie do szkła dodawano metale i malowano je na różne kolory. A w British Museum znajduje się wyjątkowy kubek wykonany ze szkła, w którym rozpuszcza się złoto i tak w jednym świetle jest różowy, a w innym zielony. Rzecz w tym, jak się okazało, że złoto rozpuszczone w szkle nie rozpada się na cząsteczki, lecz gromadzi się w skupiska – wielkość cząstek wynosi około 50 nanometrów. Jeśli zostanie oświetlony światłem, długość fali jest większa niż rozmiar cząstki, a światło przechodzi wokół niej bez rozpraszania. Odkrycie to doprowadziło do stworzenia szerokiej gamy technologii, takich jak nanolasery o długości mniejszej niż długość fali i ultraczułe czujniki.

- Czy istnieją już działające modele?

Jeść. Pierwsze prace na temat takich laserów opublikował kilka lat temu Misha Noginov, absolwent MIPT mieszkający w USA. Jako pierwszy zbudował laser o średnicy 40 nanometrów – milion razy mniejszy od grubości ludzkiego włosa. Informacja na ten temat pojawiła się w 2011 roku w czasopiśmie Nature. Od tego czasu rozpoczęło się eksperymentalne życie nanolaserów. W szczególności nasz inny były rodak Mark Stockman, student akademika Spartaka Belyaeva, rektora Nowosybirskiego Uniwersytetu Państwowego, wymyślił SPASER - plazmoniczne nanoźródło promieniowania optycznego. Jest to cząstka o wielkości 22 nanometrów, czyli setki razy mniejsza od ludzkiej komórki. Dzięki specjalnej powłoce cząsteczki SPASER są w stanie „znaleźć” we krwi przerzutowe komórki nowotworowe i przylegając do nich, zniszczyć je. Według niezwykle optymistycznych szacunków Stockmana pierwsze urządzenia tego typu mogą pojawić się już w przyszłym roku.

- Do czego przede wszystkim będą wykorzystywane ultraczułe czujniki?

Na przykład do oznaczania materiałów wybuchowych. W przypadku działań antyterrorystycznych bardzo ważne jest, aby wiedzieć, skąd pochodzi ten lub inny materiał wybuchowy i znaleźć źródło, z którego wyciekł. Na całym świecie podejmuje się ogromne wysiłki w zakresie znakowania materiałów wybuchowych, ponieważ dzięki temu, zbierając to, co zostało po eksplozji, można zrozumieć, gdzie substancja została wytworzona – aż do przesunięcia i czasu. I w taki sposób, aby wróg nie mógł zrozumieć, co się tam dodaje. Problem ten można rozwiązać w prosty sposób: do materiału wybuchowego dostaje się kilka cząsteczek, które może rozpoznać czujnik oparty na technologii fotonicznej.

Innym kierunkiem jest etykietowanie leków. Wiadomo, że w każdej tabletce znajduje się bardzo mała ilość substancji czynnej, a większość stanowi wypełniacz i otoczka. Możemy zmieszać powiedzmy pięć barwników w określonej proporcji, a następnie rozcieńczyć je do niskich stężeń i w ten sposób oznaczyć oryginalne tabletki poprzez określony skład powłoki. Aby odróżnić je od podróbek, wystarczy położyć tabletki na specjalnym podłożu i zobaczyć, jakie widmo emitują. Ten obiecujący kierunek jest szeroko rozwijany na świecie.

W naszym laboratorium w Skoltech opracowujemy czujnik, który będzie w stanie określić poziom kortyzolu, hormonu stresu, w ludzkiej krwi. Będzie to gadżet do noszenia, który przesyła informacje w czasie rzeczywistym. Wyobrażacie sobie, jaka to nieoceniona rzecz dla osób, których praca wymaga ciągłej koncentracji?

Pod koniec lat 60. na świecie głośno było o stworzeniu laserów bojowych. Nasz program prowadził laureat Nagrody Nobla Nikołaj Basow. Pod jego kierownictwem stworzono laser bojowy zdolny trafić w rakietę balistyczną. Jakie obszary fotoniki interesują wojsko?

Oczywiście we wszystkich krajach prowadzone są prace w zakresie laserów bojowych, ale nie jest to temat, który można omawiać. Obecnie coraz aktywniej dyskutuje się o możliwych metamateriałach (tak nazywa się materiały, których właściwości zostały wzbogacone dzięki nanotechnologii - „O”) do celów kamuflażu.

- Tak, firmy wielokrotnie deklarowały, że są gotowe stworzyć pelerynę-niewidkę, jak w powieści H.G. Wellsa.

To niezwykle popularny trend w przestrzeni medialnej. W powieści Wellsa niewidzialność opierała się na zasadzie przezroczystości materiału. Zasada ta, a raczej jej imitacja, jest obecnie realizowana. Teraz na przykład w Seulu dyskutuje się o projekcie budowy wieży, która od czasu do czasu staje się „przezroczysta”. Powierzchnia budynku zostanie oświetlona diodami LED, a szereg kamer umieszczonych na elewacjach będzie w czasie rzeczywistym transmitować na jego powierzchnię obraz nieba. W pełni „aktywowana” wieża powinna stać się niewidoczna na tle nieba. To prawda, że ​​\u200b\u200bnie jest zbyt jasne, w jaki sposób zostaną rozwiązane kwestie bezpieczeństwa lotnictwa, biorąc pod uwagę, że niedaleko tego miejsca znajduje się lotnisko.

Inną technologię opisano w książce science fiction - „Niewidzialna kobieta”. Tam dama jest otoczona muszlą, która zniekształca bieg promieni.

Zasada ta jest realizowana przy użyciu metamateriałów. Metamateriały potrafią zaginać promienie świetlne w taki sposób, że obiekt za nimi ukryty staje się niewidoczny. Problem w tym, że jest to możliwe tylko w przypadku bardzo małych obiektów – rzędu centymetra – i w wąskim obszarze widma.

W obu przypadkach jest za wcześnie, aby mówić o prawdziwej niewidzialności.

Fizyka na jutro

W XX wieku rozwój tej czy innej dziedziny fizyki determinowany był z reguły porządkiem politycznym. W jednym z ostatnich wywiadów akademik Ginzburg powiedział, że kiedy Amerykanie zrzucili bombę atomową, jego pensja wzrosła 3-krotnie... Co, Twoim zdaniem, napędza dziś rozwój tej czy innej dziedziny fizyki?

W ciągu ostatnich kilkudziesięciu lat o zamówieniach decydowały nie potrzeby polityczne, ale raczej potrzeby przemysłowe. W końcu jak było wcześniej? Dokonano jakiegoś odkrycia, zbadano pewne zjawisko, odkryto pewne fakty matematyczne i po dość długim czasie znalazły one zastosowanie w zastosowaniach. Teraz tempo wdrażania jest takie, że od odkrycia do pojawienia się technologii mija dosłownie kilka miesięcy. Cała biofotonika powstała około siedem lat temu, a dziś żaden duży ośrodek technologii fotonicznych nie może obejść się bez odpowiedniego laboratorium.

Dlatego obecnie na Zachodzie rozwój dyscyplin fizycznych przenosi się z wydziałów fizyki na wydziały inżynieryjne. To tam dzisiaj jest lepsze finansowanie i panuje porządek przemysłowy. Jednocześnie zmniejsza się finansowanie wydziałów fizyki. Jest to ogólny trend, który widzę zarówno w Europie, jak i w USA.

- Czy to oznacza, że ​​nadchodzi redystrybucja środków pomiędzy naukami podstawowymi i stosowanymi?

Całkiem możliwe. Postęp w naukach podstawowych często wymaga bardzo dużych inwestycji kapitałowych. Nauki podstawowe stają się bardzo drogie, dlatego istnieje współpraca międzynarodowa i konsolidacja finansowa. Jest to powszechne zjawisko. Kiedyś w Instytucie Landaua mieliśmy taki punkt widzenia, że ​​prawdziwą fizyką są tylko zjawiska niezrozumiałe i nieznane. A wszystko inne to aplikacja. Z tego punktu widzenia dzisiejszą nauką podstawową byłoby, powiedzmy, badanie ciemnej materii i ciemnej energii.

W jednym z wywiadów powiedział Pan, że jakość kształcenia studentów na wydziałach fizyki spada katastrofalnie. Wykładasz w USA i Rosji. Czy dotyczy to obu krajów?

Spadek zainteresowania nauką jest problemem ogólnoświatowym. Jest wyraźnie widoczny niemal wszędzie. Najwyraźniej ludzkość powinna o tym pomyśleć, ponieważ prędzej czy później doprowadzi to do pewnych negatywnych konsekwencji. Tak, twierdzę, że jakość edukacji uczniów po szkole spada. Powodów jest wiele, jednym z nich jest zniszczenie systemu poszukiwań i późniejsza opieka nad utalentowanymi dziećmi, zwłaszcza z województw.

Ponadto nowoczesny rosyjski system szkół z internatem przeżywa ogromne trudności, ponieważ fundusze są na nie przeznaczane tak, jak na zwykłe szkoły. Instytucje akademickie znajdują zewnętrzne źródła finansowania, ale nie taki jest ich profil. Państwo musi systematycznie sobie z tym radzić. W czasach sowieckich właśnie ten system, który Chiny teraz od nas pożyczyły, działał bardzo dobrze.

W USA kiedyś rzekomo kopiowali sowiecki system szkół matematycznych, ale o Chinach jeszcze nie słyszałem...

Kiedy rozmawiam z kolegami w Chinach, widzę wiele znajomych rzeczy – przez co sami kiedyś przeszliśmy. Skopiowano tam na przykład radziecki system konkursów i selekcji najlepszych uczniów. Jest mi to bardzo bliskie, bo tak trafiłam do nauki. Moja mama była nauczycielką i prenumerowała Gazetę Nauczycielską, w której publikowane były zadania na Olimpiadę Fizyczno-Matematyczną. Rozwiązałem je dla wszystkich zajęć jednocześnie i wysłałem rozwiązania pocztą. Co więcej, zadania zostały opracowane przez bardzo mądrych nauczycieli, ponieważ niwelowały różnicę między szkołami specjalistycznymi, które zapewniały bardzo dobre przygotowanie, a szkołami wiejskimi. Innymi słowy, nacisk położono na inteligencję, zaradność, na ludzi z potencjałem. Teraz w Rosji tak nie jest.

- Wiele osób nazywa wiek XX wiekiem fizyki jądrowej. Który obszar fizyki stanie się okrętem flagowym XXI wieku?

Najbardziej niesamowitą dziedziną współczesnej fizyki jest moim zdaniem nauka o Wszechświecie. Ciemna materia i ciemna energia to tajemnicze, niesamowite zjawiska, które zostały odkryte i wciąż czekają na wyjaśnienie. Badanie i rozwikłanie tych zjawisk doprowadzi do ogromnego postępu w naszym zrozumieniu struktury świata. Ale fotonika, o której dzisiaj mówiliśmy, będzie odgrywać w XXI wieku tę samą rolę, co maszyna parowa w XIX wieku czy elektronika w XX wieku.

Oblicz światło
Wizytówka

Fizyk Ildar Gabitow swoją pasję do fotoniki zrodził za pomocą wzorów matematycznych. Teraz działa w trzech kierunkach jednocześnie - badając właściwości światła, wdrażając zmiany w życiu i tworząc programy rozwoju nauki

Ildar Gabitov jest profesorem na Wydziale Matematyki Uniwersytetu w Arizonie (USA), dyrektorem Centrum Fotoniki i Materiałów Kwantowych w Instytucie Nauki i Technologii Skołkowo oraz czołowym pracownikiem naukowym w Instytucie Fizyki Teoretycznej. L.D. Landau RAS.

Urodził się w 1950 roku w rodzinie nauczyciela i inżyniera górnictwa. Studiował na Uniwersytecie Leningradzkim na wydziale fizyki. Na Wydziale Fizyki Matematycznej jego nauczycielami byli znani profesorowie Olga Ladyzhenskaya i Wasilij Babich. Przez pewien czas pracował w zamkniętej placówce pod Leningradem, w Sosnowym Borze. Następnie – w Instytucie Matematyki w Biszkeku. Stamtąd przeniósł się do Instytutu Landau, do akademika Władimira Zacharowa. Już na początku lat 90. przeniósł się do Niemiec, a następnie do Los Alamos National Laboratory w USA, po czym osiadł na Uniwersytecie w Arizonie. Spędza tam większą część roku.

Profesor Gabitow jest autorem ponad 100 prac naukowych z zakresu fizyki teoretycznej i matematycznej, optyki nieliniowej, teorii układów całkujących, komunikacji światłowodowej, zjawisk wieloskalowych i nanomateriałów, nanofotoniki i nanoplazmoniki. Jest uznawany za eksperta przez wiele międzynarodowych stowarzyszeń zawodowych, w tym National Science Foundation (USA), Kanadyjską Radę ds. Nauk Przyrodniczych i Inżynierii, US Civilian R&D Foundation (USA), Engineering and Physical Sciences Research Council (Wielka Brytania). Jest członkiem rady akademickiej Instytutu Nauki i Technologii Skołkowo. Brał udział w przygotowaniu „Międzyresortowego programu badań naukowych i rozwoju w dziedzinie fotoniki na lata 2017-2020” Ministerstwa Edukacji i Nauki Federacji Rosyjskiej.

W Jekaterynburgu odbyła się międzynarodowa wystawa przemysłowa „Innoprom-2015”. W tym roku sesje i spotkania plenarne, konferencje międzynarodowe i panele eksperckie dotyczyły szerokiego spektrum tematów i zagadnień. Efektem tej komunikacji były dziesiątki konkretnych porozumień i dużych kontraktów.

Przyszłość należy do fotoniki. Do najbardziej produktywnych należała dyskusja przy okrągłym stole „Fotonika – siłą napędową innowacyjnego rozwoju przemysłu”, podczas której omawiano zagadnienia rozwoju fotoniki w Rosji oraz perspektywy jej zastosowania w nauce i przemyśle. Partnerami wydarzenia byli liderzy branży: Shvabe, Laser Center i Skolkovo. Termin „fotonika”, utworzony przez analogię ze słowem „elektronika”, powstał nie tak dawno temu, bo 5–7 lat temu. Rosja zajmuje priorytetowe miejsce na świecie w fotonice. U początków tego kierunku byli wybitni naukowcy naszego kraju: akademicy Nikołaj Basow, Aleksander Prochorow, Nikołaj Wawiłow. Wiodącą pozycję na rynku fotoniki zajmuje obecnie szkoła Walentina Pawłowicza Gaponcewa. Firma, na której czele stoi, IPG Photonics, produkuje 40 procent światowych laserów światłowodowych.

„W Rosji mamy setki przedsiębiorstw i organizacji zajmujących się fotoniką. Prowadzą badania naukowe i publikują artykuły naukowe, wytwarzają produkty, które można zamówić i kupić, a także szkolą wyspecjalizowany personel” – mówi Ivan Kovsh, prezes Rosyjskiego Stowarzyszenia Laserowego. - Dotyczy to instytutów akademickich i przemysłowych, uniwersytetów, przedsiębiorstw, biur projektowych, ale generalnie nasz obszar to małe przedsiębiorstwa. Około 350 małych przedsiębiorstw produkuje 70 procent całej fotoniki cywilnej w Rosji, około dwóch tysięcy modeli - są to elementy optyczne, pewnego rodzaju źródła promieniowania i inne rodzaje produktów.

Jednym z istotnych zadań dla branży jest nie tylko tworzenie, ale także upowszechnianie technologii w praktyce, a bardzo potężnym narzędziem do tego są regionalne branżowe centra kompetencyjne. Teraz są używane na całym świecie, a my mamy takie doświadczenia także w naszym kraju. Przykładowo w Rosji w ciągu ostatnich dziesięciu lat powstało pięć rosyjsko-niemieckich ośrodków w ramach rosyjsko-niemieckiego porozumienia o współpracy naukowo-technicznej w dziedzinie laserów i technologii optycznych. Najnowocześniejszy sprzęt dostarczyli Niemcy, ośrodki działają w pięciu miastach, są małe, po 5-8 osób w każdym. W ciągu dziesięciu lat przewinęło się przez nie 1,5 tys. przedsiębiorstw. A co trzeci z nich stał się dziś użytkownikiem technologii laserowych w obróbce materiałów.

Jakie są dziś główne trendy na rynku światowym? Najważniejsze jest szybkie zwiększenie liczby technologii i technik fotonicznych, które mają zastosowanie czysto ekonomiczne. Zwiększanie wolumenów produkcji wyrobów fotonicznych w obszarach, w których są one już aktywnie wykorzystywane, co wiąże się zarówno z rozwojem technologii, jak i rozwojem nowych materiałów i urządzeń. Głównymi obszarami rozwoju są dziś technologie produkcyjne, ponieważ kraje zaawansowane weszły na ścieżkę reindustrializacji i aktywnie domagają się nowych technologii. Wpływ laserowej technologii fotonicznej na innowacyjność widać na tym przykładzie. Dziś w mikroelektronice najważniejszym problemem jest redukcja elementu – chipa. Najlepszy jak dotąd rozmiar to 20 nanometrów. Nie da się tego zrobić bez fotoniki. W procesie tym wykorzystuje się litografię, krótkofalową lub jonową. Zatem 1 milion dolarów wydany na litografię pozwala nam wyprodukować chipy warte 100 milionów dolarów. Te chipy, których nie można wytworzyć inaczej niż za pomocą laserów, można wykorzystać za 1,5 miliarda dolarów w produktach końcowych: komputerach, aparatach cyfrowych, telefonach i tak dalej. Oto perspektywy wykorzystania fotoniki: zainwestowałem 1 milion dolarów - w rezultacie otrzymałem 1,5 miliarda!

Albo, powiedzmy, tak palący temat, jak „fotonika i medycyna”. Obecnie populacja świata szybko się starzeje i pojawia się wiele nowych chorób. Problemy zdrowotne wychodzą na pierwszy plan. Na przykład USA wydają 1 bilion 800 miliardów dolarów rocznie na zdrowie publiczne, Niemcy - 225 miliardów euro. To są ogromne liczby. Zdaniem japońskich ekspertów samo wprowadzenie technologii fotonicznych do diagnostyki i leczenia pozwala obniżyć koszty opieki zdrowotnej o 20 proc. To około 400 miliardów dolarów rocznie.

Kolejnym aspektem jest technologia oświetleniowa, a dokładniej oświetlenie wykorzystujące diody LED. Obecnie na oświetlenie przypada 15 procent światowej produkcji energii elektrycznej. Liczba ta prawdopodobnie podwoi się w ciągu najbliższych 20 lat ze względu na szybką urbanizację Azji, która niesie ze sobą znaczne koszty i zanieczyszczenie, ponieważ powstają ogromne ilości odpadów powstałych przy wytwarzaniu energii. Jedynym wyjściem jest zastosowanie diod LED o dużej wydajności. Zmniejszy to zużycie energii o połowę. Jak wiadomo, twórcy diody LED otrzymali Nagrodę Nobla.

Co ciekawe, w ostatnich latach nastąpił gwałtowny wzrost roli Chin w rozwoju fotoniki. Kierunek ten uczynił jednym z priorytetów polityki państwa w dziedzinie nauki i techniki. Chiny rozwijają fotonikę w tempie 25 proc. rocznie, w ciągu 15 lat powstało w tej branży 5 tys. przedsiębiorstw. A dziś Chińczycy produkują więcej fotoniki niż cała Unia Europejska. USA, Chiny i Unia Europejska bardzo aktywnie wykorzystują wpływy rządu na rozwój fotoniki.

Przeczytaj pełną wersję artykułu w nowym numerze magazynu Rare Earths.

Ministerstwo Łączności Federacji Rosyjskiej

Państwowa instytucja edukacyjna szkolnictwa wyższego

kształcenie zawodowe

„Państwowy Uniwersytet Telekomunikacyjny w Wołdze”

kation i informatyka”

Głuszczenko A.G., Żukow S.V.

_________________________________

Podstawy fotoniki. Notatki z wykładów. – Samara: GOUVPO

PGUTI, 2009. – 100 s.

Wydział Fizyki

(Streszczenie dyscypliny).

A.G. Głuszczenko, S.V. Żukow

NOTATKI Z WYKŁADÓW

WEDŁUG DYSCYPLINY AKADEMICZNEJ

Recenzent:

Pietrow P.P. – doktor, profesor nadzwyczajny, profesor nadzwyczajny katedry „……..

PODSTAWY FOTONIKI

» GOUVPO PGUTI

Kierunek studiów: Fotonika i optoinformatyka ()

Samara – 2009

Nazwa

sekcja dyscypliny

źródła ciągłe

źródła ciepła, gaz

i specyfikacja linii

lampy wyładowcze, LED

ody, iskra laserowa;

Główne typy laserów

(w stanie stałym, gazowym,

jonowy, półprzewodnikowy

wysoka, ciągła i nie-

źródła wiedzy

puls, z regulacją

promieniowanie czynszowe

częstotliwości i długości promieniowania

aktywność pulsacyjna), gene-

Neratory harmoniczne, SRS i

konwertery SBS,

generatory widmowe

superkontinuum;

fotokatody i fotopowielacze, pół-

odbiorniki promieniowania

odbiorniki przewodowe,

mata światłoczuła-

ryty, mikrobolometry;

elektrooptyczne i akustyczne

światło stooptyczne

urządzenia sterujące

zawory, ciecz

charakteryzacja

krystaliczne i pół-

spójne kije

przewód przezroczysty

nowe belki:

ściągacze, urządzenia oparte na

media fotorefrakcyjne,

izolatory Faradaya;

wiązka elektronów i

płynny kryształ

urządzenia wyświetlające

wyświetlacze, projektory laserowe

Informacja:

systemy holo-

wyświetlacze graficzne, si-

systemy tworzenia objętości

Nazwa

sekcja dyscypliny

dużo obrazu;

zasady tworzenia mikro

elektromechaniczny

mikroelektromechanika-

urządzenia i fotolitografia

fiya, mikro-optyczny

projekt techniczny

elementy elektromechaniczne

policjanci, użycie mikro-

elektromechaniczny

urządzenia;

składniki włókniste

urządzenia sterujące

linie optyczne, moduł-

tori, multipleksery i

leniya światło w op-

demultipleksery, izolatory

włosy

tory, złącza, rozdzielacze

przewodniki po światłach dla koni:

kierowcy skupieni

elementy;

planarny dielektryk

urządzenia sterujące

falowody, nieliniowe

konwertery promieniowania

Leniya światło w-

fale kanałowe

zintegrowana optyka:

tak, elementy wejściowe/wyjściowe

promieniowanie;

obwody optyczne, optyczny

urządzenia sterujące

tranzystor, mikro

świecić światłem

chip, ograniczenia optyczne

oparty na fotonice

czytelnicy, fotonika

kryształy:

włókna kryształowe

Wstęp

Fotonika to nauka zajmująca się badaniem różnych form promieniowania wytwarzanego przez cząstki światła, czyli fotony.

Definicje terminu

Co ciekawe, nie ma ogólnie przyjętej definicji terminu „Fotonika”.

Fotonika to nauka o generowaniu, kontrolowaniu i wykrywaniu fotonów, zwłaszcza w widmie widzialnym i bliskiej podczerwieni, oraz ich propagacji w ultrafiolecie (długość fali 10–380 nm), długofalowej podczerwieni (długość fali 15–150 µm) i ultrafiolecie. podczerwone części widma (na przykład 2-4 THz odpowiada długości fali 75-150 mikronów), gdzie obecnie aktywnie rozwijane są kwantowe lasery kaskadowe.

Fotonikę można również scharakteryzować jako dziedzinę fizyki i technologii zajmującą się emisją, wykrywaniem, zachowaniem, konsekwencjami istnienia i niszczenia fotonów. Oznacza to, że fotonika zajmuje się sterowaniem i konwersją sygnałów optycznych i ma szerokie zastosowanie: od przesyłania informacji za pomocą światłowodów po tworzenie nowych czujników modulujących sygnały świetlne zgodnie z najmniejszymi zmianami w otoczeniu.

Niektóre źródła zauważają, że termin „optyka” jest stopniowo zastępowany nową uogólnioną nazwą - „fotonika”.

Fotonika obejmuje szeroką gamę urządzeń optycznych, elektrooptycznych i optoelektronicznych oraz ich różnorodne zastosowania. Główne obszary badań w dziedzinie fotoniki obejmują światłowody i optykę zintegrowaną, w tym optykę nieliniową, fizykę i technologię półprzewodników, lasery półprzewodnikowe, urządzenia optoelektroniczne i szybkie urządzenia elektroniczne.

Kierunki interdyscyplinarne

Dzięki wysokiej światowej aktywności naukowo-technicznej i ogromnemu zapotrzebowaniu na nowe wyniki

W fotonice wyłaniają się nowe, interdyscyplinarne kierunki:

Fotonika mikrofalowa bada interakcję między sygnałem optycznym a sygnałem elektrycznym o wysokiej częstotliwości (powyżej 1 GHz). Obszar ten obejmuje podstawy optyki mikrofalowej, działanie mikrofalowe urządzeń fotonicznych, sterowanie fotoniczne urządzeń mikrofalowych, linie transmisyjne wysokiej częstotliwości oraz wykorzystanie fotoniki do wykonywania różnych funkcji w obwodach mikrofalowych.

Fotonika komputerowa łączy w sobie nowoczesną optykę fizyczną i kwantową, matematykę i technologie komputerowe i znajduje się na etapie aktywnego rozwoju, gdy możliwe staje się wdrażanie nowych pomysłów, metod i technologii.

Optoinformatyka to dziedzina nauki i technologii związana z badaniem, tworzeniem i eksploatacją nowych materiałów, technologii i urządzeń do przesyłania, odbierania, przetwarzania, przechowywania i wyświetlania informacji w oparciu o technologie optyczne.

Związek fotoniki z innymi dziedzinami nauki

Klasyczna optyka. Fotonika jest ściśle związana z optyką. Optyka wyprzedziła jednak odkrycie kwantyzacji światła (kiedy efekt fotoelektryczny wyjaśnił Albert Einstein w 1905 r.). Narzędziami optyki są soczewka refrakcyjna, zwierciadło odbijające i różne zespoły optyczne, które były znane na długo przed 1900 rokiem. W tym przypadku kluczowe zasady optyki klasycznej, takie jak reguła Huygensa, równania Maxwella i ustawienie światła fale nie zależą od kwantowych właściwości światła i znajdują zastosowanie zarówno w optyce, jak i fotonice.

Nowoczesna optyka Termin „fotonika” w tej dziedzinie jest z grubsza synonimem terminów „optyka kwantowa”, „elektronika kwantowa”, „elektrooptyka” i „optoelektronika”. Jednak każdy termin jest używany przez różne towarzystwa naukowe i ma różne dodatkowe znaczenia: na przykład termin „optyka kwantowa” często oznacza badania podstawowe, podczas gdy termin „Fotonika” często oznacza badania stosowane.

Termin „Fotonika” w dziedzinie współczesnej optyki najczęściej odnosi się do:

Szczególne właściwości światła Możliwość tworzenia technologii przetwarzania fotonicznego

sygnały Analogia do terminu „Elektronika”.

Historia fotoniki

Fotonika jako dziedzina nauki rozpoczęła się w 1960 r. wraz z wynalezieniem lasera, a w latach 70. wynalezieniem diody laserowej, po czym nastąpił rozwój światłowodowych systemów komunikacyjnych jako środka przesyłania informacji przy użyciu technik wykorzystujących światło. Wynalazki te stały się podstawą rewolucji telekomunikacyjnej końca XX wieku i przyczyniły się do rozwoju Internetu.

Historycznie początek użycia terminu „fotonika” w środowisku naukowym wiąże się z publikacją w 1967 roku książki akademika A. N. Terenina „Photonics of Dye Molecules”. Trzy lata wcześniej z jego inicjatywy na Wydziale Fizyki Leningradzkiego Uniwersytetu Państwowego utworzono Katedrę Fizyki Biomolekularnej i Fotonowej, która od 1970 roku nosi nazwę Katedry Fotoniki.

A. N. Terenin zdefiniował fotonikę jako „zespół powiązanych ze sobą procesów fotofizycznych i fotochemicznych”. W nauce światowej rozpowszechniła się późniejsza i szersza definicja fotoniki, jako gałęzi nauki badającej układy, w których fotony są nośnikami informacji. W tym sensie termin „fotonika” po raz pierwszy usłyszano na IX Międzynarodowym Kongresie Fotografii Szybkiej.

Termin „fotonika” zaczął być szeroko stosowany w latach 80. XX wieku w związku z powszechnym stosowaniem światłowodowej transmisji danych elektronicznych przez dostawców sieci telekomunikacyjnych (choć wcześniej światłowód był stosowany w ograniczonym zakresie). Użycie tego terminu zostało potwierdzone, gdy społeczność IEEE zainstalowała zarchiwizowany raport

Z tytuł „Litery dotyczące technologii fotoniki” na końcu Lata 80

W W tym okresie, aż do około 2001 roku, fotonika jako dziedzina nauki była w dużym stopniu skupiona na telekomunikacji. Od 2001 roku termin

Fotonika obejmuje także ogromny obszar nauki i technologii, do którego należą:

produkcja laserów, badania biologiczne i chemiczne, diagnostyka i terapia medyczna, technologia wyświetlania i projekcji, obliczenia optyczne.

Optoinformatyka

Optoinformatyka to dziedzina fotoniki, w której powstają nowe technologie przesyłania, odbierania, przetwarzania, przechowywania i wyświetlania informacji w oparciu o fotony. Zasadniczo współczesny Internet jest nie do pomyślenia bez optoinformatyki.

Obiecujące przykłady systemów optoinformatycznych obejmują:

Optyczne systemy telekomunikacyjne o szybkości przesyłania danych do 40 terabitów na sekundę w jednym kanale;

optyczne holograficzne urządzenia pamięci masowej o bardzo dużej pojemności, do 1,5 terabajta na dysk o standardowych rozmiarach;

komputery wieloprocesorowe z optyczną komunikacją międzyprocesorową;

komputer optyczny, w którym światło jest kontrolowane przez światło. Maksymalna częstotliwość taktowania takiego komputera może wynosić 1012–1014 Hz, czyli o 3-5 rzędów wielkości więcej niż istniejące analogi elektroniczne;

kryształy fotoniczne to nowe sztuczne kryształy o gigantycznej dyspersji i rekordowo niskich stratach optycznych (0,001 dB/km).

Wykład 1 Temat 1. Historia fotoniki. Problem

Jesteśmy komputerami elektronicznymi.

Sekcja 1.1. Historia fotoniki.

Wykorzystanie światła do przesyłania informacji ma długą historię. Żeglarze używali lamp sygnalizacyjnych do przekazywania informacji alfabetem Morse'a, a latarnie morskie od wieków ostrzegały żeglarzy przed niebezpieczeństwem.

Cloud Chappe zbudował we Francji telegraf optyczny w latach 90. XIX wieku. Sygnaliści byli umieszczeni na wieżach położonych od Paryża do Lille, wzdłuż łańcucha o długości 230 km. Wiadomości były przesyłane z jednego końca na drugi w ciągu 15 minut. W Stanach Zjednoczonych telegraf optyczny łączył Boston z położoną niedaleko miasta wyspą Martha's Vineyard. Wszystkie te systemy zostały ostatecznie zastąpione telegrafami elektrycznymi.

Angielski fizyk John Tyndall w 1870 roku zademonstrował możliwość kontrolowania światła w oparciu o wewnętrzne odbicia. Na spotkaniu Towarzystwa Królewskiego wykazano, że światło rozchodzące się w strumieniu oczyszczonej wody może zakrzywiać się pod dowolnym kątem. W eksperymencie woda przepływała po poziomym dnie jednego rowu i opadała parabolicznie do innego rowu. Światło wpadało do strumienia wody przez przezroczyste okno na dnie pierwszego rowu. Kiedy Tindall skierował światło stycznie na strumień, widzowie mogli obserwować zygzakowate rozprzestrzenianie się światła w zakrzywionej części strumienia. Podobny rozkład zygzakowaty

Rozproszenie światła zachodzi również w światłowodzie.

Dziesięć lat później Alexander Graham Bell opatentował fotofon (ryc.), w którym zastosowano funkcję kierunkową

Za pomocą układu soczewek i luster światło kierowano na płaskie lustro zamontowane na rogu. Pod wpływem dźwięku zwierciadło drgało, co doprowadziło do modulacji odbitego światła. W urządzeniu odbiorczym zastosowano detektor na bazie selenu, którego rezystancja elektryczna zmienia się w zależności od intensywności padającego światła. Modulowane głosem światło słoneczne padające na próbkę selenu zmieniło prąd przepływający przez obwód odbiornika i wytworzyło głos. Urządzenie to umożliwiło transmisję sygnału mowy na odległość ponad 200 m.

W Na początku XX wieku prowadzono badania teoretyczne i eksperymentalne falowodów dielektrycznych, w tym giętkich prętów szklanych.

W latach 50. Brian O'Brien pracujący w American Optical Company oraz Narinder Kapani i współpracownicy z Imperial College of Science and Technology w Londynie opracowali włókna przeznaczone do transmisji obrazu, które znalazły zastosowanie w światłowodach stosowanych w lek do wizualnej obserwacji narządów wewnętrznych człowieka.Dr Capani jako pierwszy opracował włókna szklane w szklanej osłonie i ukuł termin „światłowód” w 1956 r. W 1973 r. dr Capani założył firmę Kaptron specjalizującą się w splitterach światłowodowych i przełączniki.

W W 1957 roku Gordon Gold, absolwent Uniwersytetu Columbia, sformułował zasady działania lasera jako intensywnego źródła światła. Teoretyczna praca Charlesa Townesa wraz z Arthurem Schawlowem w Bell Laboratories pomogła spopularyzować ideę lasera w kręgach naukowych i zapoczątkowała eksplozję badań eksperymentalnych mających na celu stworzenie działającego lasera. W 1960 roku Theodore Mayman z Hughes Laboratories stworzył pierwszy na świecie laser rubinowy. W tym samym roku Townes zademonstrował swoją pracę laser helowo-neonowy. W 1962 roku uzyskano generację lasera na krysztale półprzewodnikowym. Jest to rodzaj lasera stosowanego w światłowodach. Złoto z wielkim opóźnieniem, bo dopiero w 1988 roku, udało się zdobyć cztery

nowe patenty oparte na wynikach prac, które wykonywał w latach 50-tych

Marynarka Wojenna Stanów Zjednoczonych wprowadziła błonnik

lat i poświęcony zasadzie działania lasera.

łącze optyczne na pokładzie USS Little Rock w 1973 r. W

Zastosowanie promieniowania laserowego jako nośnika informacji

1976 w ramach programu ALOFT Sił Powietrznych

komunikacja nie została zignorowana przez specjalistów ds. komunikacji

wymieniono wyposażenie kablowe samolotu A-7 na światłowód

nicacja. Możliwości promieniowania laserowego w przekazywaniu informacji

optyczny Jednocześnie system kablowy z 302 kablami miedzianymi

formacje są 10 000 razy większe niż możliwości częstotliwości radiowej

lei, który miał całkowitą długość 1260 m i ważył 40

promieniowanie. Mimo to promieniowanie laserowe nie jest całkowicie

kg, zastąpiono 12 włóknami o łącznej długości 76 m i wadze 1,7

Nadaje się do transmisji sygnału na zewnątrz. Pracować

kg. Wojsko również jako pierwsze wprowadziło błonnik

Na tego rodzaju linię duży wpływ ma mgła, smog i deszcz,

linia optyczna. W 1977 roku uruchomiono system o długości 2 km

jak i stan atmosfery. Znacznie więcej niż wiązka lasera

prędkość przesyłania informacji 20 Mb/s (megabitów na sekundę)

łatwiej jest pokonać odległość między Ziemią a Księżycem niż pomiędzy

du), łączącą naziemną stację satelitarną z centrum

z przeciwległych granic Manhattanu. Zatem,

kierownictwo.

pierwotnie laser był środkiem komunikacji

W 1977 roku AT&T i GTE rozpoczęły działalność komercyjną

źródło światła, które nie ma odpowiedniego medium transmisyjnego.

systemy telefoniczne oparte na światłowodach.

W 1966 roku Charles Kao i Charles Hockham, którzy pracowali w

Systemy te przewyższały te rozważane pod względem właściwości.

Laboratorium Standardów Telekomunikacyjnych języka angielskiego,

wcześniej niewzruszone standardy wydajności, które doprowadziły do

doprowadziło do ich szybkiego rozprzestrzenienia się pod koniec lat 70. i na początku 80. XX wieku

używać jako medium transmisyjnego w celu uzyskania przezroczystości,

lata. W 1980 roku firma AT&T ogłosiła ambitny projekt dotyczący drutu włosowego.

zapewnienie tłumienia (określa straty przesyłowe

koński system optyczny łączący Boston i

sygnału) mniej niż 20 dB/km (decybeli na kilometr). Przyszli

Richmond. Wdrożenie projektu na własnej skórze pokazało szybkość

wniosek, że wysoki poziom tłumienia jest nieodłącznym elementem pierwszego

cechy wzrostu nowych technologii w seryjnych dużych prędkościach

włókna (około 1000 dB/km), powiązane z włóknami obecnymi w szkle

systemów, a nie tylko w konfiguracjach eksperymentalnych. Przez-

zanieczyszczenia. Sposób na stworzenie odpowiedniego dla nich

Potem stało się jasne, że w przyszłości nacisk należy położyć na włosy.

komunikacja światłowodowa związana ze spadkiem poziomu

technologię konnej optyki, która pokazała możliwość magistrali

zanieczyszczenia w szkle.

szerokie zastosowanie praktyczne.

W 1970 roku Robert Maurer i jego współpracownicy z

Wraz z rozwojem technologii rozwija się ona równie szybko

Corning Glass Works otrzymało pierwsze włókno z tłumieniem me-

łosia, a produkcja wzrosła. Już w 1983 r. jeden

wynosi 20 dB/km. W 1972 roku w warunkach laboratoryjnych udało się to osiągnąć

modalny kabel światłowodowy, ale jego praktyczne zastosowanie

poziom ten wyniósł 4 dB/km, co odpowiadało kryterium Kao

użytkowanie wiązało się z wieloma problemami, tzw

Hockhama. Obecnie najlepsze włókna mają poziom

przez wiele lat, aby w pełni wykorzystać takie kable

straty 0,2 dB/km.

udało się jedynie w kilku wyspecjalizowanych opracowaniach.

Nie mniej znaczący sukces osiągnięto w dziedzinie pół-

Do 1985 roku główne organizacje zajmujące się przesyłaniem danych na

źródła i detektory przewodzące, złącza, technologie

na duże odległości, AT&T i region moskiewski nie tylko wdrożyły

technologia transmisji, teoria komunikacji i inne pokrewne

czy jednomodowe systemy optyczne, ale także zatwierdził je jako

obszary światłowodów. Wszystko to połączone z dużym zainteresowaniem

standard dla przyszłych projektów.

niektórzy chcą skorzystać z oczywistych zalet światłowodu

Pomimo tego, że przemysł komputerowy, technologia

tiki powodowały znaczne

Technologia sieci komputerowych i zarządzania produkcją taka nie jest

postęp w tworzeniu systemów światłowodowych.

szybko, podobnie jak firmy wojskowe i telekomunikacyjne, przyjęły

wprowadzono do użytku światłowód, jednak na tych obszarach prowadzono także prace eksperymentalne w zakresie badań i wdrażania nowych technologii. Nadejście ery informacji i wynikająca z tego potrzeba bardziej wydajnych systemów telekomunikacyjnych jedynie pobudziły dalszy rozwój technologii światłowodowej. Obecnie technologia ta jest szeroko stosowana poza dziedziną telekomunikacji.

Na przykład IBM, lider w produkcji komputerów, ogłosił w 1990 roku wypuszczenie na rynek nowego, szybkiego komputera, który wykorzystuje kontroler łącza komunikacyjnego z zewnętrznymi napędami dyskowymi i taśmowymi opartymi na światłowodach. Oznaczało to pierwsze zastosowanie światłowodów w sprzęcie produkowanym masowo. Wprowadzenie kontrolera światłowodowego o nazwie ESCON umożliwiło przesyłanie informacji z większą szybkością i na większe odległości. Poprzedni model kontrolera miedzianego zapewniał szybkość przesyłania danych 4,5 Mb/s przy maksymalnej długości linii transmisyjnej wynoszącej 400 stóp. Nowy kontroler działa z szybkością 10 Mb/s na dystansach kilku mil.

W 1990 roku Lynn Mollinar zademonstrował możliwość przesyłania sygnału bez regeneracji z prędkością 2,5 Gb/s na odległość około 7500 km. Zazwyczaj sygnał światłowodowy wymaga okresowego wzmacniania i przekształcania – mniej więcej co 25 km. Podczas transmisji sygnał światłowodowy traci moc i ulega zniekształceniu. W układzie Mollinarda laser pracował w trybie solitonowym i wykorzystywał włókno samowzmacniające się z dodatkami erbu. Impulsy solitonowe (bardzo wąski zakres) nie rozpraszają się i zachowują swój pierwotny kształt podczas przemieszczania się wzdłuż światłowodu. W tym samym czasie japońska firma Nippon Telephone & Telegraph osiągnęła prędkość 20 Gb/s, choć na znacznie krótszym dystansie. Wartość technologii solitonowej polega na zasadniczej możliwości ułożenia światłowodowej instalacji telefonicznej na dnie Pacyfiku lub Oceanu Atlantyckiego, która nie wymaga instalowania wzmacniaczy pośrednich. Jednak z

Od 1992 roku technologia solitonowa pozostaje na poziomie demonstracji laboratoryjnych i nie znalazła jeszcze zastosowania komercyjnego.

Wiek Informacyjny Cztery procesy związane z manipulacją informacją

formacja oparta na zastosowaniu elektroniki: 1.Sbrr

2. Przechowywanie

3. Przetwarzanie i analiza

4. Przeniesienie

Do realizacji tych procesów wykorzystuje się dość nowoczesny sprzęt: komputery, biura elektroniczne, rozbudowane sieci telefoniczne, satelity, telewizję itp. Rozglądając się, można znaleźć wiele dowodów na nadejście nowej ery. Roczny wzrost usług w branży informacyjnej wynosi obecnie około 15%.

Poniżej znajdują się fakty potwierdzające znaczenie

I perspektywy elektroniki we współczesnym życiu.

W W Stanach Zjednoczonych w 1988 roku było 165 milionów telefonów, podczas gdy w W 1950 roku było ich zaledwie 39 milionów. Ponadto usługi świadczone przez operatorów telekomunikacyjnych stały się znacznie bardziej zróżnicowane.

W latach 1950–1981 długość przewodów systemu telefonicznego wzrosła z 300 milionów kilometrów do 1,1 miliarda.

W W 1990 r. całkowita długość światłowodów w amerykańskich systemach telefonicznych wynosiła około 5 milionów mil. Do roku 2000 liczba ta wzrośnie do 15 milionów mil. W tym przypadku możliwości każdego światłowodu odpowiadają możliwościom kilku kabli miedzianych.

W W 1989 roku w Stanach Zjednoczonych sprzedano około 10 milionów komputerów osobistych. W 1976 roku nie było w ogóle komputerów osobistych. Teraz jest to powszechny element wyposażenia każdej produkcji biurowej i przemysłowej.

W Obecnie w Stanach Zjednoczonych dostęp do tysięcy komputerowych baz danych możliwy jest za pośrednictwem komputera osobistego i zwykłej sieci telefonicznej.

W korespondencji biznesowej dominują wiadomości faksowe (faksy).

Pierwszy światłowodowy system telefoniczny

Telekomunikacja i komputery

Kabel zainstalowany w 1977 r. umożliwił przesyłanie informacji

Do niedawna istniało wyraźne rozróżnienie pomiędzy

formowanie z szybkością 44,7 Mb/s i negocjować

różnica między tym, co było częścią systemu telefonicznego, a tym, co było częścią systemu telefonicznego

jednocześnie na 672 kanałach. Dziś jest to system Sonet

te związane z systemem komputerowym. Na przykład telewizja

co jest standardowym systemem w telefonii optycznej

spółkom działającym w tle zakazano udziału w rynku komputerowym

przesyłać informacje z maksymalną szybkością 10 Gb/s,

technologia cierniowa. Dziś zakaz formalnie pozostaje w mocy,

czyli około 200 razy więcej niż możliwości pierwszej optyki

ale jego działanie jest znacznie osłabione. Komputery

system chemiczny. Oczekiwane osiągnięcia i standaryzacja

mogą teraz przesyłać dane przez linie telefoniczne i inne

znacznie wyższe prędkości, które nie są jeszcze dostępne

nas na temat nowoczesnych podzespołów elektronicznych.

komputer) sygnał przed transmisją. Telefon i kom-

Wszystkie powyższe przykłady dotyczą użycia

Firmy komputerowe coraz bardziej konkurują na rynku informacyjnym.

źródła informacji i sposoby ich łączenia. Pod informacją

technologie łączenia.

można tu rozumieć jako treść rozmowy telefonicznej

Przyczynami osłabienia tego zakazu są:

złodziej z przyjacielem lub dowolny projekt. Media przekazu informacji

jasne. Rozwój technologii elektronicznej oznacza bliskość

transfery z miejsca na miejsce są istotne z punktu widzenia posiadania

współdziałanie różnych jego kierunków. Różnica pomiędzy

pełny wolumen informacji w dowolnym miejscu w kraju. Jak

technologia komputerowa i telefoniczna uległa jeszcze większemu osłabieniu

Przykładem przekazu informacji może być telewizja

1982 po upadku największej korporacji AT&T

rozmowa w tle z abonentem po drugiej stronie

części na skalę światową. Sieć informacyjna staje się

krajów i rozmowy między sąsiednimi urzędami rozdzieliły się

pojedynczy system. Coraz trudniej już określić, za co

parę drzwi. Coraz częściej korzystają z nich firmy telekomunikacyjne

za jaką część sieci odpowiadają firmy telekomunikacyjne

wykorzystywać te same technologie cyfrowe do transmisji

należy do firm komputerowych i ma swoją siedzibę w

własność właściciela domu.

jasne, ale z punktu widzenia technologii cyfrowych służących do przekazywania informacji

Rozwój sieci kablowej w Stanach Zjednoczonych wraz z włączeniem

przeniesienia danych informatycznych w zakresie świadczonych usług

firmy telekomunikacyjne są tego najlepszym dowodem

cyfrowe impulsy lub liczby, których typ dokładnie odpowiada

korzyści związane z nadejściem ery informacyjnej.

odpowiada danym komputerowym. Tego rodzaju transformacja

Wcześniej firmy telekomunikacyjne zapewniały komunikację dwukierunkową

cyfrowy sygnał audio umożliwia firmom telekomunikacyjnym

między abonentami, zwane POTS (Plain Old Telephone Ser-

lepiej transmituj rozmowę z mniejszymi zniekształceniami. W większości

wady - zwykłe stare usługi telefoniczne). Obecnie

Większość nowych systemów telefonicznych wykorzystuje technologię cyfrową

Pojawiło się wiele innych usług, np. automatyczne

technologia. W 1984 r. około 34% centralnych linii telefonicznych

Chińskie połączenie telefoniczne, automatyczna sekretarka itp. (usługi te nazywane są PANS

stacje korzystały z cyfrowego sprzętu transmisyjnego. DO

Całkiem niesamowite nowe usługi - po prostu niesamowita nowość

W 1994 roku wartość ta wzrosła do 82%. Światłowód

usługi). Firmy telekomunikacyjne skupiają się na tworzeniu zintegrowanych

wyjątkowo wygodne w telekomunikacji cyfrowej. Przez-

Cyfrowa Sieć Usług Zintegrowanych,

rosnące wymagania w zakresie wydajności, niezawodności, szybkości i

ISDN), przeznaczony do transmisji w sieci telefonicznej państwa

charakterystyka zapewnia ekonomiczną transmisję danych

los, dane i obrazy wideo. Sieci tego rodzaju są reprezentowane

kami systemów światłowodowych.

umożliwiają przesyłanie dowolnego rodzaju informacji

gdziekolwiek i kiedykolwiek.

Alternatywa światłowodowa

Globalna sieć omawiana w tym rozdziale wymaga wydajnego medium do przesyłania informacji. Tradycyjne technologie oparte na wykorzystaniu kabla miedzianego lub transmisji mikrofalowej mają wady i są znacznie gorsze pod względem wydajności od światłowodów. Na przykład kable miedziane mają ograniczoną prędkość transmisji i są podatne na pola zewnętrzne. Transmisja mikrofalowa, choć może zapewnić dość dużą prędkość przesyłania informacji, wymaga użycia drogiego sprzętu i jest ograniczona linią wzroku. Światłowody mogą przesyłać informacje ze znacznie większą szybkością niż kable miedziane, a przy tym są znacznie tańsze i mniej restrykcyjne niż technologia mikrofalowa. Możliwości światłowodów dopiero zaczynają być realizowane. Już teraz linie światłowodowe przewyższają swoimi właściwościami swoje odpowiedniki oparte na kablu miedzianym i należy wziąć pod uwagę, że możliwości technologiczne kabli miedzianych mają mniejszy potencjał rozwojowy niż technologia światłowodowa, która zaczyna się rozwijać. Światłowody zapowiadają się jako integralna część rewolucji informacyjnej, a także część światowej sieci kablowej.

Światłowody będą miały wpływ na życie każdego człowieka, czasem niemal niezauważalnie. Oto kilka przykładów niezauważonego wejścia światłowodów w nasze życie:

dostęp do domu poprzez kabel; podłączenie sprzętu elektronicznego w biurze za pomocą

sprzęt w innych biurach; podłączanie podzespołów elektronicznych w samochodzie;

zarządzanie procesami przemysłowymi.

Światłowody to nowa technologia, która dopiero zaczyna swój rozwój, ale udowodniono już potrzebę jej wykorzystania jako medium transmisyjnego w różnych zastosowaniach.

dacze, a właściwości światłowodów znacznie poszerzą zakres jego zastosowania w przyszłości.

1.2. Problemy komputerów elektronicznych.

Pierwsze masowo produkowane komputery typu mainframe z tranzystorami zostały wypuszczone na rynek w 1958 roku jednocześnie w USA, Niemczech i Japonii. W Związku Radzieckim pierwsze maszyny bezlampowe „Setun”, „Razdan” i „Razdan 2” powstały w latach 1959-1961. W latach 60. radzieccy projektanci opracowali około 30 modeli komputerów tranzystorowych, z których większość zaczęła być produkowana masowo. Najpotężniejszy z nich, Mińsk 32, wykonywał 65 tysięcy operacji na sekundę. Pojawiły się całe rodziny pojazdów: „Ural”, „Mińsk”, BESM. Rekordzistą wśród komputerów drugiej generacji był BESM 6, który osiągał prędkość około miliona operacji na sekundę – jedną z najbardziej produktywnych na świecie.

Pierwszeństwo w wynalezieniu układów scalonych, które stały się podstawową podstawą komputerów trzeciej generacji, mają amerykańscy naukowcy D. Kilby i R. Noyce, którzy dokonali tego odkrycia niezależnie od siebie. Masowa produkcja układów scalonych rozpoczęła się w 1962 roku

roku, a w 1964 r. zaczęło szybko następować przejście od elementów dyskretnych do elementów całkowych. Wspomniany ENIAC o wymiarach 9x15 metrów z 1971 roku można było złożyć na płycie o powierzchni 1,5 centymetra kwadratowego. W 1964 roku IBM ogłosił powstanie sześciu modeli rodziny IBM (System 360), które stały się pierwszymi komputerami trzeciej generacji. Modele posiadały jeden system dowodzenia i różniły się między sobą ilością pamięci RAM oraz wydajnością.

Początek lat 70. to przejście do komputerów czwartej generacji – na ultradużych układach scalonych

(VLSI). Kolejną oznaką nowej generacji komputerów są dramatyczne zmiany w architekturze.

Technologia czwartej generacji dała początek jakościowo nowemu elementowi komputera - mikroprocesorowi lub chipowi (od angielskiego słowa chip). W 1971 roku wpadli na pomysł ograniczenia możliwości procesora poprzez wprowadzenie do niego niewielkiego zestawu operacji, których mikroprogramy trzeba było wcześniej wprowadzić do pamięci trwałej. Szacunki wykazały, że użycie 16-kilobitowej pamięci tylko do odczytu wyeliminuje 100–200 konwencjonalnych układów scalonych. Tak narodził się pomysł mikroprocesora, który można zaimplementować nawet na jednym chipie, a program można zapisać w jego pamięci na zawsze.

W połowie lat 70. sytuacja na rynku komputerowym zaczęła się radykalnie i nieoczekiwanie zmieniać. Wyraźnie wyłoniły się dwie koncepcje rozwoju komputerów. Pierwsza koncepcja została zrealizowana w superkomputerach, a druga w komputerach osobistych. Spośród dużych komputerów czwartej generacji opartych na bardzo dużych układach scalonych wyróżniały się amerykańskie maszyny „Krey-1” i „Krey-2”, a także radzieckie modele „Elbrus-1” i „Elbrus-2”. szczególnie dobrze. Pojawiły się ich pierwsze próbki

w tym samym czasie – w 1976 r. Wszystkie należą do kategorii superkomputerów, ponieważ mają cechy, które są niezwykle osiągalne w ich czasie i są bardzo drogie. Na początku lat 80. produktywność osobista

komputerów osiągało setki tysięcy operacji na sekundę, wydajność superkomputerów sięgała setek milionów operacji na sekundę, a światowa flota komputerowa przekroczyła 100 milionów.

Opublikowano słynny obecnie artykuł Gordona Moore'a

„Przekroczenie liczby elementów w układach scalonych”

(„Wciskanie kolejnych komponentów w układy scalone”), w którym ówczesny dyrektor ds. rozwoju w Fairchild Semiconductors i przyszły współzałożyciel Intel Corporation przedstawił prognozę rozwoju mikroelektroniki na najbliższe dziesięć lat, przewidując, że liczba elementów na liczba chipów w obwodach elektronicznych będzie się co roku podwajać. Później, przemawiając do publiczności na Międzynarodowym Spotkaniu Urządzeń Elektronowych w 1975 r., Gaudron Moore zauważył, że liczba elementów na chipach rzeczywiście podwajała się co roku w ciągu ostatniej dekady, ale w przyszłości, wraz ze wzrostem złożoności chipów, liczba liczba tranzystorów na chipach podwajała się co dwa lata. To nowe przewidywanie również się spełniło i prawo Moore’a w tej formie (podwaja się w ciągu dwóch lat) trwa do dziś, co wyraźnie widać w poniższej tabeli (ryc. 1.4.) i wykresie

Sądząc po najnowszym skoku technologicznym, jakiego Intelowi udało się dokonać na przestrzeni ostatniego roku, przygotowując dwurdzeniowe procesory z dwukrotnie większą liczbą tranzystorów w chipie, a w przypadku przejścia z Madison na Montecito czterokrotnie większą tą liczbą, wówczas prawo Moore’a wraca, choć na krótki czas, do swojej pierwotnej formy – podwajając liczbę elementów na chipie rocznie. Można rozważyć następstwa prawa dotyczącego częstotliwości taktowania mikroprocesorów, chociaż Gordon Moore wielokrotnie przekonywał, że jego prawo dotyczy tylko liczby tranzystorów w chipie i odzwierciedla

Wielkość sprzedaży cywilnych produktów fotoniki wyprodukowanych w Rosji, miliardy rubli. W roku

Wielkość sprzedaży cywilnych produktów fotonicznych wyprodukowanych w Federacji Rosyjskiej (rynek krajowy/eksport) (mld rubli rocznie)

Zarządzeniem Rządu Federacji Rosyjskiej z dnia 24 lipca 2013 r. nr 1305-r zatwierdzono Plan Działań („mapa drogowa”) „Rozwój technologii optoelektronicznych (fotoniki)”.

Rozporządzeniem Ministerstwa Przemysłu i Handlu Rosji z dnia 27 października 2016 r. nr 3385 Dokonano zmian w składzie grupy roboczej ds. fotoniki, której zadaniem jest koordynacja działań na rzecz rozwoju przemysłu w ramach programów rządowych i programów innowacyjnego rozwoju korporacji państwowych. spółki z udziałem państwa i programy platformy technologicznej Photonics, zatwierdzone zarządzeniem Ministerstwa Przemysłu i Handlu Rosji z dnia 29 listopada 2013 r. nr 1911

Republika Mordowii W dniu 18 lutego 2008 roku została zarejestrowana spółka akcyjna „Optical Fiber Systems” (zwana dalej JSC OVS). Inwestorami spółki są OJSC RUSNANO, LLC GPB - High Technologies, Republika Mordowii.

Głównym celem JSC OVS jest realizacja projektu utworzenia pierwszego zakładu produkcyjnego włókien optycznych w Rosji. Budową i uruchomieniem zakładu zajmuje się JSC OVS we współpracy z Rosendahl Nextrom (Finlandia). Rosendahl Nextro dostarcza sprzęt na potrzeby projektu oraz przekazuje technologię produkcji, w tym patenty i know-how, a także szkolenia i staże personelu.
Projekt przewiduje przemysłową produkcję światłowodów telekomunikacyjnych i technicznych, wprowadzenie najnowszych osiągnięć w tworzeniu nanostruktur w światłowodzie oraz wykorzystanie nanotechnologii w celu poprawy właściwości światłowodu. Światłowód jest kluczowym surowcem do produkcji światłowodowych kabli komunikacyjnych wykorzystywanych do budowy stacjonarnych optycznych sieci komunikacyjnych.
Zakład OVS SA w obecnej konfiguracji posiada zdolność produkcyjną na poziomie 2,4 mln km światłowodów rocznie, co zapewni 40-50% zapotrzebowania rosyjskich zakładów kablowych na światłowód i w 100% zaspokoi zapotrzebowanie krajowych zakładów kablowych na światłowód do celów produkcyjnych wyroby kablowe sprzedawane w trybie zamówień publicznych. Istnieje możliwość skalowania produkcji do 4,5 mln km rocznie (70-100% obecnego wolumenu rynku) w tym samym zakładzie produkcyjnym poprzez modernizację urządzeń technologicznych.
Organizacja masowej produkcji włókien optycznych nie tylko zapewni 14 rosyjskich fabryk do produkcji kabli optycznych z krajowych surowców, ale także zorganizuje eksport światłowodów do krajów WNP i daleko za granicę.
Otwarcie zakładu odbyło się 25 września 2015 roku. W oficjalnej ceremonii otwarcia uczestniczyli wicepremier Federacji Rosyjskiej Arkady Dvorkovich, szef Republiki Mordowii Władimir Wołkow i prezes zarządu RUSNANO Anatolij Czubajs.
Do października 2016 r. zakład przeprowadził badania i certyfikację światłowodów, w tym z PJSC Rostelecom, co potwierdziło jakość krajowego światłowodu. W dniu 15 października 2016 roku rozpoczęła się produkcja przemysłowa wyrobów JSC OVS.

Region Kaługa. W Obnińsku w ramach międzynarodowego (Rosja-Niemcy) projektu utworzono regionalne centrum innowacji i technologii laserowych – centrum zbiorowego użytku (Kaluga LITC-TsKP). Misją Centrum jest upowszechnianie promocji technologii i urządzeń laserowych w przemyśle regionu. Aby to osiągnąć, Centrum prowadzi działalność doradczą, demonstruje nowoczesny sprzęt laserowy oraz prowadzi edukację i szkolenia personelu. Kaluga LITC-TsKP wchodzi w skład regionalnej struktury innowacji i cieszy się wsparciem samorządu regionalnego w postaci dotacji, a także zaproszeń do udziału w kampaniach marketingowych w formie misji biznesowych.

Region Permu. Projekt „Stworzenie zaawansowanej technologicznie produkcji fotonicznych układów scalonych do produkcji instrumentów nawigacyjnych” (JSC „Perm Research and Production Instrument-Making Company”), przy wsparciu Rządu Terytorium Perm, otrzymał dotację Ministerstwa Edukacji i Nauki Rosji w kwocie 160 milionów rubli.

Region Permu. Projekt „Stworzenie produkcji kabla optycznego wbudowanego w przewód uziemiający” (Inkab LLC), przy wsparciu Rządu Terytorium Permu, został wpisany przez Ministerstwo Przemysłu i Handlu Rosji na listę priorytetowych kompleksowych projektów inwestycyjnych które otrzymują dotacje rekompensujące odsetki zapłacone od pożyczek zaciągniętych od rosyjskich organizacji kredytowych, szacowana kwota dotacji jest bliska 100 milionów rubli.

Region Permu. Jak wynika z wyników regionalnego konkursu w ramach programu Fundacji Promocji Innowacji „Umnik”, młodzi naukowcy klastra Fotonika zorganizowanego przez regionalne przedstawicielstwo Fundacji przy wsparciu Rządu PC w 2014 roku otrzymali dwa granty na łączną kwotę 800 tysięcy rubli.:

  • „Opracowanie pokładowego światłowodowego systemu pomiarowo-telekomunikacyjnego.
  • „Opracowanie zintegrowanego żyroskopu optycznego opartego na efekcie „trybu galerii szepczących”;

Region Samara. Rozwój najważniejszych badań podstawowych i stosowanych oraz prac rozwojowych w tej dziedzinie realizowany jest w priorytetowych obszarach rozwoju technologii laserowej:

  • badania podstawowe w zakresie technologii laserowych: SF IRE RAS, Instytut Naukowo-Wychowawczy Optyki i Biofotoniki SSU im. NG Czernyszewski, NPP Inzhekt LLC;
  • badania stosowane w zakresie technologii laserowych: Instytut Naukowo-Kształceniowy Optyki i Biofotoniki SSU im. NG Czernyszewski, FSUE „NPP „Almaz”, Przedsiębiorstwo Badawczo-Produkcyjne „Pribor-T” SSTU, CJSC „Kantegir”, JSC „CNIIIIA”, NPF „Piezon”, Instytut Badawczy Elektroniki Syntezującej Znak „Wołga”, LLC NPP „Inzhekt” „, LLC „Technologia szkła nanostrukturalnego”, LLC „Erbiy” i inne;
  • rozwój bazy materiałowo-technicznej i infrastruktury technologii laserowych: LLC NPP „Inzhekt”, NPF „Pribor-T” SSTU, JSC „Kantegir”;
  • szkolenia z zakresu technologii laserowych: Instytut Naukowo-Kształceniowy Optyki i Biofotoniki SSU im. NG Czernyszewskiego, NPF „Pribor-T” SSTU i inni.