Infopościg za naturą

Infopościg za naturą

Poznanie ludzkiego genomu bez pomocy superkomputerów byłoby niemożliwe. Pracując tradycyjnymi metodami, naukowcy z trudem mogliby zbadać sto lub dwieście nukleotydów, a są ich ponad trzy miliardy! - mówi prof. Ewa Bartnik z Instytutu Biochemii i Biofizyki Polskiej Akademii Nauk.
Wielki mikrokrok
"Stworzenie mapy genetycznej było nie tylko wyzwaniem badawczym, ale też obliczeniowym" - oznajmił Craig Venter, dyrektor generalny firmy Celera Genomics. Wykorzystano w tym celu zbudowany przez Compaq system zawierający 700 procesorów Alpha, zdolny do wykonywania biliona operacji na sekundę. Równa się to mocy obliczeniowej 20 tys. pecetów!
W naturze pełną informację genetyczną zawiera każda komórka - jej odpowiednik w postaci elektronicznej zajmuje dwa piętra zastawione komputerami i urządzeniami pamięci masowych w Sanger Centre niedaleko Cambridge, jednym z ośrodków biorących udział w Human Genome Project. - Gdy w 1995 r. zaczynaliśmy badania nad ludzkim genomem, dysponowaliśmy dyskami o pojemności kilkunastu megabajtów. Dziś dane dotyczące projektu zajmują ponad 20 terabajtów, a więc milion razy więcej. Nasze zapotrzebowanie na moc i pojemność rośnie z dnia na dzień - ujawnia Phil Butcher, szef informatyki w Sanger Centre. Rozbudowywany przez firmę Compaq system ma być w przyszłym roku zdolny do wykonywania dwóch bilionów operacji zmiennoprzecinkowych na sekundę (w skrócie TFLOPS) i przechowywania stu terabajtów informacji.
Mapa genetyczna to jednak tylko wstęp do ustalenia znaczenia poszczególnych genów, ich wpływu na życie człowieka, na przykład podatność na choroby. Prace z tym związane są zaplanowane na najbliższe kilkadziesiąt lat. Do przełomu w tej dziedzinie może się przyczynić realizowany przez IBM projekt Blue Gene. Zakłada on uruchomienie w 2003 r. centrum obliczeniowego o wydajności prawie sto razy większej od najszybszego superkomputera wykorzystywanego obecnie. Ponad milion procesorów będzie wykonywać biliard operacji zmiennoprzecinkowych na sekundę, czyli dwa miliony razy więcej niż zwykły komputer domowy! Mimo skokowego wzrostu mocy naukowcy nie są przekonani, czy kosztujący 100 mln USD Blue Gene poradzi sobie z symulowaniem powstawania białek. Stosowanym obecnie superkomputerom symulacja zachowania niewielkiego białka w ciągu zaledwie jednej milionowej sekundy zajmuje... trzy miesiące!

Wirtualny wybuch
Najwydajniejszy obecnie superkomputer ASCI White, opracowany przez IBM, wykorzystywany jest przez amerykańską agencję ds. energii do symulowania wybuchów nuklearnych. ASCI White pra-cuje w laboratorium w Livermore w Kalifornii. - Zbudo-wano go z 512 serwerów. Ma 8192 procesory PowerPC 3 (64-bitowe) i potrafi wykonać dwanaście bilionów operacji na sekundę. Dzięki jego możliwościom Amerykanie zdecydowali się podpisać memorandum na przeprowadzanie prób jądrowych, bo superkomputer doskonale symuluje skutki wybuchu - mówi Ziemowit Przymus, dyrektor działu serwerów IBM Polska. Supermaszyny stosowane są też do analizy wybuchów kosmicznych. Uniwersytet w Illinois wykorzystuje system komputerowy, który docelowo ma mieć wydajność 4 TFLOPS, do badania efektów kolizji czarnych dziur. Wyniki mają potwierdzić istnienie fal grawitacyjnych w teorii względności Einsteina. To najszybszy komputer akademicki - oblicze-nia, które wykonuje w sekundę, zajęłyby człowiekowi z kalkulatorem w ręku 1,5 mln lat! Europejski rekordzista pod względem wydajności (3,8 TFLOPS) działa w Instytucie Maxa Plancka w Niemczech. Służy m.in. do analizy prionów, co ma pomóc w leczeniu chorób Alzheimera, a także Creutzfeldta i Jakoba. Wkrótce zdetronizuje go komputer opracowywany przez firmę Compaq dla Francuskiej Komisji Energii Atomowej. Będzie on miał wydajność 5 TFLOPS, co odpowiada całodobowej pracy 30 tys. matematyków przez pięć lat.
Najszybszy superkomputer w naszej części Europy działa w Trójmiejskiej Sieci Akademickiej. - Wykorzystano w nim 128 procesorów Intel Pentium III Xeon. Wydajność Galery, jak nazwaliśmy nasz klaster, szacuje się na 90 mld operacji zmiennoprzecinkowych na sekundę. Każde podwojenie mocy wydatnie skraca czas badań. To, co wcześ-niej zajmowało naukowcom rok, trwa tylko pół roku. Działająca od października 2000 r. Galera jest dziesięciokrotnie wydajniejsza od wszystkich wykorzystywanych przez nas wcześniej superkomputerów - mówi Mścisław Nakonieczny, dyrektor Centrum Informatycznego TASK. - Prowadzę badania cząstek składających się z kilku tysięcy atomów. Analizy drgań tych atomów nie można byłoby przeprowadzić bez tak wielkiej mocy obliczeniowej - podkreśla Bartosz Pliszka, chemik z Uniwersytetu Gdańskiego. Wtóruje mu Michał Białoskórski, fizyk z Politechniki Gdańskiej: - Badam właściwości mechaniczne i elektryczne nanorurek, bardzo obiecujących struktur, które mogą znaleźć zastosowanie w technologiach kosmicznych i elektronice. Tylko tak wydajny komputer jak Galera pozwala mi osiągnąć postęp w badaniach.

Tajemnicza pogoda
Jednym z największych odbiorców superkomputerów są ośrodki analizujące zmiany klimatyczne. Liczba czynników wpływających na pogodę jest jednak tak duża, że nawet największe centra obliczeniowe nie odniosły na tym polu sukcesów. - Najnowsze komputery nie są w stanie rozwiązać nawet uproszczonych równań opisujących pogodę. Dlatego uważam, że wszelkie apokaliptyczne wizje zagłady klimatycznej za 50 lat nie mają podstaw naukowych - twierdzi prof. Zygmunt Kolenda z Akademii Górniczo-Hutniczej w Krakowie.
Dzięki supermaszynom prace badawcze można skrócić o dziesiątki lat. - Superkomputery otworzyły przed człowiekiem nowe obszary nauki, umożliwiły zmierzenie się z problemami, które do niedawna można było spot-kać tylko w literaturze science fiction - optymistycznie podkreśla Dan Reed kierujący centrum superkomputerowym uniwersytetu w Illinois.

Okładka tygodnika WPROST: 25/2001
Więcej możesz przeczytać w 25/2001 wydaniu tygodnika „Wprost”
Zamów w prenumeracie lub w wersji elektronicznej:

Czytaj także

 0