Reklama

Wirtualna moc

Dzielenie żmudnych obliczeń między wiele komputerów PC włączonych do globalnej sieci, to jeden z najciekawszych wynalazków ery internetu.

Publikacja: 28.11.2001 08:00

Chodzi o technologię zwaną distributed computing. Pomysł jest prosty: zwykłe komputery PC połączone w sieć, mogą uzyskać moc obliczeniową odpowiadającą superkomputerom. Chociaż teoretycznie użytkownicy internetu mogą tworzyć zespoły oddające do dyspozycji projektów distributed computing setki lub nawet miliony komputerów PC, których suma mocy procesorów osiąga ogromne liczby, to w praktyce problemem jest komunikacja między maszynami. Wiadomo, że do połączenia z internetem stosowane są dość powolne łącza, co powoduje, że pecety włączone w światową sieć, trudno jest odpowiednio szybko "karmić" danymi. Ci, którzy znają konstrukcje komputerów wieloprocesorowych, wiedzą, że jednym z większych problemów jest właśnie komunikacja między poszczególnymi jednostkami obliczeniowymi. W superkomputerach stosuje się specjalne, opatentowane konstrukcje szyn systemowych o gigantycznych przepustowościach, niemożliwych do osiągnięcia w distributed computing. Istnieje jednak wiele zadań, które mogą być efektywnie realizowane przez wirtualny superkomputer, np. żmudne działania statystyczne.

W praktyce distributed computing w internecie polega na podziale zadania na porcje, które są internetem przesyłane do uczestniczących w projekcie użytkowników. Ci, po wykonaniu obliczenia, przesyłają wyniki do serwera firmy administrującej projektem, a następnie pobierają kolejną porcję danych do przetwarzania.

Wiele tego typu programów działa w czasie, kiedy maszyna użytkownika nie wykonuje żadnych innych istotnych czynności, np. jako wygaszacz ekranu. Niektóre programy mogą jednak działać "w tle" non stop wraz z innymi aplikacjami biurowymi w sposób niezauważalny dla użytkownika. Współczesne procesory większość czasu i tak "marnują" na oczekiwanie, zanim zostanie naciśnięty kolejny klawisz.

Wirtualny superkomputer nie daje ścisłej gwarancji mocy obliczeniowej - można ją tylko określić w przybliżeniu. Zależy ona od częstotliwości korzystania internautów z ich pecetów, a także od rodzaju aplikacji uruchamianych razem z programem realizującym obliczenia dla projektu i rodzaju łącza stosowanego przez użytkowników do komunikacji z siecią.

Dla nauki

Reklama
Reklama

Distributed computing jest obecnie wykorzystywany głównie w ramach projektów niekomercyjnych, realizowanych przez tysiące wolontariuszy, ale ostatnio powstają także firmy, które oferują na zasadach komercyjnych usługi obliczeniowe, realizowane przez współpracujących internautów. Tego rodzaju oferta ma być kierowana przede wszystkim do klientów, którzy nie mają swojego superkomputera, gdyż jest to rozwiązanie tańsze niż wynajęcie "prawdziwej" maszyny o dużej mocy.

Pierwszym udanym projektem distributed computing była inicjatywa distributed.net. Biorący w niej udział ochotnicy, próbowali przełamać nowe szyfry, aby sprawdzić ich skuteczność. Obecnie, najbardziej znanym projektem typu distributed computing jest niekomercyjna inicjatywa Seti@home. Jej celem jest analiza danych z radioteleskopu, w poszukiwaniu sygnałów inteligentnych istot pozaziemskich. Seti@home nie jest oficjalnie częścią znanego i prowadzonego od wielu lat przez naukowców programu SETI (Search for Extraterrestrial Intelligence), ale wykorzystuje te same dane z radioteleskopu, a opiekę naukową nad nim sprawuje uniwersytet w Berkeley. Obecnie, w programie uczestniczy ponad 3,3 mln ochotników, którzy na swoich komputerach przetwarzają dane. Program obliczeń SETI działa nie tylko na komputerach PC, ale także innych platformach, np. Mac, Sun, Silicon Graphics. Obliczenia do projektu, oprócz użytkowników domowych, wykonuje wiele komputerów na uczelniach na całym świecie. Codziennie do programu przystępuje około 2 tys. nowych ochotników, a łączny czas poświęcony na obliczenia przez komputery wolontariuszy, przekroczył już milion lat. Obecna moc obliczeniowa systemu Seti wynosi ponad 28 TeraFlops, czyli bilionów operacji zmiennoprzecinkowych na sekundę. Jest to więcej niż słynny superkomputer IBM ASCI White, używany obecnie przez amerykańskich naukowców do symulacji zjawisk związanych z bronią nuklearną.

Aby przystąpić do projektu SETI, wystarczy pobrać ze stron internetowych odpowiednie oprogramowanie, a następnie "ściągać" kolejne porcje danych do obróbki i sukcesywnie przesyłać wyniki swoich obliczeń. Pojedyncza porcja danych w programie SETI ma wielkość kilkuset kilobajtów i jest przetwarzana przez komputer PC w czasie kilkudziesięciu godzin.

Pomysł na biznes

Na pomysł komercyjnego wykorzystania distributed computing wpadła amerykańska firma DataSynapse. Jej oferta jest przeznaczona wyłącznie dla klientów korporacyjnych.

Mogą oni wybrać jeden z trzech dostępnych pakietów. Pierwszy z nich polega jedynie na połączeniu, dzięki internetowi, komputerów należących do jednej firmy, np. w oddziałach w różnych miastach czy krajach. W przypadku, kiedy konieczne jest użycie większej mocy obliczeniowej, możliwe jest skorzystanie z drugiego pakietu - DataSynapse oferuje nadwyżki mocy obliczeniowej swoich partnerów połączonych siecią ekstranetową. Trzecim rozwiązaniem jest rozdzielenie obliczeń na sieć indywidualnych użytkowników komputerów PC, na stałe podłączonych do internetu.

Reklama
Reklama

Użytkownicy, którzy zarejestrują się na stronach internetowych firmy i pobiorą specjalne oprogramowanie, mogą uczestniczyć w komercyjnych projektach obliczeniowych. Internauci, których PC wykonują obliczenia w ramach DataSynapse, nie otrzymują w zamian pieniędzy, ale pewne kwoty mogą przeznaczyć na wybrany cel dobroczynny. Użytkowników ma przyciągać możliwość wygrania jednej z cennych nagród, np. Porsche Boxter lub jednego z kilkudziesięciu komputerów Palm.

DataSynapse, jako jedna z pierwszych firm oferujących usługi oparte na distributed computing, zastosowała zabezpieczenia chroniące komputer klienta przed włamaniami hakerów. Jest to bardzo ważne, ponieważ to właśnie obawy przed komputerowymi włamywaczami były barierą upowszechniania się tej technologii w sieciach korporacyjnych.

Inną firmą oferującą usługi w ramach distributed computing jest Entropia. Jej model biznesowy jest dość szczególny. Firma wykorzystuje komputery współpracujących internautów, zarówno do projektów non profit, jak i komercyjnych. Entropia deklaruje, że projekty komercyjne są obsługiwane po to, aby mogły być realizowane ważne badania. Firma realizuje m.in. program obliczeń mający na celu poszukiwanie leku na AIDS. W przetwarzanie danych zaangażowanych jest już wiele tysięcy ludzi. Osoby, które współpracują z Entropią i oferują moc obliczeniową swoich pecetów, nie są w żaden sposób wynagradzane i jedyną zachętą do wzięcia udziału w projekcie jest możliwość prowadzenia obliczeń dla dobra ludzkości. Mimo dość oryginalnego pomysłu na działalność, ta młoda firma pozyskała w czerwcu 2000 r. finansowanie w łącznej kwocie 6 mln USD. Pieniądze zainwestowały fundusz VC Mission Ventures i Silicon Valley Banks San Diego Technology Group.

Inną firmą oferującą moc obliczeniową w modelu distributed computing jest United Devices. Prowadzi ona obecnie kilka projektów, m.in. badania genetyczne i poszukiwanie leku na raka. W obliczeniach nadzorowanych przez United Devices uczestniczy obecnie ponad 600 tys. użytkowników. W firmę zainwestowano już 31 mln USD, a zrobiły to m.in. Softbank Venture Capital, Intel Capital, AOL Time Warner Ventures.Przyszłość distributed computing realizowanego w sieci internet nie jest jasna. Poważną wadą takiego systemu jest zagrożenie dla bezpieczeństwa rozsyłanych za pośrednictwem sieci danych. Nie wiadomo, czy firmy będą chętnie przekazywały dane, np. o charakterze finansowym, do analizy przez komputery tysięcy przypadkowych ludzi. Większość klientów komercyjnych stać na zakup mocnej maszyny, co powoduje, że rynek usług obliczeniowych, opartych na distributed computing, będzie stanowił raczej margines. Z drugiej strony wątpliwe jest, czy internauci będą skłonni udostępniać swoje komputery klientom komercyjnym, jeżeli nie mają otrzymywać za to wynagrodzenia, a na razie trudno sobie wyobrazić, aby firmy mogły płacić choćby symboliczną kwotę każdemu użytkownikowi uczestniczącemu w tego rodzaju projekcie. Distributed computing może jednak osiągnąć także inny wymiar. Duże korporacje są w stanie wykorzystać swoje własne komputery PC do całkiem poważnych zadań obliczeniowych. W internecie distributed computing pozostanie na razie domeną projektów naukowych. Sytuacja rynkowa tej technologii być może się zmieni, jeżeli któryś z obecnych projektów non-profit, np. poszukiwania istot pozaziemskich czy leku na raka lub AIDS, osiągnie spektakularny sukces. Wtedy może sięgną po nią także klienci komercyjni.

Gospodarka
Na świecie zaczyna brakować srebra
Patronat Rzeczpospolitej
W Warszawie odbyło się XVIII Forum Rynku Spożywczego i Handlu
Gospodarka
Wzrost wydatków publicznych Polski jest najwyższy w regionie
Gospodarka
Odpowiedzialny biznes musi się transformować
Gospodarka
Hazard w Finlandii. Dlaczego państwowy monopol się nie sprawdził?
Gospodarka
Wspieramy bezpieczeństwo w cyberprzestrzeni
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama