Twoja wyszukiwarka

PIOTR KOSSOBUDZKI
BIAŁKO NA MIARĘ
Wiedza i Życie nr 9/2001
Artykuł pochodzi z "Wiedzy i Życia" nr 9/2001

Dotychczas leki przeciwko nowotworom czy enzymy w proszkach do prania odkrywano metodą prób i błędów. W przyszłości będą one projektowane na zamówienie.

Jak powstaje funkcjonalne białko?

Epidemia dziesiątkuje Afrykę. Każdego dnia giną setki ludzi. Naukowcy wyizolowali zabójczego mikroba i zbadali jego DNA. Informacja zostaje przesłana do Centrum Tworzenia Nowych Leków. Po kilku godzinach jest już opracowany nowy preparat hamujący podziały chorobotwórczej bakterii. Dwa dni później ryzyko epidemii zostaje zażegnane.

Fantastyka? Do pewnego stopnia. Urzeczywistnienie tej wizji wymaga poznania tajemnic budowy białek. Aby skutecznie walczyć z wrogiem, trzeba go poznać z dokładnością do pojedynczego atomu. Problem w tym, że białko, czyli łańcuch złożony z wielu "ogniw" - aminokwasów, zaraz po powstaniu zwija się, tworząc skomplikowaną strukturę przestrzenną (ryc. na następnej stronie). Od kształtu białka zależy pełniona przez nie funkcja. Do niedawna kształt ten można było poznać jedynie dzięki badaniom krystalograficznymi. Naukowcy uzyskiwali kryształki białka, prześwietlali je promieniami rentgena i analizowali, jak białko zmienia bieg promieniowania. Na tej podstawie wysnuwali wnioski o budowie cząsteczki. To trochę tak, jakby próbowano ustalić układ igieł jeża, badając jego cień na ścianie. Nic więc dziwnego, że takie badania mogły trwać nawet kilka lat. Dzięki tej metodzie udaje się jednak badać strukturę białek składających się z ponad tysiąca aminokwasów.

Do rozwoju wiedzy o białkach przyczyniła się także genetyka, ponieważ na podstawie DNA można z dużym prawdopodobieństwem przewidywać kolejność aminokwasów. Mimo to krystalografia do dziś pozostaje najpewniejszą metodą badania struktury białek.

Po nitce do kłębka

W latach siedemdziesiątych rozpoczęto próby tworzenia modeli białek przy użyciu komputerów. Dziś znamy budowę około 14 tys. struktur białkowych i kilkaset sposobów zwijania się białek, a także kilkaset tysięcy sekwencji aminokwasów o nieznanej budowie przestrzennej. Modelowanie komputerowe dokonało rewolucji w badaniach struktur białkowych. Po pierwsze, jest szybkie - opracowanie nowego modelu może trwać zaledwie kilka dni. Po drugie, jest tanie, ponieważ cały proces odbywa się w pamięci komputera, a nie w laboratorium. Po trzecie, pozwala na analizę tych białek, których nie potrafimy skrystalizować.

Do stworzenia komputerowego modelu można dojść dwoma sposobami. Pierwszy wymaga mniejszej liczby danych początkowych, ale daje mniej wiarygodne rezultaty. Polega na modelowaniu na podstawie kolejności aminokwasów w łańcuchu białkowym. Przypomina trochę budowanie obrazka z puzzli - tylko elementy o odpowiednich cechach pasują do danego miejsca układanki. Wiedząc, jak oddziałują ze sobą poszczególne aminokwasy, czy stronią od wody (są hydrofobowe), czy też przeciwnie - "garną się" do niej (są hydrofilowe), a także wiedząc, w jakiej części komórki dane białko się znajduje, możemy odtworzyć jego strukturę przestrzenną. Ponieważ na każdą cząsteczkę w komórce oddziałują dziesiątki czynników, a białka podlegają ciągłym przemianom, modele powstałe wyłącznie na podstawie sekwencji aminokwasów nie są dokładne. To tak, jakby puzzle były zrobione z plasteliny i zmieniały kształt pod wpływem ciepła i nacisku palców. Przy każdej próbie ułożenia wychodzi trochę inny obrazek.

Bardziej wiarygodne modele otrzymuje się poprzez modelowanie homologiczne. Opiera się ono na założeniu, że cząsteczki białka o podobnej kolejności aminokwasów w łańcuchu mają także podobną budowę i funkcję. Jeśli więc chcemy stworzyć model nowo poznanego białka, szukamy w bazach danych znanej cząsteczki o zbliżonej wielkości i podobnej sekwencji. Wystarczy odnaleźć 30% identycznych "klocków" budujących białko, by odtworzyć wygląd nowej cząsteczki. Modelowanie homologiczne może być narzędziem o ogromnej precyzji - dla białek o dużym podobieństwie do cząsteczek już znanych dokładność rozmieszczenia elementów modelu może być mniejsza niż odległości między atomami. To rezultat, jakim dotąd mogły się poszczycić tylko metody krystalograficzne.

Zazwyczaj jak największą część badanego białka próbuje się odtworzyć, szukając podobieństw strukturalnych. Dopiero krótkie fragmenty charakterystyczne tylko dla nowej cząsteczki modeluje się od podstaw.

Proszek "E" i sztuczne piwo

Po co tyle starań? Poznanie molekularnej struktury enzymów (które są przecież białkami) otwiera nieograniczone pole zastosowań praktycznych. Część z nich wychodzi... w praniu. Starsi czytelnicy zapewne pamiętają pierwsze proszki enzymatyczne, jak choćby proszek "E", który prał skutecznie, ale tylko, gdy woda nie była gorąca. To dlatego że zawarte w nim enzymy były wrażliwe na wahania temperatury: zmieniały kształt i traciły aktywność. Wiedząc, jak są zbudowane, można "usztywnić" ich strukturę i uodpornić je na niekorzystne warunki panujące podczas prania w wysokiej temperaturze.

Powstająca nowa dziedzina wiedzy - inżynieria białkowa - pozwoli w przyszłości na tworzenie "na zamówienie" białek przeprowadzających żądane reakcje chemiczne, np. "produkujące" tworzywa sztuczne i rozkładające szkodliwe odpady. Zamiast ulepszać drożdże używane do produkcji piwa, może szybciej i taniej byłoby otrzymywać ten sam produkt za pomocą kilku syntetycznych enzymów?

Modelowanie białek przyda się też do tworzenia nowych leków. Przykład? Stworzenie leku przeciwko wirusowi HIV (ramka "Od wirusa do leku na AIDS"). Pięć lat temu opracowanie takiej grupy leków zostało okrzyknięte przez tygodnik Science wydarzeniem roku. Odpowiednio dopasowanymi lekami można blokować zdolność komórek raka do tworzenia przerzutów. Niedawno Bogdan Lesyng i Krzysztof Ginalski z Zakładu Biofizyki Uniwersytetu Warszawskiego analizowali budowę toksyny (tzw. jadu kiełbasianego), wytwarzanej przez bakterię Clostridium botulinum. Jest to związek, który poraża układ nerwowy, blokując połączenia między mózgiem a mięśniami.

Wiadomo było, że struktura toksyny Clostridium jest bardzo podobna do toksyny tężca, jednej z najsilniejszych trucizn występujących w przyrodzie (ryc. powyżej). Jednak mimo niemal identycznej budowy atakują one różne typy neuronów. Porównując modele obu białek, badacze znaleźli w nich fragment, który prawdopodobnie decyduje o tym, że toksyna łączy się z wybranym typem komórki, wnika do niej i przerywa sygnalizację między neuronami. Znając kształt tego fragmentu, można zaprojektować lek, który będzie blokował to miejsce i uniemożliwiał sparaliżowanie układu nerwowego.

Przyjaciele i rywale

Dziś prawie każda firma farmaceutyczna ma pracownię komputerowej analizy. Wyścig do krociowych zysków sprawił, że wyniki badań pozostają utajnione. W ten sposób nie można skutecznie kontrolować błędów, co jest szczególnie groźne przy produkcji leków. Prowadzi to też do opóźnienia tempa prac, ponieważ wiele technik czy usprawnień trzeba odkrywać po kilka razy, osobno w każdym laboratorium. Na szczęście znaczna część specjalistów zajmujących się badaniem struktur białek pracuje w imię nauki, a nie tylko i wyłącznie dla zysku. Ci badacze wymieniają się doświadczeniami i wspólnie ulepszają stosowane metody. Co dwa lata stają do konkursu sprawdzającego skuteczność ich technik. Te naukowe zawody, o nazwie "Critical Assessment of Techniques for Protein Structure Prediction" ("Krytyczna Ocena Technik Przewidywania Struktury Białka" - w skrócie CASP), rozpoczynają się wiosną, kiedy krystalografowie deponują w ogólnodostępnej bazie danych informacje o nazwie, pochodzeniu i sekwencji białka, którego budowę właśnie zbadali. Nie udostępniają jednak wiadomości o jego strukturze przestrzennej - jej odtworzenie to zadanie dla zespołów zajmujących się modelowaniem komputerowym. Mają stworzyć wirtualny model białka, będący jak najwierniejszą kopią cząsteczki poznanej przez krystalografów. Jesienią następuje porównanie wyników napływających z całego świata z wzorcem.

Co ciekawe, do analizowania struktur przestrzennych białek wcale nie potrzeba niezwykle zaawansowanego sprzętu. Wystarczy dobry pecet. Jeśli jednak na ekranie komputera chcemy odtworzyć ruchy atomów podczas reakcji chemicznej, musimy użyć superkomputerów. W Interdyscyplinarnym Centum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego działa np. najszybszy w Polsce komputer swojej klasy: Cray SV1. Jest on wyposażony w 32 gigabajty pamięci operacyjnej i 32 procesory; z których każdy wykonuje 1.2 mld operacji na sekundę (kilkaset razy więcej niż procesor popularnych komputerów).

Pomimo że komputery są niezbędnym narzędziem w pracy "białkowego modelarza", nie potrafią jeszcze (i pewnie nigdy nie będą mogły) zastąpić człowieka. Choć wszyscy naukowcy posługują się przecież zbliżonymi technikami i oprogramowaniem, kilku z nich wy-różnia się dzięki niezwykłemu talentowi. Jednym z nich jest David Baker z University of Washington, zajmujący się przede wszystkim modelowaniem na podstawie sekwencji aminokwasów. W kolejnych edycjach CASP-u opanowywał coraz bardziej zaawansowane etapy przewidywania struktur białkowych, tak że w ubiegłym roku nie miał sobie równych we wszystkich niemal konkurencjach. Trzy miesiące temu posunął się jeszcze krok dalej - stwierdził, że białko, którym się zajmował, nie zwija się w najlepszy możliwy sposób. Postanowił więc poprawić naturę - po modyfikacjach białko zwijało się ponad sto razy szybciej.

W przypadku Alexeya Murzina z University of Cambridge można wręcz mówić o geniuszu. Ten człowiek to chodząca encyklopedia białek. Mając w pamięci tysiące różnych modeli, potrafi wyszukiwać między nimi podobieństwa, których nie odnajdują wyspecjalizowane programy komputerowe. Zajmuje się tylko szczególnymi problemami i przeprowadza najtrudniejszy etap procedury.

Polak potrafi!

Krzysztof Ginalski, młody polski naukowiec z Wydziału Fizyki UW, do ostatniej edycji CASP-u przygotowywał się niespełna tydzień. Mając tak niewiele czasu, cały wysiłek skoncentrował na kluczowym jego zdaniem etapie - wyszukaniu odpowiednich białek "spokrewnionych" z modelowaną cząsteczką i dopasowaniem odpowiadających sobie fragmentów sekwencji. To właśnie ten element procedury sprawia najwięcej problemów komputerom, wymaga bowiem doświadczenia, dobrej znajomości fachowej literatury i... intuicji. Wysiłek się opłacił - wszystkie cztery zgłoszone przez niego modele znalazły się w ścisłej czołówce.

Obecnie naukowcy zajmujący się strukturami przestrzennymi białek szukają nowych celów. Wyposażeni w coraz sprawniejsze programy i coraz szybsze komputery, a przede wszystkim bogatsi w doświadczenie, analizują nowe rodziny białek. Krystalografowie starają się poznać cząsteczki charakterystyczne dla nie zbadanych dotąd grup substancji. Nowe dane krystalograficzne to woda na młyn specjalistów od metod analizy komputerowej. Już niedługo wizja tworzenia leku na życzenie, przedstawiona we wstępie tego artykułu, może więc stać się faktem.

Leki z komputera?

Rozmowa z Waldemarem Priebe, profesorem chemii medycznej w MD Anderson Cancer Center przy University of Texas

Czy modelowanie komputerowe zdominuje badanie nowych leków?

Jestem entuzjastą projektowania leków przy użyciu modelowania molekularnego. Nie należy jednak popadać w przesadę. Patrząc z perspektywy ostatnich kilkunastu lat, można było zaobserwować fascynacje kolejnymi technikami czy grupami leków. We wczesnym etapie rozwoju modelowania strukturalnego firmy farmaceutyczne entuzjazmowały się: "kupimy superkomputery i wszystko wymodelujemy. Zredukujemy liczbę zatrudnionych chemików, pozostanie tylko grupa ludzi do badań klinicznych i marketingu". Efekt? Pasmo niepowodzeń. Obecnie jednak modelowanie okrzepło i jest powszechnie stosowane. Zwłaszcza w przypadkach, gdy znamy budowę cząsteczek, z którymi mają oddziaływać nowe leki.

Czy dziś w ogóle można opracować nowy środek bez modelowania?

Wiele firm farmaceutycznych tak robi. Za pomocą wydajnych eksperymentalnych metod testowania analizuje tzw. biblioteki związków. Wykorzystując zautomatyzowaną aparaturę, przeprowadza się tysiące reakcji, aby znaleźć możliwie jak największą liczbę substancji o pożądanym działaniu. To tylko nieco wydajniejsza wersja tradycyjnego podejścia do szukania nowych leków z roślin stosowanych np. w medycynie ludowej. Chemicy wybierają następnie grupę najbardziej obiecujących preparatów i starają się poprawić ich właściwości - aktywność, trwałość. Dopiero wtedy zaczynają się prawdziwe problemy. Sprawdza się, czy preparat nie powoduje skutków ubocznych, jak jest przetwarzany przez organizm itp. Często rozpoczyna się próby z kilkoma tysiącami dobrze wróżących związków, z których najwyżej jeden osiąga sukces.

Prztyczkiem dla firm farmaceutycznych stawiających wyłącznie na modelowanie był przypadek taxolu. To obecnie jeden z podstawowych leków w terapii raka piersi i innych nowotworów. Otrzymuje się go z kory i szpilek cisu. Ze względu na skomplikowaną strukturę chemiczną nikt nie potrafił stworzyć jego modelu. Pomimo że lek został wprowadzony do sprzedaży stosunkowo niedawno, opracowano go całkowicie klasyczną metodą - od analizy 35 tys. roślin pod kątem właściwości antyrakowych do wytworzenia półsyntetycznych pochodnych. Po tym przypadku firmy farmaceutyczne znów wróciły do badania roślin. Podsumowując - nowe leki są i będą tworzone z wykorzystaniem różnych metod. Coraz lepsza wiedza o ludzkim genomie otwiera jednak możliwość powszechnego stosowania metod modelowania.