za

Gavin Andresen – po co nam limit wielkości bloku?

2016-03-07
Techniczne
Binance Launchpool

Od momentu wprowadzeniu limitu bloku przez Satoshiego w lipcu 2010, sporo się w sieci zmieniło. Czy ten limit jest nam w ogóle potrzebny?

 

 

Od momentu wprowadzeniu limitu bloku przez Satoshiego w lipcu 2010, sporo się w sieci zmieniło. Czy ten limit jest nam w ogóle potrzebny?

 

Niniejszy tekst powstał w oparciu o artykuł Gavina Andresena – dewelopera Bitcoin Classic

 

Satoshi wprowadził limit 1MB jako zabezpieczenie sieci przez atakiem DoS (Denial of Service – uniemożliwienie lub znaczne spowolnienie normalnej pracy systemu). W 2010 roku liczba transakcji była niewielka, cena BTC oscylowała w okolicy kilku centów. Zakup BTC na giełdzie tylko w celu produkowania małych transakcji w celu budowania wielkich bloków stanowiły niewielki koszt: 50BTC z wydobycia bloku było warte raptem $1.5. A z takiej ilości monet można wygenerować ogromną ilość transakcji i skutecznie blokować sieć. Bez górnego limitu wielkości bloku atakujący mógłby bardzo obciążyć wszystkie węzły oraz marnować duże ilości miejsca na dysku użytkowników.

 

Wprowadzenie limitu pozwoliło na ograniczenie zasięgu takiego ataku. W porównaniu do 2010 obecna cena wynosi około $400 i przy nagrodzie 25BTC na blok atakujący musiałby dysponować kwotą ponad $10`000 aby wykonać podobną operację. O ile poświęcenie $2 „dla zabawy” było jak najbardziej realne, o tyle wydanie $10`000 już zdecydowanie stoi poza zasięgiem przeciętnego żartownisia.

 

Drugim źródłem ataku na sieć są transakcje wymagające bardzo dużej ilości mocy obliczeniowej w celu jej weryfikacji. Atak taki nigdy nie nastąpił (choć był dokładnie opisany już w 2013 roku), a wprowadzona niedawno poprawka BIP109 praktycznie go uniemożliwia.

 

Pojemności dysków dostępne dla zwykłego użytkownika rosną bardzo szybko i nie wygląda na to, że to ograniczenie miałoby wpłynąć na dalszy rozwój projektu i możliwość uruchamiania pełnych węzłów Core przez domowych użytkowników.

 

Dlaczego więc deweloperzy tak uparcie stoją przy limicie, który nie spełnia swojej podstawowej roli już od dłuższego czasu? Bazując na danych z 2010 roku maksymalna wielkość bloku mogłaby być o kilka rzędów wielkości większa niż 1MB (wtedy sieć potwierdzała kilkaset transakcji dziennie, obecnie są to setki tysięcy transakcji). Wiemy jak można ten limit zmienić, znamy bezpieczne metody wprowadzenia hardforka, co nas powstrzymuje?

 

Z punktu widzenia użytkowników sieci obecna sytuacja jest nie do przyjęcia. Na potwierdzenie transakcji czeka się coraz dłużej pomimo zapłaty znacznie większych opłat. Zwiększenie przepustowości sieci w krótkim czasie rozładowałoby istniejący „korek” transakcji niepotwierdzonych i przywróciło sieci szybkość.

 

Jedynym przeciwwskazaniem wydają się być ograniczenia łącz internetowych. Pomimo znacznego wzrostu ilości transakcji w sieci, sam protokół transmisji transakcji i bloków przez lata nie uległ zasadniczym zmianom. Bez wprowadzenia zmian w protokole P2P (np. Xtreme Thinblocks) nie ma co marzyć, aby kopalnie z Chin poparły projekt znacznego zwiększenia wielkości bloku. Jednak proponowany hardfork bloku do 2MB jest przez wszystkich akceptowany i powinien być jak najszybciej wdrożony. Również nie ma przeciwskazań, aby wprawadzić Xtreme Thinblocks, które są już rozwiązaniem gotowym do ewentalnego wdrożenia.

 

Istnieje już na tyle duża ilość opracowań protokołów i analiz ruchu w sieci, że uruchomienie zmiany automatycznej regulacji wielkości bloku również nie stanowi problemu. Pozostaje tylko kwestia przekonania największych kopalni do przyjęcia i poparcia jednego projektu tak, aby zmiany weszły w życie jak najszybciej.

 

Fotografia na licencji Creative Commons: Flickr.com

Bitcoina i inne kryptowaluty kupisz w prosty i bezpieczny sposób na giełdzie zondacrypto.

Tagi

Newsletter Bitcoin.pl

Więcej niż bitcoin i kryptowaluty. Najważniejsze newsy i insiderskie informacje prosto na Twój email.

Dbamy o ochronę Twoich danych. Przeczytaj naszą Politykę Prywatności