Andresen

 

Developerzy Jeff Garzik i Gavin Andresen opublikowali wspólnie dokument, w którym zdecydowanie sprzeciwiają się planowi wprowadzenia oddzielonych podpisów (segregated witness) bez zwiększania maksymalnej wielkości bloku.

 

 

(tłumaczenie)


 

Zaproponowany harmonogram, który jest obecnie dyskutowany w środowisku Bitcoina, ma kilka dobrych punktów które zapewniają zwiększenie pojemności sieci, ale nie pokazuje on użytkownikom oczywistych wad jakie wprowadza. Podsumowaniem tego harmonogramu jest teza, że:

 

Bitcoin przestawia się na nowy model ekonomiczny, prawdopodobnie z większymi opłatami.

 

Wielkość bloku się nie zmienia, tu nie ma żadnego kompromisu. Przy widocznie rosnącej liczbie transakcji (podwoiła się w ostatnim roku) pozostawienie limitu 1M powoduje rosnące opłaty, zauważalne zmiany ekonomiczne oraz zwiększenie ryzyka użycia przypadkowo powstałego narzędzia ekonomicznego w celach politycznych.

 

Zaplanowana zmiana.

 

Zwiększenie opłat oraz zmiana polityki opłat uderza we wszystkich użytkowników Bitcoina, jest to jednak jedynie oględnie wspominane w par. 18 harmonogramu:

 

„Propozycja pomoże […] powstrzymać kopalnie przed zmianą polityki opłat która ostatecznie będzie utrzymywać bezpieczeństwo” (Chodzi o moment, kiedy opłaty będą jedyną nagrodą) oraz w par. 4 BIPa Petera Wullie : „Rozwój rynku opłat i jego ewolucja w kierunku konkurowania o miejsce w bloku powinno zostać uznane za zdrowe (zachowanie) […] Jednakże, celem takiej zmiany powinna być ewolucja podążająca za technologicznym wzrostem, a nie odkładanie poważnej decyzji w nieskończoność w obawie przed zmianą ekonomii”.

 

Najwyraźniej deweloperzy widzą konieczność zmiany Bitoina w inny system ekonomiczny ze „zdrową” konkurencją o miejsce w bloku. Obecnie jest to osiągnięte przez utrzymanie maksymalnej wielkości bloku w obliczu rosnącej ilości transakcji – jest to wynik obecnego konsensusu wśród deweloperów który kontynuuje przedstawiony harmonogram wprowadzania zmian.

 

W optymalnym, transparentnym środowisku open-source powinien powstać BIP opisujący zmianę obecnego systemu ekonomicznego Bitcoina w „zdrowy rynek opłat”. Powinno to następnie zostać przeanalizowane pod kątem ryzyka technicznego, ekonomicznego, konieczności hardforka itd. To wszystko jednak nie miało miejsca.

 

Nie powstał również powiązany dokument BIP opisujący minimalne wymagania pełnego węzła Core wyrażony w ilości RAM, rdzeni CPU, pamięci masowej oraz wymaganego łącza internetowego w oparciu o eksperymenty – nie symulacje – wykonane na platformie takiej jak planet-lab.org. To pozwoliłoby określić jaka konkretnie ilość węzłów byłaby w stanie rozsyłać informacje wystarczająco szybko, aby utrzymać zdecentralizowany charakter globalnego konsensusu Bitcoin dla konkretnej wielkości bloku.

 

Jak Stoshi uniknął „widzialnej ręki” (Przeciwieństwo „niewidzialnej ręki wolnego rynku”)

 

Zablokowanie maksymalnej wielkości bloku na 1MB z historycznego zabezpieczenia przed atakiem DoS na sieć, przypadkowo stworzyło narzędzie polityczne. Satoshi dodał limit 1MB do konsensusu w 2010 roku, celowo dużo powyżej zasięgu ówczesnego rynku opłat transakcyjnych. To sztuczne ograniczenie działa jako zabezpieczenie przed atakiem DoS przez zwiększenie sumarycznego kosztu takiego ataku. Ustawienie limitu powyżej zasięgu wolnego rynku stworzyło zabezpieczenie, rozsądnie wolne od polityki.

 

Proces późniejszej aktualizacji tego limitu został również opisany w 2010 przez Satoshiego.

 

W momencie, gdy średnia wielkość bloku zbliża się do granicznego 1M, zmienia się obraz teorii gier. Przypadkowy, sztuczny 1M limit staje się czynnikiem decydującym o rynku. Konkurencja nie toczy się już tylko o miejsce w bloku ale też o konsensus deweloperów – ponieważ w tym nowym systemie ekonomicznym, możliwość utrzymania lub zmiany tego limitu powoduje powstanie układu w którym to ludzie – a nie bezpośrednio wolny rynek – mają zbyt dużą władzę.

 

Przez przypadek, lub celowo, Satoshiemu udało się stworzyć działający wolny rynek oraz odsunąć tą „widzialną rękę” daleko w przyszłość, przez ustawienie limitu dużo wyżej niż sięgał ówczesny rynek opłat transakcyjnych. Limit ten służył przez lata jako zabezpieczenie przed DoS, wykładniczo zwiększając koszty ataku, podczas gdy wolny rynek osiągnął własną równowagę.

 

Cała debata o wielkość bloku sprowadza się do konkurujących teorii ekonomiczno-systemowych. Jedna z teorii głosi, że istnieje zakres wolnego rynku dla danej wielkości bloku, niezależnie od ustalonego górnego limitu. Druga teoria mówi, że górna granica wielkości jest niezbędna do utrzymania wolnego rynku w ryzach. Brak zmiany wielkości bloku zamienia pierwsze w drugie – terytorium nieznane dla Bitcoina.

 

Aktualizacja całego systemu w celu uniknięcia aktualizacji całego systemu.

 

Dla użytkowników powstający obraz rynku zostaje zaciemniony. Od 2010 roku, przez konferencję w Montrealu, zwiększenie wielkości bloku wydawało się pewne. Kolejna konferencja w HK gwałtownie zmienia ten kierunek w stronę „segregated witness” (oddzielenie podpisów, SW).

 

SW unika wymuszenia hardforka przez wprowadzenie aktualizacji w transakcjach, blokach, adresach, skryptach, węzłach, kopalniach, portfelach, eksploratorach, bibliotekach i API. To wszystko w celu wprowadzenia częściowego zmniejszenia zapychania się bloków zakładając, że użytkownicy zrobią aktualizację – 1.6M (średnia wielkość bloku po wprowadzeniu SW) jeżeli 100% użytkowników zrobi aktualizację (bazując na aktualnych danych).

 

Wprowadzenie SW wymaga znacznych modyfikacji tylko w celu utrzymania aktualnej funkcjonalności w obliczu rosnącej ilości transakcji. SW komplikuje ekonomię Bitcoina, przez podział „bloku” na pojemnik z dwoma zasobami ekonomicznymi: blok główny i blok rozszerzony – oba z różnymi cennikami oraz mocno pokrywającymi się rolami.

 

Zwiększenie wielkości bloku wręcz przeciwnie: jest zgodne z większością istniejącego oprogramowania, większość portfeli może działać bez żadnych modyfikacji. Całkowita ilość zmian jaką trzeba wprowadzić w portfelach, bazach, bibliotekach itd. jest minimalna. Cały hałas jest tylko o sam hardfork.

 

Jednym z głównych celi warsztatów Scaling Bitcoin było przebudowanie chaotycznej debaty o wielkości bloku w konkretny proces podjęcia decyzji. Tak jednak się nie stało. Zamiast tego konferencja wstrzymała decyzję o zwiększeniu bloku, gdy narasta problem rosnących opłat i miejsca w bloku. Konferencja była pomocna w zebraniu głosów, na temat pożądanej wielkości bloku. Najczęstszą odpowiedzią było 2M.

 

Zbyt długie pomijanie trudnych pytań

 

Zaproponowana kolejność prac omija istniejące już pytania:

 

  • Kiedy opłaty są za wysokie?
  • Jaki jest więc proces zwiększana wielkości bloku?
  • Dlaczego potrzebujemy wysokich opłat na tak wczesnym stadium rozwoju bitcoina?

 

W przeciwieństwie do zautomatyzowanego systemu programowego, ustalona maksymalna wielkość bloku daje ludziom narzędzie do prowadzenia polityki gospodarczej. Zamiast wolnego rynku to ludzie podejmują subiektywne decyzje na temat „zdrowego” poziomu opłat, ile powinni zarabiać górnicy czy jaka powinna być relatywna cena transakcji bitcoin.

 

Użytkownicy obawiają się, że ten plan i nowy kierunek ekonomiczny tak naprawdę zmienia Bitcoina z systemu płatności P2P w miejsce budowy jeszcze nie kompletnych technologii jak łańcuchy boczne czy kanały płatności, wypierając ludzi zwabionych pierwotną wizją „elektronicznego pieniądza P2P”.

W Białej Księdze RootStockRootStock przeczytamy:

 

„Jeżeli wielkość bloku nie wzrośnie przez hardfork, zanim nastąpi kolejne zmniejszenie nagrody, opłaty transakcyjne w sieci Bitcoin mogą być niewspółmiernie wysokie w pewnych zastosowaniach.”

 

Być może jest to nieuniknione. Jednakże, krótkoterminowo mamy rozczarowującą sytuację, w której część deweloperów odwraca się od często wspominanego przez użytkowników, handlowców, giełdy i górników tematu zwiększenia bloku. Zmienia to Bitcoina w wielowarstwowy konflikt interesów natury filozoficznej i ekonomicznej. Jak jest wspominane na liście mailingowej, bezczynność zmienia Bitcoina popychając go w nowy, inny niż zamierzony kierunek.

 

Dobry kierunek

 

Bitcoin nie jest akademickim projektem naukowym. Unikanie trudnych pytań powoduje zauważalne zmiany na rynku. Niewielu ma możliwość wstrzymania się, zanim pojawi się nowy kanał płatności budowany na już istniejącej platformie Bitcoin. Utrzymanie 1M limitu cofa „efekt sieciowy” Bitcoina przez zwiększanie kosztów używania głównego łańcucha i tym samym wypycha użytkowników do scentralizowanych systemów płatności.

 

Lepszy kierunek rozwoju obejmuje szybkie podjęcie decyzji o natychmiastowym zwiększeniu bloku, rozmowy z użytkownikami o badaniu nowych wolnorynkowych teorii ekonomicznych i teorii przetrwania rynku oraz rozmowy z użytkownikami na temat ryzyka i możliwych negatywnych efektów utrzymania limitu 1M.

 

Pojemność bloku oraz warunki brzegowe kosztów weryfikacji są kluczowe (Chodzi o zapotrzebowanie na moc obliczeniową/pamięć przy weryfikacji nowych (większych) bloków, testowo/celowo zapchanych przez skomplikowane transakcje.). Pozytywną stroną konferencji Scaling Bitcoin jest konsensus 2M z wprowadzeniem pewnych poprawek weryfikacji DoS.

 

SW może być wprowadzane równolegle, zakładając że ta zmiana jest prosta lub złagodzi to problemy ekonomiczne opisane wcześniej.

 

I wreszcie, aby długoterminowo usunąć ryzyko moralne, maksymalna wielkość bloku powinna być dynamiczna, wpisana w oprogramowanie, poza zasięgiem ludzi.

Bitcoin zasługuje na plan, który zbalansuje potrzeby wszystkich tych, którzy ciężko pracowali przez ostatnie sześć lat nad budową tego ekosystemu.

 

JG&GA


(Koniec tłumaczenia)
 
 

Wnioski i konkluzje.

 

Developerzy Bitcoin Core nie chcą (odwlekają w czasie) zwiększenia maksymalnej wielkości bloku choć jest to zgodne z założeniami twórcy Bitcoina czyli samego Satoshi Nakamoto który ustawił limit na 1MB wyłącznie w celu zabezpieczenia sieci przed atakami DoS. Jednak całkowicie dopuszczał zwiększenie tego limitu gdy nadejdzie taka potrzeba, co dzieje się właśnie w tym momencie. Sztuczne podtrzymywanie wielkości bloku na poziomie 1MB zwiększa koszty transakcyjne (prowizje), gdyż przy pełnym bloku najszybciej zostaną potwierdzone transakcje z wysoką prowizją. Użytkownicy którym zależy na szybkim potwierdzeniu muszą więc uiszczać większe opłaty.

 

Założeniem Satoshiego Nakamoto był samoregulujący się rynek podczas gdy obecnie to ludzie (developerzy) – a nie bezpośrednio wolny rynek decydują o ekonomi Bitcoina. Najlepszym rozwiązaniem jest więc algorytm który automatycznie dopasowywałby maksymalną wielkość bloku do aktualnych potrzeb lub przynajmniej automatyczne zwiększenie bloku bo X blokach tak jak obecnie jest ze zmniejszeniem nagrody za blok.

 

Jeff Garzik i Gavin Andresen nie krytykują samego pomysłu Segregated Witness oraz łańcuchów bocznych lecz sam fakt, że zamiast być dodatkową funkcjonalnością stają się alternatywą dla zwiększenia maksymalnej wielkości bloku. SW oraz w szczególności łańcuchy boczne są świetnym rozwiązaniem jednak pod warunkiem, że zaistnieją obok (a nie zamiast) zwiększenia maksymalnej wielkości bloku. Intencje developerów Bitocin Core nie są w tej kwestii jasne i klarowne.

 

Developerzy Bitcoin Core uważają w tym momencie, że samo zwiększenie wielkości bloku jeszcze nie jest koniecznie a hardfork powinno odwlec się w czasie najbardziej jak to możliwe. Tu trzeba dodać, że łańcuchy boczne i tak będą wymagać hardforka więc byłaby to świetna okazja do zwiększenia maksymalnego rozmiaru bloku czy dodania nowego algorytmu regulującego. Jednak nie znamy nawet przybliżonej daty kiedy mogłoby się to stać a sama sieć wykorzystana jest już średnio w 70-80% (jednak SW powinno zmniejszyć wykorzystanie sieci do ~30-40%). Developerzy Bitocin Core liczą, że to SW da im czas na wprowadzenie poważniejszych zmian (które nie są zaplanowane na 2016 rok), Jeff Garzik i Gavin Andresen są zaś przekonani, że zwiększenie już teraz maksymalnej wielkości bloku byłoby najlepszą opcją.

 

 

Fotografia na licencji Creative Commons: Flickr.com