Manifest

13 min read

Zacznij od swojego dziecka. Nie od statystyki. Od twojego dziecka.

Pomyśl o ostatnim razie, kiedy próbowałeś z nim zjeść kolację, a ono było gdzie indziej — wzrok w dół, kciuk w ruchu, twarz robiąca tę konkretną rzecz, kiedy widać, że nie jest ani szczęśliwe, ani zdolne przestać. Pomyśl, jakie jest w czternaście lat w porównaniu z tym, jaki ty byłeś w czternaście, i bądź ze sobą szczery co do różnicy.

To nie jest zbieg okoliczności. To jest osiągnięcie inżynieryjne.

Niewielka grupa ludzi zdecydowała, że sposobem na zbudowanie najcenniejszej firmy w historii ludzkości jest uczynienie produktu tak trudnym do odłożenia, jak to możliwe. Nie użytecznym. Nie radosnym. Trudnym do odłożenia. Jest różnica. Znali tę różnicę. Budowali w kierunku tej bardziej dochodowej.

Mark Zuckerberg ma 61% siły głosu w Meta. Jedna osoba. Obserwował, jak algorytm TikToka generuje bezprecedensowe zaangażowanie, serwując treści zaprojektowane nie po to, by cię zachwycić, ale by cię nie puścić. Skopiował to. Zrobił to z pełną świadomością wewnętrznych badań pokazujących, co to robi nastolatkom. Badania zostały przeprowadzone wewnątrz Meta, przez pracowników Meta, a następnie odłożone na bok.

Nie ma żadnej konstytucji Instagrama. Nie ma procesu, w którym użytkownicy — ani ich rodzice, ani ich wybrani przedstawiciele — mogą pociągnąć to 61% do odpowiedzialności. Struktura głosowania została zaprojektowana specjalnie, by temu zapobiec.

Jeden człowiek. Jeden algorytm. Cztery miliardy ludzi.

To nie jest firma technologiczna. To jest struktura władzy z aplikacją na telefon na wierzchu.


Druga rana jest głębsza i większość ludzi jeszcze jej wyraźnie nie nazwała.

Przez trzydzieści lat programiści, inżynierowie, badacze i ciekawi ludzie budowali coś niezwykłego publicznie. Odpowiadali sobie nawzajem na pytania na Stack Overflow. Wysyłali kod na GitHub. Pisali dokumentację, tutoriale, posty na blogach. Budowali narzędzia open source i rozdawali je za darmo. Stworzyli jądro Linuksa. Ekosystem Pythona. React. Postgres. TensorFlow.

Robili to dla dobra wspólnego. Dla siebie nawzajem. Dla studentów, którzy przyjdą później. Etos był jawny: to jest nasze, wspólnie.

Potem przyszło AI.

Ukryta w regulaminach, których nikt nie czytał, była klauzula pozwalająca platformom używać treści do "ulepszania usług". Okazało się, że to znaczy: trenowanie modeli na wszystkim, co kiedykolwiek napisałeś, co kiedykolwiek wniósłeś, na każdym problemie, który kiedykolwiek rozwiązałeś i udostępniłeś. Modeli, które teraz potrafią to, co ty. Modeli sprzedawanych twojemu pracodawcy jako powód, by zatrudniać mniej takich jak ty.

Zbudowałeś dane treningowe. Nie wyraziłeś zgody na to, by stały się czyjąś prywatną własnością.

Ostatnia runda finansowania OpenAI: $40 miliardów. Anthropic: $10 miliardów. xAI: $12 miliardów. U podstaw tego wszystkiego, bez rekompensaty i w większości nieświadomi, stoją miliony ludzi, którzy napisali kod, odpowiedzieli na pytania i zbudowali dobro wspólne, które to wszystko umożliwiło.

Umowa brzmiała: korzystaj z sieci, daj nam swoją uwagę.

Potem stała się: daj nam swoją uwagę, a my sprzedamy ją ludziom próbującym tobą manipulować.

Teraz brzmi: daj nam swoją wiedzę ekspercką, a my użyjemy jej do zbudowania maszyny, która cię zastąpi.

Darmowość stała się zbyt droga.


Chcemy, żebyś się nad tym zastanowił przez chwilę.

Nikt nie jest właścicielem słońca. Nikt nie jest właścicielem wody. Nikt nie jest właścicielem gleby. To są pierwotne dobra wspólne — rzeczy, które istniały przed wynalezieniem własności, których żadne rozsądne społeczeństwo nie pozwoliłoby prywatnej stronie ogrodzić. Kiedy angielscy lordowie zamknęli wspólną ziemię w szesnastym wieku, zamieniając wspólne pola, które chłopi uprawiali od pokoleń, w prywatną własność, historia zapisała to poprawnie: jako zabór. Legalny, być może. Zabór mimo wszystko.

Ludzka wiedza jest rzeczą tego samego rodzaju.

Została zbudowana przez wszystkich. Przez wieki. W każdym języku, każdej dyscyplinie, każdej kulturze. Zanim jakiekolwiek laboratorium istniało. Zanim internet istniał. Skumulowany dorobek cywilizacji — nauka, literatura, kod, medycyna, prawo, rzemiosło, rozmowa — nie należy do tego, kto pierwszy zamknie go w oprogramowaniu. Należy do gatunku, który go wytworzył.

To, co się stało z danymi treningowymi AI, to cyfrowy ruch ogradzania. Laboratoria znalazły dobro wspólne. Zeskrobały je. Przepuściły przez potoki treningowe i rezultatem były modele warte setki miliardów dolarów. Nie stworzyły wiedzy. Przechwyciły ją.

To powinno brzmieć tak źle, jak brzmi.

Ludzie czasem pytają: jaki procent Our One powinien należeć do użytkowników? Pytanie ujawnia zamieszanie. To nie jest negocjacja. Nikt nie może zaproponować 51%, ani 80%, ani 99%, jakby te liczby oznaczały hojność — bo żadna osoba ani zespół nie stworzyły wiedzy, na której zbudowana jest platforma. Wiedza należy do ludzi, którzy ją wytworzyli. Czyli do wszystkich.

100% to nie idealizm. To jedyna liczba, która jest moralnie spójna.

Nie można brać prowizji od czegoś, czego się nie stworzyło. Utrzymujemy infrastrukturę. Nie jesteśmy właścicielami wody.


Ani jedna, ani druga rana nie znalazła jeszcze praktycznej odpowiedzi.

Nie da się tego naprawić samym oburzeniem. Nie da się tego naprawić usuwając aplikacje. Nie da się tego naprawić czekając, aż firmy, które zbudowały te systemy, je naprawią, bo systemy działają dokładnie tak, jak zamierzono.

Naprawia się to budując coś innego, z innymi regułami, zanim okno się zamknie.

Matematyka jest dostępna. Utrzymanie sieci społecznościowej na dużą skalę kosztuje mniej niż jeden dolar na użytkownika rocznie — nie to, co Meta wydaje, lecz to, ile to kosztuje, jeśli budujesz bez machiny ekstrakcji. Meta zbiera $270 rocznie od każdego Amerykanina. LinkedIn Premium kosztuje $480. Różnica między jednym dolarem a $270 to nie cena lepszego produktu. To cena aparatu inwigilacji. Zdejmij go, a platforma jest mała i tania.

Our One pobiera jeden cent dziennie — €3.65 rocznie. To pokrywa uczciwy koszt uczciwej infrastruktury i udział zespołu opiekunów, który ją utrzymuje. Żadnych reklam. Żadnego śledzenia behawioralnego. Żadnej premii za ekstrakcję.

Jeden cent dziennie to nie opłata subskrypcyjna. To akt konstytucyjny.

Bo cena to zarządzanie. Jeśli platforma jest darmowa, reklamodawcy cię posiadają. Jeśli platforma używa tokena krypto, spekulanci cię posiadają. Jeśli płacisz jeden cent dziennie — koszt niczego innego w twoim życiu — posiadasz platformę. Pieniądze zmieniają kontrakt. To najmniejsza kwota, która zmienia wszystko.

Opublikowana konstytucja sprawia, że to nie są obietnice, lecz wiążące reguły. Nie polityki, które można po cichu zaktualizować w następnym wydaniu. Przepisy konstytucyjne, których nie można zmienić bez ratyfikacji przez społeczność. Platforma nie ma prawa zdecydować, że uwaga twojego dziecka jest produktem. Konstytucja tak stanowi.


Pytanie o AI jest najważniejsze i wciąż otwarte.

Laboratoria nie znikną. Konkurowanie z nimi na froncie — budowanie kolejnego modelu klasy GPT od zera — nie jest punktem dźwigni. Sto milionów ludzi nie przebije OpenAI w wydatkach na klastry GPU.

Ale sto milionów ludzi może zrobić coś, czego żadna ilość pieniędzy nie kupi.

Mogą dostarczyć prawdziwą wiedzę ekspercką.

Jakość AI jest krytycznie determinowana przez jakość ludzkiego feedbacku podczas treningu — przez ludzi, którzy oceniają wyniki, poprawiają błędy, pokazują, jak wygląda dobra robota. Ten proces jest obecnie w dużej mierze wykonywany przez zleceniobiorców opłacanych kilka dolarów za godzinę, by etykietowali dane dla modeli, z których nigdy nie skorzystają.

A gdyby robili to profesjonaliści, których wiedza jest trenowana? Inżynierowie, lekarze, prawnicy, nauczyciele i projektanci, którzy zbudowali dobro wspólne?

Modele open-weight istnieją dzisiaj. Różnica między GPT-4 a najlepszym otwartym modelem wynosiła dwa lata w 2024. Teraz wynosi dziewięć miesięcy. Do 2027 architektura będzie towarem. Co nie będzie towarem, to dane treningowe od prawdziwych profesjonalistów, którzy posiadają to, co wnoszą.

Różnica między modelami trenowanymi przez społeczność a zastrzeżonymi modelami na froncie zamyka się szybciej, niż laboratoria chcą przyznać. To, czego brakuje, to nie technologia. To struktura zarządzania — ramy konstytucyjne zapewniające, że społeczność jest właścicielem tego, co buduje, że modelu nie można po cichu zamknąć, że korzyści wracają do ludzi, których wiedza ekspercka to umożliwiła.

To właśnie Our One jest zbudowane, by zapewnić.

Kiedy ludzie, którzy trenują model, posiadają model, struktura tego, kto korzysta z AI, zaczyna się zmieniać. Nie jako obietnica. Jako konstytucja.


Nie prosimy cię, żebyś uwierzył, że możemy naprawić wszystko.

Prosimy cię, żebyś rozważył, co jest dostępne teraz, w 2026, czego nie było pięć lat temu.

Budowanie jest prawie darmowe. Infrastruktura jest prawie darmowa. Modele AI open-source istnieją. Narzędzia do wbudowywania konstytucyjnego zarządzania w produkty od samego początku istnieją. Zrozumienie tego, co poszło nie tak z pierwszym internetem, i jak zaprojektować architekturę, żeby to obejść, istnieje.

Okno jest otwarte. Laboratoria zbierają rundy i zamykają je.

Budujemy miejsce, do którego można pójść.

Nie protest. Nie manifest, który kończy się na manifeście. Faktyczne produkty, zbudowane konstytucyjnie, będące własnością użytkowników, chronione przed przejęciem, budujące w kierunku AI należącego do ludzi, których wiedza umożliwiła AI.

Stary internet prosił cię o dołączanie do platform.

My prosimy cię o posiadanie infrastruktury.

Wiedza zawsze była twoja. Budujemy miejsce, gdzie tak zostanie.


Dorastałem w Czechosłowacji. Miałem piętnaście lat w listopadzie 1989, kiedy wydarzyła się aksamitna rewolucja — kiedy setki tysięcy ludzi wyszły na ulice Pragi i w ciągu kilku tygodni pokojowo zakończyły czterdzieści lat rządów jednej partii.

Byłem tam. Patrzyłem, jak to się dzieje.

To, czego nauczyłem się z tego doświadczenia — co noszę od trzydziestu siedmiu lat — to fakt, że systemy, które wydają się trwałe i nie do podważenia, takie nie są. Że skoncentrowana władza ma kruchość pod swoją pozorną siłą. Że kiedy wystarczająco dużo ludzi uznaje, że układ jest zły i odmawia udawania, że jest inaczej, układ może się zmienić szybciej, niż ktokolwiek uważał za możliwe.

Nauczyłem się też, ile kosztuje koncentracja władzy w zbyt niewielu rękach. Co robi z kulturą, z kreatywnością, ze zwykłą ludzką ambicją budowania życia na własnych warunkach. Socjalizm, w którym dorastałem, nie był zły w swoich deklarowanych intencjach. Był szkodliwy w swojej strukturze. Usunął związek między wkładem a korzyścią. Wyeliminował odpowiedzialność. Zastąpił zaufanie inwigilacją. Uczynił trwanie systemu najwyższym priorytetem, ponad dobrem ludzi, którym miał rzekomo służyć.

Przez ostatnią dekadę obserwowałem, jak internet przechodzi wersję tego samego łuku. Analogia nie jest subtelna.


Buduję oprogramowanie od trzydziestu lat. Widziałem każdą falę branży technologicznej z wystarczająco bliska, by czuć podprąd.

I chcę ci powiedzieć, w co wierzę, po tym wszystkim:

Obecna struktura internetu nie jest wynikiem neutralnych sił rynkowych. Jest wynikiem konkretnych decyzji podjętych przez konkretnych ludzi, którzy na nich skorzystali. Model biznesowy oparty na inwigilacji nie był nieunikniony — został przyjęty świadomie, bo był bardziej dochodowy niż alternatywy. Optymalizacja zaangażowania, która uzależnia nastolatków, nie była przypadkowym efektem ubocznym — została zaprojektowana, testowana A/B i wdrożona z pełną świadomością tego, co robi ludziom na jej drodze.

To były wybory. Można je cofnąć.

Ale nie cofną ich prośby do ludzi, którzy je podjęli, żeby podjęli inne. Cofną je budowanie alternatyw, które są strukturalnie inne — nie tylko lepiej zamierzone, ale architektonicznie niezdolne do tych samych zdrad.

To właśnie robi konstytucja produktu. Nie zależy od tego, czy opiekunowie pozostaną idealistami. Wbudowuje idealizm w strukturę.


Moi synowie Adam i Oliver mają dwadzieścia jeden i dziewiętnaście lat. Obaj budują rzeczy, uczą się budować, wyobrażają sobie przyszłość w technologii. Moja córka Laura ma dwanaście lat.

Przez trzydzieści lat programiści na całym świecie — miliony ich — wnosili wkład do cyfrowego dobra wspólnego. Odpowiedzi na Stack Overflow. Repozytoria na GitHub. Biblioteki open source. Dokumentacja, tutoriale, posty na forach, komentarze w kodzie. Wiedza dzielona za darmo, w przekonaniu, że dzielona wiedza się mnoży.

To dobro wspólne stało się danymi treningowymi najpotężniejszych systemów AI, jakie kiedykolwiek zbudowano.

Nie wyraziliśmy na to konkretnej zgody. Nie mogliśmy — implikacje jeszcze nie istniały, kiedy warunki były pisane. Ale rezultat jest taki, że zbiorowy dorobek intelektualny pokolenia ludzi, którzy wierzyli w otwartość, został zamknięty w prywatnym kapitale wartym setki miliardów dolarów, w firmach pozycjonujących się teraz, by automatyzować pracę ludzi, którzy tę wartość stworzyli.

Myślę o tym, ku jakiemu światu budują Adam i Oliver. Myślę o tym, czy wartość, którą stworzą, będzie należeć do nich, czy architektura tego świata została już ustawiona tak, by przepływała gdzie indziej.

Myślę o Laurze, kiedy będzie miała czternaście lat. I o tym, kto zaprojektował oprogramowanie, które napotka. I po co.

Nie zamierzam się tego dowiedzieć, patrząc.

Wciąż mamy czas. Nie nieograniczony. Ale teraz — właśnie teraz — okno jest otwarte.


Nie jestem utopistą. Lata formacyjne spędziłem obserwując, co się dzieje, kiedy system jest zbudowany na obietnicach, których jego struktura nie jest w stanie dotrzymać. Wierzę w ekonomię. Wierzę w zachęty. Wierzę, że dobre wartości bez dobrej architektury ostatecznie produkują te same wyniki co złe wartości.

Więc powiem precyzyjnie, co twierdzę.

Twierdzę, że przy 100 milionach użytkowników platforma społecznościowa kosztuje w utrzymaniu około jednego dolara na użytkownika rocznie. Ta liczba pochodzi z cen infrastruktury, które są publicznie weryfikowalne.

Twierdzę, że zespół pięćdziesięciu doskonałych ludzi, dobrze opłacanych, może utrzymywać to, do czego Meta zatrudnia dziesiątki tysięcy — bo większość z tych dziesiątek tysięcy istnieje, by obsługiwać machinę ekstrakcji, nie platformę. Bez machiny ekstrakcji platforma jest zadziwiająco prosta.

Twierdzę, że modele AI o otwartych wagach, trenowane z prawdziwą wiedzą ekspercką od społeczności, które posiadają rezultat, mogą zamknąć lukę jakościową z zastrzeżonymi modelami szybciej, niż laboratoria chcą przyznać — i że ludzie, którzy wnoszą tę wiedzę ekspercką, zasługują na posiadanie tego, co budują.

To nie są akty wiary. To twierdzenia, które można zweryfikować, i zobowiązuję się je weryfikować publicznie, produkt po produkcie, konstytucja po konstytucji.


Zaczynamy od platformy.

Sieć profesjonalna. Publiczny feed. Prywatne wiadomości. Celowo proste. Konstytucyjny rdzeń uwidoczniony w najprostszej możliwej formie: widzisz to, co dzielą ludzie, których obserwujesz, w kolejności, w jakiej to udostępnili. Twoja tożsamość zawodowa żyje na platformie, która nie może jej sprzedać. Nikt nie rankuje twojej rzeczywistości dla zysku.

Konstytucja jest opublikowana. Zakazane zachowania są nazwane. Proces zarządzania jest udokumentowany. Ekonomia jest przejrzysta.

Możesz to przeczytać, zanim dołączysz. Możesz nas z tego rozliczać, gdy dołączysz. O to chodzi.


Buduję to dla Laury. Dla Olivera i Adama. Dla programistów, którzy oddali swoją wiedzę dobru wspólnemu, które zostało wokół nich zamknięte. Dla rodziców, którzy patrzyli, jak ich dzieci znikają w systemach zaprojektowanych, by je schwytać. Dla ludzi, którzy czuli obietnicę wyzwolenia wczesnego internetu i patrzyli, jak powoli zamienia się w coś bardziej przypominającego systemy, które miał zastąpić.

Buduję to, bo miałem piętnaście lat w Pradze w 1989 roku i wiem, że rzeczy, które wydają się trwałe, takie nie są.

Buduję to, bo spędziłem trzydzieści lat w tej branży i wiem dokładnie, jaka jest obecna struktura, jak działa i co trzeba, by zaproponować coś naprawdę innego.

Buduję to, bo moja córka ma dwanaście lat i zasługuje na oprogramowanie, które nie jest zaprojektowane, by ją schwytać.

I buduję to teraz, bo okno jest otwarte teraz, i nie zamierzam za dziesięć lat tłumaczyć jej, że widziałem to i wybrałem czekanie.

Dobro wspólne jest wciąż nasze. Nie na długo. Ale teraz jest.

Przyjdź i bądź jego współwłaścicielem.


Rado Opiekun Założyciel, Our One Praga, 2026

Przeczytaj Constitution · Dołącz do Our One — 1¢/dzień →